JP6720909B2 - Action detection device, method and program, and monitored person monitoring device - Google Patents

Action detection device, method and program, and monitored person monitoring device Download PDF

Info

Publication number
JP6720909B2
JP6720909B2 JP2017055687A JP2017055687A JP6720909B2 JP 6720909 B2 JP6720909 B2 JP 6720909B2 JP 2017055687 A JP2017055687 A JP 2017055687A JP 2017055687 A JP2017055687 A JP 2017055687A JP 6720909 B2 JP6720909 B2 JP 6720909B2
Authority
JP
Japan
Prior art keywords
monitored person
image
action
action detection
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017055687A
Other languages
Japanese (ja)
Other versions
JP2017168105A5 (en
JP2017168105A (en
Inventor
敏行 山下
敏行 山下
山下 雅宣
雅宣 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JP2017168105A publication Critical patent/JP2017168105A/en
Publication of JP2017168105A5 publication Critical patent/JP2017168105A5/ja
Application granted granted Critical
Publication of JP6720909B2 publication Critical patent/JP6720909B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Emergency Management (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Emergency Alarm Devices (AREA)

Description

本発明は、監視すべき監視対象である被監視者における所定の行動を検知する行動検知装置、行動検知方法および行動検知プログラムに関する。そして、本発明は、この行動検知装置を用いた被監視者監視装置に関する。 The present invention relates to an action detection device, an action detection method, and an action detection program that detect a predetermined action of a monitored person who is a monitoring target to be monitored. The present invention also relates to a monitored person monitoring device using this behavior detection device.

我が国(日本)は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。また、2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、病気や怪我や高齢等による看護や介護を必要とする要看護者や要介護者(要看護者等)は、高齢化社会ではない通常の社会で生じる要看護者等よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、看護や介護の必要な高齢者を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。 Japan (Japan) is an aging society, more specifically the ratio of the population aged 65 and over to the total population due to the improvement of living standards, the improvement of hygiene environment and the improvement of medical care, etc. accompanying the post-war high economic growth. It is a super-aging society with an aging rate of over 21%. In 2005, the total population was 127.65 million, but the number of elderly people aged 65 and over was 255.6 million, while in 2020, the total population was 124.11 million. It is predicted that the elderly population will be approximately 3,456,000. In such an aging society, those requiring nursing care or those requiring nursing care (such as those requiring nursing care) due to illnesses, injuries, or aging, etc. It is expected to increase more than the above. And Japan is also a declining birthrate society with a total fertility rate of 1.43 in 2013, for example. For this reason, elderly care is also occurring in which elderly families (spouse, children, brothers) care for the elderly who need nursing or care.

要看護者や要介護者は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの問題がある。このような事態に対し、可及的速やかに対応する必要があり、また、このような事態を放置しておくとさらに大きな問題に発展してしまう可能性もあるため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。 Nurses and care recipients enter a facility such as a hospital or a welfare facility for the elderly (short-term nursing home for the elderly, nursing home for the elderly and nursing home for the elderly, etc. under Japanese law) to receive nursing and care. In such a facility, there is a problem that a nurse or the like suffers an injury due to a fall from a bed, a fall while walking, or the like, getting out of the bed and wandering around. It is necessary to respond to such a situation as soon as possible, and if such a situation is left untreated, it may develop into a larger problem. And caregivers check the safety and the situation by regularly patrol.

しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。 However, the increasing number of nurses and the like cannot keep up with the increasing number of nurses and the like, and the nursing industry and the nursing care industry are chronically short of labor. Further, the number of nurses, caregivers and the like decreases in the semi-night shift and night shift hours compared to the day shift hours, and the work load per person increases. Therefore, it is required to reduce the work load. In addition, the situation of the old-age care is not an exception even in the above-mentioned facilities, and it is often seen that an elderly nurse or the like takes care of an elderly nurse or the like. In general, physical strength deteriorates as the person gets older, so even if they are healthy, the burden of nursing, etc. will be heavier than that of young nurses, and their movements and judgments will be slow.

このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視装置が研究、開発されている。 In order to reduce such labor shortage and the burden on nurses and the like, there is a demand for technology that complements nursing work and nursing care work. For this reason, in recent years, a monitored person monitoring device for monitoring (monitoring) a monitored person, such as a nurse requiring care, to be monitored has been studied and developed.

このような技術の一つとして、例えば特許文献1に開示された人体検知装置や特許文献2に開示された画像処理装置がある。この特許文献1に開示された人体検知装置は、被監視者の部屋の床面を撮像する撮像カメラと、撮像カメラの撮像範囲を複数の領域に分離識別し各領域での被監視者の存在および動作を検知する検知領域判断部と、この検知領域判断部での被監視者の存在および動作に関する検知結果を基にして、所定の領域で、もしくは所定の領域とその隣接領域にわたって、被監視者が所定の状態にあることを検知すると、監視者側へ異常発生の旨の発報を行なう判定処理部とを備える。そして、前記検知領域判断部には、前記複数の領域の一種として、被監視者の部屋の床面上の寝台が存在するベッド領域と、少なくともこのベッド領域を除き被監視者の部屋の床面をあらわし前記所定の領域である床領域とを設定してあり、前記判定処理部は、被監視者がベッド領域から床領域へ移動したことを検知すると監視者側へ被監視者離床の旨の異常発報を行なう。 As one of such techniques, for example, there are a human body detection device disclosed in Patent Document 1 and an image processing device disclosed in Patent Document 2. The human body detection device disclosed in Patent Document 1 includes an imaging camera that captures an image of the floor surface of a monitored person's room, and an imaging range of the imaging camera that is separated and identified into a plurality of areas, and the monitored person exists in each area. Based on the detection area determination unit that detects the movement and the movement, and the detection result regarding the presence and movement of the person being monitored by the detection area determination unit, the area to be monitored is monitored in a predetermined area or over a predetermined area and its adjacent area. When a person detects that the person is in a predetermined state, a determination processing unit that issues a warning to the observer side that an abnormality has occurred is provided. Then, the detection area determination unit, as a kind of the plurality of areas, a bed area in which the bed on the floor of the monitored person exists, and a floor surface of the monitored person's room except at least this bed area. And a floor area that is the predetermined area is set, and the determination processing unit, upon detecting that the monitored person has moved from the bed area to the floor area, notifies the monitored person that the monitored person has left the bed. Report abnormalities.

前記特許文献2に開示された画像処理装置は、撮影を行う撮像カメラと、室内斜め上方から室内下方に向けて前記撮像カメラにより撮影された画像情報に基づいて人の離床、入床を判断する画像処理部と、を備える画像処理装置であって、前記画像処理部は、前記画像情報のうち、室内床面上に設置されたベッドが占有する領域であるベッド領域と、床面の領域で前記ベッドが置かれる領域以外の床面領域と、を識別可能であるともに、前記ベッドの外形下辺を表わす境界辺を通過して、前記床面領域から前記ベッド領域への人体移動を検知すると、入床事象と判断し、前記境界辺を通過して、前記ベッド領域から前記床面領域への人体移動を検知すると、離床事象と判断する。 The image processing device disclosed in Patent Document 2 determines whether a person leaves the bed or enters the bed based on an image capturing camera that performs image capturing and image information captured by the image capturing camera from diagonally above the room to below the room. An image processing device comprising: an image processing unit, wherein the image processing unit includes a bed area, which is an area occupied by a bed installed on an indoor floor surface, and an area of the floor surface in the image information. A floor area other than the area in which the bed is placed, and also, it is possible to identify the movement of the human body from the floor area to the bed area while passing through a boundary side that represents the lower side of the outer shape of the bed, When it is determined that the human body is moving in from the bed area to the floor area after passing through the boundary side, it is determined that the human body is out of bed.

一方、安否確認の点では、一人暮らしの独居者も前記要看護者等と同様であり、監視対象である被監視者となる。 On the other hand, in terms of confirmation of safety, a single person living alone is the same as the nursing-needed person or the like, and is a monitored person who is a monitoring target.

特開2001−307246号公報JP 2001-307246 A 特開2002−230533号公報JP, 2002-230533, A

前記特許文献1に開示された人体検知装置は、前記特許文献1の図1に示されているように、部屋の床面全面を撮像できるように天井の略中央位置に撮像カメラが配設されていることを前提に、離床を判定している。前記特許文献2に開示された画像処理装置は、室内斜め上方から室内下方に向けて撮影できるように撮像カメラが配設されていることを前提に、入床および離床それぞれを判定している。 In the human body detection device disclosed in Patent Document 1, as shown in FIG. 1 of Patent Document 1, an imaging camera is arranged at a substantially central position of a ceiling so that the entire floor surface of a room can be imaged. I have decided to leave the bed. The image processing apparatus disclosed in Patent Document 2 determines whether the user enters the floor or leaves the floor, on the assumption that an image pickup camera is provided so that the image can be taken from the diagonally upper side of the room toward the lower side of the room.

ところで、部屋のサイズ(大きさ)や形状は、実際には、様々であり、前記天井の略中央位置や前記室内斜め上方から室内下方に向けて撮影できる位置にカメラが配設できるとは限らない。このため、前記前提を欠くと、前記特許文献1に開示された人体検知装置や前記特許文献2に開示された画像処理装置は、前記離床の判定や前記入床および離床それぞれの判定における精度が低下してしまう。 By the way, the size (size) and shape of the room are actually various, and it is not always possible to arrange the camera at a position approximately at the center of the ceiling or at a position where the room can be photographed from obliquely above the room to below the room. Absent. Therefore, if the above assumption is omitted, the human body detection device disclosed in Patent Document 1 and the image processing device disclosed in Patent Document 2 have high accuracy in the determination of the leaving of the bed and the determination of each of the entrance and the leaving. Will fall.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる行動検知装置、行動検知方法および行動検知プログラム、ならびに、この行動検知装置を用いた被監視者監視装置を提供することである。 The present invention has been made in view of the above circumstances, and an object thereof is action detection capable of detecting a predetermined action of a person to be monitored with high accuracy regardless of the position where the camera is placed. An apparatus, an action detection method and an action detection program, and a monitored person monitoring device using the action detection device.

本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置では、監視対象である被監視者を、その上方から撮像した画像が取得され、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムが選択され、この選択された行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動が検知される。 In the action detection device, the action detection method, the action detection program, and the monitored person monitoring device according to the present invention, an image of the monitored person being monitored is captured from above, and a predetermined action in the monitored person is performed. From among a plurality of different action detection algorithms for detecting the action, the action detection algorithm is selected based on the positional relationship between the camera that captured the image and a set region that is a predetermined region in the image, and this selection A predetermined action in the monitored person is detected on the basis of the image by the action detection algorithm.

本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置は、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 INDUSTRIAL APPLICABILITY The behavior detection device, the behavior detection method, the behavior detection program, and the monitored person monitoring device according to the present invention can detect a predetermined behavior of the monitored person with higher accuracy, regardless of the installation position of the camera. ..

上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。 The above, and other objects, features and advantages of the present invention will be apparent from the following detailed description and the accompanying drawings.

実施形態における被監視者監視システムの構成を示す図である。It is a figure which shows the structure of the to-be-monitored person monitoring system in embodiment. 実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system of embodiment. 前記センサ装置で用いられる設定領域および行動検知線を説明するための図である。It is a figure for demonstrating the setting area|region and action detection line which are used by the said sensor apparatus. 前記設定領域に対するカメラの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of the camera with respect to the said setting area. 前記センサ装置で用いられる前記カメラの位置関係を求める手法を説明するための図である。It is a figure for demonstrating the method of calculating|requiring the positional relationship of the said camera used with the said sensor apparatus. 前記センサ装置で用いられるXn用の行動検知アルゴリズムを示すメインルーチンのフローチャートである。It is a flowchart of the main routine which shows the action detection algorithm for Xn used by the said sensor apparatus. 前記Xn用の行動検知アルゴリズムにおけるXn用の起床判定アルゴリズムを示すサブルーチンのフローチャートである。7 is a flowchart of a subroutine showing an Xn wakeup determination algorithm in the Xn action detection algorithm. 前記Xn用の行動検知アルゴリズムにおけるXn用の離床判定アルゴリズムを示すサブルーチンのフローチャートである。It is a flowchart of the subroutine which shows the leaving determination algorithm for Xn in the action detection algorithm for Xn. 前記カメラの位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and leaving-bed determination method which are used by the action detection algorithm for direct above used when the positional relationship of the said camera is immediately above. 前記カメラの位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and leaving-bed determination method used with the front action detection algorithm used when the positional relationship of the said camera is this side. 前記カメラの位置関係が横である場合に用いられる横用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and leaving-bed determination method used with the horizontal action detection algorithm used when the positional relationship of the said camera is horizontal. 前記カメラの位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and leaving-bed determination method used with the back action detection algorithm used when the positional relationship of the said camera is the back. 前記カメラの位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and leaving-bed determination method used by the action detection algorithm for diagonal fronts used when the positional relationship of the said camera is diagonally front. 前記カメラの位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and leaving-bed determination method used by the action detection algorithm for diagonal depths used when the positional relationship of the said camera is diagonal depths. 前記センサ装置の動作を示すメインルーチンのフローチャートである。6 is a flowchart of a main routine showing the operation of the sensor device. 図15に示すメインルーチンで用いられる行動検知の動作を示すサブルーチンのフローチャートである。16 is a flowchart of a subroutine showing an action detecting operation used in the main routine shown in FIG. 15. 前記カメラの位置関係が複数の基本位置関係それぞれの重みで表された場合の前記重みの演算手法を説明するための図である。It is a figure for demonstrating the calculation method of the said weight when the positional relationship of the said camera is represented by each weight of several basic positional relationship.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 An embodiment of the present invention will be described below with reference to the drawings. In addition, in each of the drawings, the components denoted by the same reference numerals indicate the same components, and the description thereof will be appropriately omitted. In the present specification, reference numerals without suffixes are used for generic names, and reference numerals with suffixes are used when referring to individual configurations.

本被監視者監視装置は、監視対象である被監視者における、予め設定された所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備えるものである。そして、前記行動検知部は、前記被監視者を、前記被監視者の上方から撮像した画像に基づいて所定の行動検知アルゴリズムで前記被監視者における所定の行動を検知する。このような被監視者監視装置は、1個の機器として、一体に構成されて実現されて良く、また、システムとして、複数の機器で実現されて良い。そして、被監視者監視装置が複数の機器で実現される場合に、前記行動検知部は、これら複数の機器のうちのいずれに実装されて良い。一例として、ここでは、前記被監視者監視装置がシステムとして複数の機器で実現されている場合について、前記被監視者監視装置の実施形態を説明する。なお、前記被監視者監視装置が1個の機器として一体に構成されて実現される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。また、一例として、ここでは、前記行動検知部が前記通知部と共に後述のセンサ装置SUに実装される場合について、説明するが、このシステムのうちの他の装置、例えば後述の管理サーバ装置SV、固定端末装置SPあるいは携帯端末装置TAに実装される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。 The person-to-be-monitored device includes an action detection unit that detects a preset predetermined action in a monitored subject, and a notification unit that externally notifies the predetermined action detected by the action detection unit. And with. Then, the behavior detection unit detects a predetermined behavior of the monitored person by a predetermined behavior detection algorithm based on an image of the monitored person taken from above the monitored person. Such a person-to-be-monitored device may be realized by being integrally configured as one device, or may be realized by a plurality of devices as a system. Then, when the monitored person monitoring device is realized by a plurality of devices, the behavior detection unit may be mounted on any of the plurality of devices. As an example, here, an embodiment of the monitored person monitoring apparatus will be described in the case where the monitored person monitoring apparatus is realized by a plurality of devices as a system. Even in the case where the monitored person monitoring device is integrally configured as one device, the monitored person monitoring device can be configured as in the following description. Further, as an example, a case will be described here in which the action detection unit is mounted on the sensor device SU described later together with the notification unit. However, another device in this system, for example, a management server device SV described later Also in the case of being mounted on the fixed terminal device SP or the mobile terminal device TA, the monitored person monitoring device can be configured in the same manner as the following description.

図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、前記センサ装置で用いられる設定領域および行動検知線を説明するための図である。なお、図3は、これら設定領域および行動検知線を入力するための入力画面の一例でもある。図4は、前記設定領域に対するカメラの位置関係を説明するための図である。図5は、前記センサ装置で用いられる前記カメラの位置関係を求める手法を説明するための図である。図5Aは、画像中心が設定領域(寝具領域)における行動検知線の手前に位置する場合を示し、図5Bは、画像中心が設定領域(寝具領域)内に位置する場合を示す。図6は、前記センサ装置で用いられるXn用の行動検知アルゴリズムを示すメインルーチンのフローチャートである。Xnは、カメラの位置関係であり、本実施形態では、直上、手前、奥、横、斜め前および斜め奥である。図7は、前記Xn用の行動検知アルゴリズムにおけるXn用の起床判定アルゴリズムを示すサブルーチンのフローチャートである。図8は、前記Xn用の行動検知アルゴリズムにおけるXn用の離床判定アルゴリズムを示すサブルーチンのフローチャートである。図9は、前記カメラの位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図9左側は、カメラで取得された画像の一例を示し、図9右側は、図9左側に示す画像から抽出された人体の領域(人体領域)を示す。図10は、前記カメラの位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図11は、前記カメラの位置関係が横である場合に用いられる横用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図12は、前記カメラの位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図13は、前記カメラの位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図14は、前記カメラの位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。これら図10ないし図14において、図の左側は、起床前を示し、図の中央は、起床後を示し、図の右側は、離床後を示す。図11ないし図14において、上段は、カメラで取得された画像の一例を示し、下段は、上段で示す画像から抽出された人体領域を示す。 FIG. 1 is a diagram showing a configuration of a monitored person monitoring system according to the embodiment. FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the embodiment. FIG. 3 is a diagram for explaining a set area and an action detection line used in the sensor device. Note that FIG. 3 is also an example of an input screen for inputting these setting areas and action detection lines. FIG. 4 is a diagram for explaining the positional relationship of the camera with respect to the setting area. FIG. 5 is a diagram for explaining a method for obtaining the positional relationship of the cameras used in the sensor device. FIG. 5A shows a case where the image center is located in front of the action detection line in the setting area (bedding area), and FIG. 5B shows a case where the image center is located in the setting area (bedding area). FIG. 6 is a flowchart of a main routine showing an action detection algorithm for Xn used in the sensor device. Xn is the positional relationship of the cameras, and in the present embodiment, it is immediately above, in front, behind, lateral, diagonally forward, and diagonally deep. FIG. 7 is a flowchart of a subroutine showing an Xn wakeup determination algorithm in the Xn action detection algorithm. FIG. 8 is a flow chart of a subroutine showing a bed leaving determination algorithm for Xn in the action detection algorithm for Xn. FIG. 9 is a diagram for explaining the wakeup determination method and the leaving determination method used in the action detection algorithm for directly above, which is used when the positional relationship of the cameras is directly above. The left side of FIG. 9 shows an example of the image acquired by the camera, and the right side of FIG. 9 shows the region of the human body (human body region) extracted from the image shown on the left side of FIG. 9. FIG. 10 is a diagram for explaining a wake-up determination method and a wake-up determination method used in the front action detection algorithm used when the positional relationship of the cameras is in front. FIG. 11 is a diagram for explaining a wake-up determination method and a wake-up determination method used in a lateral action detection algorithm used when the positional relationship of the cameras is horizontal. FIG. 12 is a diagram for explaining a wake-up determination method and a wake-up determination method used in a back action detection algorithm used when the positional relationship of the cameras is deep. FIG. 13 is a diagram for explaining a wakeup determination method and a wakeup determination method used in a diagonally forward action detection algorithm used when the positional relationship of the cameras is diagonally forward. FIG. 14 is a diagram for explaining a wake-up determination method and a wake-up determination method used in a diagonally-behind action detection algorithm used when the positional relationship of the cameras is diagonally-backward. In FIGS. 10 to 14, the left side of the figure shows before waking up, the center of the figure shows after waking up, and the right side of the figure shows after waking up. 11 to 14, the upper part shows an example of the image acquired by the camera, and the lower part shows the human body region extracted from the image shown in the upper part.

前記被監視者監視装置をシステムとして実現したその一例の被監視者監視システムMSは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、図1に示すように、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備え、これらは、有線や無線で、LAN(Local Area Network)、電話網およびデータ通信網等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ、ルーターおよびクロスコネクト等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SPおよび複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを含む無線LAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。 The monitored person monitoring system MS, which is one example of the monitored person monitoring apparatus implemented as a system, has a monitored person (watched person) Ob (Ob-1) that is a monitored target (watched) to be monitored (watched). To Ob-4), a predetermined behavior set in advance is detected to monitor the monitored person Ob. For example, as shown in FIG. 1, one or a plurality of sensor devices SU (SU-1). ~ SU-4), a management server device SV, a fixed terminal device SP, and one or a plurality of mobile terminal devices TA (TA-1, TA-2), which are wired or wireless, LAN ( Local Area Network), a telephone network, a data communication network, and other networks (networks, communication lines) NW are communicably connected. The network NW may be equipped with repeaters such as repeaters, bridges, routers, and cross-connects that relay communication signals. In the example illustrated in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, and the plurality of mobile terminal devices TA-1 and TA-2 are wireless including an access point AP. A LAN (for example, a LAN conforming to the IEEE 802.11 standard) NW is communicably connected to each other.

被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob. The person to be monitored (person to be watched) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs nursing care due to deterioration of physical ability, or a single person living alone. In particular, from the viewpoint of enabling early detection and early action, the monitored person Ob may be a person who needs to be detected when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable. Therefore, the monitored person monitoring system MS is preferably installed in a building such as a hospital, a welfare facility for the aged, and a dwelling unit according to the type of the monitored person Ob. In the example illustrated in FIG. 1, the monitored-person monitoring system MS is installed in a building of a nursing care facility that includes a plurality of living rooms RM in which a plurality of monitored persons Ob live and a plurality of rooms such as a nurse station.

センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このセンサ装置SUは、後にさらに詳述する。 The sensor device SU is a device that has a communication function of communicating with other devices SV, SP, TA via the network NW, detects the monitored person Ob, and transmits the detection result to the management server device SV. This sensor device SU will be described in more detail later.

管理サーバ装置SVは、ネットワークNWを介して他の装置SU、SP、TAと通信する通信機能を備え、センサ装置SUから被監視者Obに関する検知結果および前記被監視者Obの画像を受信して被監視者Obに対する監視に関する情報(監視情報)を管理する機器である。管理サーバ装置SVは、センサ装置SUから被監視者Obに関する前記検知結果および前記被監視者Obの画像を受信すると、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(監視情報通信信号)を固定端末装置SPおよび携帯端末装置TAに送信する。また、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SPおよび携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function of communicating with other devices SU, SP, TA via the network NW, and receives the detection result of the monitored person Ob and the image of the monitored person Ob from the sensor device SU. It is a device that manages information (monitoring information) about monitoring the monitored person Ob. When the management server device SV receives the detection result of the monitored person Ob and the image of the monitored person Ob from the sensor device SU, the management server device SV stores (records) the monitoring information regarding the monitoring of the monitored person Ob, and A communication signal (monitoring information communication signal) accommodating the monitoring information regarding the monitoring of the observer Ob is transmitted to the fixed terminal device SP and the mobile terminal device TA. Further, the management server device SV provides the client with data in response to a request from the client (the fixed terminal device SP, the mobile terminal device TA, etc. in the present embodiment). Such a management server device SV can be configured by, for example, a computer with a communication function.

固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた検知結果や画像を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。 The fixed terminal device SP has a communication function of communicating with other devices SU, SV, TA via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and the like. The user interface of the monitored person monitoring system MS by inputting a predetermined instruction or data to be given to the management server device SV or the mobile terminal device TA or displaying the detection result or image obtained by the sensor device SU. A device that functions as a (UI). Such a fixed terminal device SP can be configured by, for example, a computer with a communication function.

携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた前記検知結果や画像を表示したり等することによって、被監視者Obに対する監視に関する前記監視情報を受け付けて表示する機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 The mobile terminal device TA performs a communication function of communicating with other devices SV, SP, SU via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. It is equipped with a call function to perform, and inputs predetermined instructions and data to be given to the management server device SV and the sensor device SU, and displays the detection results and images obtained by the sensor device SU by the notification from the management server device SV. It is a device that receives and displays the monitoring information regarding the monitoring of the person Ob to be monitored. Such a mobile terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, smartphone, or mobile phone.

次に、上述のセンサ装置SUについてさらに説明する。センサ装置SUは、例えば、図2に示すように、カメラ1と、音入出力部2と、制御処理部3と、通信インターフェース部(通信IF部)4と、記憶部5とを備える。 Next, the above-mentioned sensor device SU will be further described. As shown in FIG. 2, the sensor device SU includes, for example, a camera 1, a sound input/output unit 2, a control processing unit 3, a communication interface unit (communication IF unit) 4, and a storage unit 5.

カメラ1は、制御処理部3に接続され、制御処理部3の制御に従って、画像(画像データ)を生成する装置である。カメラ1は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に前記所在空間の上方に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像を制御処理部3へ出力する。カメラ1は、本実施形態では、静止画および動画を生成する。このようなカメラ1は、被監視者Ob全体を撮像できる蓋然性が高いことから、被監視者Obの横臥する例えばベッド等の寝具BTにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように、配設されることが好ましいが、実際には、部屋のサイズ(大きさ)や形状等に応じて、適宜な位置、例えば天井や壁の上方等に配設される。カメラ1は、監視対象である被監視者Obを、被監視者Obの上方から撮像した画像を取得する画像取得部の一例である。 The camera 1 is a device that is connected to the control processing unit 3 and generates an image (image data) under the control of the control processing unit 3. The camera 1 is located above the existing space so that the space to be monitored by the person Ob to be monitored (the existing space, the room RM of the installation location in the example shown in FIG. 1) can be monitored. It is arranged and images the location space as an imaging target from above, generates an image (image data) of the bird's-eye view of the imaging target, and outputs the image of the imaging target to the control processing unit 3. The camera 1 produces|generates a still image and a moving image in this embodiment. Since there is a high probability that such a camera 1 can image the entire monitored person Ob, it is planned that the head of the monitored person Ob is located in the bed BT such as a bed lying on the monitored person Ob. It is preferable to arrange the head so that the imaging target can be imaged right above the preset head position (usually, the pillow disposition position), but in reality, the size (size) or shape of the room It is arranged at an appropriate position, for example, above the ceiling or a wall, depending on the situation. The camera 1 is an example of an image acquisition unit that acquires an image of the monitored person Ob, which is a monitoring target, taken from above the monitored person Ob.

このようなカメラ1は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外光の画像を生成する装置である。このようなカメラ1は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。カメラ1の結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。なお、カメラ1は、赤外線サーモグラフィー装置であっても良い。 Such a camera 1 may be a device that generates an image of visible light, but in the present embodiment, it is a device that generates an image of infrared light so that the monitored person Ob can be monitored even in a relatively dark place. is there. Such a camera 1 is, for example, in the present embodiment, an imaging optical system that forms an infrared optical image of an imaging target on a predetermined imaging surface, and a light receiving surface is arranged so as to coincide with the imaging surface. And an image sensor that converts an infrared optical image of the imaging target into an electrical signal, and image data that is data representing an infrared image of the imaging target by performing image processing on the output of the image sensor. It is a digital infrared camera including an image processing unit for generating the image. In the present embodiment, the imaging optical system of the camera 1 is preferably a wide-angle optical system (a so-called wide-angle lens (including a fish-eye lens)) having an angle of view capable of imaging the entire living room RM in which the camera 1 is arranged. The camera 1 may be an infrared thermography device.

なお、センサ装置SUは、被監視者における所定の行動の1つとして微体動異常を検知するために、ドップラセンサをさらに備えても良い。このドップラセンサは、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサである。前記物体が動いている場合、いわゆるドップラ効果により前記物体の動いている速度に比例して反射波の周波数がシフトするため、送信波の周波数と反射波の周波数とに差(ドップラ周波数成分)が生じる。ドップラセンサ11は、このドップラ周波数成分の信号をドップラ信号として生成し、制御処理部3へ出力する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。そして、制御処理部3は、後述の行動検知処理部36によって、前記ドップラセンサのドップラ信号に基づいて被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を求め、その胸部の体動における周期の乱れや予め設定された閾値以下である前記胸部の体動における振幅を検知すると、前記微体動異常であると判定する。 Note that the sensor device SU may further include a Doppler sensor in order to detect a microscopic movement abnormality as one of the predetermined actions of the monitored person. This Doppler sensor is a body motion sensor that transmits a transmission wave, receives a reflection wave of the transmission wave reflected by an object, and outputs a Doppler signal of a Doppler frequency component based on the transmission wave and the reflection wave. .. When the object is moving, since the frequency of the reflected wave is shifted in proportion to the moving speed of the object by the so-called Doppler effect, the difference between the frequency of the transmitted wave and the frequency of the reflected wave (Doppler frequency component) Occurs. The Doppler sensor 11 generates a signal of this Doppler frequency component as a Doppler signal and outputs it to the control processing unit 3. The transmission wave may be an ultrasonic wave, a microwave, or the like, but is a microwave in the present embodiment. Since the microwave can pass through the clothes and be reflected on the body surface of the monitored person Ob, the movement of the body surface can be detected even when the monitored person Ob is wearing clothes, which is preferable. Then, the control processing unit 3 obtains the body movement (up and down movement of the chest) of the chest associated with the breathing motion of the monitored person Ob based on the Doppler signal of the Doppler sensor by the action detection processing unit 36 described later, and the chest thereof. When the disturbance of the cycle of the body movement or the amplitude of the body movement of the chest that is equal to or less than a preset threshold value is detected, it is determined that the minute body movement is abnormal.

音入出力部2は、制御処理部3に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、制御処理部3の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。音入出力部2は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。音入出力部2は、外部の音を表す電気信号を制御処理部3へ出力し、また、制御処理部3から入力された電気信号を音の音響振動に変換して出力する。 The sound input/output unit 2 is a circuit that is connected to the control processing unit 3 and that acquires an external sound and inputs it to the sensor device SU. It is a circuit for generating and outputting sound. The sound input/output unit 2 includes, for example, a microphone that converts acoustic vibration of sound into an electric signal, a speaker that converts electric signal of sound into the acoustic vibration of sound, and the like. The sound input/output unit 2 outputs an electric signal representing an external sound to the control processing unit 3, and also converts the electric signal input from the control processing unit 3 into acoustic vibration of sound and outputs the acoustic vibration.

通信IF部4は、制御処理部3に接続され、制御処理部3の制御に従って通信を行うための通信回路である。通信IF部4は、制御処理部3から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。通信IF部4は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部3が処理可能な形式のデータに変換して制御処理部3へ出力する。なお、通信IF部4は、さらに、例えば、Bluetooth(登録商標)規格、IrDA(Infrared Data Asscoiation)規格およびUSB(Universal Serial Bus)規格等の規格を用い、外部機器との間でデータの入出力を行うインターフェース回路を備えても良い。 The communication IF unit 4 is a communication circuit that is connected to the control processing unit 3 and performs communication under the control of the control processing unit 3. The communication IF unit 4 generates a communication signal containing the data to be transferred, which is input from the control processing unit 3, according to the communication protocol used in the network NW of the monitored person monitoring system MS, and generates the generated communication signal. It is transmitted to other devices SV, SP, TA via the network NW. The communication IF unit 4 receives communication signals from other devices SV, SP, TA via the network NW, extracts data from the received communication signals, and a format in which the extracted data can be processed by the control processing unit 3. Data and output to the control processing unit 3. The communication IF unit 4 further uses, for example, a Bluetooth (registered trademark) standard, an IrDA (Infrared Data Association) standard, a USB (Universal Serial Bus) standard, and the like to input and output data to and from an external device. An interface circuit for performing the above may be provided.

記憶部5は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。 The storage unit 5 is a circuit that is connected to the control processing unit 3 and stores various predetermined programs and various predetermined data under the control of the control processing unit 3.

前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、画像中における所定の領域を設定領域として設定するための処理を行う領域設定処理プログラム、被監視者Obにおける所定の行動を検知するために予め記憶された複数の所定の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線として設定するための処理を行う行動検知線設定処理プログラム、前記設定領域に対するカメラ1の位置関係を求める位置関係演算プログラム、前記複数の行動検知アルゴリズムの中から位置関係演算プログラムで求めた位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択プログラム、前記アルゴリズム選択プログラムで選択した行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。前記各種の所定のデータには、例えば、前記設定領域および前記行動検知線等のこれら上述の各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。 The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing regarding monitoring of the monitored person Ob. The monitoring processing program includes an area setting processing program for performing processing for setting a predetermined area in the image as a setting area, and a plurality of predetermined predetermined values stored in advance for detecting a predetermined behavior of the monitored person Ob. An action detection line setting processing program that is used for at least one of the action detection algorithms and that performs a process for setting a predetermined line in the image as an action detection line, and obtains the positional relationship of the camera 1 with respect to the setting area. A positional relationship calculation program, an algorithm selection program that selects an action detection algorithm based on the positional relationship obtained by the positional relationship calculation program from among the plurality of action detection algorithms, and the action detection algorithm selected by the algorithm selection program in the camera 1. An action detection processing program that detects a predetermined action in the monitored person Ob based on the acquired image, a notification processing program that notifies the predetermined action detected by the action detection program to the outside, and a moving image captured by the camera 12, A voice call is made with the fixed terminal device SP or the portable terminal device TA by using the streaming processing program for delivering the moving image to the fixed terminal device SP or the portable terminal device TA by streaming, and the sound input/output unit 2. It includes a nurse call processing program and the like. The various kinds of predetermined data include, for example, data necessary for executing the above-mentioned programs such as the setting area and the behavior detection line, and data necessary for monitoring the monitored person Ob. included.

これら前記設定領域、前記行動検知線および前記複数の行動検知アルゴリズムを記憶するために、記憶部5は、機能的に、設定領域記憶部51、行動検知線記憶部52および行動検知アルゴリズム記憶部53を備える。 In order to store the setting area, the behavior detection line, and the plurality of behavior detection algorithms, the storage unit 5 functionally includes the setting area storage unit 51, the behavior detection line storage unit 52, and the behavior detection algorithm storage unit 53. Equipped with.

設定領域記憶部51は、画像中における所定の領域を設定領域として記憶するものである。設定領域は、被監視者Obにおける所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる領域であり、本実施形態では、前記所定の行動は、被監視者Obの起床および離床であることから、前記起床の有無および前記離床の有無を検知するために、設定領域ARは、例えば、図3に4点PT1〜PT4で囲まれた領域として示すように、カメラ1で所在空間を撮像した画像中における例えばベッド等の寝具BTの領域である。 The set area storage unit 51 stores a predetermined area in the image as a set area. The set area is an area used in at least one of the plurality of behavior detection algorithms for detecting a predetermined behavior in the monitored person Ob, and in the present embodiment, the predetermined behavior is the monitored person. Since it is Ob wake-up and wake-up, in order to detect the presence or absence of the wake-up and the presence or absence of the wake-up, the setting area AR, for example, as shown as an area surrounded by four points PT1 to PT4, This is an area of bedding BT such as a bed in an image obtained by capturing the location space of the camera 1.

行動検知線記憶部52は、画像中における所定の線を行動検知線として記憶するものである。行動検知線は、被監視者Obにおける所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる線であり、本実施形態では、前記所定の行動は、被監視者Obの起床および離床であることから、前記起床の有無および前記離床の有無を検知するために、行動検知線ALは、例えば、図3に2点PT2、PT3の線分として示すように、寝具BTに対し入床および離床する、寝具BTの領域として設定された設定領域ARにおける1または複数の境界線である。 The action detection line storage unit 52 stores a predetermined line in the image as an action detection line. The action detection line is a line used for at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person Ob, and in the present embodiment, the predetermined action is the monitored target. Since the person Ob wakes up and leaves, in order to detect the presence or absence of the wake-up and the presence or absence of the wake-up, the action detection line AL is, for example, as shown as a line segment of two points PT2 and PT3 in FIG. It is one or more boundary lines in a setting area AR set as an area of the bedding BT that enters and leaves the bed BT.

行動検知アルゴリズム記憶部53は、互いに異なる複数の行動検知アルゴリズムを設定領域ARに対する、前記画像を撮像したカメラ1の位置関係に対応付けて記憶するものである。 The action detection algorithm storage unit 53 stores a plurality of different action detection algorithms in association with the positional relationship of the camera 1 that has captured the image with respect to the setting area AR.

設定領域ARに対する前記カメラ1の位置関係は、本実施形態では、例えば、図4に示すように、設定領域ARを基準に分類されており、カメラ1が設定領域ARの直上に位置する直上PO1、カメラ1が設定領域ARの手前上方に位置する手前PO2、カメラ1が設定領域ARの奥上方に位置する奥PO3、カメラ1が設定領域ARの横上方に位置する横PO4、PO4、カメラ1が設定領域ARの斜め前上方に位置する斜め前PO5、PO5、および、カメラ1が設定領域ARの斜め奥上方に位置する斜め奥PO6、PO6である。これら直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6は、後述の基本位置関係でもある。 In the present embodiment, the positional relationship of the camera 1 with respect to the setting area AR is classified based on the setting area AR, for example, as shown in FIG. 4, and the camera 1 is located directly above the setting area AR. , Front PO2 where the camera 1 is located above the setting area AR, back PO3 where the camera 1 is located above the setting area AR, lateral PO4, PO4 where the camera 1 is located above the setting area AR, and camera 1 Are diagonally forward PO5 and PO5 located diagonally above and above the setting area AR, and diagonally back PO6 and PO6 where the camera 1 is diagonally above and behind the setting area AR. The immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonally front PO5, and the diagonally back PO6 also have a basic positional relationship described later.

そして、互いに異なる複数の行動検知アルゴリズムは、本実施形態では、これら6個の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6それぞれに対応して予め用意されており、前記複数の行動検知アルゴリズムは、前記カメラ1の位置関係が直上PO1である場合に用いられる直上用の行動検知アルゴリズム、前記カメラ1の位置関係が手前PO2である場合に用いられる手前用の行動検知アルゴリズム、前記カメラ1の位置関係が奥PO3である場合に用いられる奥用の行動検知アルゴリズム、前記カメラ1の位置関係が横PO4である場合に用いられる横用の行動検知アルゴリズム、前記カメラ1の位置関係が斜め前PO5である場合に用いられる斜め前用の行動検知アルゴリズム、および、前記カメラ1の位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含む。 In the present embodiment, a plurality of mutually different action detection algorithms are prepared in advance for each of the six immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonal front PO5, and the diagonal back PO6, The plurality of action detection algorithms are the action detection algorithm for directly above used when the positional relationship of the camera 1 is directly above PO1, and the action detection algorithm for near side used when the positional relationship of the camera 1 is near PO2. Algorithm, back action detection algorithm used when the positional relationship of the camera 1 is the back PO3, horizontal action detection algorithm used when the positional relationship of the camera 1 is the side PO4, It includes an action detection algorithm for diagonal front used when the positional relationship is diagonal front PO5, and an action detection algorithm for diagonal depth used when the positional relationship of the camera 1 is diagonally backward.

前記直上用の行動検知アルゴリズムは、例えば、図9に示すように、画像上における設定領域AR外の被監視者Obの第1面積S1、および、前記画像上における設定領域ARと被監視者Obとが重なった第2面積S2に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 The action detection algorithm for immediately above, for example, as shown in FIG. 9, has the first area S1 of the monitored person Ob outside the set area AR on the image, and the set area AR and the monitored person Ob on the image. This is an algorithm for detecting a predetermined action in the monitored person Ob based on the second area S2 where and are overlapped.

前記手前用の行動検知アルゴリズムは、例えば、図10に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waに基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。この距離Waは、行動検知線ALの外側にはみ出した被監視者Obの長さに相当する。 The front action detection algorithm, for example, as shown in FIG. 10, a predetermined action on the monitored person Ob based on the distance Wa between the action detection line AL on the image and the foot position FP of the monitored person Ob. Is an algorithm for detecting. This distance Wa corresponds to the length of the monitored person Ob that extends outside the action detection line AL.

前記横用の行動検知アルゴリズムは、例えば、図11に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 For example, as shown in FIG. 11, the action detection algorithm for lateral use has a first boundary line BL1 and a set region located at a position closest to the camera 1 along the lateral direction of the set region AR on the image, as shown in FIG. Based on the third area S3 in which the monitored area Ob and the set area AR between the second boundary line BL2 located farthest from the camera 1 along the horizontal direction of AR overlap, the monitored person This is an algorithm for detecting a predetermined action in Ob.

前記奥用の行動検知アルゴリズムは、例えば、図12に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 The back action detection algorithm detects a predetermined action of the monitored person Ob based on the second area S2 in which the set area AR and the monitored person Ob overlap each other on the image, as shown in FIG. 12, for example. It is an algorithm to do.

前記斜め前用の行動検知アルゴリズムは、例えば、図13に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Wa、および、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 For example, as shown in FIG. 13, the diagonal forward action detection algorithm includes a distance Wa between the action detection line AL and the foot position FP of the monitored person Ob on the image, and a set area on the image. A first boundary line BL1 located closest to the camera 1 along the horizontal direction of AR and a second boundary line BL2 located farthest from the camera 1 along the horizontal direction of the setting area AR. This is an algorithm for detecting a predetermined action in the monitored person Ob based on the third area S3 in which the set area AR and the monitored person Ob overlap with each other.

前記斜め奥用の行動検知アルゴリズムは、例えば、図14に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 For example, as shown in FIG. 14, the action detection algorithm for oblique depths is set as the first boundary line BL1 located at a position closest to the camera 1 along the horizontal direction of the setting area AR on the image, as shown in FIG. Based on the third area S3 where the set area AR and the monitored person Ob overlap with the second boundary line BL2 located farthest from the camera 1 along the lateral direction of the area AR, the monitored area is displayed. It is an algorithm for detecting a predetermined action in the person Ob.

これら6個の前記直上用の行動検知アルゴリズム、前記手前用の行動検知アルゴリズム、前記奥用の行動検知アルゴリズム、前記横用の行動検知アルゴリズム、前記斜め前用の行動検知アルゴリズムおよび前記斜め奥用の行動検知アルゴリズムは、大略、同様の手順であり、Xnを直上、手前、奥、横、斜め前および斜め奥とすると(Xn=直上、手前、奥、横、斜め前、斜め奥)、図6ないし図8に示すフォローチャートで表すことができる。 These six action detection algorithms for directly above, the action detection algorithm for the front, the action detection algorithm for the back, the action detection algorithm for the sideways, the action detection algorithm for the diagonally forward action, and the diagonally backward action detection algorithm The action detection algorithm is generally the same procedure, and assuming that Xn is directly above, in front, behind, sideways, diagonally forward and diagonally backward (Xn=directly above, near, far behind, sideways, diagonally forward, diagonally back), FIG. Through the follow chart shown in FIG.

より具体的には、Xn用の行動検知アルゴリズムでは、図6に示すように、先ず、画像から人体の領域(人体領域)が抽出され(S1n)、次に、Xn用の起床判定処理が実行され(S2n)、そして、Xn用の離床判定処理が実行される(S3n)。人体領域は、カメラ1で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで動体領域を抽出することで抽出される(動体領域=人体領域)。前記背景差分法では、予め背景画像が求められて前記各種の所定のデータの1つとして記憶部5に予め記憶され、カメラ1によって生成された画像と前記背景画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。前記フレーム差分法では、カメラ1によって生成された、現在のフレームの画像と過去のフレーム(例えば1つ前のフレーム)の画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。なお、逆に、Xn用の離床判定処理S3nが実行された後に、Xn用の起床判定処理S2nが実行されても良い。 More specifically, in the action detection algorithm for Xn, as shown in FIG. 6, first, the region of the human body (human body region) is extracted from the image (S1n), and then the wakeup determination process for Xn is executed. (S2n), and the bed leaving determination process for Xn is executed (S3n). The human body region is extracted by extracting the moving body region from the image acquired by the camera 1 by using a method such as a background difference method or an interframe difference method (moving body region=human body region). In the background subtraction method, a background image is obtained in advance and is stored in advance in the storage unit 5 as one of the various kinds of predetermined data, and the presence or absence of a moving object is detected from the difference image between the image generated by the camera 1 and the background image. If there is a moving body as a result of this determination, the area of this moving body is set as the moving body area. In the frame difference method, the presence or absence of a moving object is determined from the difference image between the image of the current frame and the image of the past frame (for example, the frame one frame before) generated by the camera 1, and as a result of this determination, the moving object is detected. If there is, the moving body area is set as the moving body area. On the contrary, the wakeup determination process S2n for Xn may be performed after the wakeup determination process S3n for Xn is performed.

Xn用の起床判定処理S2nでは、図7に示すように、まず、被監視者Obにおける起床に関する現在の状態が起床前か否かが判定される(S21n)。被監視者Obにおける起床に関する現在の状態は、記憶部5に記憶される。例えば、被監視者Obにおける起床に関する現在の状態は、起床に関する状態を表すフラグ(起床状態フラグ)によって記憶部5に記憶される。例えば、被監視者Obが起床前であると判定されている場合には、この起床状態フラグは、「0」とされ、被監視者Obが起床後であると判定されている場合には、この起床状態フラグは、「1」とされる。この判定の結果、起床前ではない場合、すなわち、起床後である場合(起床状態フラグ=1、No)には、このXn用の起床判定処理S2nが終了され、起床前である場合(起床状態フラグ=0、Yes)には、次の処理S22nが実行される。処理S22nでは、Xn用の起床判定条件を満たすか否かが判定される。この処理S22nは、Xnごとに後にさらに説明する。この判定の結果、Xn用の起床判定条件を満たす場合(Yes)は、起床が通知処理部37へ通知され(S23n)、被監視者Obにおける起床に関する現在の状態が起床後として記憶部5に記憶され(起床状態フラグ←1、S24n)、このXn用の起床判定処理S2nが終了される。一方、前記判定の結果、Xn用の起床判定条件を満たさない場合(No)は、被監視者Obにおける起床に関する現在の状態が起床前として記憶部5に記憶され(起床状態フラグ←0、S25n)、このXn用の起床判定処理S2nが終了される。 In the wakeup determination process S2n for Xn, as illustrated in FIG. 7, first, it is determined whether the current state of the monitored person Ob regarding wakeup is before wakeup (S21n). The current state of getting up of the monitored person Ob is stored in the storage unit 5. For example, the current state of the monitored person Ob regarding getting up is stored in the storage unit 5 by a flag indicating a state regarding getting up (wakeup state flag). For example, when it is determined that the monitored person Ob is before waking up, this wake-up state flag is set to "0", and when it is determined that the monitored person Ob is after waking up, This wake-up state flag is set to "1". As a result of this determination, if it is not before wake-up, that is, if it is after wake-up (wake-up state flag=1, No), the wake-up determination process S2n for Xn is ended, and if it is before wake-up (wake-up state For flag=0, Yes), the following process S22n is executed. In step S22n, it is determined whether or not the wakeup determination condition for Xn is satisfied. This processing S22n will be further described later for each Xn. As a result of this determination, if the wakeup determination condition for Xn is satisfied (Yes), the notification processing unit 37 is notified of wakeup (S23n), and the current state of the monitored person Ob regarding wakeup is stored in the storage unit 5 as after wakeup. It is stored (wake-up state flag←1, S24n), and the wake-up determination process S2n for this Xn is ended. On the other hand, as a result of the determination, if the wakeup determination condition for Xn is not satisfied (No), the current state of the monitored person Ob regarding wakeup is stored in the storage unit 5 as being before wakeup (wakeup state flag ← 0, S25n ), the wakeup determination process S2n for Xn is completed.

Xn用の離床判定処理S3nでは、図8に示すように、まず、被監視者Obにおける離床に関する現在の状態が離床前か否かが判定される(S31n)。被監視者Obにおける離床に関する現在の状態は、記憶部5に記憶される。例えば、被監視者Obにおける離床に関する現在の状態は、離床に関する状態を表すフラグ(離床状態フラグ)によって記憶部5に記憶される。例えば、被監視者Obが離床前であると判定されている場合には、この離床状態フラグは、「0」とされ、被監視者Obが離床後であると判定されている場合には、この離床状態フラグは、「1」とされる。この判定の結果、離床前ではない場合、すなわち、離床後である場合(離床状態フラグ=1、No)には、このXn用の離床判定処理S3nが終了され、離床前である場合(離床状態フラグ=0、Yes)には、次の処理S32nが実行される。処理S32nでは、Xn用の離床判定条件を満たすか否かが判定される。この処理S32nは、Xnごとに後にさらに説明する。この判定の結果、Xn用の離床判定条件を満たす場合(Yes)は、離床が通知処理部37へ通知され(S33n)、被監視者Obにおける離床に関する現在の状態が離床後として記憶部5に記憶され(離床状態フラグ←1、S34n)、このXn用の離床判定処理S3nが終了される。一方、前記判定の結果、Xn用の離床判定条件を満たさない場合(No)は、被監視者Obにおける離床に関する現在の状態が離床前として記憶部5に記憶され(離床状態フラグ←0、S35n)、このXn用の離床判定処理S3nが終了される。 In the bed leaving determination processing S3n for Xn, as shown in FIG. 8, first, it is determined whether or not the current state of the monitored person Ob regarding bed leaving is before bed leaving (S31n). The current state regarding leaving the monitored person Ob is stored in the storage unit 5. For example, the current state of the monitored person Ob regarding leaving the bed is stored in the storage unit 5 by a flag indicating the state regarding leaving the bed (leaving state flag). For example, when it is determined that the monitored person Ob is before leaving the bed, the bed leaving state flag is set to "0", and when it is determined that the monitored person Ob is after leaving the bed, This bed leaving state flag is set to "1". As a result of this determination, if it is not before leaving the bed, that is, if it is after leaving the bed (bed leaving state flag=1, No), this bed leaving determination processing S3n for Xn is ended, and if it is before leaving the bed (bed leaving state For flag=0, Yes), the following process S32n is executed. In the process S32n, it is determined whether or not the leaving determination condition for Xn is satisfied. This process S32n will be further described later for each Xn. As a result of this determination, when the leaving determination condition for Xn is satisfied (Yes), the leaving processing is notified to the notification processing unit 37 (S33n), and the current state of the monitored person Ob regarding leaving the bed is stored in the storage unit 5 as after leaving the bed. It is stored (bed leaving state flag ←1, S34n), and the bed leaving determination process S3n for Xn is ended. On the other hand, as a result of the determination, if the bed leaving determination condition for Xn is not satisfied (No), the current state regarding the bed leaving of the monitored person Ob is stored in the storage unit 5 as being before bed leaving (bed leaving state flag ← 0, S35n ), the bed leaving determination processing S3n for Xn is ended.

次に、図9ないし図14を用いてXnごとに、Xn用の起床判定条件およびXn用の離床判定条件について説明する。Xn用の起床判定条件およびXn用の離床判定条件は、例えば、本実施形態では、画像上における設定領域AR外の被監視者Obの第1面積S1、画像上における設定領域ARと被監視者Obとが重なった第2面積S2、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3、および、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waのうちの1または複数に基づく条件である。大略、前記第1面積S1が大きくなるに従って起床の発生が検知され、さらに大きくなるに従って離床の発生が検知される。大略、前記第2面積S2が小さくなるに従って起床の発生が検知され、さらに小さくなるに従って離床の発生が検知される。大略、前記第3面積S3が小さくなるに従って起床の発生が検知され、さらに小さくなるに従って離床の発生が検知される。そして、大略、前記距離Waが大きくなるに従って起床の発生が検知され、さらに大きくなるに従って離床の発生が検知される。 Next, the wakeup determination condition for Xn and the wakeup determination condition for Xn will be described for each Xn with reference to FIGS. 9 to 14. The wakeup determination condition for Xn and the wakeup determination condition for Xn are, for example, in the present embodiment, the first area S1 of the monitored person Ob outside the setting area AR on the image, the setting area AR on the image and the monitored person. Ob overlaps the second area S2, the first boundary line BL1 located closest to the camera 1 along the lateral direction of the setting area AR and the camera 1 along the lateral direction of the setting area AR. A third area S3 where the set area AR and the monitored person Ob overlap with the second boundary line BL2 located at the farthest position, and the action detection line AL on the image and the foot of the monitored person Ob. It is a condition based on one or more of the distance Wa from the position FP. Generally, the occurrence of getting up is detected as the first area S1 increases, and the occurrence of getting out of the bed is detected as the first area S1 further increases. Generally, the occurrence of getting up is detected as the second area S2 becomes smaller, and the occurrence of getting out of bed is detected as it becomes smaller. Generally, the occurrence of getting up is detected as the third area S3 becomes smaller, and the occurrence of getting out of bed is detected as it becomes smaller. In general, the rise of the floor is detected as the distance Wa increases, and the rise of the bed is detected as the distance Wa further increases.

より具体的には、まず、直上用の行動検知アルゴリズムで用いられる直上用の起床判定条件は、図9に示すように、画像上における設定領域AR外の被監視者Obの第1面積S1が予め設定された第1閾値(直上用起床判定閾値)Th1を越えたか否かである。第1面積S1が第1閾値Th1を越えた場合(S1>Th1)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる。一方、第1面積S1が第1閾値Th1以下である場合(S1≦Th1)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる。第1面積S1は、例えば、処理S1nで抽出された人体領域のうち、設定領域AR外の人体領域における画素の総数を計数することで求められる。そして、直上用の行動検知アルゴリズムで用いられる直上用の離床判定条件は、図9に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2が予め設定された第2閾値(直上用離床判定閾値)Th2を越えたか否かである。第2面積S2が第2閾値Th2を越えていない場合、すなわち、第2面積S2が第2閾値Th2未満である場合(S2<Th2)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる。一方、第2面積S2が第2閾値Th2以上である場合(S2≧Th2)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる。第2面積S2は、例えば、処理S1nで抽出された人体領域のうち、設定領域ARと人体領域とが重なった領域における画素の総数を計数することで求められる。これら第1および第2閾値Th1、Th2は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 More specifically, first, as shown in FIG. 9, the wakeup determination condition for immediately above used in the action detection algorithm for immediately above is that the first area S1 of the monitored person Ob outside the set area AR on the image is It is whether or not a preset first threshold value (upward determination threshold value for immediately above) Th1 has been exceeded. When the first area S1 exceeds the first threshold Th1 (S1>Th1), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to after waking up. On the other hand, when the first area S1 is less than or equal to the first threshold Th1 (S1≦Th1), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is It is said that The first area S1 is obtained, for example, by counting the total number of pixels in the human body region outside the set region AR among the human body regions extracted in the process S1n. Then, as shown in FIG. 9, the second floor area S2 in which the set area AR on the image and the monitored person Ob overlap is set in advance as the bed leaving determination condition for directly above used in the action detection algorithm for immediately above. It is whether or not the second threshold value (threshold determination threshold for immediately above bed) Th2 is exceeded. If the second area S2 does not exceed the second threshold Th2, that is, if the second area S2 is less than the second threshold Th2 (S2<Th2), it is determined that the monitored person Ob has left the bed, and The current state regarding leaving the bed by the observer Ob is after leaving the bed. On the other hand, when the second area S2 is greater than or equal to the second threshold Th2 (S2≧Th2), it is determined that the monitored person Ob has not left the bed, and the current state regarding the leaving of the monitored person Ob is before leaving the bed. It is said that The second area S2 is obtained, for example, by counting the total number of pixels in a region where the set region AR and the human body region overlap, out of the human body region extracted in the process S1n. These first and second thresholds Th1 and Th2 are empirically preset, for example, by statistically processing a plurality of samples.

手前用の行動検知アルゴリズムで用いられる手前用の起床判定条件は、図10に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waが予め設定された第3閾値(手前用起床判定閾値)Th3を越えたか否かである。距離Waが第3閾値Th3以上である場合(Wa≧Th3)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図10の中央参照)。一方、距離Waが第3閾値Th3を越えていない場合、すなわち、距離Waが第3閾値Th3未満である場合(Wa<Th3)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図10の左側参照)。距離Waは、例えば、処理S1nで抽出された人体領域のうち、床面に最も近い位置が被監視者Obの足先位置FPとされ、行動検知線ALとこの被監視者Obの足先位置FPとの間における、縦方向に沿う1ラインの画素の総数を計数することで求められる。そして、手前用の行動検知アルゴリズムで用いられる手前用の離床判定条件は、図10に示すように、前記距離Waが予め設定された第4閾値(手前用離床判定閾値)Th4を越えたか否かである。距離Waが第4閾値Th4以上である場合(Wa≧Th4)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図10の右側参照)。一方、距離Waが第4閾値Th4を越えていない場合、すなわち、距離Waが第4閾値Th4未満である場合(Wa<Th4)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図10の中央参照)。これら第3および第4閾値Th3、Th4は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 10, the wake-up determination condition for the foreground used in the foreground action detection algorithm is preset with a distance Wa between the action detection line AL on the image and the foot position FP of the monitored person Ob. It is whether or not the third threshold value (front wakeup determination threshold value) Th3 has been exceeded. When the distance Wa is greater than or equal to the third threshold value Th3 (Wa≧Th3), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to after waking up (FIG. 10). See center). On the other hand, when the distance Wa does not exceed the third threshold Th3, that is, when the distance Wa is less than the third threshold Th3 (Wa<Th3), it is determined that the monitored person Ob is not awakened and The current state of getting up by the observer Ob is before going up (see the left side of FIG. 10). Regarding the distance Wa, for example, in the human body region extracted in the process S1n, the position closest to the floor surface is the foot position FP of the monitored person Ob, and the action detection line AL and the foot position of this monitored object Ob are set. It is obtained by counting the total number of pixels in one line along the vertical direction between the FP and the FP. Then, as shown in FIG. 10, whether the distance Wa for the foreground leaving determination condition used in the foreground action detection algorithm exceeds a preset fourth threshold value (foreward leaving bed determination threshold value) Th4. Is. When the distance Wa is greater than or equal to the fourth threshold Th4 (Wa≧Th4), it is determined that the monitored person Ob has left the bed, and the current state regarding the leaving of the monitored person Ob is after leaving the bed (FIG. 10). See the right side of). On the other hand, when the distance Wa does not exceed the fourth threshold value Th4, that is, when the distance Wa is less than the fourth threshold value Th4 (Wa<Th4), it is determined that the monitored person Ob has not left the bed, and The current state of leaving the observer Ob is assumed to be before leaving the bed (see the center of FIG. 10). The third and fourth threshold values Th3 and Th4 are empirically set in advance by statistically processing a plurality of samples, for example.

横用の行動検知アルゴリズムで用いられる横用の起床判定条件は、図11に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第5閾値(横用起床判定閾値)Th5を越えたか否かである。第3面積S3が第5閾値Th5以下である場合(S3≦Th5)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図11の中央参照)。一方、第3面積S3が第5閾値Th5を越えている場合(S3>Th5)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図11の左側参照)。第3面積S3は、例えば、処理S1nで抽出された人体領域のうち、第1境界線BL1と第2境界線BL2に挟まれた設定領域ARと人体領域とが重なった領域における画素の総数を計数することで求められる。そして、横用の行動検知アルゴリズムで用いられる横用の離床判定条件は、図11に示すように、前記第3面積S3が予め設定された第6閾値(横用離床判定閾値)Th6を越えたか否かである。第3面積S3が第6閾値Th6以下である場合(S3≦Th6)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図11の右側参照)。一方、第3面積S3が第6閾値Th6を越えている場合(S3>Th6)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図11の中央参照)。これら第5および第6閾値Th5、Th6は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 11, the horizontal wake-up determination condition used in the horizontal action detection algorithm is that the first position is the closest to the camera 1 along the horizontal direction of the setting area AR on the image. A third area S3 in which the set area AR and the monitored person Ob overlap between the boundary line BL1 and the second boundary line BL2 located at the farthest position from the camera 1 along the lateral direction of the set area AR. Has exceeded a preset fifth threshold value (horizontal wakeup determination threshold value) Th5. When the third area S3 is less than or equal to the fifth threshold Th5 (S3≦Th5), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to after waking up ( (See the center of FIG. 11). On the other hand, when the third area S3 exceeds the fifth threshold Th5 (S3>Th5), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is Before (see left side of FIG. 11). The third area S3 is, for example, the total number of pixels in a region where the set region AR sandwiched between the first boundary line BL1 and the second boundary line BL2 and the human body region overlap among the human body regions extracted in the process S1n. It can be obtained by counting. Then, as shown in FIG. 11, whether the third area S3 exceeds the preset sixth threshold (horizontal bed leaving determination threshold value) Th6 as the lateral bed leaving determination condition used in the horizontal action detection algorithm. It is not. When the third area S3 is equal to or smaller than the sixth threshold Th6 (S3≦Th6), it is determined that the monitored person Ob has left the bed, and the current state regarding the leaving of the monitored person Ob is after the bed leaving ( (See the right side of FIG. 11). On the other hand, when the third area S3 exceeds the sixth threshold value Th6 (S3>Th6), it is determined that the monitored person Ob has not left the bed, and the current state of the monitored person Ob regarding the leaving bed is Before (see center of FIG. 11). The fifth and sixth threshold values Th5 and Th6 are empirically preset by statistically processing a plurality of samples, for example.

奥用の行動検知アルゴリズムで用いられる奥用の起床判定条件は、図12に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2が予め設定された第7閾値(奥用起床判定閾値)Th7を越えたか否かである。第2面積S2が第7閾値Th7以下である場合(S2≦Th7)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図12の中央参照)。一方、第2面積S2が第7閾値Th7を越えている場合(S2>Th7)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図12の左側参照)。そして、奥用の行動検知アルゴリズムで用いられる奥用の離床判定条件は、図12に示すように、前記第2面積S2が予め設定された第8閾値(奥用離床判定閾値)Th8を越えたか否かである。第2面積S2が第8閾値Th8以下である場合(S2≦Th8)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図12の右側参照)。一方、第2面積S2が第8閾値Th8を越えている場合(S2>Th8)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図12の中央参照)。これら第7および第8閾値Th7、Th8は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 12, the wake-up determination condition for the back used in the behavior detection algorithm for the back is the seventh area in which the second area S2 in which the set area AR on the image and the monitored person Ob overlap is preset. It is whether or not the threshold (backward wakeup determination threshold) Th7 is exceeded. When the second area S2 is equal to or less than the seventh threshold value Th7 (S2≦Th7), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to “after waking up” ( (See the center of FIG. 12). On the other hand, when the second area S2 exceeds the seventh threshold value Th7 (S2>Th7), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is Before (see left side of FIG. 12). Then, as shown in FIG. 12, whether the second area S2 exceeds the preset eighth threshold value (backward bed determination threshold value) Th8 as shown in FIG. It is not. When the second area S2 is equal to or less than the eighth threshold Th8 (S2≦Th8), it is determined that the monitored person Ob has left the bed, and the current state regarding the leaving of the monitored person Ob is after the bed leaving ( (See the right side of FIG. 12). On the other hand, when the second area S2 exceeds the eighth threshold Th8 (S2>Th8), it is determined that the monitored person Ob has not left the bed, and the current state of the monitored person Ob regarding the bed leaving is Before (see center of FIG. 12). The seventh and eighth thresholds Th7 and Th8 are empirically preset, for example, by statistically processing a plurality of samples.

斜め前用の行動検知アルゴリズムで用いられる斜め前用の起床判定条件は、図13に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waが予め設定された第9閾値(第1斜め前用起床判定閾値)Th9を越えたか否か、および、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第10閾値(第2斜め前用起床判定閾値)Th10を越えたか否か、である。距離Waが第9閾値Th9以上であって、第3面積S3が第10閾値Th10以下である場合(Wa≧Th9かつS3≦Th10)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図13の中央参照)。一方、距離Waが第9閾値Th9を超えていない場合、すなわち、距離Waが第9閾値Th9未満であって、第3面積S3が第10閾値Th10を越えている場合(Wa<Th9かつS3>Th10)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図13の左側参照)。そして、斜め前用の行動検知アルゴリズムで用いられる斜め前用の離床判定条件は、図13に示すように、前記距離Waが予め設定された第11閾値(第1斜め前用離床判定閾値)Th11を越えたか否か、および、前記第3面積S3が予め設定された第12閾値(第2斜め前用離床判定閾値)Th12を越えたか否かである。距離Waが第11閾値Th11以上であって、第3面積S3が第12閾値Th12以下である場合(Wa≧Th11かつS3≦Th12)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図13の右側参照)。一方、距離Waが第11閾値Th11を超えていない場合、すなわち、距離Waが第11閾値Th11未満であって、第3面積S3が第12閾値Th12を越えている場合(Wa<Th11かつS3>Th12)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図13の中央参照)。これら第9ないし第12閾値Th9〜Th12は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 13, the wake-up determination condition for the diagonally forward action detection algorithm used in the diagonally forward action detection algorithm is preset with a distance Wa between the action detection line AL on the image and the foot position FP of the monitored person Ob. Whether or not the calculated ninth threshold value (first diagonal wake-up determination threshold value) Th9 has been exceeded, and on the image, it is located at a position closest to the camera 1 along the lateral direction of the setting area AR. A third area in which the set area AR and the monitored person Ob overlap between the first boundary line BL1 and the second boundary line BL2 located farthest from the camera 1 along the lateral direction of the set area AR. It is whether or not S3 exceeds a preset tenth threshold value (second diagonal front wakeup determination threshold value) Th10. When the distance Wa is greater than or equal to the ninth threshold Th9 and the third area S3 is less than or equal to the tenth threshold Th10 (W a ≧Th9 and S3 ≦Th10), it is determined that the monitored person Ob has woken up and is monitored. The current state of getting up by the person Ob is after getting up (see the center of FIG. 13 ). On the other hand, when the distance Wa does not exceed the ninth threshold Th9, that is, when the distance Wa is less than the ninth threshold Th9 and the third area S3 exceeds the tenth threshold Th10 (Wa<Th9 and S3>). At Th10), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is pre-wakeup (see the left side of FIG. 13). As shown in FIG. 13, the diagonally-preceding wake-up determination condition used in the diagonally-preceding action detection algorithm is an eleventh threshold (first diagonal-previous wake-up determination threshold) Th11 in which the distance Wa is preset. And whether or not the third area S3 exceeds a preset twelfth threshold value (second oblique front wakeup determination threshold value) Th12. When the distance Wa is equal to or greater than the eleventh threshold Th11 and the third area S3 is equal to or less than the twelfth threshold Th12 (Wa≧Th11 and S3≦Th12), it is determined that the monitored person Ob has left the bed and is monitored. The current state regarding leaving the person Ob is assumed to be after leaving the bed (see the right side of FIG. 13 ). On the other hand, when the distance Wa does not exceed the eleventh threshold Th11, that is, when the distance Wa is less than the eleventh threshold Th11 and the third area S3 exceeds the twelfth threshold Th12 (Wa<Th11 and S3>). At Th12), it is determined that the monitored person Ob has not left the bed, and the current state regarding the leaving of the monitored person Ob is set to before leaving the bed (see the center of FIG. 13). The ninth to twelfth threshold values Th9 to Th12 are empirically preset, for example, by statistically processing a plurality of samples.

斜め奥用の行動検知アルゴリズムで用いられる斜め奥用の起床判定条件は、図14に示すように、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第13閾値(斜め奥用起床判定閾値)Th13を越えたか否か、である。第3面積S3が第13閾値Th13以下である場合(S3≦Th13)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図14の中央参照)。一方、第3面積S3が第13閾値Th13を越えている場合(S3>Th13)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図14の左側参照)。そして、斜め奥用の行動検知アルゴリズムで用いられる斜め奥用の離床判定条件は、図14に示すように、前記第3面積S3が予め設定された第14閾値(斜め奥用離床判定閾値)Th14を越えたか否かである。第3面積S3が第14閾値Th14以下である場合(S3≦Th14)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図14の右側参照)。一方、第3面積S3が第14閾値Th14を越えている場合(S3<Th14)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図14の中央参照)。これら第13および第14閾値Th13、Th14は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 14, the wake-up determination condition for the diagonal depth used in the behavior detecting algorithm for the diagonal depth is located at the position closest to the camera 1 along the lateral direction of the setting area AR on the image, as shown in FIG. The overlapping area of the set area AR and the monitored person Ob between the first boundary line BL1 and the second boundary line BL2 located at the farthest position from the camera 1 along the lateral direction of the setting area AR. It is whether or not the three areas S3 have exceeded a preset thirteenth threshold value (diagonal back rising determination threshold value) Th13. When the third area S3 is equal to or less than the thirteenth threshold Th13 (S3≦Th13), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to “after waking up” ( (See the center of FIG. 14). On the other hand, when the third area S3 exceeds the thirteenth threshold Th13 (S3>Th13), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is Before (see left side of FIG. 14). Then, as shown in FIG. 14, the diagonally-backed-up bed leaving determination condition used in the diagonally-backward action detection algorithm is a 14th threshold (obliquely-backward leaving-up determination threshold) Th14 in which the third area S3 is preset. It is whether or not it exceeded. When the third area S3 is equal to or less than the fourteenth threshold Th14 (S3≦Th14), it is determined that the monitored person Ob has left the bed, and the current state regarding the leaving of the monitored person Ob is after leaving the bed ( (See the right side of FIG. 14). On the other hand, when the third area S3 exceeds the fourteenth threshold Th14 (S3<Th14), it is determined that the monitored person Ob has not left the bed, and the current state of the monitored person Ob regarding the leaving bed is Before (see center of FIG. 14). The thirteenth and fourteenth threshold values Th13 and Th14 are empirically set in advance by statistically processing a plurality of samples, for example.

なお、上述の第1ないし第14閾値Th1〜Th14は、画像上での被監視者Obにおける大きさや行動速度を考慮して設定されても良い。 The above-mentioned first to fourteenth threshold values Th1 to Th14 may be set in consideration of the size and action speed of the monitored person Ob on the image.

このような図6ないし図14を用いて説明した6個の前記直上用の行動検知アルゴリズム、前記手前用の行動検知アルゴリズム、前記奥用の行動検知アルゴリズム、前記横用の行動検知アルゴリズム、前記斜め前用の行動検知アルゴリズムおよび前記斜め奥用の行動検知アルゴリズムが行動検知アルゴリズム記憶部53に予め記憶される。 The above-described six action detection algorithms for directly above, the action detection algorithm for the front, the action detection algorithm for the back, the action detection algorithm for the lateral, and the diagonal action described above with reference to FIGS. 6 to 14. The previous action detection algorithm and the diagonal back action detection algorithm are stored in advance in the action detection algorithm storage unit 53.

このような記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。 The storage unit 5 includes, for example, a ROM (Read Only Memory) that is a non-volatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable non-volatile storage element, and the like. The storage unit 5 includes a RAM (Random Access Memory), which serves as a working memory of the so-called control processing unit 3, which stores data and the like generated during execution of the predetermined program.

制御処理部3は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、カメラ1によって被監視者Obをその上方から撮像した画像を取得し、この取得した画像に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3は、前記制御処理プログラムが実行されることによって、制御部31、領域設定処理部32、行動検知線設定処理部33、位置関係演算部34、アルゴリズム選択部35、行動検知処理部36、通知処理部37、ストリーミング処理部38およびナースコール処理部39を機能的に備える。 The control processing unit 3 controls each unit of the sensor device SU in accordance with the function of each unit, acquires an image of the monitored person Ob taken from above by the camera 1, and monitors the monitored object based on the acquired image. It is a circuit for detecting and notifying a predetermined action of the person Ob. The control processing unit 3 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. The control processing unit 3 executes the control processing program, whereby the control unit 31, the area setting processing unit 32, the action detection line setting processing unit 33, the positional relationship calculation unit 34, the algorithm selection unit 35, the action detection processing unit. 36, a notification processing unit 37, a streaming processing unit 38, and a nurse call processing unit 39 are functionally provided.

制御部31は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。 The control unit 31 controls each unit of the sensor device SU in accordance with the function of each unit, and controls the overall control of the sensor device SU.

領域設定処理部32は、画像中における所定の領域を設定領域ARとして設定するための処理を行うものである。行動検知線設定処理部33は、前記画像中における所定の線を行動検知線ALとして設定するための処理を行うものである。 The area setting processing unit 32 performs processing for setting a predetermined area in the image as the setting area AR. The action detection line setting processing unit 33 performs a process for setting a predetermined line in the image as the action detection line AL.

本実施形態では、制御処理部3は、固定端末装置SPまたは携帯端末装置TAから設定領域ARおよび行動検知線ALそれぞれの設定を要求する通信信号(設定要求通信信号)を通信IF部4で受信すると、カメラ1で取得した画像を収容した通信信号(設定画像通信信号)を通信IF部4で返信する。固定端末装置SPまたは携帯端末装置TAは、例えば、図3に示す設定領域ARおよび行動検知線ALを入力するための設定画面を表示する。前記設定画面には、前記領域設定画像通信信号に収容された画像が表示される。ユーザ(監視者および被監視者等)は、例えばマウス等のポインティングデバイスを用いて、あるいは、タッチパネルに対するタップ操作を用いて、前記設定画面に設定領域ARの各頂点PT1〜PT4および行動検知線ALの両端点PT2、PT3それぞれを入力する。なお、入力方法は、設定領域ARの各辺の入力や行動検知線ALの線の入力等であっても良い。設定領域ARおよび行動検知線ALを受け付けると、固定端末装置SPまたは携帯端末装置TAは、これら受け付けた設定領域ARおよび行動検知線ALを収容した通信信号(設定情報通信信号)をセンサ装置SUへ送信する。この設定情報通信信号を通信IF部4で受信すると、領域設定処理部32は、この受信した設定情報通信信号に収容された設定領域AR(4頂点PT1〜PT4)を取り出して記憶部5の設定領域記憶部51に記憶することで設定領域ARをセンサ装置SUに設定し、行動検知線設定処理部33は、この受信した設定情報通信信号に収容された行動検知線AL(両端点PT2、PT3)を取り出して記憶部5の行動検知線記憶部52に記憶することで行動検知線ALをセンサ装置SUに設定する。本実施形態では、通信IF部4および行動検知線設定処理部33は、行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部の一例に相当する。 In the present embodiment, the control processing unit 3 receives at the communication IF unit 4 a communication signal (setting request communication signal) requesting the setting of each of the setting area AR and the action detection line AL from the fixed terminal device SP or the mobile terminal device TA. Then, the communication IF unit 4 sends back a communication signal (setting image communication signal) containing the image acquired by the camera 1. The fixed terminal device SP or the mobile terminal device TA displays, for example, a setting screen for inputting the setting area AR and the action detection line AL shown in FIG. The image contained in the area setting image communication signal is displayed on the setting screen. The user (monitored person, monitored person, etc.) uses, for example, a pointing device such as a mouse or tap operation on the touch panel to display the vertices PT1 to PT4 of the setting area AR and the action detection line AL on the setting screen. Both end points PT2 and PT3 are input. The input method may be input on each side of the setting area AR, input of the action detection line AL, or the like. Upon receiving the setting area AR and the action detection line AL, the fixed terminal device SP or the mobile terminal device TA sends the received communication signal (setting information communication signal) containing the setting region AR and the action detection line AL to the sensor device SU. Send. When the communication IF unit 4 receives the setting information communication signal, the area setting processing unit 32 extracts the setting area AR (4 vertices PT1 to PT4) contained in the received setting information communication signal and sets the setting in the storage unit 5. The setting area AR is set in the sensor device SU by storing it in the area storage unit 51, and the action detection line setting processing unit 33 stores the action detection line AL (both end points PT2, PT3 included in the received setting information communication signal. ) Is taken out and stored in the action detection line storage unit 52 of the storage unit 5 to set the action detection line AL in the sensor device SU. In the present embodiment, the communication IF unit 4 and the action detection line setting processing unit 33 correspond to an example of an action detection line reception unit that receives an action detection line from the outside and stores it in the storage unit.

なお、センサ装置SUは、図1に破線で示すように、入力部6および表示部7をさらに備えても良い。入力部6は、制御処理部3に接続され、例えば、被監視者Obを監視する上で必要な各種データをセンサ装置SUに入力する機器であり、例えば、所定の機能を割り付けられた複数の入力スイッチやマウス等である。表示部7は、制御処理部3に接続され、制御処理部3の制御に従って、入力部6から入力されたデータ等を表示する機器であり、例えばCRTディスプレイ、LCDおよび有機ELディスプレイ等の表示装置である。なお、入力部6および表示部7からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部6は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置である。このタッチパネルでは、表示部7の表示面上に位置入力装置が設けられ、表示部7に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容としてセンサ装置SUに入力される。このような入力部6および表示部7が備えられている場合に、制御処理部3は、例えば、図3に示す設定領域および行動検知線を入力するための設定画面を表示部7に表示し、入力部6によって設定領域ARおよび行動検知線ALを受け付けても良い。この場合、前記設定画面には、カメラ1で取得した画像が表示される。ユーザは、例えば入力部6としてのマウス等のポインティングデバイスを用いて、あるいは、入力部6および表示部7で構成されるタッチパネルに対するタップ操作によって、前記設定画面に設定領域ARの各頂点PT1〜PT4および行動検知線ALの両端点PT2、PT3それぞれを入力する。設定領域ARおよび行動検知線ALを受け付けると、領域設定処理部32は、この入力部6で受け付けた設定領域AR(4頂点PT1〜PT4)を記憶部5の設定領域記憶部51に記憶し、行動検知線設定処理部33は、この入力部6で受け付けた行動検知線AL(両端点PT2、PT3)を記憶部5の行動検知線記憶部52に記憶する。このような場合、入力部6および行動検知線設定処理部33は、行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部の他の一例に相当する。 The sensor device SU may further include an input unit 6 and a display unit 7, as shown by the broken line in FIG. The input unit 6 is a device that is connected to the control processing unit 3 and inputs, for example, various data necessary for monitoring the monitored person Ob to the sensor device SU, and includes, for example, a plurality of devices to which predetermined functions are assigned. An input switch, a mouse, etc. The display unit 7 is a device that is connected to the control processing unit 3 and displays data or the like input from the input unit 6 under the control of the control processing unit 3, and is a display device such as a CRT display, an LCD, an organic EL display, or the like. Is. A touch panel may be composed of the input unit 6 and the display unit 7. In the case of configuring this touch panel, the input unit 6 is a position input device that detects and inputs an operation position such as a resistance film type or an electrostatic capacitance type. In this touch panel, a position input device is provided on the display surface of the display unit 7, one or more input content candidates that can be input are displayed on the display unit 7, and the display position where the user displays the input content that the user wants to input is displayed. When is touched, the position is detected by the position input device, and the display content displayed at the detected position is input to the sensor device SU as the operation input content of the user. When such an input unit 6 and display unit 7 are provided, the control processing unit 3 displays on the display unit 7 a setting screen for inputting the setting area and the action detection line shown in FIG. 3, for example. The input unit 6 may receive the setting area AR and the action detection line AL. In this case, the image acquired by the camera 1 is displayed on the setting screen. The user uses, for example, a pointing device such as a mouse as the input unit 6 or performs a tap operation on the touch panel configured by the input unit 6 and the display unit 7, and the vertices PT1 to PT4 of the setting area AR on the setting screen. And both end points PT2 and PT3 of the action detection line AL are input. Upon receiving the setting area AR and the action detection line AL, the area setting processing unit 32 stores the setting area AR (4 vertices PT1 to PT4) received by the input unit 6 in the setting area storage unit 51 of the storage unit 5, The action detection line setting processing unit 33 stores the action detection line AL (end points PT2, PT3) received by the input unit 6 in the action detection line storage unit 52 of the storage unit 5. In such a case, the input unit 6 and the action detection line setting processing unit 33 correspond to another example of the action detection line reception unit that receives the action detection line from the outside and stores the action detection line in the storage unit.

位置関係演算部34は、設定領域ARに対するカメラ1の位置関係を求めるものである。本実施形態では、位置関係演算部34は、行動検知線ALを考慮して、設定領域ARに対する前記カメラ1の位置関係を求める。より具体的には、例えば、図5に示すように、位置関係演算部34は、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係を求め、この求めた前記カメラ1の位置関係を記憶部5に記憶する。図5に示すように、行動検知線ALに沿う左右方向をX方向とし、これに直交する前後方向をY方向とすると、例えば、図5Aに示すように、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が無く、かつ、行動検知線ALとY方向のいずれかの位置で重なっている場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として手前PO2と演算する。また例えば、図5Bに示すように、画像中心CPが設定領域AR内にある場合、位置関係演算部34は、前記カメラ1の位置関係として直上PO1と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が有り、かつ、行動検知線ALとY方向のいずれかの位置で重なっている場合(すなわち、画像中心のX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として奥PO3と演算する。また例えば、画像中心CPが設定領域ARよりX方向または−X方向にあり(横にあり)、かつ、設定領域ARとX方向のいずれかの位置で重なっている場合(すなわち、画像中心CPのY座標値が設定領域ARにおける最小のY座標値から最大のY座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として横PO4と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が無く、かつ、行動検知線ALとY方向のいずれの位置でも重なっていない場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれない場合)、位置関係演算部34は、前記カメラ1の位置関係として斜め前PO5と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が有り、かつ、行動検知線ALとY方向のいずれの位置でも重なっていない場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれない場合)、位置関係演算部34は、前記カメラ1の位置関係として斜め奥PO6と演算する。なお、図5Aにおいて、上述では、行動検知線ALが点PT2と点PT3と間の線分であるので、位置関係演算部34は、前記カメラ1の位置関係として手前PO2と演算したが、仮に、行動検知線ALが点PT3と点PT4との間の線分である場合には、位置関係演算部34は、前記カメラ1の位置関係として横PO4と演算することになる。 The positional relationship calculation unit 34 calculates the positional relationship of the camera 1 with respect to the setting area AR. In the present embodiment, the positional relationship calculation unit 34 determines the positional relationship of the camera 1 with respect to the setting area AR in consideration of the action detection line AL. More specifically, for example, as shown in FIG. 5, the positional relationship calculation unit 34 determines the positional relationship of the camera 1 depending on the position of the image center CP with respect to the setting area AR and the action detection line AL. Then, the obtained positional relationship of the camera 1 is stored in the storage unit 5. As shown in FIG. 5, assuming that the left-right direction along the action detection line AL is the X direction and the front-rear direction orthogonal thereto is the Y direction, for example, as shown in FIG. 5A, the image center CP is less than the set area AR. In the Y direction (in front), there is no boundary of the set area AR between the action detection line AL and the image center CP, and the action detection line AL and the action detection line AL overlap at any position in the Y direction. In this case (that is, when the X coordinate value of the image center CP is included in the range from the X coordinate value of the one end PT2 to the X coordinate value of the other end PT3 in the action detection line AL), the positional relationship calculation unit 34 causes the camera As the positional relationship of 1, the front PO2 is calculated. Further, for example, as shown in FIG. 5B, when the image center CP is within the setting area AR, the positional relationship calculating unit 34 calculates the positional relationship of the camera 1 to be PO1 directly above. Further, for example, the image center CP is in the -Y direction (in front of) the setting area AR, there is a boundary of the setting area AR between the action detection line AL and the image center CP, and the action detection line AL. And the X-coordinate value of the image center is included in the range from the X-coordinate value of the one end PT2 to the X-coordinate value of the other end PT3 of the action detection line AL. ), the positional relationship calculation unit 34 calculates the back PO3 as the positional relationship of the camera 1. Further, for example, when the image center CP is in the X direction or −X direction (horizontal) from the setting area AR and overlaps with the setting area AR at any position in the X direction (that is, the image center CP is When the Y coordinate value is included in the range from the minimum Y coordinate value to the maximum Y coordinate value in the setting area AR), the positional relationship calculation unit 34 calculates lateral PO4 as the positional relationship of the camera 1. Further, for example, the image center CP is in the -Y direction (in front of) the setting area AR, there is no boundary of the setting area AR between the action detection line AL and the image center CP, and the action detection line AL. And the Y coordinate does not overlap at any position (that is, the X coordinate value of the image center CP is not included in the range from the X coordinate value of the one end PT2 to the X coordinate value of the other end PT3 on the action detection line AL). In this case, the positional-relationship calculation unit 34 calculates diagonally front PO5 as the positional relationship of the camera 1. Further, for example, the image center CP is in the -Y direction (in front of) the setting area AR, there is a boundary of the setting area AR between the action detection line AL and the image center CP, and the action detection line AL. And the Y coordinate does not overlap at any position (that is, the X coordinate value of the image center CP is not included in the range from the X coordinate value of the one end PT2 to the X coordinate value of the other end PT3 on the action detection line AL). In this case), the positional relationship calculation unit 34 calculates the diagonal relationship PO6 as the positional relationship of the camera 1. Note that, in FIG. 5A, since the action detection line AL is the line segment between the points PT2 and PT3 in the above description, the positional-relationship calculation unit 34 calculated that the positional relationship of the camera 1 is the front PO2. When the action detection line AL is a line segment between the points PT3 and PT4, the positional relationship calculation unit 34 calculates lateral PO4 as the positional relationship of the camera 1.

なお、カメラ1が壁上方に配設される等によってカメラ1が斜め下向きにあおり角を持つ場合では、ユーザ入力や公知の常套手段による画像に基づく自動計算によって求めたあおり角に基づいて、カメラ1の配設位置を床面(画像上)に射影したカメラ1の直下位置が求められ、この求められた直下位置が上述の画像中心CPとされ、上述と同様に、前記カメラ1の位置関係が演算される。 When the camera 1 has a tilting angle in a diagonally downward direction due to the camera 1 being disposed above the wall, the camera 1 is based on the tilting angle obtained by user input or automatic calculation based on an image by a known conventional means. The position directly below the camera 1 obtained by projecting the arrangement position of 1 on the floor surface (on the image) is obtained, and the obtained position directly below is the above-mentioned image center CP, and the positional relationship of the camera 1 is similar to the above. Is calculated.

アルゴリズム選択部35は、記憶部5の行動検知アルゴリズム記憶部53に記憶された前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知するものである。より具体的には、本実施形態では、アルゴリズム選択部35は、位置関係演算部34で求めた前記カメラ1の位置関係を判定し、この判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が直上PO1である場合には、上述した直上用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が手前PO2である場合には、上述した手前用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が奥PO3である場合には、上述した奥用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が横PO4である場合には、上述した横用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が斜め前PO5である場合には、上述した斜め前用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が斜め奥PO6である場合には、上述した斜め奥用の行動検知アルゴリズムを選択し、そして、この選択結果を行動検知処理部36へ通知する。 The algorithm selection unit 35 selects an action detection algorithm from the plurality of action detection algorithms stored in the action detection algorithm storage unit 53 of the storage unit 5 based on the positional relationship obtained by the positional relationship calculation unit 34. The selection result is notified to the action detection processing unit 36. More specifically, in the present embodiment, the algorithm selection unit 35 determines the positional relationship of the camera 1 obtained by the positional relation calculation unit 34, and as a result of this determination, the camera determined by the positional relation calculation unit 34. In the case where the positional relationship of No. 1 is immediately above PO1, the above-mentioned action detection algorithm for immediately above is selected, and as a result of the determination, the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 is near PO2. If the above-mentioned front action detection algorithm is selected and the result of the determination is that the positional relationship of the camera 1 obtained by the positional relation calculation unit 34 is the back PO3, the back action detection described above is performed. When an algorithm is selected and the result of the determination is that the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 is horizontal PO4, the action detection algorithm for horizontal use described above is selected, and the result of the determination is When the positional relationship of the camera 1 obtained by the positional relationship calculating unit 34 is the front diagonal PO5, the above-described diagonal forward action detection algorithm is selected, and the result of the determination is obtained by the positional relationship calculating unit 34. When the positional relationship of the camera 1 is the diagonally rearward PO6, the behavioral detection algorithm for the diagonally rearward described above is selected, and the behavioral detection processing unit 36 is notified of the selection result.

行動検知処理部36は、アルゴリズム選択部35で選択した行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知するものである。 The behavior detection processing unit 36 detects a predetermined behavior (presence or absence of waking up and presence or absence of wakeup in the present embodiment) of the monitored person Ob based on the image acquired by the camera 1 by the behavior detection algorithm selected by the algorithm selection unit 35. Then, the notification result is notified to the notification processing unit 37.

通知処理部37は、行動検知処理部36で検知した前記所定の行動(本実施形態では、起床および離床)を外部に通知するものである。より具体的には、通知処理部37は、検知した前記所定の行動(状態、状況)を表す情報(検知行動情報(本実施形態では起床および離床のうちの1または複数を表す情報))、前記所定の行動が検知された被監視者Obを特定し識別するための識別子情報(前記被監視者Obを検知しているセンサ装置SUを特定し識別するための識別子情報)、および、前記所定の行動の検知に用いられた画像等を収容した通信信号(監視情報通信信号)を生成し、通信IF部4で管理サーバ装置SVへ送信する。 The notification processing unit 37 notifies the outside of the predetermined action (wake-up and wake-up in the present embodiment) detected by the action detection processing unit 36. More specifically, the notification processing unit 37 is information indicating the detected predetermined action (state, situation) (detection action information (in this embodiment, information indicating one or more of getting up and leaving)), Identifier information for identifying and identifying the monitored person Ob in which the predetermined action is detected (identifier information for identifying and identifying the sensor device SU detecting the monitored person Ob), and the predetermined The communication IF unit 4 generates a communication signal (monitoring information communication signal) containing an image or the like used for detecting the behavior of the above and transmits it to the management server device SV.

ストリーミング処理部38は、ネットワークNWおよび通信IF部4を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、カメラ1で生成した動画(例えばライブの動画)をストリーミング再生で通信IF部4およびネットワークNWを介して配信するものである。 When there is a request for distribution of a moving image from the fixed terminal device SP or the mobile terminal device TA via the network NW and the communication IF unit 4, the streaming processing unit 38 makes a request for the fixed terminal device SP or the mobile terminal device. A moving image (for example, a live moving image) generated by the camera 1 is distributed to the TA by streaming reproduction via the communication IF unit 4 and the network NW.

ナースコール処理部39は、被監視者Obからナースコールを受け付ける図略のナースコール押しボタンスイッチでその入力操作を受け付けた場合に、通信IF部4およびネットワークNWを介して、固定端末装置SPまたは携帯端末装置TAとの間で音声通話を可能にするものである。 When the nurse call processing unit 39 receives an input operation by a nurse call push button switch (not shown) that receives a nurse call from the monitored person Ob, the nurse call processing unit 39 receives the fixed terminal device SP or the fixed terminal device SP via the communication IF unit 4 and the network NW. This enables a voice call with the mobile terminal device TA.

図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。 In FIG. 1, as an example, four first to fourth sensor devices SU-1 to SU-4 are shown, and the first sensor device SU-1 is Mr. A who is one of the monitored persons Ob. The second sensor device SU-2 is arranged in the living room RM-1 (not shown) of Ob-1 and is arranged in the living room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor device SU-3 is installed in the room RM-3 (not shown) of Mr. C. Ob-3 who is one of the monitored subjects Ob, and the fourth sensor device is the monitored subject. It is arranged in the room RM-4 (not shown) of Mr. D Ob-4 who is one of the Ob.

次に、本実施形態の動作について説明する。図15は、前記センサ装置の動作を示すメインルーチンのフローチャートである。図16は、図15に示すメインルーチンで用いられる行動検知の動作を示すサブルーチンのフローチャートである。 Next, the operation of this embodiment will be described. FIG. 15 is a flowchart of the main routine showing the operation of the sensor device. FIG. 16 is a flowchart of a subroutine showing the action detection operation used in the main routine shown in FIG.

このような構成の被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUでは、その制御処理プログラムの実行によって、制御処理部3には、制御部31、領域設定処理部32、行動検知線設定処理部33、位置関係演算部34、アルゴリズム選択部35、行動検知処理部36、通知処理部37、ストリーミング処理部38およびナースコール処理部39が機能的に構成される。 In the monitored person monitoring system MS having such a configuration, each of the devices SU, SV, SP, and TA, when the power is turned on, executes necessary initialization of each unit and starts its operation. Further, in the sensor device SU, by executing the control processing program, the control processing unit 3 has the control unit 31, the area setting processing unit 32, the action detection line setting processing unit 33, the positional relationship calculation unit 34, and the algorithm selecting unit 35. The action detection processing unit 36, the notification processing unit 37, the streaming processing unit 38, and the nurse call processing unit 39 are functionally configured.

図15において、まず、制御処理部3は、領域設定処理部32によって設定領域ARが設定され(S41)、行動検知線設定処理部33によって行動検知線ALが設定される(S42)。より具体的には、上述したように、本実施形態では、固定端末装置SPまたは携帯端末装置TAから前記設定要求通信信号を通信IF部4で受信すると、制御処理部3は、前記設定画像通信信号を通信IF部4で返信する。固定端末装置SPまたは携帯端末装置TAは、例えば図3に示す前記設定画面を表示し、ユーザ(監視者および被監視者等)は、前記設定画面に設定領域ARおよび行動検知線ALそれぞれを入力する。設定領域ARおよび行動検知線ALを受け付けると、固定端末装置SPまたは携帯端末装置TAは、前記設定情報通信信号をセンサ装置SUへ送信する。この設定情報通信信号を通信IF部4で受信すると、領域設定処理部32は、この受信した設定情報通信信号に収容された設定領域ARを取り出して記憶部5の設定領域記憶部51に記憶することで設定領域ARをセンサ装置SUに設定し、行動検知線設定処理部33は、この受信した設定情報通信信号に収容された行動検知線ALを取り出して記憶部5の行動検知線記憶部52に記憶することで行動検知線ALをセンサ装置SUに設定する。 In FIG. 15, first, in the control processing unit 3, the area setting processing unit 32 sets the setting area AR (S41), and the action detection line setting processing unit 33 sets the action detection line AL (S42). More specifically, as described above, in the present embodiment, when the communication IF unit 4 receives the setting request communication signal from the fixed terminal device SP or the mobile terminal device TA, the control processing unit 3 causes the setting image communication to be performed. The signal is returned by the communication IF unit 4. The fixed terminal device SP or the mobile terminal device TA displays, for example, the setting screen shown in FIG. 3, and the user (monitoring person, monitored person, etc.) inputs the setting area AR and the action detection line AL to the setting screen. To do. Upon receiving the setting area AR and the action detection line AL, the fixed terminal device SP or the mobile terminal device TA transmits the setting information communication signal to the sensor device SU. When this setting information communication signal is received by the communication IF unit 4, the area setting processing unit 32 takes out the setting area AR contained in the received setting information communication signal and stores it in the setting area storage unit 51 of the storage unit 5. As a result, the setting area AR is set in the sensor device SU, and the action detection line setting processing unit 33 takes out the action detection line AL contained in the received setting information communication signal and takes the action detection line storage unit 52 of the storage unit 5. The action detection line AL is set in the sensor device SU by storing in the sensor device SU.

次に、制御処理部3は、位置関係演算部34によって設定領域ARに対するカメラ1の位置関係を求め、この求めた前記カメラ1の位置関係を記憶部5に記憶する(S43)。より具体的には、上述したように、本実施形態では、位置関係演算部34は、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係を求める。 Next, the control processing unit 3 obtains the positional relation of the camera 1 with respect to the setting area AR by the positional relation calculating unit 34, and stores the obtained positional relation of the camera 1 in the storage unit 5 (S43). More specifically, as described above, in the present embodiment, the positional relationship calculation unit 34 determines the position of the camera 1 depending on the position of the image center CP with respect to the set area AR and the action detection line AL. Seek a relationship.

次に、制御処理部3は、カメラ1によって被監視者Obを被監視者Obの上方から撮像した画像を取得する。これによって1フレーム分の前記画像が取得され、センサ装置SUに入力される(S44)。 Next, the control processing unit 3 acquires an image of the monitored person Ob taken by the camera 1 from above the monitored person Ob. As a result, the image for one frame is acquired and input to the sensor device SU (S44).

次に、制御処理部3は、行動検知処理部36によって、処理S44で取得した前記画像に基づいて被監視者Obにおける所定の行動を検知する後述の行動検知処理を実行し(S45)、次のフレームの画像に対し、この行動検知処理を実行するべく、処理を処理S44へ戻す。すなわち、制御処理部3は、処理S44および処理S45を繰り返し実行することで、1フレームごとに行動検知処理を実行する。 Next, the control processing unit 3 executes, by the action detection processing unit 36, a later-described action detection process of detecting a predetermined action of the monitored person Ob based on the image acquired in the process S44 (S45), The process returns to step S44 in order to execute this action detection process on the image of the frame. That is, the control processing unit 3 repeatedly executes the processing S44 and the processing S45 to execute the action detection processing for each frame.

次に、行動検知処理S45についてさらに説明する。この行動検知処理S45では、図16において、まず、制御処理部3は、アルゴリズム選択部35によって、記憶部5の行動検知アルゴリズム記憶部53に記憶された前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて行動検知アルゴリズムを選択する(S51)。より具体的には、アルゴリズム選択部35は、記憶部5の記憶内容を参照することで、位置関係演算部34で求めた前記カメラ1の位置関係を判定する。 Next, the action detection process S45 will be further described. In this action detection process S45, in FIG. 16, the control processing unit 3 first causes the algorithm selection unit 35 to select a positional relationship among the plurality of action detection algorithms stored in the action detection algorithm storage unit 53 of the storage unit 5. An action detection algorithm is selected based on the positional relationship obtained by the calculation unit 34 (S51). More specifically, the algorithm selection unit 35 determines the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 by referring to the storage content of the storage unit 5.

この判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が直上PO1である場合(直上)には、アルゴリズム選択部35は、上述した直上用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−1を実行する。この処理S52−1では、行動検知処理部36は、アルゴリズム選択部35で選択した直上用の行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。すなわち、行動検知処理部36は、直上用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=直上)で前記画像に基づいて被監視者Obにおける起床の有無および離床の有無を判定し、起床または離床を判定すると、これを検知結果として通知処理部37へ通知し、この行動検知処理S45を終了する。 As a result of this determination, when the positional relationship of the camera 1 obtained by the positional relationship calculating unit 34 in the process S43 is immediately above PO1 (immediately above), the algorithm selecting unit 35 selects the above-mentioned action detection algorithm for immediately above. Then, the action detection processing unit 36 is notified of this selection result. The action detection processing unit 36 that has received this notification executes processing S52-1. In this process S52-1, the action detection processing unit 36 causes the monitored person Ob to perform a predetermined action (in the present embodiment, based on the image acquired by the camera 1 by the action detection algorithm for immediately above selected by the algorithm selection unit 35). The presence/absence of waking up and the presence/absence of leaving the bed) are detected, the detection result is notified to the notification processing unit 37, and the action detection processing S45 is ended. That is, the behavior detection processing unit 36 determines whether or not the person Ob to be awakened and whether to leave the bed based on the image in each process (Xn=immediately above) according to the above-described flowcharts shown in FIGS. 6 to 8 for immediately above. When the presence/absence is determined and it is determined whether the user is getting up or leaving the floor, this is notified to the notification processing unit 37 as a detection result, and the action detection processing S45 is ended.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が手前PO2である場合(手前)には、アルゴリズム選択部35は、上述した手前用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−2を実行する。この処理S52−2では、行動検知処理部36は、アルゴリズム選択部35で選択した手前用の行動検知アルゴリズム(すなわち、手前用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=手前))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。 As a result of the determination in the process S51, when the positional relationship of the camera 1 obtained by the positional relationship calculating unit 34 in the process S43 is the front PO2 (front), the algorithm selecting unit 35 detects the front action detection described above. An algorithm is selected, and the action detection processing unit 36 is notified of the selection result. The action detection processing unit 36 that has received this notification executes processing S52-2. In this process S52-2, the action detection processing unit 36 selects the action detection algorithm for the front side selected by the algorithm selection unit 35 (that is, each process according to the above-described flowcharts shown in FIGS. 6 to 8 for the front side ( Xn=front)), a predetermined action (presence/absence of wake-up and presence/absence of wake-up) in the monitored person Ob is detected based on the image acquired by the camera 1, and the detection result is notified to the notification processing unit 37. Then, the action detection processing S45 is finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が横PO4である場合(横)には、アルゴリズム選択部35は、上述した横用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−3を実行する。この処理S52−3では、行動検知処理部36は、アルゴリズム選択部35で選択した横用の行動検知アルゴリズム(すなわち、横用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=横))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。 As a result of the determination in the process S51, when the positional relationship of the camera 1 obtained by the positional relationship calculating unit 34 in the process S43 is horizontal PO4 (horizontal), the algorithm selecting unit 35 causes the horizontal behavior detection described above. An algorithm is selected, and the action detection processing unit 36 is notified of the selection result. The action detection processing unit 36 that has received this notification executes processing S52-3. In this process S52-3, the action detection processing unit 36 determines the action detection algorithm for horizontal use selected by the algorithm selection unit 35 (that is, each process according to the above-described flowcharts shown in FIGS. 6 to 8 for horizontal use ( Xn=horizontal)), a predetermined action (presence/absence of wake-up and presence/absence of wake-up) of the monitored person Ob is detected based on the image acquired by the camera 1, and the detection result is notified to the notification processing unit 37. Then, the action detection processing S45 is finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が奥PO3である場合(奥)には、アルゴリズム選択部35は、上述した奥用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−4を実行する。この処理S52−4では、行動検知処理部36は、アルゴリズム選択部35で選択した奥用の行動検知アルゴリズム(すなわち、奥用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=奥))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。 As a result of the determination in the process S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in the process S43 is the back PO3 (back), the algorithm selection unit 35 causes the back action detection described above. An algorithm is selected, and the action detection processing unit 36 is notified of the selection result. The action detection processing unit 36 that has received this notification executes processing S52-4. In this process S52-4, the action detection processing unit 36 selects the action detection algorithm for the depth selected by the algorithm selection unit 35 (that is, each process according to the above-described flowchart shown in FIGS. 6 to 8 for depth ( Xn=back)), a predetermined action (presence/absence of wakeup and presence/absence of wakeup) of the monitored person Ob is detected based on the image acquired by the camera 1, and the detection result is notified to the notification processing unit 37. Then, the action detection processing S45 is finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が斜め前PO5である場合(斜め前)には、アルゴリズム選択部35は、上述した斜め前用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−5を実行する。この処理S52−5では、行動検知処理部36は、アルゴリズム選択部35で選択した斜め前用の行動検知アルゴリズム(すなわち、斜め前用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=斜め前))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。 As a result of the determination in the process S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in the process S43 is diagonally forward PO5 (obliquely forward), the algorithm selecting unit 35 uses the diagonally forward The action detection algorithm is selected and the action detection processing unit 36 is notified of the selection result. The action detection processing unit 36 that has received this notification executes processing S52-5. In this process S52-5, the action detection processing unit 36 follows the action detection algorithm for the diagonal front selected by the algorithm selection unit 35 (that is, according to the above-described flowcharts shown in FIGS. 6 to 8 for the diagonal front). A predetermined action (presence/absence of wake-up and presence/absence of wake-up in the present embodiment) of the monitored person Ob is detected based on the image acquired by the camera 1 in the processing (Xn=obliquely front)), and the detection result is notified by the processing unit. This is notified to 37 and this action detection processing S45 is ended.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が斜め奥PO6である場合(斜め奥)には、アルゴリズム選択部35は、上述した斜め奥用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−6を実行する。この処理S52−6では、行動検知処理部36は、アルゴリズム選択部35で選択した斜め奥用の行動検知アルゴリズム(すなわち、斜め奥用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=斜め奥))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。 As a result of the determination in the process S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in the process S43 is the diagonal depth PO6 (diagonal depth), the algorithm selection unit 35 uses the above-described diagonal depth The action detection algorithm is selected, and the action detection processing unit 36 is notified of the selection result. The action detection processing unit 36 that has received this notification executes processing S52-6. In this process S52-6, the action detection processing unit 36 follows the action detection algorithm for diagonal depths selected by the algorithm selection unit 35 (that is, according to the above-described flowcharts shown in FIGS. 6 to 8 for diagonal depths). A predetermined action (presence/absence of wake-up and presence/absence of wake-up in the present embodiment) of the monitored person Ob is detected based on the image acquired by the camera 1 in the process (Xn=oblique depth)), and the detection result is notified by the processing unit. 37 is notified, and this action detection processing S45 is ended.

そして、上述の図7に示す処理S23nによる起床の通知または上述の図8に示す処理S33nによる離床の通知を受けると、通知処理部37は、被監視者Obの状態として判定された判定結果を表す判定結果情報(本実施形態では、起床および離床)や被監視者Obの静止画の画像データ等の監視情報を収容した通信信号(監視情報通信信号)をネットワークNWを介して管理サーバ装置SVへ送信する。 When receiving the notification of getting up by the processing S23n shown in FIG. 7 or the notification of leaving the bed by the processing S33n shown in FIG. A communication signal (monitoring information communication signal) containing the judgment result information (in the present embodiment, getting up and leaving) and monitoring information such as image data of a still image of the monitored person Ob is sent via the network NW to the management server device SV. Send to.

管理サーバ装置SVは、前記監視情報通信信号をネットワークNWを介してセンサ装置SUから受信すると、この監視情報通信信号に収容された判定結果情報や静止画の画像データ等の監視情報をその記憶部に記憶(記録)する。そして、管理サーバ装置SVは、これら判定結果情報や静止画の画像データ等の監視情報を収容した監視情報通信信号を端末装置(本実施形態では固定端末装置SPおよび携帯端末装置TA)へ送信する。これによって被監視者Obの状態(状況)が端末装置SP、TAを介して例えば看護師や介護士等の監視者に報知される。 When the management server device SV receives the monitoring information communication signal from the sensor device SU via the network NW, the management server device SV stores the monitoring information such as the determination result information and the still image data contained in the monitoring information communication signal in its storage unit. Memorize (record) in. Then, the management server device SV transmits a monitoring information communication signal accommodating the determination result information and the monitoring information such as the image data of the still image to the terminal device (the fixed terminal device SP and the mobile terminal device TA in this embodiment). .. As a result, the state (situation) of the monitored person Ob is notified to the monitoring person such as a nurse or a caregiver via the terminal devices SP and TA.

固定端末装置SPおよび携帯端末装置TAは、前記監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この監視情報通信信号に収容された前記監視情報を表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、各被監視者Obを検知して各被監視者Obを監視している。 When the fixed terminal device SP and the mobile terminal device TA receive the monitoring information communication signal from the management server device SV via the network NW, the fixed terminal device SP and the portable terminal device TA display the monitoring information contained in the monitoring information communication signal. With such an operation, the monitored person monitoring system MS detects each monitored person Ob by each sensor device SU, the management server device SV, the fixed terminal device SP, and the mobile terminal device TA, and detects each monitored person Ob. I'm watching.

以上説明したように、被監視者監視装置の一例である被監視者監視システムMSならびに行動検知装置、行動検知方法および行動検知プログラムを用いたその一例のセンサ装置SUは、複数の行動検知アルゴリズムの中から、設定領域ARに対するカメラ1の位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者Obにおける所定の行動(本実施形態では起床および離床)を検知するので、カメラ1が配設される配設位置にかかわらず、被監視者Obにおける前記所定の行動をより高精度に検知できる。また、カメラ1が配設され、行動検知の開始後に、寝具BTの位置が変更されると、寝具BTに対するカメラ1の位置関係が変わってしまうが、上記被監視者監視システムMSおよびセンサ装置SUは、記憶部5に記憶された設定領域ARを変更後の寝具BTの領域に変更することで、このような寝具BTの位置の変更による前記カメラ1の位置関係の変更にも対処できる。したがって、上記被監視者監視システムMSおよびセンサ装置SUは、寝具BTの位置にかかわらず、被監視者Obにおける前記所定の行動をより高精度に検知できる。 As described above, the monitored person monitoring system MS which is an example of the monitored person monitoring apparatus, the action detection device, and the sensor device SU of the example using the action detection method and the action detection program are provided with a plurality of action detection algorithms. Since an action detection algorithm according to the positional relationship of the camera 1 with respect to the setting area AR is selected from the inside, and the predetermined action (wake-up and get-off in the present embodiment) of the monitored person Ob is detected by the selected action detection algorithm. The predetermined behavior of the monitored person Ob can be detected with higher accuracy regardless of the position where the camera 1 is arranged. Further, when the position of the bedding BT is changed after the camera 1 is provided and the action detection is started, the positional relationship of the camera 1 with respect to the bedding BT is changed. However, the monitored person monitoring system MS and the sensor device SU are described above. Can change the positional relationship of the camera 1 by changing the position of the bedding BT by changing the setting area AR stored in the storage unit 5 to the area of the changed bedding BT. Therefore, the monitored person monitoring system MS and the sensor device SU can detect the predetermined behavior of the monitored person Ob with higher accuracy regardless of the position of the bedding BT.

上記被監視者監視システムMSおよびセンサ装置SUは、前記カメラ1の位置関係として直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6のいずれであるかを求める位置関係演算部34を備えるので、カメラ1が直上、手前、奥、横、斜め前および斜め奥のいずれかに配設される場合に対処でき、これらの場合に、被監視者Obにおける前記所定の行動をより高精度に検知できる。 The monitored person monitoring system MS and the sensor device SU determine the positional relationship of the camera 1 as to the positional relationship between the camera 1 such as the immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonally front PO5, and the diagonally back PO6. Since the camera 1 is provided with 34, it is possible to deal with the case where the camera 1 is arranged immediately above, in front, behind, sideways, diagonally in front, or diagonally in the back, and in these cases, the predetermined action of the monitored person Ob is more effective. It can be detected with high accuracy.

上記被監視者監視システムMSおよびセンサ装置SUは、図9を用いて上述した直上用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が直上PO1である場合に、画像上における設定領域AR外の被監視者Obの第1面積S1および前記画像上における設定領域ARと被監視者Obとが重なった第2面積S2を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。 The monitored person monitoring system MS and the sensor device SU include the above-mentioned action detection algorithm for directly above, so that when the positional relationship of the camera 1 is immediately above PO1, the set area AR on the image is set. Whether the monitored person Ob wakes up by a relatively simple image process of obtaining the first area S1 of the outside monitored person Ob and the second area S2 in which the set area AR on the image and the monitored person Ob overlap each other. And it is possible to determine whether or not the person is out of bed.

上記被監視者監視システムMSおよびセンサ装置SUは、図10を用いて上述した手前用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が手前PO2である場合に、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waを求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。 Since the monitored person monitoring system MS and the sensor device SU include the front action detection algorithm described above with reference to FIG. 10, when the positional relationship of the camera 1 is the front PO2, the action detection line on the image is displayed. The presence/absence of waking up and the leaving of the monitored person Ob can be determined by relatively simple image processing of obtaining the distance Wa between the AL and the foot position FP of the monitored person Ob.

上記被監視者監視システムMSおよびセンサ装置SUは、図11を用いて上述した横用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が横PO4である場合に、画像上において、設定領域ARの横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。 Since the monitored person monitoring system MS and the sensor device SU include the lateral action detection algorithm described above with reference to FIG. 11, when the positional relationship of the camera 1 is the lateral PO4, the set area is displayed on the image. A first boundary line BL1 located closest to the camera 1 along the lateral direction of AR and a second boundary line BL2 located farthest from the camera 1 along the lateral direction of the setting area AR. The presence/absence of rising and leaving of the monitored person Ob can be determined by relatively simple image processing of obtaining the third area S3 in which the set area AR and the monitored person Ob overlap each other.

上記被監視者監視システムMSおよびセンサ装置SUは、図12を用いて上述した奥用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が奥PO3である場合に、前記第2面積S2を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。 Since the monitored person monitoring system MS and the sensor device SU include the back action detection algorithm described above with reference to FIG. 12, when the positional relationship of the camera 1 is the back PO3, the second area S2 is The presence/absence of waking up and the presence/absence of leaving the monitored person Ob can be determined by a relatively simple image processing of obtaining.

上記被監視者監視システムMSおよびセンサ装置SUは、図13を用いて上述した斜め前用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が斜め前PO5である場合に、前記距離Waおよび前記第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。 Since the monitored person monitoring system MS and the sensor device SU include the behavior detecting algorithm for diagonally forward movement described above with reference to FIG. 13, when the positional relationship of the camera 1 is diagonally forward PO5, the distance Wa and The presence or absence of waking up and the presence of leaving the monitored person Ob can be determined by relatively simple image processing of obtaining the third area S3.

記被監視者監視システムMSおよびセンサ装置SUは、図14を用いて上述した斜め奥用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が斜め奥PO6である場合に、前記第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。 Since the monitored person monitoring system MS and the sensor device SU include the behavior detecting algorithm for the diagonal depth described above with reference to FIG. 14, when the positional relationship of the camera 1 is the diagonal depth PO6, the third area is used. The presence/absence of waking up and the presence/absence of leaving of the monitored person Ob can be determined by relatively simple image processing of obtaining S3.

上記被監視者監視システムMSおよびセンサ装置SUは、行動検知線ALを外部から受け付けて記憶部5に記憶する前記行動検知線受付部の一例として、通信IF部4および行動検知線設定処理部33を備えるので、行動検知線ALを簡易に入力して設定できる。 The monitored person monitoring system MS and the sensor device SU receive the action detection line AL from the outside and store it in the storage unit 5 as an example of the action detection line reception unit, and the communication IF unit 4 and the action detection line setting processing unit 33. Since it is provided, the action detection line AL can be easily input and set.

なお、上述の実施形態では、位置関係演算部34にて、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係が求められているが、図3に示すカメラ1で取得した画像に画像中心CPも一緒に表示部7に表示され、ユーザーの入力部6の操作によって設定領域および行動検知線の入力が受け付けられ、画像中心CPと設定領域ARおよび行動検知線ALの位置関係とされても良い。 In the above embodiment, the positional relationship calculation unit 34 determines the positional relationship of the camera 1 depending on where the image center CP is with respect to the setting area AR and the action detection line AL. 3, the image center CP is also displayed on the display unit 7 in the image acquired by the camera 1 shown in FIG. The positional relationship between the area AR and the action detection line AL may be used.

また、上述の実施形態では、アルゴリズム選択部35は、行動検知処理S45の処理S51で、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択したが、位置関係演算部34によって前記カメラ1の位置関係を求めた後の他のタイミングで行動検知アルゴリズムを選択しても良い。例えば、アルゴリズム選択部35は、上述の処理S43で位置関係演算部34が前記カメラ1の位置関係を求めた直後に、行動検知アルゴリズムを選択しても良い。 Further, in the above-described embodiment, the algorithm selection unit 35 performs the action detection algorithm based on the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 from the plurality of action detection algorithms in the process S51 of the action detection process S45. However, the action detection algorithm may be selected at another timing after the positional relationship calculation unit 34 obtains the positional relationship of the camera 1. For example, the algorithm selection unit 35 may select the action detection algorithm immediately after the positional relationship calculation unit 34 obtains the positional relationship of the camera 1 in the above-described processing S43.

また、上述の実施形態において、アルゴリズム選択部35は、所定期間ごとに、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択して良く、また、ユーザから行動検知アルゴリズムの選択処理の要求を受け付けた場合に、割り込み処理で、アルゴリズム選択部35は、所定期間ごとに、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択して良い。特に、ユーザによる設定領域ARの設定や行動検知線ALの設定後に、前記ユーザによる割り込み処理で、アルゴリズム選択部35は、行動検知アルゴリズムを選択することが好ましい。これによれば、センサ装置SUの再配置や寝具BTの再配置に適切に対処でき、被監視者Obにおける前記所定の行動をより高精度に検知できる。 Further, in the above-described embodiment, the algorithm selection unit 35 selects the action detection algorithm based on the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 from among a plurality of action detection algorithms for each predetermined period. In addition, when the request for the action detection algorithm selection process is received from the user, the algorithm selection unit 35 determines the position relation calculation unit 34 from the plurality of action detection algorithms at predetermined intervals by interrupt processing. An action detection algorithm based on the positional relationship of the camera 1 may be selected. In particular, it is preferable that the algorithm selection unit 35 selects the action detection algorithm by the interrupt process by the user after setting the setting area AR and setting the action detection line AL by the user. According to this, the rearrangement of the sensor device SU and the rearrangement of the bedding BT can be appropriately dealt with, and the predetermined behavior of the monitored person Ob can be detected with higher accuracy.

また、上述の実施形態では、被監視者Obにおける所定の行動は、その一例として起床および離床であるが、これに限定されるものではない。被監視者Obにおける所定の行動は、前記被監視者の上方から撮像した画像に基づいて検知できる行動であれば、他の行動であっても良い。例えば、被監視者Obにおける所定の行動は、寝返り等によるはみ出しであっても良い。前記はみ出しは、人体領域から例えば頭部のパターンや腕のパターンを用いたパターンマッチングによって抽出された頭部や腕に基づいて検知できる。例えば前記カメラ1の位置関係が直上では、就寝中の頭部や腕の位置をベッド境界付近に設けた境界線を越えた部位面積を用いた行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が手前では、ベッド高さに相当する境界線を越えた部位長さを用いた行動検知アルゴリズムで検知できる。前記転落は、人体領域から例えば頭部のパターンや体幹のパターンを用いたパターンマッチングによって抽出された頭部や体幹に基づいて検知できる。例えば前記カメラ1の位置関係が直上PO1では、起床や離床に伴う頭部の大きさや体幹の大きさにおける相違を用いた直上用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が手前PO2では、起床や離床に伴う頭部の上下の移動量や体幹の上下の移動量における相違を用いた手前用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が奥PO3では、起床や離床に伴う行動検知線AL上に見えている頭部の面積や体幹の面積における相違を用いた奥用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が横PO4では、起床や離床に伴う頭部の左右および上下の各移動量や体幹の左右および上下の各移動量における相違を用いた横用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が斜め前PO5では、上述の手前用と横用の各行動検知アルゴリズムを用いて検知でき、また例えば前記カメラ1の位置関係が斜め奥PO6では、上述の奥用と横用の各行動検知アルゴリズムを用いて検知できる。 Further, in the above-described embodiment, the predetermined behavior of the monitored person Ob is, for example, getting up and leaving the bed, but is not limited to this. The predetermined behavior of the monitored person Ob may be another behavior as long as it is a behavior that can be detected based on an image captured from above the monitored person. For example, the predetermined behavior of the person Ob to be monitored may be protruding by rolling over or the like. The protrusion can be detected based on the head or arm extracted from the human body region by pattern matching using, for example, the pattern of the head or the pattern of the arm. For example, when the positional relationship of the camera 1 is directly above, the position of the head or arm during sleep can be detected by an action detection algorithm using a part area that exceeds the boundary line provided near the bed boundary. When the positional relationship is in front, it can be detected by the action detection algorithm using the part length that exceeds the boundary line corresponding to the bed height. The fall can be detected based on the head or trunk extracted from the human body region by pattern matching using a pattern of the head or a pattern of the trunk. For example, when the positional relationship of the camera 1 is directly above the PO1, it can be detected by an action detection algorithm for directly above using the difference in the size of the head or the size of the core due to getting up and leaving the bed, and for example, the positional relationship of the camera 1 However, in front PO2, it is possible to detect with a front action detection algorithm that uses the difference in the amount of vertical movement of the head or the amount of vertical movement of the trunk due to waking up or leaving the floor. In PO3, it is possible to detect with a back action detection algorithm that uses the difference in the area of the head and the area of the trunk visible on the action detection line AL associated with getting up and leaving the bed. In the lateral PO4, it is possible to detect by a lateral action detection algorithm that uses the difference in the left and right and up and down movement amounts of the head and the left and right and up and down movement amounts of the trunk due to getting up and leaving the bed. In the front PO5 diagonally, the above-mentioned action detection algorithms for front and side can be used for detection, and, for example, in the rear PO6 where the positional relationship of the camera 1 is diagonal, each of the above-mentioned back and side is detected. It can be detected using an action detection algorithm.

また、上述の実施形態では、Xn用の起床判定条件およびXn用の離床判定条件は、前記第1面積S1、前記第2面積S2、前記第3面積S3および前記距離Waのうちの1または複数に対し閾値Thとの比較であったが、これに限定されるものではない。Xn用の起床判定条件およびXn用の離床判定条件は、前記被監視者の上方から撮像した画像に基づいて判定できる条件であれば、他の条件であっても良い。例えば、Xn用の起床判定条件およびXn用の離床判定条件は、前記第1面積S1と前記第2面積S2との比に対し所定の閾値Thとの比較であって良い。前記閾値Thは、例えば、上述と同様に、複数のサンプルを統計的に処理して経験的に予め設定される。また例えば、Xn用の起床判定条件およびXn用の離床判定条件は、行動検知線ALを跨ぐ動作の有無であっても良い。例えば、前記カメラ1の位置関係が直上PO1や手前PO2では、人体領域が行動検知線ALを初めて跨ぐ動作の検出によって起床が判定され、人体領域全体が行動検知線ALを跨ぐ動作の検出によって離床が判定され、前記カメラ1の位置関係が奥PO3では、人体領域が行動検知線ALを初めて跨ぐ動作の検出によって起床が判定され、人体領域の半分が行動検知線ALを跨ぐ動作の検出によって離床が判定される。 Further, in the above-described embodiment, the wakeup determination condition for Xn and the wakeup determination condition for Xn are one or more of the first area S1, the second area S2, the third area S3, and the distance Wa. However, it is not limited to this. The wakeup determination condition for Xn and the wakeup determination condition for Xn may be other conditions as long as they can be determined based on an image taken from above the monitored person. For example, the rising determination condition for Xn and the leaving determination condition for Xn may be a comparison of a ratio of the first area S1 and the second area S2 with a predetermined threshold Th. The threshold Th is empirically set in advance, for example, by statistically processing a plurality of samples in the same manner as described above. Further, for example, the wakeup determination condition for Xn and the wakeup determination condition for Xn may be the presence/absence of an operation across the action detection line AL. For example, when the positional relationship of the camera 1 is directly above PO1 or in front PO2, the wake-up is determined by detecting the motion of the human body region straddling the action detection line AL for the first time, and leaving the bed by detecting the motion of the entire human body region straddling the action detection line AL. When the positional relationship of the camera 1 is PO3, the wakeup is determined by detecting the motion of the human body region crossing the action detection line AL for the first time, and the wakeup is determined by detecting the motion of half of the human body region crossing the action detection line AL. Is determined.

また、上述の実施形態では、設定領域ARは、ユーザによって設定されたが、自動設定されてもよい。これによれば、設定領域ARを自動設定できる。例えば、カメラ1で取得された画像からエッジフィルタを用いてエッジを抽出することで、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。また例えば、カメラ1で取得された画像から寝具BTのパターンを用いたパターンマッチングによって、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。また例えば、3Dセンサ、ベッドの脚に取り付けた位置センサおよび寝具BTの下に敷かれる圧力センサを持つカーペット等のセンサを用いることで、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。 Further, although the setting area AR is set by the user in the above-described embodiment, it may be automatically set. According to this, the setting area AR can be automatically set. For example, the area of the bedding BT is detected by extracting edges from the image acquired by the camera 1 using the edge filter, and the detected area of the bedding BT is automatically set as the setting area AR. Further, for example, the area of the bedding BT is detected from the image acquired by the camera 1 by pattern matching using the pattern of the bedding BT, and the detected area of the bedding BT is automatically set as the setting area AR. Further, for example, by using a sensor such as a carpet having a 3D sensor, a position sensor attached to a leg of a bed, and a pressure sensor laid under the bedding BT, an area of the bedding BT is detected, and the detected area of the bedding BT is detected. The area is automatically set as the setting area AR.

また、上述の実施形態では、センサ装置SUは、前記行動検知線受付部の他の一例として、通信IF部4および行動検知線設定処理部33を備えたが、センサ装置SUは、制御処理部3に機能的に、カメラ1で取得した画像に基づいて行動検知線ALを求め、この求めた行動検知線ALを記憶部5の行動検知線記憶部52に記憶する行動検知線演算部をさらに備えても良い。これによれば、前記行動検知線演算部をさらに備えるので、行動検知線ALを自動設定できる。例えば、カメラ1で取得された画像からエッジの抽出やパターンマッチングによって、寝具BTの領域が検出され、この検出された寝具BTの長辺が行動検知線ALとして自動設定される。また例えば、上述と同様に、寝具BTの領域が検出され、前記画像取得部の一例であるカメラ1は、互いに異なる時刻に撮像した複数の画像を取得し、これら複数の画像から動体領域が人体領域として検出され、この検出された人体領域が前記寝具BTの領域から外部に出る頻度が各辺ごとに求められ、所定期間(設定期間)で最も頻度の高い辺が行動検知線ALとして自動設定される。 Further, in the above-described embodiment, the sensor device SU includes the communication IF unit 4 and the action detection line setting processing unit 33 as another example of the action detection line receiving unit, but the sensor device SU includes the control processing unit. 3 functionally further includes an action detection line calculation unit that obtains the action detection line AL based on the image acquired by the camera 1 and stores the obtained action detection line AL in the action detection line storage unit 52 of the storage unit 5. You may prepare. According to this, since the action detection line calculation unit is further provided, the action detection line AL can be automatically set. For example, the area of the bedding BT is detected by edge extraction or pattern matching from the image acquired by the camera 1, and the long side of the detected bedding BT is automatically set as the action detection line AL. Further, for example, similarly to the above, the area of the bedding BT is detected, the camera 1 as an example of the image acquisition unit acquires a plurality of images captured at different times, and the moving object area is a human body from the plurality of images. The frequency with which the detected human body region goes out of the region of the bedding BT is obtained for each side, and the side with the highest frequency in a predetermined period (setting period) is automatically set as the action detection line AL. To be done.

また、上述の実施形態では、行動検知線ALは、1個であったが、複数であっても良い。この場合、各行動検知線ALごとに前記カメラ1の位置関係が演算され、各行動検知線ALごとに、前記演算された前記カメラ1の位置関係に基づく行動検知アルゴリズムで被監視者Obにおける所定の行動が検知される。 Further, in the above-described embodiment, the number of the action detection lines AL is one, but it may be plural. In this case, the positional relationship of the camera 1 is calculated for each behavior detection line AL, and the predetermined behavior in the person Ob to be monitored by the behavior detection algorithm based on the calculated positional relationship of the camera 1 for each behavior detection line AL. Is detected.

また、上述の実施形態では、位置関係演算部34は、前記カメラ1の位置関係として、6個の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6の基本位置関係のいずれかに演算し、アルゴリズム選択部35は、この位置関係演算部34で求めた前記カメラ1の位置関係に対応した、直上用、手前用、奥用、横用、斜め前用および斜め奥用のいずれかの行動検知アルゴリズムを選択したが、カメラ1の位置に応じて徐々に行動検知アルゴリズムを切り換えても良い。この場合では、例えば、上述の実施形態において、位置関係演算部34は、設定領域ARに対する、画像を撮像したカメラ1の位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを設定領域ARに対する前記カメラ1の位置に基づいて求めることで、設定領域ARに対する前記画像を撮像したカメラ1の位置関係を求め、前記複数の行動検知アルゴリズムは、画像に基づいて被監視者Obにおける所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて被監視者Obにおける前記所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、アルゴリズム選択部35は、前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、行動検知処理部36は、位置関係演算部34で求めた前記複数の基本位置関係それぞれの重みを用いてアルゴリズム選択部35で選択した重み付け行動検知アルゴリズムで前記画像に基づいて被監視者Obにおける前記所定の行動を検知する。これによれば、設定領域ARに対する前記カメラ1の位置関係を1個の基本位置関係で表すのではなく、複数の基本位置関係それぞれの重みで表し、前記複数の基本位置関係に応じた複数の評価値を前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果に基づいて被監視者Obにおける所定の行動を検知するので、1個の基本位置関係に応じた行動検知アルゴリズムで被監視者Obにおける前記所定の行動を検知する場合に較べて、より高精度に被監視者Obにおける前記所定の行動を検知できる。 Further, in the above-described embodiment, the positional relationship calculating unit 34 determines the positional relationship of the camera 1 as the basic positional relationship of the six immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonal front PO5, and the diagonal back PO6. One of them is calculated, and the algorithm selection unit 35 corresponds to the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34, for directly above, foreground, behind, sideways, diagonally forward and diagonally backward. Although any one of the behavior detection algorithms is selected, the behavior detection algorithm may be gradually switched according to the position of the camera 1. In this case, for example, in the above-described embodiment, when the positional relationship calculation unit 34 classifies the positional relationship of the camera 1 that has captured the image with respect to the setting area AR into a plurality of different basic positional relationships, By obtaining the weight of each basic positional relationship based on the position of the camera 1 with respect to the setting area AR, the positional relationship of the camera 1 that has captured the image with respect to the setting area AR is obtained. Based on the plurality of basic positional relationships, a plurality of predetermined evaluation values for detecting a predetermined behavior of the monitored person Ob are calculated based on the plurality of basic positional relationships. The weighting action detection algorithm includes an algorithm for weighting and detecting the predetermined action in the monitored person Ob based on a result of comparison between the weighted result and a predetermined threshold, and the algorithm selecting unit 35 includes the plurality of action detections. The weighting action detection algorithm is selected from the algorithms based on the positional relationship obtained by the positional relationship calculating unit 34, and the action detection processing unit 36 weights each of the plurality of basic positional relationships obtained by the positional relationship calculating unit 34. Using the weighting action detection algorithm selected by the algorithm selection unit 35, the predetermined action in the monitored person Ob is detected based on the image. According to this, the positional relationship of the camera 1 with respect to the setting area AR is not represented by one basic positional relationship, but is expressed by weights of each of the plurality of basic positional relationships, and the plurality of basic positional relationships corresponding to the plurality of basic positional relationships are represented. The evaluation value is weighted by each weight of the plurality of basic positional relationships, and a predetermined behavior in the monitored person Ob is detected based on the weighted result. The predetermined behavior of the monitored person Ob can be detected with higher accuracy than in the case of detecting the predetermined behavior of the observer Ob.

図17は、前記カメラの位置関係が複数の基本位置関係それぞれの重みで表された場合の前記重みの演算手法を説明するための図である。図17Aは、設定領域ARおよび画像中心CPを示し、図17Bは、図17Aに示す設定領域ARを2倍に拡大した拡大設定領域AREおよび画像中心CPを示す。より具体的には、前記基本位置関係は、例えば、上述の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6であり、前記所定の評価値は、例えば、上述の第1面積S1、第2面積S2、第3面積S3および距離Waである。そして、位置関係演算部34は、図17に示すように、設定領域ARをその対角線(図17Bに破線で示す)の交点を中心に設定領域を2倍に拡大することで、水平幅Wで垂直幅Hである拡大設定領域AREを求める。次に、位置関係演算部34は、画像中心CPから拡大設定領域AREに最も近い距離pを求める。図17に示す例では、画像中心CPが設定領域AR内における平面視にて右下寄りでかつ設定領域ARが横長であるため、行動検知線ALが設定領域ARの下辺と判定され、画像中心CPと拡大設定領域AREとの最短距離pは、拡大設定領域AREの下辺までの距離となっている。そして、位置関係演算部34は、画像中心CPが設定領域AR、拡大設定領域AREおよび行動検知線ALに対してどの位置に存在するかによって基本位置関係を求め、この求めた基本位置関係の重みを求める。図17に示す例では、画像中心CPが設定領域AR内にあり、行動検知線ALおよび画像中心からの距離pが最短となる拡大設定領域AREの辺の両方が画像中心CPより下側にあるので、直上PO1および手前PO2の2個の基本位置関係が演算され、直上PO1の重みがpとされ、手前PO2の重みがH/2−pとされる。上述した直上用の起床判定条件は、第1面積S1と第1閾値Th1との比較であり、上述した手前用の起床判定条件は、距離Waと第3閾値Th3との比較であるので、重み付け行動検知アルゴリズムにおける起床判定条件は、V1=((Wa−Th3)×(H/2−p)+(S1−Th1)×p)×(H/2)と第15閾値Th15との比較となる。例えば第15閾値Th15は、0とされ、行動検知処理部36は、重み付けした結果V1が0以上である場合(V1≧0)には、被監視者Obが起床したと判定し、重み付けした結果V1が0未満である場合(V1<0)には、被監視者Obが起床前と判定する。また、上述した直上用の離床判定条件は、第2面積S2と第2閾値Th2との比較であり、上述した手前用の離床判定条件は、距離Waと第4閾値Th4との比較であるので、重み付け行動検知アルゴリズムにおける離床判定条件は、V2=((Wa−Th4)×(H/2−p)+(S2−Th1)×p)×(H/2)と第16閾値Th16との比較となる。例えば第16閾値Th16は、0とされ、行動検知処理部36は、重み付けした結果V2が0以上である場合(V2≧0)には、被監視者Obが離床したと判定し、重み付けした結果V2が0未満である場合(V2<0)には、被監視者Obが離床前と判定する。 FIG. 17 is a diagram for explaining a method of calculating the weight when the positional relationship of the cameras is represented by the weight of each of a plurality of basic positional relationships. 17A shows the setting area AR and the image center CP, and FIG. 17B shows the enlarged setting area ARE and the image center CP obtained by enlarging the setting area AR shown in FIG. 17A by two times. More specifically, the basic positional relationship is, for example, the immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonally front PO5, and the diagonally back PO6, and the predetermined evaluation value is, for example, the above-mentioned first 1 area S1, 2nd area S2, 3rd area S3, and distance Wa. Then, as shown in FIG. 17, the positional-relationship calculating unit 34 doubles the setting area AR around the intersection of its diagonal lines (shown by broken lines in FIG. 17B) so that the setting area AR has a horizontal width W. The enlargement setting area ARE having the vertical width H is obtained. Next, the positional relationship calculation unit 34 obtains the distance p closest to the enlargement setting area ARE from the image center CP. In the example shown in FIG. 17, the image center CP is located on the lower right side in plan view in the setting area AR and the setting area AR is horizontally long. Therefore, the action detection line AL is determined to be the lower side of the setting area AR, and the image center The shortest distance p between the CP and the enlargement setting area ARE is the distance to the lower side of the enlargement setting area ARE. Then, the positional-relationship calculating unit 34 obtains a basic positional relation based on where the image center CP exists with respect to the setting area AR, the enlarged setting area ARE, and the action detection line AL, and the weighting of the obtained basic positional relationship. Ask for. In the example shown in FIG. 17, the image center CP is within the setting area AR, and both the action detection line AL and the side of the enlargement setting area ARE where the distance p from the image center is the shortest are below the image center CP. Therefore, the two basic positional relationships of the immediately above PO1 and the immediately preceding PO2 are calculated, the weight of the immediately preceding PO1 is p, and the weight of the immediately preceding PO2 is H/2−p. The above-mentioned wake-up determination condition for immediately above is a comparison between the first area S1 and the first threshold Th1, and the above-mentioned wake-up determination condition for this side is a comparison between the distance Wa and the third threshold Th3. The wakeup determination condition in the action detection algorithm is a comparison between V1=((Wa-Th3)*(H/2-p)+(S1-Th1)*p)*(H/2) and the fifteenth threshold Th15. .. For example, the fifteenth threshold Th15 is set to 0, and when the weighted result V1 is 0 or more (V1≧0), the behavior detection processing unit 36 determines that the monitored person Ob has woken up, and the weighted result When V1 is less than 0 (V1<0), it is determined that the monitored person Ob has not woken up. Further, the above-mentioned bed leaving determination condition for immediately above is a comparison between the second area S2 and the second threshold Th2, and the above-mentioned bed leaving determination condition for this side is a comparison between the distance Wa and the fourth threshold Th4. The bed leaving determination condition in the weighted behavior detection algorithm is V2=((Wa-Th4)*(H/2-p)+(S2-Th1)*p)*(H/2) and the 16th threshold Th16. Becomes For example, the sixteenth threshold Th16 is set to 0, and when the weighted result V2 is 0 or more (V2≧0), the behavior detection processing unit 36 determines that the monitored person Ob has left the bed, and the weighted result When V2 is less than 0 (V2<0), it is determined that the monitored person Ob has not left the bed.

また、この場合において、拡大設定領域AREの外側に画像中心CPがある場合は、十分に斜めからのカメラ1による撮像であるので、上述した横用の行動検知アルゴリズムや斜め奥用の行動検知アルゴリズム等がそのまま用いることができる。 Further, in this case, when the image center CP is located outside the enlargement setting area ARE, since the image capturing is performed by the camera 1 from a sufficient angle, the action detection algorithm for lateral use and the action detection algorithm for oblique back action described above. Etc. can be used as they are.

そして、上述では、基本位置関係は、2個が選択されて重み付けされたが、3個以上が選択されて重み付けされても良い。 Further, in the above description, two basic positional relationships are selected and weighted, but three or more basic positional relationships may be selected and weighted.

また、上述の実施形態では、センサ装置SUが前記行動検知部および前記通知部を備えたが、前記行動検知部および前記通知部は、管理サーバ装置SVに備えられても良く、また、固定端末装置SPに備えられても良く、また、携帯端末装置TAに備えられても良い。このような場合、センサ装置SUからネットワークNWを介して被監視者Obの上方から撮像した画像およびドップラ信号を収容した通信信号を受信して取得する通信インターフェース等が、画像取得部の一例に相当することになる。 Further, in the above-described embodiment, the sensor device SU includes the action detection unit and the notification unit, but the action detection unit and the notification unit may be included in the management server device SV, and the fixed terminal. It may be provided in the device SP or may be provided in the mobile terminal device TA. In such a case, a communication interface or the like that receives and acquires a communication signal containing an image captured from above the monitored person Ob and a Doppler signal from the sensor device SU via the network NW corresponds to an example of the image acquisition unit. Will be done.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。 Although the present specification discloses various aspects of the technique as described above, the main techniques thereof are summarized below.

一態様にかかる行動検知装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像中における所定の領域を設定領域として記憶し、前記画像に基づいて前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムを記憶する記憶部と、前記複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択部と、前記アルゴリズム選択部で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理部とを備える。好ましくは、上述の行動検知装置において、前記設定領域は、例えばベッド等の寝具の領域(寝具領域)である。好ましくは、上述の行動検知装置において、前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算部をさらに備える。 The behavior detection device according to one aspect stores a monitored person as a monitoring target, an image acquisition unit that acquires an image captured from above the monitored person, and stores a predetermined area in the image as a setting area, A storage unit that stores a plurality of different action detection algorithms for detecting a predetermined action in the monitored person based on the image, a camera that captures the image from the plurality of action detection algorithms, and An algorithm selection unit that selects a behavior detection algorithm based on a positional relationship with a setting area, and a behavior detection process that detects a predetermined behavior in the monitored person based on the image with the behavior detection algorithm selected by the algorithm selection unit. And a section. Preferably, in the above-mentioned behavior detection device, the setting area is an area of bedding such as a bed (bedding area). Preferably, in the above-described action detection device, a positional relationship calculation unit that obtains the positional relationship between the camera that captured the image and the setting area depending on where the center of the image exists with respect to the setting area. Further prepare.

このような行動検知装置は、複数の行動検知アルゴリズムの中から、カメラと設定領域との位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者における所定の行動を検知するので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。また、カメラが配設され、行動検知の開始後に、寝具の位置が変更されると、前記寝具に対するカメラの位置関係が変わってしまうが、上記行動検知装置は、記憶部に記憶された前記設定領域を変更後の前記寝具の領域に変更することで、このような寝具の位置の変更による前記カメラの位置関係の変更にも対処できる。したがって、上記行動検知装置は、寝具の位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 Such an action detection device selects an action detection algorithm according to the positional relationship between the camera and the setting area from among a plurality of action detection algorithms, and performs a predetermined action on the monitored person by the selected action detection algorithm. Since the detection is performed, it is possible to detect the predetermined behavior of the person to be monitored with higher accuracy regardless of the position where the camera is arranged. Further, when the position of the bedding is changed after the camera is provided and the action detection is started, the positional relationship of the camera with respect to the bedding changes, but the action detection device is configured to store the setting stored in the storage unit. By changing the region to the region of the bedding after the change, it is possible to deal with the change of the positional relationship of the camera due to the change of the position of the bedding. Therefore, the behavior detection device can detect a predetermined behavior of the monitored person with higher accuracy regardless of the position of the bedding.

他の一態様では、これら上述の行動検知装置において、前記位置関係は、前記カメラが前記設定領域の直上に位置する直上、前記カメラが前記設定領域の手前上方に位置する手前、前記カメラが前記設定領域の奥上方に位置する奥、前記カメラが前記設定領域の横上方に位置する横、前記カメラが前記設定領域の斜め前上方に位置する斜め前、および、前記カメラが前記設定領域の斜め奥上方に位置する斜め奥のうちのいずれかである。 In another aspect, in the above-described action detection device, the positional relationship is such that the camera is located immediately above the setting area, the camera is located above the setting area, and the camera is located above the setting area. The back is located above the back of the setting area, the side is above the setting area, the camera is located diagonally above the setting area, and the camera is located diagonally above the setting area. It is one of the diagonal depths located above the depths.

このような行動検知装置は、カメラが直上、手前、奥、横、斜め前および斜め奥のいずれかに配設される場合に対処でき、これらの場合に、被監視者における所定の行動をより高精度に検知できる。 Such an action detection device can deal with the case where the camera is arranged directly above, in front, behind, sideways, diagonally forward, or diagonally deeply, and in these cases, it is possible to further improve the predetermined behavior of the monitored person. It can be detected with high accuracy.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記位置関係演算部は、前記行動検知線を考慮して、前記画像を撮像したカメラと前記設定領域との位置関係を求める。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. A predetermined line in the inside is further stored as an action detection line, and the positional relationship calculation unit determines the positional relationship between the camera that has captured the image and the setting area in consideration of the action detection line.

これによれば、前記行動検知線を考慮して前記カメラの位置関係を求める行動検知装置を提供できる。 According to this, it is possible to provide an action detection device that obtains the positional relationship of the cameras in consideration of the action detection line.

他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in these above-described action detection devices, the plurality of action detection algorithms include an action detection algorithm for directly above used when the positional relationship is directly above, and the action detection algorithm for immediately above is A predetermined area of the monitored person based on a first area of the monitored person outside the set area on the image and a second area of the set area on the image where the monitored person overlaps This is an algorithm that detects actions.

このような行動検知装置は、画像上における設定領域外の被監視者の第1面積および前記画像上における設定領域と被監視者とが重なった第2面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device is a relatively simple image processing that obtains the first area of the monitored person outside the set area on the image and the second area where the set area on the image and the monitored person overlap. It is possible to detect a predetermined action in the monitored person.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムを含み、前記手前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. Further storing a predetermined line in the action detection line, the plurality of action detection algorithms include a foreground action detection algorithm used when the positional relationship is in front, the foreground action detection algorithm is Is an algorithm for detecting a predetermined action in the monitored person based on the distance between the action detection line on the image and the foot position of the monitored person.

このような行動検知装置は、画像上における行動検知線と被監視者の足先位置との距離を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device can detect a predetermined action in the monitored person by relatively simple image processing of obtaining the distance between the action detection line on the image and the toe position of the monitored person.

他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が横である場合に用いられる横用の行動検知アルゴリズムを含み、前記横用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in these above-described action detection devices, the plurality of action detection algorithms include a horizontal action detection algorithm used when the positional relationship is horizontal, and the horizontal action detection algorithm is , On the image, located at a position closest to the camera along the lateral direction of the setting area and at a position farthest from the camera along the lateral direction of the setting area It is an algorithm that detects a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with the second boundary line.

このような行動検知装置は、画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device has the first boundary line located closest to the camera along the lateral direction of the setting area on the image and the farthest from the camera along the lateral direction of the setting area. The predetermined behavior of the monitored person can be detected by relatively simple image processing of obtaining a third area where the set area and the monitored person overlap with the second boundary line located at the position.

他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムを含み、前記奥用の行動検知アルゴリズムは、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in these above-described action detection devices, the plurality of action detection algorithms include a back action detection algorithm used when the positional relationship is deep, and the back action detection algorithm is Is an algorithm for detecting a predetermined action in the monitored person based on a second area where the set area and the monitored person overlap on the image.

このような行動検知装置は、画像上における設定領域と被監視者とが重なった第2面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device can detect a predetermined action of the monitored person by relatively simple image processing of obtaining a second area where the set area on the image and the monitored person overlap.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムを含み、前記斜め前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離、および、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. Further storing a predetermined line as an action detection line, the plurality of action detection algorithms include a diagonal front action detection algorithm used when the positional relationship is diagonal front, the diagonal front action The detection algorithm is a distance between the action detection line and the toe position of the monitored person on the image, and, on the image, at a position closest to the camera along the lateral direction of the setting area. A third overlap between the set area and the monitored person between the first boundary line located and the second boundary line located farthest from the camera along the lateral direction of the setting area. It is an algorithm for detecting a predetermined action in the monitored person based on the area.

このような行動検知装置は、画像上における行動検知線と被監視者の足先位置との距離、および、前記画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device is located at a position closest to the camera along the distance between the action detection line on the image and the toe position of the monitored person, and on the image in the lateral direction of the setting region. A third area in which the setting area and the monitored person overlap between a first boundary line and a second boundary line located at a position farthest from the camera along the lateral direction of the setting area, A predetermined action in the monitored person can be detected by relatively simple image processing of obtaining.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含み、前記斜め奥用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. A predetermined line in the inside is further stored as an action detection line, and the plurality of action detection algorithms include an action detection algorithm for an oblique depth used when the positional relationship is an oblique depth, and the action for the oblique depth. The detection algorithm is such that, on the image, the first boundary line located closest to the camera along the lateral direction of the setting region and the furthest away from the camera along the lateral direction of the setting region. It is an algorithm for detecting a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with a second boundary line located at a position.

このような行動検知装置は、画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device has the first boundary line located closest to the camera along the lateral direction of the setting area on the image and the farthest from the camera along the lateral direction of the setting area. The predetermined behavior of the monitored person can be detected by relatively simple image processing of obtaining a third area where the set area and the monitored person overlap with the second boundary line located at the position.

他の一態様では、これら上述の行動検知装置において、前記位置関係演算部は、前記画像を撮像したカメラと前記設定領域との位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを前記設定領域に対する前記カメラの位置に基づいて求めることで、前記画像を撮像したカメラと前記設定領域との位置関係を求め、前記複数の行動検知アルゴリズムは、前記画像に基づいて前記被監視者における所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて前記被監視者における所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、前記アルゴリズム選択部は、前記複数の行動検知アルゴリズムの中から前記位置関係演算部で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、前記行動検知処理部は、前記位置関係演算部で求めた前記複数の基本位置関係それぞれの重みを用いて前記アルゴリズム選択部で選択した重み付け行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する。 In another aspect, in the above-described action detection device, in the case where the positional relationship calculation unit classifies the positional relationship between the camera that has captured the image and the setting area into a plurality of different basic positional relationships, By obtaining the weight of each of the plurality of basic positional relationship based on the position of the camera with respect to the setting area, to obtain the positional relationship between the camera that has captured the image and the setting area, the plurality of action detection algorithm, A plurality of predetermined evaluation values for detecting a predetermined action in the monitored person based on the image are obtained according to the plurality of basic positional relationships, and the plurality of basic positional relationships are obtained in the obtained plurality of evaluation values. Weighting is performed by weighting, and an algorithm for detecting a predetermined action in the monitored person based on a result of comparison between the weighted result and a predetermined threshold is included as a weighted action detection algorithm, and the algorithm selecting unit includes the plurality of actions. Select the weighting behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit from the detection algorithm, the action detection processing unit, each of the plurality of basic positional relationship obtained by the positional relationship calculation unit The weighting action detection algorithm selected by the algorithm selection unit using the weight detects a predetermined action in the monitored person based on the image.

このような行動検知装置は、設定領域に対する前記カメラの位置関係を1個の基本位置関係で表すのではなく、複数の基本位置関係それぞれの重みで表し、前記複数の基本位置関係に応じた複数の評価値を前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果に基づいて被監視者における所定の行動を検知するので、1個の基本位置関係に応じた行動検知アルゴリズムで前記被監視者における所定の行動を検知する場合に較べて、より高精度に前記被監視者における所定の行動を検知できる。 In such an action detection device, the positional relationship of the camera with respect to the set area is not represented by one basic positional relationship, but by the weight of each of the plurality of basic positional relationships, and a plurality of positions corresponding to the plurality of basic positional relationships are represented. The evaluation value is weighted by each of the plurality of basic positional relations, and a predetermined action in the monitored person is detected based on the weighted result, so that the action detection algorithm according to one basic positional relation Compared with the case of detecting a predetermined action of the monitored person, the predetermined action of the monitored person can be detected with higher accuracy.

他の一態様では、上述の行動検知装置において、前記行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部をさらに備える。 In another aspect, the above-described action detection device further includes an action detection line reception unit that receives the action detection line from the outside and stores the action detection line in the storage unit.

このような行動検知装置は、行動検知線受付部をさらに備えるので、行動検知線を簡易に入力して設定できる。 Since such an action detection device further includes the action detection line reception unit, the action detection line can be easily input and set.

他の一態様では、上述の行動検知装置において、前記画像取得部で取得した画像に基づいて前記行動検知線を求め、前記求めた行動検知線を前記記憶部に記憶する行動検知線演算部をさらに備える。 In another aspect, in the above-described action detection device, an action detection line calculation unit that obtains the action detection line based on the image acquired by the image acquisition unit and stores the obtained action detection line in the storage unit. Further prepare.

このような行動検知装置は、行動検知線演算部をさらに備えるので、行動検知線を自動設定できる。 Since such an action detection device further includes the action detection line calculation unit, the action detection line can be automatically set.

他の一態様にかかる行動検知方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程とを備える。 An activity detection method according to another aspect is an image acquisition step of acquiring an image of a monitored person who is a monitoring target taken from above the monitored person, and for detecting a predetermined action in the monitored person. From a plurality of different behavior detection algorithms, an algorithm selection step of selecting a behavior detection algorithm based on the positional relationship between the camera that captured the image and a set area that is a predetermined area in the image, and the algorithm. An action detection process step of detecting a predetermined action in the monitored person based on the image by the action detection algorithm selected in the selection step.

他の一態様にかかる行動検知プログラムは、コンピュータに、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、を実行させるためのプログラムである。 An action detection program according to another aspect causes a computer to perform an image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person, and a predetermined action in the monitored person. An algorithm selection step of selecting an action detection algorithm based on a positional relationship between a camera that has captured the image and a set region that is a predetermined region in the image, from among a plurality of different action detection algorithms for detecting. , A behavior detection processing step of detecting a predetermined behavior of the monitored person based on the image by the behavior detection algorithm selected in the algorithm selection step.

このような行動検知方法および行動検知プログラムは、複数の行動検知アルゴリズムの中から、カメラと設定領域との位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者における所定の行動を検知するので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。また、カメラが配設され、行動検知の開始後に、例えばベッド等の寝具の位置が変更されると、前記寝具に対するカメラの位置関係が変わってしまうが、上記行動検知方法および行動検知プログラムは、記憶部に記憶された前記設定領域を変更することで、このような寝具の位置の変更による前記カメラの位置関係の変更にも対処できる。したがって、上記行動検知方法および行動検知プログラムは、寝具の位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 Such an action detection method and action detection program selects an action detection algorithm according to the positional relationship between the camera and the setting area from among the plurality of action detection algorithms, and the selected person in the monitored person uses the selected action detection algorithm. Since the predetermined action is detected, the predetermined action of the person to be monitored can be detected with higher accuracy regardless of the installation position of the camera. Further, when the position of the bedding such as the bed is changed after the camera is provided and the action detection is started, the positional relationship of the camera with respect to the bedding changes, but the action detection method and the action detection program are By changing the setting area stored in the storage unit, it is possible to deal with the change in the positional relationship of the camera due to the change in the position of the bedding. Therefore, the behavior detection method and the behavior detection program can detect a predetermined behavior of the monitored person with higher accuracy regardless of the position of the bedding.

他の一態様にかかる被監視者監視装置は、監視対象である被監視者における所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、前記行動検知部は、これら上述のいずれかの行動検知装置を含む。 A monitored person monitoring apparatus according to another aspect includes an action detection unit that detects a predetermined action in a monitored subject, and a notification unit that externally notifies the predetermined action detected by the action detection unit. And the action detecting unit includes any one of the above action detecting devices.

このような被監視者監視装置は、これら上述のいずれかの行動検知装置を含むので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 Since such a monitored person monitoring device includes any one of the above behavior detecting devices, it is possible to detect a predetermined behavior of the monitored person with higher accuracy regardless of the position where the camera is arranged. ..

この出願は、2015年6月11日に出願された日本国特許出願特願2015−118388を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2015-118388 filed on June 11, 2015, the contents of which are included in the present application.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to represent the present invention, the present invention has been described above appropriately and sufficiently through the embodiments with reference to the drawings, but those skilled in the art can easily modify and/or improve the embodiments. It should be recognized that this is possible. Therefore, unless a modification or improvement carried out by a person skilled in the art is at a level that departs from the scope of rights of the claims recited in the claims, the modification or the improvement is covered by the scope of claims of the claim. Is understood to be included in.

本発明によれば、行動検知装置、行動検知方法および行動検知プログラム、ならびに、被監視者監視装置が提供できる。 According to the present invention, an action detection device, an action detection method and an action detection program, and a monitored person monitoring device can be provided.

Ob(Ob−1〜Ob−4) 被監視者
NS(NS−1、NS−2) 監視者(ユーザ)
MS 被監視者監視システム
SU センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA 携帯端末装置
1 カメラ
3 制御処理部
4 通信インターフェース部(通信IF部)
5 記憶部
31 制御部
32 領域設定処理部
33 行動検知線設定処理部
34 位置関係演算部
35 アルゴリズム選択部
36 行動検知処理部
37 通知処理部
51 設定領域記憶部
52 行動検知線記憶部
53 行動検知アルゴリズム記憶部
Ob (Ob-1 to Ob-4) Monitored person NS (NS-1, NS-2) Monitored person (user)
MS Monitored person monitoring system SU Sensor device SV Management server device SP Fixed terminal device TA Mobile terminal device 1 Camera 3 Control processing unit 4 Communication interface unit (communication IF unit)
5 storage unit 31 control unit 32 area setting processing unit 33 action detection line setting processing unit 34 positional relationship calculation unit 35 algorithm selection unit 36 action detection processing unit 37 notification processing unit 51 set region storage unit 52 action detection line storage unit 53 action detection Algorithm storage

Claims (12)

監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、
前記画像中における所定の領域を設定領域として記憶し、前記画像に基づいて前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムを記憶する記憶部と、
前記複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択部と、
前記アルゴリズム選択部で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理部とを備え、
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
行動検知装置。
An image acquisition unit that acquires an image of a monitored person who is a monitoring target from above the monitored person,
A storage unit that stores a predetermined area in the image as a setting area, and stores a plurality of different action detection algorithms for detecting a predetermined action in the monitored person based on the image,
From among the plurality of behavior detection algorithms, an algorithm selection unit that selects a behavior detection algorithm based on the positional relationship between the camera that captured the image and the setting area,
An action detection processing unit that detects a predetermined action in the monitored person based on the image with the action detection algorithm selected by the algorithm selection unit,
The plurality of behavior detection algorithms include a behavior detection algorithm for directly above used when the positional relationship is directly above,
The action detection algorithm for directly above is based on a first area of the monitored person outside the setting area on the image, and a second area where the setting area and the monitored person overlap on the image. Is an algorithm for detecting a predetermined action in the monitored person,
Behavior detection device.
前記位置関係は、前記カメラが前記設定領域の直上に位置する直上、前記カメラが前記設定領域の手前上方に位置する手前、前記カメラが前記設定領域の奥上方に位置する奥、前記カメラが前記設定領域の横上方に位置する横、前記カメラが前記設定領域の斜め前上方に位置する斜め前、および、前記カメラが前記設定領域の斜め奥上方に位置する斜め奥のうちのいずれかである、
求項1に記載の行動検知装置。
The positional relationship is directly above the camera located directly above the setting area, in front of the camera being located above the setting area, behind the camera being located above the setting area, and where the camera is It is one of a horizontal position above the setting region, a diagonal front position where the camera is diagonally above the setting region, and a diagonal depth position where the camera is diagonally above the setting region. ,
Behavior detection apparatus according to Motomeko 1.
前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算部をさらに備え
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記位置関係演算部は、前記行動検知線を考慮して、前記画像を撮像したカメラと前記設定領域との位置関係を求める、
請求項2に記載の行動検知装置。
Further comprising a positional relationship calculation unit that determines the positional relationship between the camera that captured the image and the setting area depending on where the center of the image exists with respect to the setting area ,
The storage unit further stores a predetermined line in the image used as at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, as an action detection line,
The positional relationship calculation unit obtains a positional relationship between the camera that has captured the image and the setting area in consideration of the action detection line,
The behavior detection device according to claim 2.
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記複数の行動検知アルゴリズムは、前記位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムを含み、
前記手前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項3のいずれか1項に記載の行動検知装置。
The storage unit further stores a predetermined line in the image used as at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, as an action detection line,
The plurality of action detection algorithms include a front action detection algorithm used when the positional relationship is in front,
The foreground action detection algorithm is an algorithm for detecting a predetermined action in the monitored person based on the distance between the action detection line on the image and the toe position of the monitored person,
The behavior detection device according to claim 1.
前記複数の行動検知アルゴリズムは、前記位置関係が横である場合に用いられる横用の行動検知アルゴリズムを含み、
前記横用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである
請求項1ないし請求項4のいずれか1項に記載の行動検知装置。
The plurality of action detection algorithms include a horizontal action detection algorithm used when the positional relationship is horizontal,
The action detection algorithm for horizontal use is, on the image, along the horizontal direction of the setting region, along a first boundary line located closest to the camera, and along the horizontal direction of the setting region. It is an algorithm for detecting a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with a second boundary line located farthest from the camera. The action detection device according to claim 1.
前記複数の行動検知アルゴリズムは、前記位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムを含み、
前記奥用の行動検知アルゴリズムは、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項5のいずれか1項に記載の行動検知装置。
The plurality of action detection algorithms include a back action detection algorithm used when the positional relationship is deep,
The behavior detection algorithm for depth use is an algorithm that detects a predetermined behavior of the monitored person based on a second area in which the set area and the monitored person overlap on the image.
The behavior detection device according to claim 1.
前記位置関係演算部は、前記画像を撮像したカメラと前記設定領域との位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを前記設定領域に対する前記カメラの位置に基づいて求めることで、前記画像を撮像したカメラと前記設定領域との位置関係を求め、
前記複数の行動検知アルゴリズムは、前記画像に基づいて前記被監視者における所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて前記被監視者における所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、
前記アルゴリズム選択部は、前記複数の行動検知アルゴリズムの中から前記位置関係演算部で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、
前記行動検知処理部は、前記位置関係演算部で求めた前記複数の基本位置関係それぞれの重みを用いて前記アルゴリズム選択部で選択した重み付け行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する、
請求項に記載の行動検知装置。
In the case where the positional relationship calculation unit classifies the positional relationship between the camera that has captured the image and the setting area into a plurality of basic positional relationships that are different from each other, weights of the basic positional relationships are assigned to the setting area. By determining based on the position of the camera, the positional relationship between the camera that captured the image and the setting area,
The plurality of behavior detection algorithms, a plurality of predetermined evaluation values for detecting a predetermined behavior in the monitored person based on the image is obtained according to the plurality of basic positional relationship, the obtained plurality of evaluation values To each of the plurality of basic positional relationship weighted, including an algorithm for detecting a predetermined action in the monitored person as a weighted action detection algorithm based on a comparison result of the weighted result and a predetermined threshold value,
The algorithm selection unit selects the weighted behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit from among the plurality of behavior detection algorithms,
The action detection processing unit uses a weighting action detection algorithm selected by the algorithm selection unit by using the weight of each of the plurality of basic positional relations calculated by the positional relation calculation unit to determine a predetermined value for the monitored person based on the image. To detect the behavior of
The behavior detection device according to claim 3 .
前記行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部をさらに備える、
請求項3に記載の行動検知装置。
Further comprising an action detection line receiving unit that receives the action detection line from the outside and stores the action detection line in the storage unit,
The behavior detection device according to claim 3.
前記画像取得部で取得した画像に基づいて前記行動検知線を求め、前記求めた行動検知線を前記記憶部に記憶する行動検知線演算部をさらに備える、
請求項3に記載の行動検知装置。
Further comprising an action detection line calculation unit that obtains the action detection line based on the image acquired by the image acquisition unit and stores the obtained action detection line in the storage unit.
The behavior detection device according to claim 3.
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、
前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程とを備え、
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
行動検知方法。
An image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person,
Action among a plurality of different action detection algorithms for detecting a predetermined action in the monitored person, based on the positional relationship between the camera that captured the image and a set region that is a predetermined region in the image An algorithm selection process of selecting a detection algorithm,
An action detection processing step of detecting a predetermined action in the monitored person based on the image by the action detection algorithm selected in the algorithm selection step,
The plurality of behavior detection algorithms include a behavior detection algorithm for directly above used when the positional relationship is directly above,
The action detection algorithm for directly above is based on a first area of the monitored person outside the setting area on the image, and a second area where the setting area and the monitored person overlap on the image. Is an algorithm for detecting a predetermined action in the monitored person,
Behavior detection method.
コンピュータに、
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、
前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、
を実行させるための行動検知プログラムであって、
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
行動検知プログラム。
On the computer,
An image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person,
Action among a plurality of different action detection algorithms for detecting a predetermined action in the monitored person, based on the positional relationship between the camera that captured the image and a set region that is a predetermined region in the image An algorithm selection process of selecting a detection algorithm,
An action detection processing step of detecting a predetermined action in the monitored person based on the image by the action detection algorithm selected in the algorithm selection step,
An action detection program for executing
The plurality of behavior detection algorithms include a behavior detection algorithm for directly above used when the positional relationship is directly above,
The action detection algorithm for directly above is based on a first area of the monitored person outside the setting area on the image, and a second area where the setting area and the monitored person overlap on the image. Is an algorithm for detecting a predetermined action in the monitored person,
Behavior detection program.
監視対象である被監視者における所定の行動を検知する行動検知部と、
前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、
前記行動検知部は、請求項1ないし請求項のいずれか1項に記載の行動検知装置を含む、
被監視者監視装置。
An action detection unit that detects a predetermined action in the monitored person who is the monitoring target,
A notification unit for notifying the outside of the predetermined action detected by the action detection unit,
The action detection unit includes the action detection device according to any one of claims 1 to 9 .
Monitored person monitoring device.
JP2017055687A 2015-06-11 2017-03-22 Action detection device, method and program, and monitored person monitoring device Active JP6720909B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015118388 2015-06-11
JP2015118388 2015-06-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016575258A Division JP6115692B1 (en) 2015-06-11 2016-04-14 Behavior detecting device, method and program, and monitored person monitoring device

Publications (3)

Publication Number Publication Date
JP2017168105A JP2017168105A (en) 2017-09-21
JP2017168105A5 JP2017168105A5 (en) 2019-10-03
JP6720909B2 true JP6720909B2 (en) 2020-07-08

Family

ID=57503317

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016575258A Active JP6115692B1 (en) 2015-06-11 2016-04-14 Behavior detecting device, method and program, and monitored person monitoring device
JP2017055687A Active JP6720909B2 (en) 2015-06-11 2017-03-22 Action detection device, method and program, and monitored person monitoring device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016575258A Active JP6115692B1 (en) 2015-06-11 2016-04-14 Behavior detecting device, method and program, and monitored person monitoring device

Country Status (2)

Country Link
JP (2) JP6115692B1 (en)
WO (1) WO2016199495A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406371B2 (en) * 2017-03-02 2018-10-17 オムロン株式会社 Watch support system and control method thereof
JP6729510B2 (en) * 2017-07-06 2020-07-22 オムロン株式会社 Monitoring support system and control method thereof
JP6828703B2 (en) * 2017-08-07 2021-02-10 株式会社リコー Information providing device, information providing system, information providing method, and program
JP2019121962A (en) * 2018-01-09 2019-07-22 アイホン株式会社 Surveillance camera system
US20200155040A1 (en) * 2018-11-16 2020-05-21 Hill-Rom Services, Inc. Systems and methods for determining subject positioning and vital signs
JP7505757B2 (en) * 2020-10-23 2024-06-25 日本精密測器株式会社 Monitoring support system
US20230410512A1 (en) * 2020-11-04 2023-12-21 Astoria Solutions Pte Ltd. Autonomous safety violation detection system through virtual fencing
CN117351684B (en) * 2023-12-04 2024-02-13 成都蜀诚通信技术有限公司 Early warning method of intelligent safety helmet and intelligent safety helmet

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149584A (en) * 2013-01-31 2014-08-21 Ramrock Co Ltd Notification system
JP6182917B2 (en) * 2013-03-15 2017-08-23 ノーリツプレシジョン株式会社 Monitoring device

Also Published As

Publication number Publication date
JP6115692B1 (en) 2017-04-19
JPWO2016199495A1 (en) 2017-06-22
WO2016199495A1 (en) 2016-12-15
JP2017168105A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6720909B2 (en) Action detection device, method and program, and monitored person monitoring device
WO2016143641A1 (en) Posture detection device and posture detection method
US10225522B1 (en) Method and system for determining whether an individual takes appropriate measures to prevent the spread of healthcare-associated infections
JP6680352B2 (en) Monitored person monitoring apparatus, method and system
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP6142975B1 (en) Monitored person monitoring apparatus and method, and monitored person monitoring system
JPWO2017082037A1 (en) Central processing unit and method of monitored person monitoring system, and monitored person monitoring system
JP6119938B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
EP3486868A1 (en) Behavior determination device and behavior determination method
JP6696606B2 (en) Care support system, care support method and program
JP7137154B2 (en) Behavior detection device and method, and monitored person monitoring support system
JP6115689B1 (en) Fall detection device, fall detection method and monitored person monitoring device
JP6922914B2 (en) Watching system, watching device, watching method, and watching program
WO2021033453A1 (en) Image processing system, image processing program, and image processing method
JP7180601B2 (en) SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM
JP2022010581A (en) Detection device, detection method, image processing method and program
JP6481537B2 (en) Monitored person monitoring device and monitored person monitoring method
JP6804510B2 (en) Detection system and display method of detection system
JP6737355B2 (en) Head detection device, head detection method, and monitored person monitoring device
JP7259540B2 (en) Determination device, control program for determination device, and determination method
JP7327396B2 (en) Control program, report output method, and report output device
JP2023177885A (en) Information processing device, information processing system, and information processing method
JP2021196992A (en) Supervision system, information processing device and program
JP2023177886A (en) Information processing device, information processing system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6720909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150