JP6720909B2 - Action detection device, method and program, and monitored person monitoring device - Google Patents
Action detection device, method and program, and monitored person monitoring device Download PDFInfo
- Publication number
- JP6720909B2 JP6720909B2 JP2017055687A JP2017055687A JP6720909B2 JP 6720909 B2 JP6720909 B2 JP 6720909B2 JP 2017055687 A JP2017055687 A JP 2017055687A JP 2017055687 A JP2017055687 A JP 2017055687A JP 6720909 B2 JP6720909 B2 JP 6720909B2
- Authority
- JP
- Japan
- Prior art keywords
- monitored person
- image
- action
- action detection
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Emergency Management (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Emergency Alarm Devices (AREA)
Description
本発明は、監視すべき監視対象である被監視者における所定の行動を検知する行動検知装置、行動検知方法および行動検知プログラムに関する。そして、本発明は、この行動検知装置を用いた被監視者監視装置に関する。 The present invention relates to an action detection device, an action detection method, and an action detection program that detect a predetermined action of a monitored person who is a monitoring target to be monitored. The present invention also relates to a monitored person monitoring device using this behavior detection device.
我が国(日本)は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。また、2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、病気や怪我や高齢等による看護や介護を必要とする要看護者や要介護者(要看護者等)は、高齢化社会ではない通常の社会で生じる要看護者等よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、看護や介護の必要な高齢者を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。 Japan (Japan) is an aging society, more specifically the ratio of the population aged 65 and over to the total population due to the improvement of living standards, the improvement of hygiene environment and the improvement of medical care, etc. accompanying the post-war high economic growth. It is a super-aging society with an aging rate of over 21%. In 2005, the total population was 127.65 million, but the number of elderly people aged 65 and over was 255.6 million, while in 2020, the total population was 124.11 million. It is predicted that the elderly population will be approximately 3,456,000. In such an aging society, those requiring nursing care or those requiring nursing care (such as those requiring nursing care) due to illnesses, injuries, or aging, etc. It is expected to increase more than the above. And Japan is also a declining birthrate society with a total fertility rate of 1.43 in 2013, for example. For this reason, elderly care is also occurring in which elderly families (spouse, children, brothers) care for the elderly who need nursing or care.
要看護者や要介護者は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの問題がある。このような事態に対し、可及的速やかに対応する必要があり、また、このような事態を放置しておくとさらに大きな問題に発展してしまう可能性もあるため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。 Nurses and care recipients enter a facility such as a hospital or a welfare facility for the elderly (short-term nursing home for the elderly, nursing home for the elderly and nursing home for the elderly, etc. under Japanese law) to receive nursing and care. In such a facility, there is a problem that a nurse or the like suffers an injury due to a fall from a bed, a fall while walking, or the like, getting out of the bed and wandering around. It is necessary to respond to such a situation as soon as possible, and if such a situation is left untreated, it may develop into a larger problem. And caregivers check the safety and the situation by regularly patrol.
しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。 However, the increasing number of nurses and the like cannot keep up with the increasing number of nurses and the like, and the nursing industry and the nursing care industry are chronically short of labor. Further, the number of nurses, caregivers and the like decreases in the semi-night shift and night shift hours compared to the day shift hours, and the work load per person increases. Therefore, it is required to reduce the work load. In addition, the situation of the old-age care is not an exception even in the above-mentioned facilities, and it is often seen that an elderly nurse or the like takes care of an elderly nurse or the like. In general, physical strength deteriorates as the person gets older, so even if they are healthy, the burden of nursing, etc. will be heavier than that of young nurses, and their movements and judgments will be slow.
このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視装置が研究、開発されている。 In order to reduce such labor shortage and the burden on nurses and the like, there is a demand for technology that complements nursing work and nursing care work. For this reason, in recent years, a monitored person monitoring device for monitoring (monitoring) a monitored person, such as a nurse requiring care, to be monitored has been studied and developed.
このような技術の一つとして、例えば特許文献1に開示された人体検知装置や特許文献2に開示された画像処理装置がある。この特許文献1に開示された人体検知装置は、被監視者の部屋の床面を撮像する撮像カメラと、撮像カメラの撮像範囲を複数の領域に分離識別し各領域での被監視者の存在および動作を検知する検知領域判断部と、この検知領域判断部での被監視者の存在および動作に関する検知結果を基にして、所定の領域で、もしくは所定の領域とその隣接領域にわたって、被監視者が所定の状態にあることを検知すると、監視者側へ異常発生の旨の発報を行なう判定処理部とを備える。そして、前記検知領域判断部には、前記複数の領域の一種として、被監視者の部屋の床面上の寝台が存在するベッド領域と、少なくともこのベッド領域を除き被監視者の部屋の床面をあらわし前記所定の領域である床領域とを設定してあり、前記判定処理部は、被監視者がベッド領域から床領域へ移動したことを検知すると監視者側へ被監視者離床の旨の異常発報を行なう。
As one of such techniques, for example, there are a human body detection device disclosed in
前記特許文献2に開示された画像処理装置は、撮影を行う撮像カメラと、室内斜め上方から室内下方に向けて前記撮像カメラにより撮影された画像情報に基づいて人の離床、入床を判断する画像処理部と、を備える画像処理装置であって、前記画像処理部は、前記画像情報のうち、室内床面上に設置されたベッドが占有する領域であるベッド領域と、床面の領域で前記ベッドが置かれる領域以外の床面領域と、を識別可能であるともに、前記ベッドの外形下辺を表わす境界辺を通過して、前記床面領域から前記ベッド領域への人体移動を検知すると、入床事象と判断し、前記境界辺を通過して、前記ベッド領域から前記床面領域への人体移動を検知すると、離床事象と判断する。
The image processing device disclosed in
一方、安否確認の点では、一人暮らしの独居者も前記要看護者等と同様であり、監視対象である被監視者となる。 On the other hand, in terms of confirmation of safety, a single person living alone is the same as the nursing-needed person or the like, and is a monitored person who is a monitoring target.
前記特許文献1に開示された人体検知装置は、前記特許文献1の図1に示されているように、部屋の床面全面を撮像できるように天井の略中央位置に撮像カメラが配設されていることを前提に、離床を判定している。前記特許文献2に開示された画像処理装置は、室内斜め上方から室内下方に向けて撮影できるように撮像カメラが配設されていることを前提に、入床および離床それぞれを判定している。
In the human body detection device disclosed in
ところで、部屋のサイズ(大きさ)や形状は、実際には、様々であり、前記天井の略中央位置や前記室内斜め上方から室内下方に向けて撮影できる位置にカメラが配設できるとは限らない。このため、前記前提を欠くと、前記特許文献1に開示された人体検知装置や前記特許文献2に開示された画像処理装置は、前記離床の判定や前記入床および離床それぞれの判定における精度が低下してしまう。
By the way, the size (size) and shape of the room are actually various, and it is not always possible to arrange the camera at a position approximately at the center of the ceiling or at a position where the room can be photographed from obliquely above the room to below the room. Absent. Therefore, if the above assumption is omitted, the human body detection device disclosed in
本発明は、上述の事情に鑑みて為された発明であり、その目的は、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる行動検知装置、行動検知方法および行動検知プログラム、ならびに、この行動検知装置を用いた被監視者監視装置を提供することである。 The present invention has been made in view of the above circumstances, and an object thereof is action detection capable of detecting a predetermined action of a person to be monitored with high accuracy regardless of the position where the camera is placed. An apparatus, an action detection method and an action detection program, and a monitored person monitoring device using the action detection device.
本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置では、監視対象である被監視者を、その上方から撮像した画像が取得され、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムが選択され、この選択された行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動が検知される。 In the action detection device, the action detection method, the action detection program, and the monitored person monitoring device according to the present invention, an image of the monitored person being monitored is captured from above, and a predetermined action in the monitored person is performed. From among a plurality of different action detection algorithms for detecting the action, the action detection algorithm is selected based on the positional relationship between the camera that captured the image and a set region that is a predetermined region in the image, and this selection A predetermined action in the monitored person is detected on the basis of the image by the action detection algorithm.
本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置は、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 INDUSTRIAL APPLICABILITY The behavior detection device, the behavior detection method, the behavior detection program, and the monitored person monitoring device according to the present invention can detect a predetermined behavior of the monitored person with higher accuracy, regardless of the installation position of the camera. ..
上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。 The above, and other objects, features and advantages of the present invention will be apparent from the following detailed description and the accompanying drawings.
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 An embodiment of the present invention will be described below with reference to the drawings. In addition, in each of the drawings, the components denoted by the same reference numerals indicate the same components, and the description thereof will be appropriately omitted. In the present specification, reference numerals without suffixes are used for generic names, and reference numerals with suffixes are used when referring to individual configurations.
本被監視者監視装置は、監視対象である被監視者における、予め設定された所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備えるものである。そして、前記行動検知部は、前記被監視者を、前記被監視者の上方から撮像した画像に基づいて所定の行動検知アルゴリズムで前記被監視者における所定の行動を検知する。このような被監視者監視装置は、1個の機器として、一体に構成されて実現されて良く、また、システムとして、複数の機器で実現されて良い。そして、被監視者監視装置が複数の機器で実現される場合に、前記行動検知部は、これら複数の機器のうちのいずれに実装されて良い。一例として、ここでは、前記被監視者監視装置がシステムとして複数の機器で実現されている場合について、前記被監視者監視装置の実施形態を説明する。なお、前記被監視者監視装置が1個の機器として一体に構成されて実現される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。また、一例として、ここでは、前記行動検知部が前記通知部と共に後述のセンサ装置SUに実装される場合について、説明するが、このシステムのうちの他の装置、例えば後述の管理サーバ装置SV、固定端末装置SPあるいは携帯端末装置TAに実装される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。 The person-to-be-monitored device includes an action detection unit that detects a preset predetermined action in a monitored subject, and a notification unit that externally notifies the predetermined action detected by the action detection unit. And with. Then, the behavior detection unit detects a predetermined behavior of the monitored person by a predetermined behavior detection algorithm based on an image of the monitored person taken from above the monitored person. Such a person-to-be-monitored device may be realized by being integrally configured as one device, or may be realized by a plurality of devices as a system. Then, when the monitored person monitoring device is realized by a plurality of devices, the behavior detection unit may be mounted on any of the plurality of devices. As an example, here, an embodiment of the monitored person monitoring apparatus will be described in the case where the monitored person monitoring apparatus is realized by a plurality of devices as a system. Even in the case where the monitored person monitoring device is integrally configured as one device, the monitored person monitoring device can be configured as in the following description. Further, as an example, a case will be described here in which the action detection unit is mounted on the sensor device SU described later together with the notification unit. However, another device in this system, for example, a management server device SV described later Also in the case of being mounted on the fixed terminal device SP or the mobile terminal device TA, the monitored person monitoring device can be configured in the same manner as the following description.
図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、前記センサ装置で用いられる設定領域および行動検知線を説明するための図である。なお、図3は、これら設定領域および行動検知線を入力するための入力画面の一例でもある。図4は、前記設定領域に対するカメラの位置関係を説明するための図である。図5は、前記センサ装置で用いられる前記カメラの位置関係を求める手法を説明するための図である。図5Aは、画像中心が設定領域(寝具領域)における行動検知線の手前に位置する場合を示し、図5Bは、画像中心が設定領域(寝具領域)内に位置する場合を示す。図6は、前記センサ装置で用いられるXn用の行動検知アルゴリズムを示すメインルーチンのフローチャートである。Xnは、カメラの位置関係であり、本実施形態では、直上、手前、奥、横、斜め前および斜め奥である。図7は、前記Xn用の行動検知アルゴリズムにおけるXn用の起床判定アルゴリズムを示すサブルーチンのフローチャートである。図8は、前記Xn用の行動検知アルゴリズムにおけるXn用の離床判定アルゴリズムを示すサブルーチンのフローチャートである。図9は、前記カメラの位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図9左側は、カメラで取得された画像の一例を示し、図9右側は、図9左側に示す画像から抽出された人体の領域(人体領域)を示す。図10は、前記カメラの位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図11は、前記カメラの位置関係が横である場合に用いられる横用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図12は、前記カメラの位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図13は、前記カメラの位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図14は、前記カメラの位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。これら図10ないし図14において、図の左側は、起床前を示し、図の中央は、起床後を示し、図の右側は、離床後を示す。図11ないし図14において、上段は、カメラで取得された画像の一例を示し、下段は、上段で示す画像から抽出された人体領域を示す。 FIG. 1 is a diagram showing a configuration of a monitored person monitoring system according to the embodiment. FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the embodiment. FIG. 3 is a diagram for explaining a set area and an action detection line used in the sensor device. Note that FIG. 3 is also an example of an input screen for inputting these setting areas and action detection lines. FIG. 4 is a diagram for explaining the positional relationship of the camera with respect to the setting area. FIG. 5 is a diagram for explaining a method for obtaining the positional relationship of the cameras used in the sensor device. FIG. 5A shows a case where the image center is located in front of the action detection line in the setting area (bedding area), and FIG. 5B shows a case where the image center is located in the setting area (bedding area). FIG. 6 is a flowchart of a main routine showing an action detection algorithm for Xn used in the sensor device. Xn is the positional relationship of the cameras, and in the present embodiment, it is immediately above, in front, behind, lateral, diagonally forward, and diagonally deep. FIG. 7 is a flowchart of a subroutine showing an Xn wakeup determination algorithm in the Xn action detection algorithm. FIG. 8 is a flow chart of a subroutine showing a bed leaving determination algorithm for Xn in the action detection algorithm for Xn. FIG. 9 is a diagram for explaining the wakeup determination method and the leaving determination method used in the action detection algorithm for directly above, which is used when the positional relationship of the cameras is directly above. The left side of FIG. 9 shows an example of the image acquired by the camera, and the right side of FIG. 9 shows the region of the human body (human body region) extracted from the image shown on the left side of FIG. 9. FIG. 10 is a diagram for explaining a wake-up determination method and a wake-up determination method used in the front action detection algorithm used when the positional relationship of the cameras is in front. FIG. 11 is a diagram for explaining a wake-up determination method and a wake-up determination method used in a lateral action detection algorithm used when the positional relationship of the cameras is horizontal. FIG. 12 is a diagram for explaining a wake-up determination method and a wake-up determination method used in a back action detection algorithm used when the positional relationship of the cameras is deep. FIG. 13 is a diagram for explaining a wakeup determination method and a wakeup determination method used in a diagonally forward action detection algorithm used when the positional relationship of the cameras is diagonally forward. FIG. 14 is a diagram for explaining a wake-up determination method and a wake-up determination method used in a diagonally-behind action detection algorithm used when the positional relationship of the cameras is diagonally-backward. In FIGS. 10 to 14, the left side of the figure shows before waking up, the center of the figure shows after waking up, and the right side of the figure shows after waking up. 11 to 14, the upper part shows an example of the image acquired by the camera, and the lower part shows the human body region extracted from the image shown in the upper part.
前記被監視者監視装置をシステムとして実現したその一例の被監視者監視システムMSは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、図1に示すように、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備え、これらは、有線や無線で、LAN(Local Area Network)、電話網およびデータ通信網等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ、ルーターおよびクロスコネクト等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SPおよび複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを含む無線LAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。 The monitored person monitoring system MS, which is one example of the monitored person monitoring apparatus implemented as a system, has a monitored person (watched person) Ob (Ob-1) that is a monitored target (watched) to be monitored (watched). To Ob-4), a predetermined behavior set in advance is detected to monitor the monitored person Ob. For example, as shown in FIG. 1, one or a plurality of sensor devices SU (SU-1). ~ SU-4), a management server device SV, a fixed terminal device SP, and one or a plurality of mobile terminal devices TA (TA-1, TA-2), which are wired or wireless, LAN ( Local Area Network), a telephone network, a data communication network, and other networks (networks, communication lines) NW are communicably connected. The network NW may be equipped with repeaters such as repeaters, bridges, routers, and cross-connects that relay communication signals. In the example illustrated in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, and the plurality of mobile terminal devices TA-1 and TA-2 are wireless including an access point AP. A LAN (for example, a LAN conforming to the IEEE 802.11 standard) NW is communicably connected to each other.
被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob. The person to be monitored (person to be watched) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs nursing care due to deterioration of physical ability, or a single person living alone. In particular, from the viewpoint of enabling early detection and early action, the monitored person Ob may be a person who needs to be detected when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable. Therefore, the monitored person monitoring system MS is preferably installed in a building such as a hospital, a welfare facility for the aged, and a dwelling unit according to the type of the monitored person Ob. In the example illustrated in FIG. 1, the monitored-person monitoring system MS is installed in a building of a nursing care facility that includes a plurality of living rooms RM in which a plurality of monitored persons Ob live and a plurality of rooms such as a nurse station.
センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このセンサ装置SUは、後にさらに詳述する。 The sensor device SU is a device that has a communication function of communicating with other devices SV, SP, TA via the network NW, detects the monitored person Ob, and transmits the detection result to the management server device SV. This sensor device SU will be described in more detail later.
管理サーバ装置SVは、ネットワークNWを介して他の装置SU、SP、TAと通信する通信機能を備え、センサ装置SUから被監視者Obに関する検知結果および前記被監視者Obの画像を受信して被監視者Obに対する監視に関する情報(監視情報)を管理する機器である。管理サーバ装置SVは、センサ装置SUから被監視者Obに関する前記検知結果および前記被監視者Obの画像を受信すると、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(監視情報通信信号)を固定端末装置SPおよび携帯端末装置TAに送信する。また、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SPおよび携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function of communicating with other devices SU, SP, TA via the network NW, and receives the detection result of the monitored person Ob and the image of the monitored person Ob from the sensor device SU. It is a device that manages information (monitoring information) about monitoring the monitored person Ob. When the management server device SV receives the detection result of the monitored person Ob and the image of the monitored person Ob from the sensor device SU, the management server device SV stores (records) the monitoring information regarding the monitoring of the monitored person Ob, and A communication signal (monitoring information communication signal) accommodating the monitoring information regarding the monitoring of the observer Ob is transmitted to the fixed terminal device SP and the mobile terminal device TA. Further, the management server device SV provides the client with data in response to a request from the client (the fixed terminal device SP, the mobile terminal device TA, etc. in the present embodiment). Such a management server device SV can be configured by, for example, a computer with a communication function.
固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた検知結果や画像を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。 The fixed terminal device SP has a communication function of communicating with other devices SU, SV, TA via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and the like. The user interface of the monitored person monitoring system MS by inputting a predetermined instruction or data to be given to the management server device SV or the mobile terminal device TA or displaying the detection result or image obtained by the sensor device SU. A device that functions as a (UI). Such a fixed terminal device SP can be configured by, for example, a computer with a communication function.
携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた前記検知結果や画像を表示したり等することによって、被監視者Obに対する監視に関する前記監視情報を受け付けて表示する機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 The mobile terminal device TA performs a communication function of communicating with other devices SV, SP, SU via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. It is equipped with a call function to perform, and inputs predetermined instructions and data to be given to the management server device SV and the sensor device SU, and displays the detection results and images obtained by the sensor device SU by the notification from the management server device SV. It is a device that receives and displays the monitoring information regarding the monitoring of the person Ob to be monitored. Such a mobile terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, smartphone, or mobile phone.
次に、上述のセンサ装置SUについてさらに説明する。センサ装置SUは、例えば、図2に示すように、カメラ1と、音入出力部2と、制御処理部3と、通信インターフェース部(通信IF部)4と、記憶部5とを備える。
Next, the above-mentioned sensor device SU will be further described. As shown in FIG. 2, the sensor device SU includes, for example, a
カメラ1は、制御処理部3に接続され、制御処理部3の制御に従って、画像(画像データ)を生成する装置である。カメラ1は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に前記所在空間の上方に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像を制御処理部3へ出力する。カメラ1は、本実施形態では、静止画および動画を生成する。このようなカメラ1は、被監視者Ob全体を撮像できる蓋然性が高いことから、被監視者Obの横臥する例えばベッド等の寝具BTにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように、配設されることが好ましいが、実際には、部屋のサイズ(大きさ)や形状等に応じて、適宜な位置、例えば天井や壁の上方等に配設される。カメラ1は、監視対象である被監視者Obを、被監視者Obの上方から撮像した画像を取得する画像取得部の一例である。
The
このようなカメラ1は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外光の画像を生成する装置である。このようなカメラ1は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。カメラ1の結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。なお、カメラ1は、赤外線サーモグラフィー装置であっても良い。
Such a
なお、センサ装置SUは、被監視者における所定の行動の1つとして微体動異常を検知するために、ドップラセンサをさらに備えても良い。このドップラセンサは、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサである。前記物体が動いている場合、いわゆるドップラ効果により前記物体の動いている速度に比例して反射波の周波数がシフトするため、送信波の周波数と反射波の周波数とに差(ドップラ周波数成分)が生じる。ドップラセンサ11は、このドップラ周波数成分の信号をドップラ信号として生成し、制御処理部3へ出力する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。そして、制御処理部3は、後述の行動検知処理部36によって、前記ドップラセンサのドップラ信号に基づいて被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を求め、その胸部の体動における周期の乱れや予め設定された閾値以下である前記胸部の体動における振幅を検知すると、前記微体動異常であると判定する。
Note that the sensor device SU may further include a Doppler sensor in order to detect a microscopic movement abnormality as one of the predetermined actions of the monitored person. This Doppler sensor is a body motion sensor that transmits a transmission wave, receives a reflection wave of the transmission wave reflected by an object, and outputs a Doppler signal of a Doppler frequency component based on the transmission wave and the reflection wave. .. When the object is moving, since the frequency of the reflected wave is shifted in proportion to the moving speed of the object by the so-called Doppler effect, the difference between the frequency of the transmitted wave and the frequency of the reflected wave (Doppler frequency component) Occurs. The Doppler sensor 11 generates a signal of this Doppler frequency component as a Doppler signal and outputs it to the
音入出力部2は、制御処理部3に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、制御処理部3の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。音入出力部2は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。音入出力部2は、外部の音を表す電気信号を制御処理部3へ出力し、また、制御処理部3から入力された電気信号を音の音響振動に変換して出力する。
The sound input/
通信IF部4は、制御処理部3に接続され、制御処理部3の制御に従って通信を行うための通信回路である。通信IF部4は、制御処理部3から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。通信IF部4は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部3が処理可能な形式のデータに変換して制御処理部3へ出力する。なお、通信IF部4は、さらに、例えば、Bluetooth(登録商標)規格、IrDA(Infrared Data Asscoiation)規格およびUSB(Universal Serial Bus)規格等の規格を用い、外部機器との間でデータの入出力を行うインターフェース回路を備えても良い。
The communication IF
記憶部5は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。
The storage unit 5 is a circuit that is connected to the
前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、画像中における所定の領域を設定領域として設定するための処理を行う領域設定処理プログラム、被監視者Obにおける所定の行動を検知するために予め記憶された複数の所定の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線として設定するための処理を行う行動検知線設定処理プログラム、前記設定領域に対するカメラ1の位置関係を求める位置関係演算プログラム、前記複数の行動検知アルゴリズムの中から位置関係演算プログラムで求めた位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択プログラム、前記アルゴリズム選択プログラムで選択した行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。前記各種の所定のデータには、例えば、前記設定領域および前記行動検知線等のこれら上述の各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。
The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing regarding monitoring of the monitored person Ob. The monitoring processing program includes an area setting processing program for performing processing for setting a predetermined area in the image as a setting area, and a plurality of predetermined predetermined values stored in advance for detecting a predetermined behavior of the monitored person Ob. An action detection line setting processing program that is used for at least one of the action detection algorithms and that performs a process for setting a predetermined line in the image as an action detection line, and obtains the positional relationship of the
これら前記設定領域、前記行動検知線および前記複数の行動検知アルゴリズムを記憶するために、記憶部5は、機能的に、設定領域記憶部51、行動検知線記憶部52および行動検知アルゴリズム記憶部53を備える。
In order to store the setting area, the behavior detection line, and the plurality of behavior detection algorithms, the storage unit 5 functionally includes the setting
設定領域記憶部51は、画像中における所定の領域を設定領域として記憶するものである。設定領域は、被監視者Obにおける所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる領域であり、本実施形態では、前記所定の行動は、被監視者Obの起床および離床であることから、前記起床の有無および前記離床の有無を検知するために、設定領域ARは、例えば、図3に4点PT1〜PT4で囲まれた領域として示すように、カメラ1で所在空間を撮像した画像中における例えばベッド等の寝具BTの領域である。
The set
行動検知線記憶部52は、画像中における所定の線を行動検知線として記憶するものである。行動検知線は、被監視者Obにおける所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる線であり、本実施形態では、前記所定の行動は、被監視者Obの起床および離床であることから、前記起床の有無および前記離床の有無を検知するために、行動検知線ALは、例えば、図3に2点PT2、PT3の線分として示すように、寝具BTに対し入床および離床する、寝具BTの領域として設定された設定領域ARにおける1または複数の境界線である。
The action detection
行動検知アルゴリズム記憶部53は、互いに異なる複数の行動検知アルゴリズムを設定領域ARに対する、前記画像を撮像したカメラ1の位置関係に対応付けて記憶するものである。
The action detection algorithm storage unit 53 stores a plurality of different action detection algorithms in association with the positional relationship of the
設定領域ARに対する前記カメラ1の位置関係は、本実施形態では、例えば、図4に示すように、設定領域ARを基準に分類されており、カメラ1が設定領域ARの直上に位置する直上PO1、カメラ1が設定領域ARの手前上方に位置する手前PO2、カメラ1が設定領域ARの奥上方に位置する奥PO3、カメラ1が設定領域ARの横上方に位置する横PO4、PO4、カメラ1が設定領域ARの斜め前上方に位置する斜め前PO5、PO5、および、カメラ1が設定領域ARの斜め奥上方に位置する斜め奥PO6、PO6である。これら直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6は、後述の基本位置関係でもある。
In the present embodiment, the positional relationship of the
そして、互いに異なる複数の行動検知アルゴリズムは、本実施形態では、これら6個の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6それぞれに対応して予め用意されており、前記複数の行動検知アルゴリズムは、前記カメラ1の位置関係が直上PO1である場合に用いられる直上用の行動検知アルゴリズム、前記カメラ1の位置関係が手前PO2である場合に用いられる手前用の行動検知アルゴリズム、前記カメラ1の位置関係が奥PO3である場合に用いられる奥用の行動検知アルゴリズム、前記カメラ1の位置関係が横PO4である場合に用いられる横用の行動検知アルゴリズム、前記カメラ1の位置関係が斜め前PO5である場合に用いられる斜め前用の行動検知アルゴリズム、および、前記カメラ1の位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含む。
In the present embodiment, a plurality of mutually different action detection algorithms are prepared in advance for each of the six immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonal front PO5, and the diagonal back PO6, The plurality of action detection algorithms are the action detection algorithm for directly above used when the positional relationship of the
前記直上用の行動検知アルゴリズムは、例えば、図9に示すように、画像上における設定領域AR外の被監視者Obの第1面積S1、および、前記画像上における設定領域ARと被監視者Obとが重なった第2面積S2に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 The action detection algorithm for immediately above, for example, as shown in FIG. 9, has the first area S1 of the monitored person Ob outside the set area AR on the image, and the set area AR and the monitored person Ob on the image. This is an algorithm for detecting a predetermined action in the monitored person Ob based on the second area S2 where and are overlapped.
前記手前用の行動検知アルゴリズムは、例えば、図10に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waに基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。この距離Waは、行動検知線ALの外側にはみ出した被監視者Obの長さに相当する。 The front action detection algorithm, for example, as shown in FIG. 10, a predetermined action on the monitored person Ob based on the distance Wa between the action detection line AL on the image and the foot position FP of the monitored person Ob. Is an algorithm for detecting. This distance Wa corresponds to the length of the monitored person Ob that extends outside the action detection line AL.
前記横用の行動検知アルゴリズムは、例えば、図11に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。
For example, as shown in FIG. 11, the action detection algorithm for lateral use has a first boundary line BL1 and a set region located at a position closest to the
前記奥用の行動検知アルゴリズムは、例えば、図12に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。 The back action detection algorithm detects a predetermined action of the monitored person Ob based on the second area S2 in which the set area AR and the monitored person Ob overlap each other on the image, as shown in FIG. 12, for example. It is an algorithm to do.
前記斜め前用の行動検知アルゴリズムは、例えば、図13に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Wa、および、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。
For example, as shown in FIG. 13, the diagonal forward action detection algorithm includes a distance Wa between the action detection line AL and the foot position FP of the monitored person Ob on the image, and a set area on the image. A first boundary line BL1 located closest to the
前記斜め奥用の行動検知アルゴリズムは、例えば、図14に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。
For example, as shown in FIG. 14, the action detection algorithm for oblique depths is set as the first boundary line BL1 located at a position closest to the
これら6個の前記直上用の行動検知アルゴリズム、前記手前用の行動検知アルゴリズム、前記奥用の行動検知アルゴリズム、前記横用の行動検知アルゴリズム、前記斜め前用の行動検知アルゴリズムおよび前記斜め奥用の行動検知アルゴリズムは、大略、同様の手順であり、Xnを直上、手前、奥、横、斜め前および斜め奥とすると(Xn=直上、手前、奥、横、斜め前、斜め奥)、図6ないし図8に示すフォローチャートで表すことができる。 These six action detection algorithms for directly above, the action detection algorithm for the front, the action detection algorithm for the back, the action detection algorithm for the sideways, the action detection algorithm for the diagonally forward action, and the diagonally backward action detection algorithm The action detection algorithm is generally the same procedure, and assuming that Xn is directly above, in front, behind, sideways, diagonally forward and diagonally backward (Xn=directly above, near, far behind, sideways, diagonally forward, diagonally back), FIG. Through the follow chart shown in FIG.
より具体的には、Xn用の行動検知アルゴリズムでは、図6に示すように、先ず、画像から人体の領域(人体領域)が抽出され(S1n)、次に、Xn用の起床判定処理が実行され(S2n)、そして、Xn用の離床判定処理が実行される(S3n)。人体領域は、カメラ1で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで動体領域を抽出することで抽出される(動体領域=人体領域)。前記背景差分法では、予め背景画像が求められて前記各種の所定のデータの1つとして記憶部5に予め記憶され、カメラ1によって生成された画像と前記背景画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。前記フレーム差分法では、カメラ1によって生成された、現在のフレームの画像と過去のフレーム(例えば1つ前のフレーム)の画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。なお、逆に、Xn用の離床判定処理S3nが実行された後に、Xn用の起床判定処理S2nが実行されても良い。
More specifically, in the action detection algorithm for Xn, as shown in FIG. 6, first, the region of the human body (human body region) is extracted from the image (S1n), and then the wakeup determination process for Xn is executed. (S2n), and the bed leaving determination process for Xn is executed (S3n). The human body region is extracted by extracting the moving body region from the image acquired by the
Xn用の起床判定処理S2nでは、図7に示すように、まず、被監視者Obにおける起床に関する現在の状態が起床前か否かが判定される(S21n)。被監視者Obにおける起床に関する現在の状態は、記憶部5に記憶される。例えば、被監視者Obにおける起床に関する現在の状態は、起床に関する状態を表すフラグ(起床状態フラグ)によって記憶部5に記憶される。例えば、被監視者Obが起床前であると判定されている場合には、この起床状態フラグは、「0」とされ、被監視者Obが起床後であると判定されている場合には、この起床状態フラグは、「1」とされる。この判定の結果、起床前ではない場合、すなわち、起床後である場合(起床状態フラグ=1、No)には、このXn用の起床判定処理S2nが終了され、起床前である場合(起床状態フラグ=0、Yes)には、次の処理S22nが実行される。処理S22nでは、Xn用の起床判定条件を満たすか否かが判定される。この処理S22nは、Xnごとに後にさらに説明する。この判定の結果、Xn用の起床判定条件を満たす場合(Yes)は、起床が通知処理部37へ通知され(S23n)、被監視者Obにおける起床に関する現在の状態が起床後として記憶部5に記憶され(起床状態フラグ←1、S24n)、このXn用の起床判定処理S2nが終了される。一方、前記判定の結果、Xn用の起床判定条件を満たさない場合(No)は、被監視者Obにおける起床に関する現在の状態が起床前として記憶部5に記憶され(起床状態フラグ←0、S25n)、このXn用の起床判定処理S2nが終了される。
In the wakeup determination process S2n for Xn, as illustrated in FIG. 7, first, it is determined whether the current state of the monitored person Ob regarding wakeup is before wakeup (S21n). The current state of getting up of the monitored person Ob is stored in the storage unit 5. For example, the current state of the monitored person Ob regarding getting up is stored in the storage unit 5 by a flag indicating a state regarding getting up (wakeup state flag). For example, when it is determined that the monitored person Ob is before waking up, this wake-up state flag is set to "0", and when it is determined that the monitored person Ob is after waking up, This wake-up state flag is set to "1". As a result of this determination, if it is not before wake-up, that is, if it is after wake-up (wake-up state flag=1, No), the wake-up determination process S2n for Xn is ended, and if it is before wake-up (wake-up state For flag=0, Yes), the following process S22n is executed. In step S22n, it is determined whether or not the wakeup determination condition for Xn is satisfied. This processing S22n will be further described later for each Xn. As a result of this determination, if the wakeup determination condition for Xn is satisfied (Yes), the
Xn用の離床判定処理S3nでは、図8に示すように、まず、被監視者Obにおける離床に関する現在の状態が離床前か否かが判定される(S31n)。被監視者Obにおける離床に関する現在の状態は、記憶部5に記憶される。例えば、被監視者Obにおける離床に関する現在の状態は、離床に関する状態を表すフラグ(離床状態フラグ)によって記憶部5に記憶される。例えば、被監視者Obが離床前であると判定されている場合には、この離床状態フラグは、「0」とされ、被監視者Obが離床後であると判定されている場合には、この離床状態フラグは、「1」とされる。この判定の結果、離床前ではない場合、すなわち、離床後である場合(離床状態フラグ=1、No)には、このXn用の離床判定処理S3nが終了され、離床前である場合(離床状態フラグ=0、Yes)には、次の処理S32nが実行される。処理S32nでは、Xn用の離床判定条件を満たすか否かが判定される。この処理S32nは、Xnごとに後にさらに説明する。この判定の結果、Xn用の離床判定条件を満たす場合(Yes)は、離床が通知処理部37へ通知され(S33n)、被監視者Obにおける離床に関する現在の状態が離床後として記憶部5に記憶され(離床状態フラグ←1、S34n)、このXn用の離床判定処理S3nが終了される。一方、前記判定の結果、Xn用の離床判定条件を満たさない場合(No)は、被監視者Obにおける離床に関する現在の状態が離床前として記憶部5に記憶され(離床状態フラグ←0、S35n)、このXn用の離床判定処理S3nが終了される。 In the bed leaving determination processing S3n for Xn, as shown in FIG. 8, first, it is determined whether or not the current state of the monitored person Ob regarding bed leaving is before bed leaving (S31n). The current state regarding leaving the monitored person Ob is stored in the storage unit 5. For example, the current state of the monitored person Ob regarding leaving the bed is stored in the storage unit 5 by a flag indicating the state regarding leaving the bed (leaving state flag). For example, when it is determined that the monitored person Ob is before leaving the bed, the bed leaving state flag is set to "0", and when it is determined that the monitored person Ob is after leaving the bed, This bed leaving state flag is set to "1". As a result of this determination, if it is not before leaving the bed, that is, if it is after leaving the bed (bed leaving state flag=1, No), this bed leaving determination processing S3n for Xn is ended, and if it is before leaving the bed (bed leaving state For flag=0, Yes), the following process S32n is executed. In the process S32n, it is determined whether or not the leaving determination condition for Xn is satisfied. This process S32n will be further described later for each Xn. As a result of this determination, when the leaving determination condition for Xn is satisfied (Yes), the leaving processing is notified to the notification processing unit 37 (S33n), and the current state of the monitored person Ob regarding leaving the bed is stored in the storage unit 5 as after leaving the bed. It is stored (bed leaving state flag ←1, S34n), and the bed leaving determination process S3n for Xn is ended. On the other hand, as a result of the determination, if the bed leaving determination condition for Xn is not satisfied (No), the current state regarding the bed leaving of the monitored person Ob is stored in the storage unit 5 as being before bed leaving (bed leaving state flag ← 0, S35n ), the bed leaving determination processing S3n for Xn is ended.
次に、図9ないし図14を用いてXnごとに、Xn用の起床判定条件およびXn用の離床判定条件について説明する。Xn用の起床判定条件およびXn用の離床判定条件は、例えば、本実施形態では、画像上における設定領域AR外の被監視者Obの第1面積S1、画像上における設定領域ARと被監視者Obとが重なった第2面積S2、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3、および、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waのうちの1または複数に基づく条件である。大略、前記第1面積S1が大きくなるに従って起床の発生が検知され、さらに大きくなるに従って離床の発生が検知される。大略、前記第2面積S2が小さくなるに従って起床の発生が検知され、さらに小さくなるに従って離床の発生が検知される。大略、前記第3面積S3が小さくなるに従って起床の発生が検知され、さらに小さくなるに従って離床の発生が検知される。そして、大略、前記距離Waが大きくなるに従って起床の発生が検知され、さらに大きくなるに従って離床の発生が検知される。
Next, the wakeup determination condition for Xn and the wakeup determination condition for Xn will be described for each Xn with reference to FIGS. 9 to 14. The wakeup determination condition for Xn and the wakeup determination condition for Xn are, for example, in the present embodiment, the first area S1 of the monitored person Ob outside the setting area AR on the image, the setting area AR on the image and the monitored person. Ob overlaps the second area S2, the first boundary line BL1 located closest to the
より具体的には、まず、直上用の行動検知アルゴリズムで用いられる直上用の起床判定条件は、図9に示すように、画像上における設定領域AR外の被監視者Obの第1面積S1が予め設定された第1閾値(直上用起床判定閾値)Th1を越えたか否かである。第1面積S1が第1閾値Th1を越えた場合(S1>Th1)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる。一方、第1面積S1が第1閾値Th1以下である場合(S1≦Th1)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる。第1面積S1は、例えば、処理S1nで抽出された人体領域のうち、設定領域AR外の人体領域における画素の総数を計数することで求められる。そして、直上用の行動検知アルゴリズムで用いられる直上用の離床判定条件は、図9に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2が予め設定された第2閾値(直上用離床判定閾値)Th2を越えたか否かである。第2面積S2が第2閾値Th2を越えていない場合、すなわち、第2面積S2が第2閾値Th2未満である場合(S2<Th2)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる。一方、第2面積S2が第2閾値Th2以上である場合(S2≧Th2)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる。第2面積S2は、例えば、処理S1nで抽出された人体領域のうち、設定領域ARと人体領域とが重なった領域における画素の総数を計数することで求められる。これら第1および第2閾値Th1、Th2は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 More specifically, first, as shown in FIG. 9, the wakeup determination condition for immediately above used in the action detection algorithm for immediately above is that the first area S1 of the monitored person Ob outside the set area AR on the image is It is whether or not a preset first threshold value (upward determination threshold value for immediately above) Th1 has been exceeded. When the first area S1 exceeds the first threshold Th1 (S1>Th1), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to after waking up. On the other hand, when the first area S1 is less than or equal to the first threshold Th1 (S1≦Th1), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is It is said that The first area S1 is obtained, for example, by counting the total number of pixels in the human body region outside the set region AR among the human body regions extracted in the process S1n. Then, as shown in FIG. 9, the second floor area S2 in which the set area AR on the image and the monitored person Ob overlap is set in advance as the bed leaving determination condition for directly above used in the action detection algorithm for immediately above. It is whether or not the second threshold value (threshold determination threshold for immediately above bed) Th2 is exceeded. If the second area S2 does not exceed the second threshold Th2, that is, if the second area S2 is less than the second threshold Th2 (S2<Th2), it is determined that the monitored person Ob has left the bed, and The current state regarding leaving the bed by the observer Ob is after leaving the bed. On the other hand, when the second area S2 is greater than or equal to the second threshold Th2 (S2≧Th2), it is determined that the monitored person Ob has not left the bed, and the current state regarding the leaving of the monitored person Ob is before leaving the bed. It is said that The second area S2 is obtained, for example, by counting the total number of pixels in a region where the set region AR and the human body region overlap, out of the human body region extracted in the process S1n. These first and second thresholds Th1 and Th2 are empirically preset, for example, by statistically processing a plurality of samples.
手前用の行動検知アルゴリズムで用いられる手前用の起床判定条件は、図10に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waが予め設定された第3閾値(手前用起床判定閾値)Th3を越えたか否かである。距離Waが第3閾値Th3以上である場合(Wa≧Th3)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図10の中央参照)。一方、距離Waが第3閾値Th3を越えていない場合、すなわち、距離Waが第3閾値Th3未満である場合(Wa<Th3)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図10の左側参照)。距離Waは、例えば、処理S1nで抽出された人体領域のうち、床面に最も近い位置が被監視者Obの足先位置FPとされ、行動検知線ALとこの被監視者Obの足先位置FPとの間における、縦方向に沿う1ラインの画素の総数を計数することで求められる。そして、手前用の行動検知アルゴリズムで用いられる手前用の離床判定条件は、図10に示すように、前記距離Waが予め設定された第4閾値(手前用離床判定閾値)Th4を越えたか否かである。距離Waが第4閾値Th4以上である場合(Wa≧Th4)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図10の右側参照)。一方、距離Waが第4閾値Th4を越えていない場合、すなわち、距離Waが第4閾値Th4未満である場合(Wa<Th4)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図10の中央参照)。これら第3および第4閾値Th3、Th4は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 10, the wake-up determination condition for the foreground used in the foreground action detection algorithm is preset with a distance Wa between the action detection line AL on the image and the foot position FP of the monitored person Ob. It is whether or not the third threshold value (front wakeup determination threshold value) Th3 has been exceeded. When the distance Wa is greater than or equal to the third threshold value Th3 (Wa≧Th3), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to after waking up (FIG. 10). See center). On the other hand, when the distance Wa does not exceed the third threshold Th3, that is, when the distance Wa is less than the third threshold Th3 (Wa<Th3), it is determined that the monitored person Ob is not awakened and The current state of getting up by the observer Ob is before going up (see the left side of FIG. 10). Regarding the distance Wa, for example, in the human body region extracted in the process S1n, the position closest to the floor surface is the foot position FP of the monitored person Ob, and the action detection line AL and the foot position of this monitored object Ob are set. It is obtained by counting the total number of pixels in one line along the vertical direction between the FP and the FP. Then, as shown in FIG. 10, whether the distance Wa for the foreground leaving determination condition used in the foreground action detection algorithm exceeds a preset fourth threshold value (foreward leaving bed determination threshold value) Th4. Is. When the distance Wa is greater than or equal to the fourth threshold Th4 (Wa≧Th4), it is determined that the monitored person Ob has left the bed, and the current state regarding the leaving of the monitored person Ob is after leaving the bed (FIG. 10). See the right side of). On the other hand, when the distance Wa does not exceed the fourth threshold value Th4, that is, when the distance Wa is less than the fourth threshold value Th4 (Wa<Th4), it is determined that the monitored person Ob has not left the bed, and The current state of leaving the observer Ob is assumed to be before leaving the bed (see the center of FIG. 10). The third and fourth threshold values Th3 and Th4 are empirically set in advance by statistically processing a plurality of samples, for example.
横用の行動検知アルゴリズムで用いられる横用の起床判定条件は、図11に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第5閾値(横用起床判定閾値)Th5を越えたか否かである。第3面積S3が第5閾値Th5以下である場合(S3≦Th5)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図11の中央参照)。一方、第3面積S3が第5閾値Th5を越えている場合(S3>Th5)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図11の左側参照)。第3面積S3は、例えば、処理S1nで抽出された人体領域のうち、第1境界線BL1と第2境界線BL2に挟まれた設定領域ARと人体領域とが重なった領域における画素の総数を計数することで求められる。そして、横用の行動検知アルゴリズムで用いられる横用の離床判定条件は、図11に示すように、前記第3面積S3が予め設定された第6閾値(横用離床判定閾値)Th6を越えたか否かである。第3面積S3が第6閾値Th6以下である場合(S3≦Th6)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図11の右側参照)。一方、第3面積S3が第6閾値Th6を越えている場合(S3>Th6)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図11の中央参照)。これら第5および第6閾値Th5、Th6は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。
As shown in FIG. 11, the horizontal wake-up determination condition used in the horizontal action detection algorithm is that the first position is the closest to the
奥用の行動検知アルゴリズムで用いられる奥用の起床判定条件は、図12に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2が予め設定された第7閾値(奥用起床判定閾値)Th7を越えたか否かである。第2面積S2が第7閾値Th7以下である場合(S2≦Th7)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図12の中央参照)。一方、第2面積S2が第7閾値Th7を越えている場合(S2>Th7)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図12の左側参照)。そして、奥用の行動検知アルゴリズムで用いられる奥用の離床判定条件は、図12に示すように、前記第2面積S2が予め設定された第8閾値(奥用離床判定閾値)Th8を越えたか否かである。第2面積S2が第8閾値Th8以下である場合(S2≦Th8)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図12の右側参照)。一方、第2面積S2が第8閾値Th8を越えている場合(S2>Th8)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図12の中央参照)。これら第7および第8閾値Th7、Th8は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。 As shown in FIG. 12, the wake-up determination condition for the back used in the behavior detection algorithm for the back is the seventh area in which the second area S2 in which the set area AR on the image and the monitored person Ob overlap is preset. It is whether or not the threshold (backward wakeup determination threshold) Th7 is exceeded. When the second area S2 is equal to or less than the seventh threshold value Th7 (S2≦Th7), it is determined that the monitored person Ob has woken up, and the current state of the monitored person Ob regarding waking up is set to “after waking up” ( (See the center of FIG. 12). On the other hand, when the second area S2 exceeds the seventh threshold value Th7 (S2>Th7), it is determined that the monitored person Ob has not woken up, and the current state of the monitored person Ob regarding waking up is Before (see left side of FIG. 12). Then, as shown in FIG. 12, whether the second area S2 exceeds the preset eighth threshold value (backward bed determination threshold value) Th8 as shown in FIG. It is not. When the second area S2 is equal to or less than the eighth threshold Th8 (S2≦Th8), it is determined that the monitored person Ob has left the bed, and the current state regarding the leaving of the monitored person Ob is after the bed leaving ( (See the right side of FIG. 12). On the other hand, when the second area S2 exceeds the eighth threshold Th8 (S2>Th8), it is determined that the monitored person Ob has not left the bed, and the current state of the monitored person Ob regarding the bed leaving is Before (see center of FIG. 12). The seventh and eighth thresholds Th7 and Th8 are empirically preset, for example, by statistically processing a plurality of samples.
斜め前用の行動検知アルゴリズムで用いられる斜め前用の起床判定条件は、図13に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waが予め設定された第9閾値(第1斜め前用起床判定閾値)Th9を越えたか否か、および、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第10閾値(第2斜め前用起床判定閾値)Th10を越えたか否か、である。距離Waが第9閾値Th9以上であって、第3面積S3が第10閾値Th10以下である場合(Wa≧Th9かつS3≦Th10)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図13の中央参照)。一方、距離Waが第9閾値Th9を超えていない場合、すなわち、距離Waが第9閾値Th9未満であって、第3面積S3が第10閾値Th10を越えている場合(Wa<Th9かつS3>Th10)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図13の左側参照)。そして、斜め前用の行動検知アルゴリズムで用いられる斜め前用の離床判定条件は、図13に示すように、前記距離Waが予め設定された第11閾値(第1斜め前用離床判定閾値)Th11を越えたか否か、および、前記第3面積S3が予め設定された第12閾値(第2斜め前用離床判定閾値)Th12を越えたか否かである。距離Waが第11閾値Th11以上であって、第3面積S3が第12閾値Th12以下である場合(Wa≧Th11かつS3≦Th12)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図13の右側参照)。一方、距離Waが第11閾値Th11を超えていない場合、すなわち、距離Waが第11閾値Th11未満であって、第3面積S3が第12閾値Th12を越えている場合(Wa<Th11かつS3>Th12)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図13の中央参照)。これら第9ないし第12閾値Th9〜Th12は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。
As shown in FIG. 13, the wake-up determination condition for the diagonally forward action detection algorithm used in the diagonally forward action detection algorithm is preset with a distance Wa between the action detection line AL on the image and the foot position FP of the monitored person Ob. Whether or not the calculated ninth threshold value (first diagonal wake-up determination threshold value) Th9 has been exceeded, and on the image, it is located at a position closest to the
斜め奥用の行動検知アルゴリズムで用いられる斜め奥用の起床判定条件は、図14に示すように、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第13閾値(斜め奥用起床判定閾値)Th13を越えたか否か、である。第3面積S3が第13閾値Th13以下である場合(S3≦Th13)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図14の中央参照)。一方、第3面積S3が第13閾値Th13を越えている場合(S3>Th13)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図14の左側参照)。そして、斜め奥用の行動検知アルゴリズムで用いられる斜め奥用の離床判定条件は、図14に示すように、前記第3面積S3が予め設定された第14閾値(斜め奥用離床判定閾値)Th14を越えたか否かである。第3面積S3が第14閾値Th14以下である場合(S3≦Th14)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図14の右側参照)。一方、第3面積S3が第14閾値Th14を越えている場合(S3<Th14)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図14の中央参照)。これら第13および第14閾値Th13、Th14は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。
As shown in FIG. 14, the wake-up determination condition for the diagonal depth used in the behavior detecting algorithm for the diagonal depth is located at the position closest to the
なお、上述の第1ないし第14閾値Th1〜Th14は、画像上での被監視者Obにおける大きさや行動速度を考慮して設定されても良い。 The above-mentioned first to fourteenth threshold values Th1 to Th14 may be set in consideration of the size and action speed of the monitored person Ob on the image.
このような図6ないし図14を用いて説明した6個の前記直上用の行動検知アルゴリズム、前記手前用の行動検知アルゴリズム、前記奥用の行動検知アルゴリズム、前記横用の行動検知アルゴリズム、前記斜め前用の行動検知アルゴリズムおよび前記斜め奥用の行動検知アルゴリズムが行動検知アルゴリズム記憶部53に予め記憶される。 The above-described six action detection algorithms for directly above, the action detection algorithm for the front, the action detection algorithm for the back, the action detection algorithm for the lateral, and the diagonal action described above with reference to FIGS. 6 to 14. The previous action detection algorithm and the diagonal back action detection algorithm are stored in advance in the action detection algorithm storage unit 53.
このような記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。
The storage unit 5 includes, for example, a ROM (Read Only Memory) that is a non-volatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable non-volatile storage element, and the like. The storage unit 5 includes a RAM (Random Access Memory), which serves as a working memory of the so-called
制御処理部3は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、カメラ1によって被監視者Obをその上方から撮像した画像を取得し、この取得した画像に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3は、前記制御処理プログラムが実行されることによって、制御部31、領域設定処理部32、行動検知線設定処理部33、位置関係演算部34、アルゴリズム選択部35、行動検知処理部36、通知処理部37、ストリーミング処理部38およびナースコール処理部39を機能的に備える。
The
制御部31は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。
The
領域設定処理部32は、画像中における所定の領域を設定領域ARとして設定するための処理を行うものである。行動検知線設定処理部33は、前記画像中における所定の線を行動検知線ALとして設定するための処理を行うものである。
The area
本実施形態では、制御処理部3は、固定端末装置SPまたは携帯端末装置TAから設定領域ARおよび行動検知線ALそれぞれの設定を要求する通信信号(設定要求通信信号)を通信IF部4で受信すると、カメラ1で取得した画像を収容した通信信号(設定画像通信信号)を通信IF部4で返信する。固定端末装置SPまたは携帯端末装置TAは、例えば、図3に示す設定領域ARおよび行動検知線ALを入力するための設定画面を表示する。前記設定画面には、前記領域設定画像通信信号に収容された画像が表示される。ユーザ(監視者および被監視者等)は、例えばマウス等のポインティングデバイスを用いて、あるいは、タッチパネルに対するタップ操作を用いて、前記設定画面に設定領域ARの各頂点PT1〜PT4および行動検知線ALの両端点PT2、PT3それぞれを入力する。なお、入力方法は、設定領域ARの各辺の入力や行動検知線ALの線の入力等であっても良い。設定領域ARおよび行動検知線ALを受け付けると、固定端末装置SPまたは携帯端末装置TAは、これら受け付けた設定領域ARおよび行動検知線ALを収容した通信信号(設定情報通信信号)をセンサ装置SUへ送信する。この設定情報通信信号を通信IF部4で受信すると、領域設定処理部32は、この受信した設定情報通信信号に収容された設定領域AR(4頂点PT1〜PT4)を取り出して記憶部5の設定領域記憶部51に記憶することで設定領域ARをセンサ装置SUに設定し、行動検知線設定処理部33は、この受信した設定情報通信信号に収容された行動検知線AL(両端点PT2、PT3)を取り出して記憶部5の行動検知線記憶部52に記憶することで行動検知線ALをセンサ装置SUに設定する。本実施形態では、通信IF部4および行動検知線設定処理部33は、行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部の一例に相当する。
In the present embodiment, the
なお、センサ装置SUは、図1に破線で示すように、入力部6および表示部7をさらに備えても良い。入力部6は、制御処理部3に接続され、例えば、被監視者Obを監視する上で必要な各種データをセンサ装置SUに入力する機器であり、例えば、所定の機能を割り付けられた複数の入力スイッチやマウス等である。表示部7は、制御処理部3に接続され、制御処理部3の制御に従って、入力部6から入力されたデータ等を表示する機器であり、例えばCRTディスプレイ、LCDおよび有機ELディスプレイ等の表示装置である。なお、入力部6および表示部7からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部6は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置である。このタッチパネルでは、表示部7の表示面上に位置入力装置が設けられ、表示部7に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容としてセンサ装置SUに入力される。このような入力部6および表示部7が備えられている場合に、制御処理部3は、例えば、図3に示す設定領域および行動検知線を入力するための設定画面を表示部7に表示し、入力部6によって設定領域ARおよび行動検知線ALを受け付けても良い。この場合、前記設定画面には、カメラ1で取得した画像が表示される。ユーザは、例えば入力部6としてのマウス等のポインティングデバイスを用いて、あるいは、入力部6および表示部7で構成されるタッチパネルに対するタップ操作によって、前記設定画面に設定領域ARの各頂点PT1〜PT4および行動検知線ALの両端点PT2、PT3それぞれを入力する。設定領域ARおよび行動検知線ALを受け付けると、領域設定処理部32は、この入力部6で受け付けた設定領域AR(4頂点PT1〜PT4)を記憶部5の設定領域記憶部51に記憶し、行動検知線設定処理部33は、この入力部6で受け付けた行動検知線AL(両端点PT2、PT3)を記憶部5の行動検知線記憶部52に記憶する。このような場合、入力部6および行動検知線設定処理部33は、行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部の他の一例に相当する。
The sensor device SU may further include an
位置関係演算部34は、設定領域ARに対するカメラ1の位置関係を求めるものである。本実施形態では、位置関係演算部34は、行動検知線ALを考慮して、設定領域ARに対する前記カメラ1の位置関係を求める。より具体的には、例えば、図5に示すように、位置関係演算部34は、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係を求め、この求めた前記カメラ1の位置関係を記憶部5に記憶する。図5に示すように、行動検知線ALに沿う左右方向をX方向とし、これに直交する前後方向をY方向とすると、例えば、図5Aに示すように、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が無く、かつ、行動検知線ALとY方向のいずれかの位置で重なっている場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として手前PO2と演算する。また例えば、図5Bに示すように、画像中心CPが設定領域AR内にある場合、位置関係演算部34は、前記カメラ1の位置関係として直上PO1と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が有り、かつ、行動検知線ALとY方向のいずれかの位置で重なっている場合(すなわち、画像中心のX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として奥PO3と演算する。また例えば、画像中心CPが設定領域ARよりX方向または−X方向にあり(横にあり)、かつ、設定領域ARとX方向のいずれかの位置で重なっている場合(すなわち、画像中心CPのY座標値が設定領域ARにおける最小のY座標値から最大のY座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として横PO4と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が無く、かつ、行動検知線ALとY方向のいずれの位置でも重なっていない場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれない場合)、位置関係演算部34は、前記カメラ1の位置関係として斜め前PO5と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が有り、かつ、行動検知線ALとY方向のいずれの位置でも重なっていない場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれない場合)、位置関係演算部34は、前記カメラ1の位置関係として斜め奥PO6と演算する。なお、図5Aにおいて、上述では、行動検知線ALが点PT2と点PT3と間の線分であるので、位置関係演算部34は、前記カメラ1の位置関係として手前PO2と演算したが、仮に、行動検知線ALが点PT3と点PT4との間の線分である場合には、位置関係演算部34は、前記カメラ1の位置関係として横PO4と演算することになる。
The positional
なお、カメラ1が壁上方に配設される等によってカメラ1が斜め下向きにあおり角を持つ場合では、ユーザ入力や公知の常套手段による画像に基づく自動計算によって求めたあおり角に基づいて、カメラ1の配設位置を床面(画像上)に射影したカメラ1の直下位置が求められ、この求められた直下位置が上述の画像中心CPとされ、上述と同様に、前記カメラ1の位置関係が演算される。
When the
アルゴリズム選択部35は、記憶部5の行動検知アルゴリズム記憶部53に記憶された前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知するものである。より具体的には、本実施形態では、アルゴリズム選択部35は、位置関係演算部34で求めた前記カメラ1の位置関係を判定し、この判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が直上PO1である場合には、上述した直上用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が手前PO2である場合には、上述した手前用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が奥PO3である場合には、上述した奥用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が横PO4である場合には、上述した横用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が斜め前PO5である場合には、上述した斜め前用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が斜め奥PO6である場合には、上述した斜め奥用の行動検知アルゴリズムを選択し、そして、この選択結果を行動検知処理部36へ通知する。
The
行動検知処理部36は、アルゴリズム選択部35で選択した行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知するものである。
The behavior
通知処理部37は、行動検知処理部36で検知した前記所定の行動(本実施形態では、起床および離床)を外部に通知するものである。より具体的には、通知処理部37は、検知した前記所定の行動(状態、状況)を表す情報(検知行動情報(本実施形態では起床および離床のうちの1または複数を表す情報))、前記所定の行動が検知された被監視者Obを特定し識別するための識別子情報(前記被監視者Obを検知しているセンサ装置SUを特定し識別するための識別子情報)、および、前記所定の行動の検知に用いられた画像等を収容した通信信号(監視情報通信信号)を生成し、通信IF部4で管理サーバ装置SVへ送信する。
The
ストリーミング処理部38は、ネットワークNWおよび通信IF部4を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、カメラ1で生成した動画(例えばライブの動画)をストリーミング再生で通信IF部4およびネットワークNWを介して配信するものである。
When there is a request for distribution of a moving image from the fixed terminal device SP or the mobile terminal device TA via the network NW and the communication IF
ナースコール処理部39は、被監視者Obからナースコールを受け付ける図略のナースコール押しボタンスイッチでその入力操作を受け付けた場合に、通信IF部4およびネットワークNWを介して、固定端末装置SPまたは携帯端末装置TAとの間で音声通話を可能にするものである。
When the nurse
図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。 In FIG. 1, as an example, four first to fourth sensor devices SU-1 to SU-4 are shown, and the first sensor device SU-1 is Mr. A who is one of the monitored persons Ob. The second sensor device SU-2 is arranged in the living room RM-1 (not shown) of Ob-1 and is arranged in the living room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor device SU-3 is installed in the room RM-3 (not shown) of Mr. C. Ob-3 who is one of the monitored subjects Ob, and the fourth sensor device is the monitored subject. It is arranged in the room RM-4 (not shown) of Mr. D Ob-4 who is one of the Ob.
次に、本実施形態の動作について説明する。図15は、前記センサ装置の動作を示すメインルーチンのフローチャートである。図16は、図15に示すメインルーチンで用いられる行動検知の動作を示すサブルーチンのフローチャートである。 Next, the operation of this embodiment will be described. FIG. 15 is a flowchart of the main routine showing the operation of the sensor device. FIG. 16 is a flowchart of a subroutine showing the action detection operation used in the main routine shown in FIG.
このような構成の被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUでは、その制御処理プログラムの実行によって、制御処理部3には、制御部31、領域設定処理部32、行動検知線設定処理部33、位置関係演算部34、アルゴリズム選択部35、行動検知処理部36、通知処理部37、ストリーミング処理部38およびナースコール処理部39が機能的に構成される。
In the monitored person monitoring system MS having such a configuration, each of the devices SU, SV, SP, and TA, when the power is turned on, executes necessary initialization of each unit and starts its operation. Further, in the sensor device SU, by executing the control processing program, the
図15において、まず、制御処理部3は、領域設定処理部32によって設定領域ARが設定され(S41)、行動検知線設定処理部33によって行動検知線ALが設定される(S42)。より具体的には、上述したように、本実施形態では、固定端末装置SPまたは携帯端末装置TAから前記設定要求通信信号を通信IF部4で受信すると、制御処理部3は、前記設定画像通信信号を通信IF部4で返信する。固定端末装置SPまたは携帯端末装置TAは、例えば図3に示す前記設定画面を表示し、ユーザ(監視者および被監視者等)は、前記設定画面に設定領域ARおよび行動検知線ALそれぞれを入力する。設定領域ARおよび行動検知線ALを受け付けると、固定端末装置SPまたは携帯端末装置TAは、前記設定情報通信信号をセンサ装置SUへ送信する。この設定情報通信信号を通信IF部4で受信すると、領域設定処理部32は、この受信した設定情報通信信号に収容された設定領域ARを取り出して記憶部5の設定領域記憶部51に記憶することで設定領域ARをセンサ装置SUに設定し、行動検知線設定処理部33は、この受信した設定情報通信信号に収容された行動検知線ALを取り出して記憶部5の行動検知線記憶部52に記憶することで行動検知線ALをセンサ装置SUに設定する。
In FIG. 15, first, in the
次に、制御処理部3は、位置関係演算部34によって設定領域ARに対するカメラ1の位置関係を求め、この求めた前記カメラ1の位置関係を記憶部5に記憶する(S43)。より具体的には、上述したように、本実施形態では、位置関係演算部34は、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係を求める。
Next, the
次に、制御処理部3は、カメラ1によって被監視者Obを被監視者Obの上方から撮像した画像を取得する。これによって1フレーム分の前記画像が取得され、センサ装置SUに入力される(S44)。
Next, the
次に、制御処理部3は、行動検知処理部36によって、処理S44で取得した前記画像に基づいて被監視者Obにおける所定の行動を検知する後述の行動検知処理を実行し(S45)、次のフレームの画像に対し、この行動検知処理を実行するべく、処理を処理S44へ戻す。すなわち、制御処理部3は、処理S44および処理S45を繰り返し実行することで、1フレームごとに行動検知処理を実行する。
Next, the
次に、行動検知処理S45についてさらに説明する。この行動検知処理S45では、図16において、まず、制御処理部3は、アルゴリズム選択部35によって、記憶部5の行動検知アルゴリズム記憶部53に記憶された前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて行動検知アルゴリズムを選択する(S51)。より具体的には、アルゴリズム選択部35は、記憶部5の記憶内容を参照することで、位置関係演算部34で求めた前記カメラ1の位置関係を判定する。
Next, the action detection process S45 will be further described. In this action detection process S45, in FIG. 16, the
この判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が直上PO1である場合(直上)には、アルゴリズム選択部35は、上述した直上用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−1を実行する。この処理S52−1では、行動検知処理部36は、アルゴリズム選択部35で選択した直上用の行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。すなわち、行動検知処理部36は、直上用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=直上)で前記画像に基づいて被監視者Obにおける起床の有無および離床の有無を判定し、起床または離床を判定すると、これを検知結果として通知処理部37へ通知し、この行動検知処理S45を終了する。
As a result of this determination, when the positional relationship of the
処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が手前PO2である場合(手前)には、アルゴリズム選択部35は、上述した手前用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−2を実行する。この処理S52−2では、行動検知処理部36は、アルゴリズム選択部35で選択した手前用の行動検知アルゴリズム(すなわち、手前用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=手前))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。
As a result of the determination in the process S51, when the positional relationship of the
処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が横PO4である場合(横)には、アルゴリズム選択部35は、上述した横用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−3を実行する。この処理S52−3では、行動検知処理部36は、アルゴリズム選択部35で選択した横用の行動検知アルゴリズム(すなわち、横用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=横))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。
As a result of the determination in the process S51, when the positional relationship of the
処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が奥PO3である場合(奥)には、アルゴリズム選択部35は、上述した奥用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−4を実行する。この処理S52−4では、行動検知処理部36は、アルゴリズム選択部35で選択した奥用の行動検知アルゴリズム(すなわち、奥用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=奥))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。
As a result of the determination in the process S51, when the positional relationship of the
処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が斜め前PO5である場合(斜め前)には、アルゴリズム選択部35は、上述した斜め前用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−5を実行する。この処理S52−5では、行動検知処理部36は、アルゴリズム選択部35で選択した斜め前用の行動検知アルゴリズム(すなわち、斜め前用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=斜め前))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。
As a result of the determination in the process S51, when the positional relationship of the
処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が斜め奥PO6である場合(斜め奥)には、アルゴリズム選択部35は、上述した斜め奥用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−6を実行する。この処理S52−6では、行動検知処理部36は、アルゴリズム選択部35で選択した斜め奥用の行動検知アルゴリズム(すなわち、斜め奥用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=斜め奥))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。
As a result of the determination in the process S51, when the positional relationship of the
そして、上述の図7に示す処理S23nによる起床の通知または上述の図8に示す処理S33nによる離床の通知を受けると、通知処理部37は、被監視者Obの状態として判定された判定結果を表す判定結果情報(本実施形態では、起床および離床)や被監視者Obの静止画の画像データ等の監視情報を収容した通信信号(監視情報通信信号)をネットワークNWを介して管理サーバ装置SVへ送信する。 When receiving the notification of getting up by the processing S23n shown in FIG. 7 or the notification of leaving the bed by the processing S33n shown in FIG. A communication signal (monitoring information communication signal) containing the judgment result information (in the present embodiment, getting up and leaving) and monitoring information such as image data of a still image of the monitored person Ob is sent via the network NW to the management server device SV. Send to.
管理サーバ装置SVは、前記監視情報通信信号をネットワークNWを介してセンサ装置SUから受信すると、この監視情報通信信号に収容された判定結果情報や静止画の画像データ等の監視情報をその記憶部に記憶(記録)する。そして、管理サーバ装置SVは、これら判定結果情報や静止画の画像データ等の監視情報を収容した監視情報通信信号を端末装置(本実施形態では固定端末装置SPおよび携帯端末装置TA)へ送信する。これによって被監視者Obの状態(状況)が端末装置SP、TAを介して例えば看護師や介護士等の監視者に報知される。 When the management server device SV receives the monitoring information communication signal from the sensor device SU via the network NW, the management server device SV stores the monitoring information such as the determination result information and the still image data contained in the monitoring information communication signal in its storage unit. Memorize (record) in. Then, the management server device SV transmits a monitoring information communication signal accommodating the determination result information and the monitoring information such as the image data of the still image to the terminal device (the fixed terminal device SP and the mobile terminal device TA in this embodiment). .. As a result, the state (situation) of the monitored person Ob is notified to the monitoring person such as a nurse or a caregiver via the terminal devices SP and TA.
固定端末装置SPおよび携帯端末装置TAは、前記監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この監視情報通信信号に収容された前記監視情報を表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、各被監視者Obを検知して各被監視者Obを監視している。 When the fixed terminal device SP and the mobile terminal device TA receive the monitoring information communication signal from the management server device SV via the network NW, the fixed terminal device SP and the portable terminal device TA display the monitoring information contained in the monitoring information communication signal. With such an operation, the monitored person monitoring system MS detects each monitored person Ob by each sensor device SU, the management server device SV, the fixed terminal device SP, and the mobile terminal device TA, and detects each monitored person Ob. I'm watching.
以上説明したように、被監視者監視装置の一例である被監視者監視システムMSならびに行動検知装置、行動検知方法および行動検知プログラムを用いたその一例のセンサ装置SUは、複数の行動検知アルゴリズムの中から、設定領域ARに対するカメラ1の位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者Obにおける所定の行動(本実施形態では起床および離床)を検知するので、カメラ1が配設される配設位置にかかわらず、被監視者Obにおける前記所定の行動をより高精度に検知できる。また、カメラ1が配設され、行動検知の開始後に、寝具BTの位置が変更されると、寝具BTに対するカメラ1の位置関係が変わってしまうが、上記被監視者監視システムMSおよびセンサ装置SUは、記憶部5に記憶された設定領域ARを変更後の寝具BTの領域に変更することで、このような寝具BTの位置の変更による前記カメラ1の位置関係の変更にも対処できる。したがって、上記被監視者監視システムMSおよびセンサ装置SUは、寝具BTの位置にかかわらず、被監視者Obにおける前記所定の行動をより高精度に検知できる。
As described above, the monitored person monitoring system MS which is an example of the monitored person monitoring apparatus, the action detection device, and the sensor device SU of the example using the action detection method and the action detection program are provided with a plurality of action detection algorithms. Since an action detection algorithm according to the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、前記カメラ1の位置関係として直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6のいずれであるかを求める位置関係演算部34を備えるので、カメラ1が直上、手前、奥、横、斜め前および斜め奥のいずれかに配設される場合に対処でき、これらの場合に、被監視者Obにおける前記所定の行動をより高精度に検知できる。
The monitored person monitoring system MS and the sensor device SU determine the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、図9を用いて上述した直上用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が直上PO1である場合に、画像上における設定領域AR外の被監視者Obの第1面積S1および前記画像上における設定領域ARと被監視者Obとが重なった第2面積S2を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。
The monitored person monitoring system MS and the sensor device SU include the above-mentioned action detection algorithm for directly above, so that when the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、図10を用いて上述した手前用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が手前PO2である場合に、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waを求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。
Since the monitored person monitoring system MS and the sensor device SU include the front action detection algorithm described above with reference to FIG. 10, when the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、図11を用いて上述した横用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が横PO4である場合に、画像上において、設定領域ARの横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。
Since the monitored person monitoring system MS and the sensor device SU include the lateral action detection algorithm described above with reference to FIG. 11, when the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、図12を用いて上述した奥用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が奥PO3である場合に、前記第2面積S2を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。
Since the monitored person monitoring system MS and the sensor device SU include the back action detection algorithm described above with reference to FIG. 12, when the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、図13を用いて上述した斜め前用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が斜め前PO5である場合に、前記距離Waおよび前記第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。
Since the monitored person monitoring system MS and the sensor device SU include the behavior detecting algorithm for diagonally forward movement described above with reference to FIG. 13, when the positional relationship of the
記被監視者監視システムMSおよびセンサ装置SUは、図14を用いて上述した斜め奥用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が斜め奥PO6である場合に、前記第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。
Since the monitored person monitoring system MS and the sensor device SU include the behavior detecting algorithm for the diagonal depth described above with reference to FIG. 14, when the positional relationship of the
上記被監視者監視システムMSおよびセンサ装置SUは、行動検知線ALを外部から受け付けて記憶部5に記憶する前記行動検知線受付部の一例として、通信IF部4および行動検知線設定処理部33を備えるので、行動検知線ALを簡易に入力して設定できる。
The monitored person monitoring system MS and the sensor device SU receive the action detection line AL from the outside and store it in the storage unit 5 as an example of the action detection line reception unit, and the communication IF
なお、上述の実施形態では、位置関係演算部34にて、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係が求められているが、図3に示すカメラ1で取得した画像に画像中心CPも一緒に表示部7に表示され、ユーザーの入力部6の操作によって設定領域および行動検知線の入力が受け付けられ、画像中心CPと設定領域ARおよび行動検知線ALの位置関係とされても良い。
In the above embodiment, the positional
また、上述の実施形態では、アルゴリズム選択部35は、行動検知処理S45の処理S51で、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択したが、位置関係演算部34によって前記カメラ1の位置関係を求めた後の他のタイミングで行動検知アルゴリズムを選択しても良い。例えば、アルゴリズム選択部35は、上述の処理S43で位置関係演算部34が前記カメラ1の位置関係を求めた直後に、行動検知アルゴリズムを選択しても良い。
Further, in the above-described embodiment, the
また、上述の実施形態において、アルゴリズム選択部35は、所定期間ごとに、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択して良く、また、ユーザから行動検知アルゴリズムの選択処理の要求を受け付けた場合に、割り込み処理で、アルゴリズム選択部35は、所定期間ごとに、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択して良い。特に、ユーザによる設定領域ARの設定や行動検知線ALの設定後に、前記ユーザによる割り込み処理で、アルゴリズム選択部35は、行動検知アルゴリズムを選択することが好ましい。これによれば、センサ装置SUの再配置や寝具BTの再配置に適切に対処でき、被監視者Obにおける前記所定の行動をより高精度に検知できる。
Further, in the above-described embodiment, the
また、上述の実施形態では、被監視者Obにおける所定の行動は、その一例として起床および離床であるが、これに限定されるものではない。被監視者Obにおける所定の行動は、前記被監視者の上方から撮像した画像に基づいて検知できる行動であれば、他の行動であっても良い。例えば、被監視者Obにおける所定の行動は、寝返り等によるはみ出しであっても良い。前記はみ出しは、人体領域から例えば頭部のパターンや腕のパターンを用いたパターンマッチングによって抽出された頭部や腕に基づいて検知できる。例えば前記カメラ1の位置関係が直上では、就寝中の頭部や腕の位置をベッド境界付近に設けた境界線を越えた部位面積を用いた行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が手前では、ベッド高さに相当する境界線を越えた部位長さを用いた行動検知アルゴリズムで検知できる。前記転落は、人体領域から例えば頭部のパターンや体幹のパターンを用いたパターンマッチングによって抽出された頭部や体幹に基づいて検知できる。例えば前記カメラ1の位置関係が直上PO1では、起床や離床に伴う頭部の大きさや体幹の大きさにおける相違を用いた直上用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が手前PO2では、起床や離床に伴う頭部の上下の移動量や体幹の上下の移動量における相違を用いた手前用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が奥PO3では、起床や離床に伴う行動検知線AL上に見えている頭部の面積や体幹の面積における相違を用いた奥用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が横PO4では、起床や離床に伴う頭部の左右および上下の各移動量や体幹の左右および上下の各移動量における相違を用いた横用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が斜め前PO5では、上述の手前用と横用の各行動検知アルゴリズムを用いて検知でき、また例えば前記カメラ1の位置関係が斜め奥PO6では、上述の奥用と横用の各行動検知アルゴリズムを用いて検知できる。
Further, in the above-described embodiment, the predetermined behavior of the monitored person Ob is, for example, getting up and leaving the bed, but is not limited to this. The predetermined behavior of the monitored person Ob may be another behavior as long as it is a behavior that can be detected based on an image captured from above the monitored person. For example, the predetermined behavior of the person Ob to be monitored may be protruding by rolling over or the like. The protrusion can be detected based on the head or arm extracted from the human body region by pattern matching using, for example, the pattern of the head or the pattern of the arm. For example, when the positional relationship of the
また、上述の実施形態では、Xn用の起床判定条件およびXn用の離床判定条件は、前記第1面積S1、前記第2面積S2、前記第3面積S3および前記距離Waのうちの1または複数に対し閾値Thとの比較であったが、これに限定されるものではない。Xn用の起床判定条件およびXn用の離床判定条件は、前記被監視者の上方から撮像した画像に基づいて判定できる条件であれば、他の条件であっても良い。例えば、Xn用の起床判定条件およびXn用の離床判定条件は、前記第1面積S1と前記第2面積S2との比に対し所定の閾値Thとの比較であって良い。前記閾値Thは、例えば、上述と同様に、複数のサンプルを統計的に処理して経験的に予め設定される。また例えば、Xn用の起床判定条件およびXn用の離床判定条件は、行動検知線ALを跨ぐ動作の有無であっても良い。例えば、前記カメラ1の位置関係が直上PO1や手前PO2では、人体領域が行動検知線ALを初めて跨ぐ動作の検出によって起床が判定され、人体領域全体が行動検知線ALを跨ぐ動作の検出によって離床が判定され、前記カメラ1の位置関係が奥PO3では、人体領域が行動検知線ALを初めて跨ぐ動作の検出によって起床が判定され、人体領域の半分が行動検知線ALを跨ぐ動作の検出によって離床が判定される。
Further, in the above-described embodiment, the wakeup determination condition for Xn and the wakeup determination condition for Xn are one or more of the first area S1, the second area S2, the third area S3, and the distance Wa. However, it is not limited to this. The wakeup determination condition for Xn and the wakeup determination condition for Xn may be other conditions as long as they can be determined based on an image taken from above the monitored person. For example, the rising determination condition for Xn and the leaving determination condition for Xn may be a comparison of a ratio of the first area S1 and the second area S2 with a predetermined threshold Th. The threshold Th is empirically set in advance, for example, by statistically processing a plurality of samples in the same manner as described above. Further, for example, the wakeup determination condition for Xn and the wakeup determination condition for Xn may be the presence/absence of an operation across the action detection line AL. For example, when the positional relationship of the
また、上述の実施形態では、設定領域ARは、ユーザによって設定されたが、自動設定されてもよい。これによれば、設定領域ARを自動設定できる。例えば、カメラ1で取得された画像からエッジフィルタを用いてエッジを抽出することで、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。また例えば、カメラ1で取得された画像から寝具BTのパターンを用いたパターンマッチングによって、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。また例えば、3Dセンサ、ベッドの脚に取り付けた位置センサおよび寝具BTの下に敷かれる圧力センサを持つカーペット等のセンサを用いることで、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。
Further, although the setting area AR is set by the user in the above-described embodiment, it may be automatically set. According to this, the setting area AR can be automatically set. For example, the area of the bedding BT is detected by extracting edges from the image acquired by the
また、上述の実施形態では、センサ装置SUは、前記行動検知線受付部の他の一例として、通信IF部4および行動検知線設定処理部33を備えたが、センサ装置SUは、制御処理部3に機能的に、カメラ1で取得した画像に基づいて行動検知線ALを求め、この求めた行動検知線ALを記憶部5の行動検知線記憶部52に記憶する行動検知線演算部をさらに備えても良い。これによれば、前記行動検知線演算部をさらに備えるので、行動検知線ALを自動設定できる。例えば、カメラ1で取得された画像からエッジの抽出やパターンマッチングによって、寝具BTの領域が検出され、この検出された寝具BTの長辺が行動検知線ALとして自動設定される。また例えば、上述と同様に、寝具BTの領域が検出され、前記画像取得部の一例であるカメラ1は、互いに異なる時刻に撮像した複数の画像を取得し、これら複数の画像から動体領域が人体領域として検出され、この検出された人体領域が前記寝具BTの領域から外部に出る頻度が各辺ごとに求められ、所定期間(設定期間)で最も頻度の高い辺が行動検知線ALとして自動設定される。
Further, in the above-described embodiment, the sensor device SU includes the communication IF
また、上述の実施形態では、行動検知線ALは、1個であったが、複数であっても良い。この場合、各行動検知線ALごとに前記カメラ1の位置関係が演算され、各行動検知線ALごとに、前記演算された前記カメラ1の位置関係に基づく行動検知アルゴリズムで被監視者Obにおける所定の行動が検知される。
Further, in the above-described embodiment, the number of the action detection lines AL is one, but it may be plural. In this case, the positional relationship of the
また、上述の実施形態では、位置関係演算部34は、前記カメラ1の位置関係として、6個の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6の基本位置関係のいずれかに演算し、アルゴリズム選択部35は、この位置関係演算部34で求めた前記カメラ1の位置関係に対応した、直上用、手前用、奥用、横用、斜め前用および斜め奥用のいずれかの行動検知アルゴリズムを選択したが、カメラ1の位置に応じて徐々に行動検知アルゴリズムを切り換えても良い。この場合では、例えば、上述の実施形態において、位置関係演算部34は、設定領域ARに対する、画像を撮像したカメラ1の位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを設定領域ARに対する前記カメラ1の位置に基づいて求めることで、設定領域ARに対する前記画像を撮像したカメラ1の位置関係を求め、前記複数の行動検知アルゴリズムは、画像に基づいて被監視者Obにおける所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて被監視者Obにおける前記所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、アルゴリズム選択部35は、前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、行動検知処理部36は、位置関係演算部34で求めた前記複数の基本位置関係それぞれの重みを用いてアルゴリズム選択部35で選択した重み付け行動検知アルゴリズムで前記画像に基づいて被監視者Obにおける前記所定の行動を検知する。これによれば、設定領域ARに対する前記カメラ1の位置関係を1個の基本位置関係で表すのではなく、複数の基本位置関係それぞれの重みで表し、前記複数の基本位置関係に応じた複数の評価値を前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果に基づいて被監視者Obにおける所定の行動を検知するので、1個の基本位置関係に応じた行動検知アルゴリズムで被監視者Obにおける前記所定の行動を検知する場合に較べて、より高精度に被監視者Obにおける前記所定の行動を検知できる。
Further, in the above-described embodiment, the positional
図17は、前記カメラの位置関係が複数の基本位置関係それぞれの重みで表された場合の前記重みの演算手法を説明するための図である。図17Aは、設定領域ARおよび画像中心CPを示し、図17Bは、図17Aに示す設定領域ARを2倍に拡大した拡大設定領域AREおよび画像中心CPを示す。より具体的には、前記基本位置関係は、例えば、上述の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6であり、前記所定の評価値は、例えば、上述の第1面積S1、第2面積S2、第3面積S3および距離Waである。そして、位置関係演算部34は、図17に示すように、設定領域ARをその対角線(図17Bに破線で示す)の交点を中心に設定領域を2倍に拡大することで、水平幅Wで垂直幅Hである拡大設定領域AREを求める。次に、位置関係演算部34は、画像中心CPから拡大設定領域AREに最も近い距離pを求める。図17に示す例では、画像中心CPが設定領域AR内における平面視にて右下寄りでかつ設定領域ARが横長であるため、行動検知線ALが設定領域ARの下辺と判定され、画像中心CPと拡大設定領域AREとの最短距離pは、拡大設定領域AREの下辺までの距離となっている。そして、位置関係演算部34は、画像中心CPが設定領域AR、拡大設定領域AREおよび行動検知線ALに対してどの位置に存在するかによって基本位置関係を求め、この求めた基本位置関係の重みを求める。図17に示す例では、画像中心CPが設定領域AR内にあり、行動検知線ALおよび画像中心からの距離pが最短となる拡大設定領域AREの辺の両方が画像中心CPより下側にあるので、直上PO1および手前PO2の2個の基本位置関係が演算され、直上PO1の重みがpとされ、手前PO2の重みがH/2−pとされる。上述した直上用の起床判定条件は、第1面積S1と第1閾値Th1との比較であり、上述した手前用の起床判定条件は、距離Waと第3閾値Th3との比較であるので、重み付け行動検知アルゴリズムにおける起床判定条件は、V1=((Wa−Th3)×(H/2−p)+(S1−Th1)×p)×(H/2)と第15閾値Th15との比較となる。例えば第15閾値Th15は、0とされ、行動検知処理部36は、重み付けした結果V1が0以上である場合(V1≧0)には、被監視者Obが起床したと判定し、重み付けした結果V1が0未満である場合(V1<0)には、被監視者Obが起床前と判定する。また、上述した直上用の離床判定条件は、第2面積S2と第2閾値Th2との比較であり、上述した手前用の離床判定条件は、距離Waと第4閾値Th4との比較であるので、重み付け行動検知アルゴリズムにおける離床判定条件は、V2=((Wa−Th4)×(H/2−p)+(S2−Th1)×p)×(H/2)と第16閾値Th16との比較となる。例えば第16閾値Th16は、0とされ、行動検知処理部36は、重み付けした結果V2が0以上である場合(V2≧0)には、被監視者Obが離床したと判定し、重み付けした結果V2が0未満である場合(V2<0)には、被監視者Obが離床前と判定する。
FIG. 17 is a diagram for explaining a method of calculating the weight when the positional relationship of the cameras is represented by the weight of each of a plurality of basic positional relationships. 17A shows the setting area AR and the image center CP, and FIG. 17B shows the enlarged setting area ARE and the image center CP obtained by enlarging the setting area AR shown in FIG. 17A by two times. More specifically, the basic positional relationship is, for example, the immediately above PO1, the front PO2, the back PO3, the side PO4, the diagonally front PO5, and the diagonally back PO6, and the predetermined evaluation value is, for example, the above-mentioned first 1 area S1, 2nd area S2, 3rd area S3, and distance Wa. Then, as shown in FIG. 17, the positional-
また、この場合において、拡大設定領域AREの外側に画像中心CPがある場合は、十分に斜めからのカメラ1による撮像であるので、上述した横用の行動検知アルゴリズムや斜め奥用の行動検知アルゴリズム等がそのまま用いることができる。
Further, in this case, when the image center CP is located outside the enlargement setting area ARE, since the image capturing is performed by the
そして、上述では、基本位置関係は、2個が選択されて重み付けされたが、3個以上が選択されて重み付けされても良い。 Further, in the above description, two basic positional relationships are selected and weighted, but three or more basic positional relationships may be selected and weighted.
また、上述の実施形態では、センサ装置SUが前記行動検知部および前記通知部を備えたが、前記行動検知部および前記通知部は、管理サーバ装置SVに備えられても良く、また、固定端末装置SPに備えられても良く、また、携帯端末装置TAに備えられても良い。このような場合、センサ装置SUからネットワークNWを介して被監視者Obの上方から撮像した画像およびドップラ信号を収容した通信信号を受信して取得する通信インターフェース等が、画像取得部の一例に相当することになる。 Further, in the above-described embodiment, the sensor device SU includes the action detection unit and the notification unit, but the action detection unit and the notification unit may be included in the management server device SV, and the fixed terminal. It may be provided in the device SP or may be provided in the mobile terminal device TA. In such a case, a communication interface or the like that receives and acquires a communication signal containing an image captured from above the monitored person Ob and a Doppler signal from the sensor device SU via the network NW corresponds to an example of the image acquisition unit. Will be done.
本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。 Although the present specification discloses various aspects of the technique as described above, the main techniques thereof are summarized below.
一態様にかかる行動検知装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像中における所定の領域を設定領域として記憶し、前記画像に基づいて前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムを記憶する記憶部と、前記複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択部と、前記アルゴリズム選択部で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理部とを備える。好ましくは、上述の行動検知装置において、前記設定領域は、例えばベッド等の寝具の領域(寝具領域)である。好ましくは、上述の行動検知装置において、前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算部をさらに備える。 The behavior detection device according to one aspect stores a monitored person as a monitoring target, an image acquisition unit that acquires an image captured from above the monitored person, and stores a predetermined area in the image as a setting area, A storage unit that stores a plurality of different action detection algorithms for detecting a predetermined action in the monitored person based on the image, a camera that captures the image from the plurality of action detection algorithms, and An algorithm selection unit that selects a behavior detection algorithm based on a positional relationship with a setting area, and a behavior detection process that detects a predetermined behavior in the monitored person based on the image with the behavior detection algorithm selected by the algorithm selection unit. And a section. Preferably, in the above-mentioned behavior detection device, the setting area is an area of bedding such as a bed (bedding area). Preferably, in the above-described action detection device, a positional relationship calculation unit that obtains the positional relationship between the camera that captured the image and the setting area depending on where the center of the image exists with respect to the setting area. Further prepare.
このような行動検知装置は、複数の行動検知アルゴリズムの中から、カメラと設定領域との位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者における所定の行動を検知するので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。また、カメラが配設され、行動検知の開始後に、寝具の位置が変更されると、前記寝具に対するカメラの位置関係が変わってしまうが、上記行動検知装置は、記憶部に記憶された前記設定領域を変更後の前記寝具の領域に変更することで、このような寝具の位置の変更による前記カメラの位置関係の変更にも対処できる。したがって、上記行動検知装置は、寝具の位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 Such an action detection device selects an action detection algorithm according to the positional relationship between the camera and the setting area from among a plurality of action detection algorithms, and performs a predetermined action on the monitored person by the selected action detection algorithm. Since the detection is performed, it is possible to detect the predetermined behavior of the person to be monitored with higher accuracy regardless of the position where the camera is arranged. Further, when the position of the bedding is changed after the camera is provided and the action detection is started, the positional relationship of the camera with respect to the bedding changes, but the action detection device is configured to store the setting stored in the storage unit. By changing the region to the region of the bedding after the change, it is possible to deal with the change of the positional relationship of the camera due to the change of the position of the bedding. Therefore, the behavior detection device can detect a predetermined behavior of the monitored person with higher accuracy regardless of the position of the bedding.
他の一態様では、これら上述の行動検知装置において、前記位置関係は、前記カメラが前記設定領域の直上に位置する直上、前記カメラが前記設定領域の手前上方に位置する手前、前記カメラが前記設定領域の奥上方に位置する奥、前記カメラが前記設定領域の横上方に位置する横、前記カメラが前記設定領域の斜め前上方に位置する斜め前、および、前記カメラが前記設定領域の斜め奥上方に位置する斜め奥のうちのいずれかである。 In another aspect, in the above-described action detection device, the positional relationship is such that the camera is located immediately above the setting area, the camera is located above the setting area, and the camera is located above the setting area. The back is located above the back of the setting area, the side is above the setting area, the camera is located diagonally above the setting area, and the camera is located diagonally above the setting area. It is one of the diagonal depths located above the depths.
このような行動検知装置は、カメラが直上、手前、奥、横、斜め前および斜め奥のいずれかに配設される場合に対処でき、これらの場合に、被監視者における所定の行動をより高精度に検知できる。 Such an action detection device can deal with the case where the camera is arranged directly above, in front, behind, sideways, diagonally forward, or diagonally deeply, and in these cases, it is possible to further improve the predetermined behavior of the monitored person. It can be detected with high accuracy.
他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記位置関係演算部は、前記行動検知線を考慮して、前記画像を撮像したカメラと前記設定領域との位置関係を求める。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. A predetermined line in the inside is further stored as an action detection line, and the positional relationship calculation unit determines the positional relationship between the camera that has captured the image and the setting area in consideration of the action detection line.
これによれば、前記行動検知線を考慮して前記カメラの位置関係を求める行動検知装置を提供できる。 According to this, it is possible to provide an action detection device that obtains the positional relationship of the cameras in consideration of the action detection line.
他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in these above-described action detection devices, the plurality of action detection algorithms include an action detection algorithm for directly above used when the positional relationship is directly above, and the action detection algorithm for immediately above is A predetermined area of the monitored person based on a first area of the monitored person outside the set area on the image and a second area of the set area on the image where the monitored person overlaps This is an algorithm that detects actions.
このような行動検知装置は、画像上における設定領域外の被監視者の第1面積および前記画像上における設定領域と被監視者とが重なった第2面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device is a relatively simple image processing that obtains the first area of the monitored person outside the set area on the image and the second area where the set area on the image and the monitored person overlap. It is possible to detect a predetermined action in the monitored person.
他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムを含み、前記手前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. Further storing a predetermined line in the action detection line, the plurality of action detection algorithms include a foreground action detection algorithm used when the positional relationship is in front, the foreground action detection algorithm is Is an algorithm for detecting a predetermined action in the monitored person based on the distance between the action detection line on the image and the foot position of the monitored person.
このような行動検知装置は、画像上における行動検知線と被監視者の足先位置との距離を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device can detect a predetermined action in the monitored person by relatively simple image processing of obtaining the distance between the action detection line on the image and the toe position of the monitored person.
他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が横である場合に用いられる横用の行動検知アルゴリズムを含み、前記横用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in these above-described action detection devices, the plurality of action detection algorithms include a horizontal action detection algorithm used when the positional relationship is horizontal, and the horizontal action detection algorithm is , On the image, located at a position closest to the camera along the lateral direction of the setting area and at a position farthest from the camera along the lateral direction of the setting area It is an algorithm that detects a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with the second boundary line.
このような行動検知装置は、画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device has the first boundary line located closest to the camera along the lateral direction of the setting area on the image and the farthest from the camera along the lateral direction of the setting area. The predetermined behavior of the monitored person can be detected by relatively simple image processing of obtaining a third area where the set area and the monitored person overlap with the second boundary line located at the position.
他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムを含み、前記奥用の行動検知アルゴリズムは、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in these above-described action detection devices, the plurality of action detection algorithms include a back action detection algorithm used when the positional relationship is deep, and the back action detection algorithm is Is an algorithm for detecting a predetermined action in the monitored person based on a second area where the set area and the monitored person overlap on the image.
このような行動検知装置は、画像上における設定領域と被監視者とが重なった第2面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device can detect a predetermined action of the monitored person by relatively simple image processing of obtaining a second area where the set area on the image and the monitored person overlap.
他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムを含み、前記斜め前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離、および、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. Further storing a predetermined line as an action detection line, the plurality of action detection algorithms include a diagonal front action detection algorithm used when the positional relationship is diagonal front, the diagonal front action The detection algorithm is a distance between the action detection line and the toe position of the monitored person on the image, and, on the image, at a position closest to the camera along the lateral direction of the setting area. A third overlap between the set area and the monitored person between the first boundary line located and the second boundary line located farthest from the camera along the lateral direction of the setting area. It is an algorithm for detecting a predetermined action in the monitored person based on the area.
このような行動検知装置は、画像上における行動検知線と被監視者の足先位置との距離、および、前記画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device is located at a position closest to the camera along the distance between the action detection line on the image and the toe position of the monitored person, and on the image in the lateral direction of the setting region. A third area in which the setting area and the monitored person overlap between a first boundary line and a second boundary line located at a position farthest from the camera along the lateral direction of the setting area, A predetermined action in the monitored person can be detected by relatively simple image processing of obtaining.
他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含み、前記斜め奥用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。 In another aspect, in the above-described action detection device, the storage unit is used in at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, the image. A predetermined line in the inside is further stored as an action detection line, and the plurality of action detection algorithms include an action detection algorithm for an oblique depth used when the positional relationship is an oblique depth, and the action for the oblique depth. The detection algorithm is such that, on the image, the first boundary line located closest to the camera along the lateral direction of the setting region and the furthest away from the camera along the lateral direction of the setting region. It is an algorithm for detecting a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with a second boundary line located at a position.
このような行動検知装置は、画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。 Such an action detection device has the first boundary line located closest to the camera along the lateral direction of the setting area on the image and the farthest from the camera along the lateral direction of the setting area. The predetermined behavior of the monitored person can be detected by relatively simple image processing of obtaining a third area where the set area and the monitored person overlap with the second boundary line located at the position.
他の一態様では、これら上述の行動検知装置において、前記位置関係演算部は、前記画像を撮像したカメラと前記設定領域との位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを前記設定領域に対する前記カメラの位置に基づいて求めることで、前記画像を撮像したカメラと前記設定領域との位置関係を求め、前記複数の行動検知アルゴリズムは、前記画像に基づいて前記被監視者における所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて前記被監視者における所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、前記アルゴリズム選択部は、前記複数の行動検知アルゴリズムの中から前記位置関係演算部で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、前記行動検知処理部は、前記位置関係演算部で求めた前記複数の基本位置関係それぞれの重みを用いて前記アルゴリズム選択部で選択した重み付け行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する。 In another aspect, in the above-described action detection device, in the case where the positional relationship calculation unit classifies the positional relationship between the camera that has captured the image and the setting area into a plurality of different basic positional relationships, By obtaining the weight of each of the plurality of basic positional relationship based on the position of the camera with respect to the setting area, to obtain the positional relationship between the camera that has captured the image and the setting area, the plurality of action detection algorithm, A plurality of predetermined evaluation values for detecting a predetermined action in the monitored person based on the image are obtained according to the plurality of basic positional relationships, and the plurality of basic positional relationships are obtained in the obtained plurality of evaluation values. Weighting is performed by weighting, and an algorithm for detecting a predetermined action in the monitored person based on a result of comparison between the weighted result and a predetermined threshold is included as a weighted action detection algorithm, and the algorithm selecting unit includes the plurality of actions. Select the weighting behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit from the detection algorithm, the action detection processing unit, each of the plurality of basic positional relationship obtained by the positional relationship calculation unit The weighting action detection algorithm selected by the algorithm selection unit using the weight detects a predetermined action in the monitored person based on the image.
このような行動検知装置は、設定領域に対する前記カメラの位置関係を1個の基本位置関係で表すのではなく、複数の基本位置関係それぞれの重みで表し、前記複数の基本位置関係に応じた複数の評価値を前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果に基づいて被監視者における所定の行動を検知するので、1個の基本位置関係に応じた行動検知アルゴリズムで前記被監視者における所定の行動を検知する場合に較べて、より高精度に前記被監視者における所定の行動を検知できる。 In such an action detection device, the positional relationship of the camera with respect to the set area is not represented by one basic positional relationship, but by the weight of each of the plurality of basic positional relationships, and a plurality of positions corresponding to the plurality of basic positional relationships are represented. The evaluation value is weighted by each of the plurality of basic positional relations, and a predetermined action in the monitored person is detected based on the weighted result, so that the action detection algorithm according to one basic positional relation Compared with the case of detecting a predetermined action of the monitored person, the predetermined action of the monitored person can be detected with higher accuracy.
他の一態様では、上述の行動検知装置において、前記行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部をさらに備える。 In another aspect, the above-described action detection device further includes an action detection line reception unit that receives the action detection line from the outside and stores the action detection line in the storage unit.
このような行動検知装置は、行動検知線受付部をさらに備えるので、行動検知線を簡易に入力して設定できる。 Since such an action detection device further includes the action detection line reception unit, the action detection line can be easily input and set.
他の一態様では、上述の行動検知装置において、前記画像取得部で取得した画像に基づいて前記行動検知線を求め、前記求めた行動検知線を前記記憶部に記憶する行動検知線演算部をさらに備える。 In another aspect, in the above-described action detection device, an action detection line calculation unit that obtains the action detection line based on the image acquired by the image acquisition unit and stores the obtained action detection line in the storage unit. Further prepare.
このような行動検知装置は、行動検知線演算部をさらに備えるので、行動検知線を自動設定できる。 Since such an action detection device further includes the action detection line calculation unit, the action detection line can be automatically set.
他の一態様にかかる行動検知方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程とを備える。 An activity detection method according to another aspect is an image acquisition step of acquiring an image of a monitored person who is a monitoring target taken from above the monitored person, and for detecting a predetermined action in the monitored person. From a plurality of different behavior detection algorithms, an algorithm selection step of selecting a behavior detection algorithm based on the positional relationship between the camera that captured the image and a set area that is a predetermined area in the image, and the algorithm. An action detection process step of detecting a predetermined action in the monitored person based on the image by the action detection algorithm selected in the selection step.
他の一態様にかかる行動検知プログラムは、コンピュータに、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、を実行させるためのプログラムである。 An action detection program according to another aspect causes a computer to perform an image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person, and a predetermined action in the monitored person. An algorithm selection step of selecting an action detection algorithm based on a positional relationship between a camera that has captured the image and a set region that is a predetermined region in the image, from among a plurality of different action detection algorithms for detecting. , A behavior detection processing step of detecting a predetermined behavior of the monitored person based on the image by the behavior detection algorithm selected in the algorithm selection step.
このような行動検知方法および行動検知プログラムは、複数の行動検知アルゴリズムの中から、カメラと設定領域との位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者における所定の行動を検知するので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。また、カメラが配設され、行動検知の開始後に、例えばベッド等の寝具の位置が変更されると、前記寝具に対するカメラの位置関係が変わってしまうが、上記行動検知方法および行動検知プログラムは、記憶部に記憶された前記設定領域を変更することで、このような寝具の位置の変更による前記カメラの位置関係の変更にも対処できる。したがって、上記行動検知方法および行動検知プログラムは、寝具の位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 Such an action detection method and action detection program selects an action detection algorithm according to the positional relationship between the camera and the setting area from among the plurality of action detection algorithms, and the selected person in the monitored person uses the selected action detection algorithm. Since the predetermined action is detected, the predetermined action of the person to be monitored can be detected with higher accuracy regardless of the installation position of the camera. Further, when the position of the bedding such as the bed is changed after the camera is provided and the action detection is started, the positional relationship of the camera with respect to the bedding changes, but the action detection method and the action detection program are By changing the setting area stored in the storage unit, it is possible to deal with the change in the positional relationship of the camera due to the change in the position of the bedding. Therefore, the behavior detection method and the behavior detection program can detect a predetermined behavior of the monitored person with higher accuracy regardless of the position of the bedding.
他の一態様にかかる被監視者監視装置は、監視対象である被監視者における所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、前記行動検知部は、これら上述のいずれかの行動検知装置を含む。 A monitored person monitoring apparatus according to another aspect includes an action detection unit that detects a predetermined action in a monitored subject, and a notification unit that externally notifies the predetermined action detected by the action detection unit. And the action detecting unit includes any one of the above action detecting devices.
このような被監視者監視装置は、これら上述のいずれかの行動検知装置を含むので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。 Since such a monitored person monitoring device includes any one of the above behavior detecting devices, it is possible to detect a predetermined behavior of the monitored person with higher accuracy regardless of the position where the camera is arranged. ..
この出願は、2015年6月11日に出願された日本国特許出願特願2015−118388を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2015-118388 filed on June 11, 2015, the contents of which are included in the present application.
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to represent the present invention, the present invention has been described above appropriately and sufficiently through the embodiments with reference to the drawings, but those skilled in the art can easily modify and/or improve the embodiments. It should be recognized that this is possible. Therefore, unless a modification or improvement carried out by a person skilled in the art is at a level that departs from the scope of rights of the claims recited in the claims, the modification or the improvement is covered by the scope of claims of the claim. Is understood to be included in.
本発明によれば、行動検知装置、行動検知方法および行動検知プログラム、ならびに、被監視者監視装置が提供できる。 According to the present invention, an action detection device, an action detection method and an action detection program, and a monitored person monitoring device can be provided.
Ob(Ob−1〜Ob−4) 被監視者
NS(NS−1、NS−2) 監視者(ユーザ)
MS 被監視者監視システム
SU センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA 携帯端末装置
1 カメラ
3 制御処理部
4 通信インターフェース部(通信IF部)
5 記憶部
31 制御部
32 領域設定処理部
33 行動検知線設定処理部
34 位置関係演算部
35 アルゴリズム選択部
36 行動検知処理部
37 通知処理部
51 設定領域記憶部
52 行動検知線記憶部
53 行動検知アルゴリズム記憶部
Ob (Ob-1 to Ob-4) Monitored person NS (NS-1, NS-2) Monitored person (user)
MS Monitored person monitoring system SU Sensor device SV Management server device SP Fixed terminal device TA Mobile
5
Claims (12)
前記画像中における所定の領域を設定領域として記憶し、前記画像に基づいて前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムを記憶する記憶部と、
前記複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択部と、
前記アルゴリズム選択部で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理部とを備え、
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
行動検知装置。 An image acquisition unit that acquires an image of a monitored person who is a monitoring target from above the monitored person,
A storage unit that stores a predetermined area in the image as a setting area, and stores a plurality of different action detection algorithms for detecting a predetermined action in the monitored person based on the image,
From among the plurality of behavior detection algorithms, an algorithm selection unit that selects a behavior detection algorithm based on the positional relationship between the camera that captured the image and the setting area,
An action detection processing unit that detects a predetermined action in the monitored person based on the image with the action detection algorithm selected by the algorithm selection unit,
The plurality of behavior detection algorithms include a behavior detection algorithm for directly above used when the positional relationship is directly above,
The action detection algorithm for directly above is based on a first area of the monitored person outside the setting area on the image, and a second area where the setting area and the monitored person overlap on the image. Is an algorithm for detecting a predetermined action in the monitored person,
Behavior detection device.
請求項1に記載の行動検知装置。 The positional relationship is directly above the camera located directly above the setting area, in front of the camera being located above the setting area, behind the camera being located above the setting area, and where the camera is It is one of a horizontal position above the setting region, a diagonal front position where the camera is diagonally above the setting region, and a diagonal depth position where the camera is diagonally above the setting region. ,
Behavior detection apparatus according to 請 Motomeko 1.
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記位置関係演算部は、前記行動検知線を考慮して、前記画像を撮像したカメラと前記設定領域との位置関係を求める、
請求項2に記載の行動検知装置。 Further comprising a positional relationship calculation unit that determines the positional relationship between the camera that captured the image and the setting area depending on where the center of the image exists with respect to the setting area ,
The storage unit further stores a predetermined line in the image used as at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, as an action detection line,
The positional relationship calculation unit obtains a positional relationship between the camera that has captured the image and the setting area in consideration of the action detection line,
The behavior detection device according to claim 2.
前記複数の行動検知アルゴリズムは、前記位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムを含み、
前記手前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項3のいずれか1項に記載の行動検知装置。 The storage unit further stores a predetermined line in the image used as at least one of the plurality of action detection algorithms for detecting a predetermined action in the monitored person, as an action detection line,
The plurality of action detection algorithms include a front action detection algorithm used when the positional relationship is in front,
The foreground action detection algorithm is an algorithm for detecting a predetermined action in the monitored person based on the distance between the action detection line on the image and the toe position of the monitored person,
The behavior detection device according to claim 1.
前記横用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである
請求項1ないし請求項4のいずれか1項に記載の行動検知装置。 The plurality of action detection algorithms include a horizontal action detection algorithm used when the positional relationship is horizontal,
The action detection algorithm for horizontal use is, on the image, along the horizontal direction of the setting region, along a first boundary line located closest to the camera, and along the horizontal direction of the setting region. It is an algorithm for detecting a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with a second boundary line located farthest from the camera. The action detection device according to claim 1.
前記奥用の行動検知アルゴリズムは、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項5のいずれか1項に記載の行動検知装置。 The plurality of action detection algorithms include a back action detection algorithm used when the positional relationship is deep,
The behavior detection algorithm for depth use is an algorithm that detects a predetermined behavior of the monitored person based on a second area in which the set area and the monitored person overlap on the image.
The behavior detection device according to claim 1.
前記複数の行動検知アルゴリズムは、前記画像に基づいて前記被監視者における所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて前記被監視者における所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、
前記アルゴリズム選択部は、前記複数の行動検知アルゴリズムの中から前記位置関係演算部で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、
前記行動検知処理部は、前記位置関係演算部で求めた前記複数の基本位置関係それぞれの重みを用いて前記アルゴリズム選択部で選択した重み付け行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する、
請求項3に記載の行動検知装置。 In the case where the positional relationship calculation unit classifies the positional relationship between the camera that has captured the image and the setting area into a plurality of basic positional relationships that are different from each other, weights of the basic positional relationships are assigned to the setting area. By determining based on the position of the camera, the positional relationship between the camera that captured the image and the setting area,
The plurality of behavior detection algorithms, a plurality of predetermined evaluation values for detecting a predetermined behavior in the monitored person based on the image is obtained according to the plurality of basic positional relationship, the obtained plurality of evaluation values To each of the plurality of basic positional relationship weighted, including an algorithm for detecting a predetermined action in the monitored person as a weighted action detection algorithm based on a comparison result of the weighted result and a predetermined threshold value,
The algorithm selection unit selects the weighted behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit from among the plurality of behavior detection algorithms,
The action detection processing unit uses a weighting action detection algorithm selected by the algorithm selection unit by using the weight of each of the plurality of basic positional relations calculated by the positional relation calculation unit to determine a predetermined value for the monitored person based on the image. To detect the behavior of
The behavior detection device according to claim 3 .
請求項3に記載の行動検知装置。 Further comprising an action detection line receiving unit that receives the action detection line from the outside and stores the action detection line in the storage unit,
The behavior detection device according to claim 3.
請求項3に記載の行動検知装置。 Further comprising an action detection line calculation unit that obtains the action detection line based on the image acquired by the image acquisition unit and stores the obtained action detection line in the storage unit.
The behavior detection device according to claim 3.
前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、
前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程とを備え、
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
行動検知方法。 An image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person,
Action among a plurality of different action detection algorithms for detecting a predetermined action in the monitored person, based on the positional relationship between the camera that captured the image and a set region that is a predetermined region in the image An algorithm selection process of selecting a detection algorithm,
An action detection processing step of detecting a predetermined action in the monitored person based on the image by the action detection algorithm selected in the algorithm selection step,
The plurality of behavior detection algorithms include a behavior detection algorithm for directly above used when the positional relationship is directly above,
The action detection algorithm for directly above is based on a first area of the monitored person outside the setting area on the image, and a second area where the setting area and the monitored person overlap on the image. Is an algorithm for detecting a predetermined action in the monitored person,
Behavior detection method.
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、
前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、
を実行させるための行動検知プログラムであって、
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
行動検知プログラム。 On the computer,
An image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person,
Action among a plurality of different action detection algorithms for detecting a predetermined action in the monitored person, based on the positional relationship between the camera that captured the image and a set region that is a predetermined region in the image An algorithm selection process of selecting a detection algorithm,
An action detection processing step of detecting a predetermined action in the monitored person based on the image by the action detection algorithm selected in the algorithm selection step,
An action detection program for executing
The plurality of behavior detection algorithms include a behavior detection algorithm for directly above used when the positional relationship is directly above,
The action detection algorithm for directly above is based on a first area of the monitored person outside the setting area on the image, and a second area where the setting area and the monitored person overlap on the image. Is an algorithm for detecting a predetermined action in the monitored person,
Behavior detection program.
前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、
前記行動検知部は、請求項1ないし請求項9のいずれか1項に記載の行動検知装置を含む、
被監視者監視装置。 An action detection unit that detects a predetermined action in the monitored person who is the monitoring target,
A notification unit for notifying the outside of the predetermined action detected by the action detection unit,
The action detection unit includes the action detection device according to any one of claims 1 to 9 .
Monitored person monitoring device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015118388 | 2015-06-11 | ||
JP2015118388 | 2015-06-11 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016575258A Division JP6115692B1 (en) | 2015-06-11 | 2016-04-14 | Behavior detecting device, method and program, and monitored person monitoring device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017168105A JP2017168105A (en) | 2017-09-21 |
JP2017168105A5 JP2017168105A5 (en) | 2019-10-03 |
JP6720909B2 true JP6720909B2 (en) | 2020-07-08 |
Family
ID=57503317
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016575258A Active JP6115692B1 (en) | 2015-06-11 | 2016-04-14 | Behavior detecting device, method and program, and monitored person monitoring device |
JP2017055687A Active JP6720909B2 (en) | 2015-06-11 | 2017-03-22 | Action detection device, method and program, and monitored person monitoring device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016575258A Active JP6115692B1 (en) | 2015-06-11 | 2016-04-14 | Behavior detecting device, method and program, and monitored person monitoring device |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6115692B1 (en) |
WO (1) | WO2016199495A1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6406371B2 (en) * | 2017-03-02 | 2018-10-17 | オムロン株式会社 | Watch support system and control method thereof |
JP6729510B2 (en) * | 2017-07-06 | 2020-07-22 | オムロン株式会社 | Monitoring support system and control method thereof |
JP6828703B2 (en) * | 2017-08-07 | 2021-02-10 | 株式会社リコー | Information providing device, information providing system, information providing method, and program |
JP2019121962A (en) * | 2018-01-09 | 2019-07-22 | アイホン株式会社 | Surveillance camera system |
US20200155040A1 (en) * | 2018-11-16 | 2020-05-21 | Hill-Rom Services, Inc. | Systems and methods for determining subject positioning and vital signs |
JP7505757B2 (en) * | 2020-10-23 | 2024-06-25 | 日本精密測器株式会社 | Monitoring support system |
US20230410512A1 (en) * | 2020-11-04 | 2023-12-21 | Astoria Solutions Pte Ltd. | Autonomous safety violation detection system through virtual fencing |
CN117351684B (en) * | 2023-12-04 | 2024-02-13 | 成都蜀诚通信技术有限公司 | Early warning method of intelligent safety helmet and intelligent safety helmet |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014149584A (en) * | 2013-01-31 | 2014-08-21 | Ramrock Co Ltd | Notification system |
JP6182917B2 (en) * | 2013-03-15 | 2017-08-23 | ノーリツプレシジョン株式会社 | Monitoring device |
-
2016
- 2016-04-14 JP JP2016575258A patent/JP6115692B1/en active Active
- 2016-04-14 WO PCT/JP2016/062046 patent/WO2016199495A1/en active Application Filing
-
2017
- 2017-03-22 JP JP2017055687A patent/JP6720909B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP6115692B1 (en) | 2017-04-19 |
JPWO2016199495A1 (en) | 2017-06-22 |
WO2016199495A1 (en) | 2016-12-15 |
JP2017168105A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6720909B2 (en) | Action detection device, method and program, and monitored person monitoring device | |
WO2016143641A1 (en) | Posture detection device and posture detection method | |
US10225522B1 (en) | Method and system for determining whether an individual takes appropriate measures to prevent the spread of healthcare-associated infections | |
JP6680352B2 (en) | Monitored person monitoring apparatus, method and system | |
JP6852733B2 (en) | Living body monitoring device and living body monitoring method | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JP6142975B1 (en) | Monitored person monitoring apparatus and method, and monitored person monitoring system | |
JPWO2017082037A1 (en) | Central processing unit and method of monitored person monitoring system, and monitored person monitoring system | |
JP6119938B2 (en) | Image processing system, image processing apparatus, image processing method, and image processing program | |
EP3486868A1 (en) | Behavior determination device and behavior determination method | |
JP6696606B2 (en) | Care support system, care support method and program | |
JP7137154B2 (en) | Behavior detection device and method, and monitored person monitoring support system | |
JP6115689B1 (en) | Fall detection device, fall detection method and monitored person monitoring device | |
JP6922914B2 (en) | Watching system, watching device, watching method, and watching program | |
WO2021033453A1 (en) | Image processing system, image processing program, and image processing method | |
JP7180601B2 (en) | SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM | |
JP2022010581A (en) | Detection device, detection method, image processing method and program | |
JP6481537B2 (en) | Monitored person monitoring device and monitored person monitoring method | |
JP6804510B2 (en) | Detection system and display method of detection system | |
JP6737355B2 (en) | Head detection device, head detection method, and monitored person monitoring device | |
JP7259540B2 (en) | Determination device, control program for determination device, and determination method | |
JP7327396B2 (en) | Control program, report output method, and report output device | |
JP2023177885A (en) | Information processing device, information processing system, and information processing method | |
JP2021196992A (en) | Supervision system, information processing device and program | |
JP2023177886A (en) | Information processing device, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190409 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6720909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |