JP2019115052A - Head detector and head detection method and monitored person monitoring device - Google Patents
Head detector and head detection method and monitored person monitoring device Download PDFInfo
- Publication number
- JP2019115052A JP2019115052A JP2019022635A JP2019022635A JP2019115052A JP 2019115052 A JP2019115052 A JP 2019115052A JP 2019022635 A JP2019022635 A JP 2019022635A JP 2019022635 A JP2019022635 A JP 2019022635A JP 2019115052 A JP2019115052 A JP 2019115052A
- Authority
- JP
- Japan
- Prior art keywords
- head
- area
- unit
- marker
- circular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、監視すべき監視対象である被監視者の頭部を検出する頭部検出装置および頭部検出方法に関する。そして、本発明は、この頭部検出装置を用いた被監視者監視装置に関する。 The present invention relates to a head detection device and a head detection method for detecting the head of a monitored person to be monitored. And this invention relates to the to-be-monitored person monitoring apparatus using this head detection apparatus.
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。また、2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、高齢化社会ではない通常の社会で生じる、病気や怪我や高齢等による看護や介護を必要とする要看護者よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、看護や介護の必要な高齢者を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。 Japan's aging society, which is the ratio of the population over the age of 65 to the total population, is due to the improvement of living standards following the postwar high economic growth, the improvement of the sanitation environment and the improvement of medical care. Has become a super-aging society with over 21%. Also, in 2005, the total population was about 127.65 million, compared with about 25.56 million for the elderly population aged 65 and over, in 2020 the total population was about 124.11 million. The elderly population is expected to be about 34.56 million. Such an aging society is expected to increase compared to the number of nurses who need nursing or nursing care due to illness, injury or old age, which occurs in a normal society that is not an aging society. And Japan is also a low birthrate society, for example, with a total fertility rate of 1.43 in 2013. Therefore, old-age care for elderly people (spouses, children, brothers) taking care of old people who need nursing or care has also been awake.
要看護者や要介護者は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの問題がある。このような事態に対し、可及的速やかに対応する必要があり、また、このような事態を放置しておくとさらに大きな問題に発展してしまう可能性もあるため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。 Those who need nursing care and those who need nursing care enter facilities such as hospitals and welfare facilities for the elderly (in Japan, the facilities for entering the elderly for the elderly, nursing homes for the elderly and special nursing homes for the elderly, etc.) and receive their nursing and nursing care. In such a facility, there is a problem that a nurse who needs care is injured, for example, by falling from a bed or falling while walking, or he gets out of bed and hesitates. It is necessary to respond to such a situation as quickly as possible, and if such a situation is left as it is, there is a possibility that it will develop into a bigger problem. And carers, etc., have confirmed their safety and condition by patrolling regularly.
しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。 However, the number of nurses etc. can not keep up with the number of nurses etc., and the nursing industry and the care industry are chronically understaffed. Furthermore, since the number of nurses and carers etc. decreases during the night shift and night shift hours compared with the day shift hours, the workload per person increases, so it is required to reduce the load. In addition, the elderly care is not an exception at the facilities, and it is often seen that an elderly nurse or the like cares for an elderly nurse or the like. Generally, when you get older, your physical strength declines, and even if you are healthy, the burden of nursing etc. becomes heavier than younger nurses and so on, and its movement and judgment also become slower.
このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視装置が研究、開発されている。 In order to reduce such labor shortages and the burden of nurses etc., there is a need for techniques that complement nursing work and care work. For this reason, in recent years, a monitored person monitoring device for monitoring (monitoring) a monitored person to be monitored such as a nurse who needs to be monitored has been researched and developed.
このような技術の一つとして、例えば特許文献1に開示された転倒検知装置がある。この特許文献1に開示された転倒検知装置は、カメラと、カメラが出力する映像信号を取り込み、取り込まれた画像に対して差分処理を行う画像処理手段と、差分処理によって得られた差分領域の面積に基づいて人体の転倒動作を検知する判断手段とからなる。より具体的には、前記判断手段は、人体における単位時間当たりの面積変化で転倒の有無を判断している。
One such technique is, for example, a fall detection device disclosed in
一方、安否確認の点では、一人暮らしの独居者も前記要看護者等と同様であり、監視対象である被監視者となる。 On the other hand, in terms of safety confirmation, a single person living alone is also the same as the nurse who needs to be a person to be monitored and is a monitored person.
ところで、転倒の有無によって画像に写る人体の領域の大きさが変化するので、前記特許文献1に開示された転倒検知装置は、人体領域における単位時間当たりの面積変化で転倒を検知しているが、転倒の有無によって画像に写る頭部の領域の大きさも変化するので、頭部領域の大きさによって転倒を検知する手法が考えられる。この手法では、上方から撮像した画像では、頭部は、略円形状に写るので、画像から円形状の領域が頭部領域として検出される。しかしながら、実際の画像には、枕、洗面器、ボール、ゴミ箱および布団の柄等の頭部ではない略円形状の物体も写り込むため、これらの物体の領域が頭部領域として誤検出され、転倒が誤検知されてしまう場合がある。
By the way, since the size of the area of the human body shown in the image changes depending on the presence or absence of the fall, the fall detection device disclosed in
一方、これらの物体が定位置に存在すれば、定位置にあるこれら物体の領域を、頭部を検出する領域から予め除くことで、前記誤検知が回避できる。しかしながら、これらの物体は、必ずしも定位置に存在するとは、限らない。 On the other hand, if these objects exist at a fixed position, the false detection can be avoided by previously excluding the regions of the objects at the fixed position from the region for detecting the head. However, these objects do not always exist at fixed positions.
本発明は、上述の事情に鑑みて為された発明であり、その目的は、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる頭部検出装置および頭部検出方法ならびにこの頭部検出装置を用いた被監視者監視装置を提供することである。 The present invention is an invention made in view of the above-mentioned circumstances, and an object thereof is a head detection device and a head capable of detecting the head of a person to be monitored with high accuracy based on an image taken from above the person to be monitored It is an object of the present invention to provide a part detection method and a monitored person monitoring device using the head detection device.
本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる頭部検出装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像取得部で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、前記画像取得部で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、前記円形状領域抽出部で抽出した円形状領域、前記低反射率領域抽出部で抽出した低反射率領域および前記マーカー検出部で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、前記頭部選定部は、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えることを特徴とする。好ましくは、上述の頭部検出装置において、前記被監視者全体を撮像できる蓋然性が高いことから、前記画像は、前記被監視者が横臥する寝具における、前記被監視者の頭部が位置すると予定されている予め設定された頭部予定位置の直上から撮像したものである。 As a result of various studies, the present inventor has found that the above object can be achieved by the present invention described below. That is, in the head detection device according to one aspect of the present invention, an image acquisition unit that acquires an image obtained by capturing an image of a person to be monitored from above the person to be monitored, and an image acquired by the image acquisition unit And a circular area extraction unit that extracts a substantially circular area as a circular area, and an area having a predetermined reflectance or less for infrared light based on the image acquired by the image acquisition unit. A low reflectance area extraction unit extracted as a low reflectance area, a marker detection unit detecting a predetermined marker based on the image acquired by the image acquisition unit, and a circular shape extracted by the circular area extraction unit A head selecting unit for selecting the head region based on the region, the low reflectance region extracted by the low reflectance region extraction unit, and the marker detected by the marker detection unit; The head selection unit may The circular shaped area remaining after removing the area having the marker detected by the marker detection unit from the circular shaped area extracted by the shape area extracting unit and the low reflectance area extracted by the low reflectance area extracting unit The head area is selected based on the index area to detect the head, and the marker is distinguishable only by the infrared light, and the reflectance for the infrared light is the predetermined reflectance. It is characterized by exceeding. Preferably, in the head detection apparatus described above, since the probability of being able to image the entire monitored person is high, the image is scheduled when the head of the monitored person is located in the bedclothes where the monitored person is lying down The image is taken from directly above the preset head planned position.
発明者は、種々検討した結果、頭部が赤外光(赤外線)に対し比較的低反射率であることを見出した。この知見から、上記頭部検出装置は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。また、さらにマーカーも考慮するので、さらに精度良く被監視者の頭部を検出できる。また、頭部ではない頭部に近似するものにマーカーを付与することで、上記頭部検出装置は、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者の頭部を検出できる。また、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部での誤検出を低減できる。マーカーを可視できないので、上記頭部検出装置は、被監視者監視装置に搭載された場合に、被監視者にマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。 As a result of various studies, the inventor has found that the head has a relatively low reflectance to infrared light (infrared light). From this finding, the head detection device detects the head in consideration of not only the substantially circular shape but also the reflectance to infrared light, so the head of the person to be monitored is detected based on the image of the person to be monitored from above It is possible to detect a part more accurately. Further, since the marker is also considered, the head of the person to be monitored can be detected more accurately. Further, by adding a marker to a head approximating a head other than the head, the head detection device excludes the circular area having the marker and the low reflectance area, thereby forming the circular area. The non-head portion can be removed from the circular shaped region extracted by the extraction unit and the low reflectance region extracted by the low reflectance region extraction unit, and the head of the person to be monitored can be detected more accurately. Moreover, the misdetection in a marker detection part can be reduced by using the marker which can be identified only by infrared light. Since the marker can not be viewed, the head detection device does not give a sense of discomfort to the monitored person without being aware of the presence of the marker when mounted on the monitored person monitoring device.
また、他の一態様では、これら上述の頭部検出装置において、前記低反射率領域抽出部は、前記円形状領域抽出部で抽出した円形状領域から、所定の反射率以下の領域を低反射率領域として抽出することを特徴とする。 Further, in another aspect, in the above-described head detection device, the low reflectance area extraction unit performs low reflection on a region having a predetermined reflectance or less from a circular region extracted by the circular region extraction unit. It is characterized in that it is extracted as a rate area.
このような頭部検出装置は、前記円形状領域抽出部で抽出した円形状領域を頭部の領域(頭部領域)の候補として絞り込み、この絞り込んだ候補から赤外光に対する反射率を考慮して頭部を検出するので、前記画像取得部で取得した画像全体から低反射率領域を抽出する場合に比べて、単に反射率の低いものを誤検出することを低減できる。 Such a head detection device narrows the circular area extracted by the circular area extraction unit as a candidate for the head area (head area), and considers the reflectance to infrared light from the narrowed candidates Since the head is detected, it is possible to reduce erroneous detection of an object having a low reflectance as compared with the case where a low reflectance area is extracted from the entire image acquired by the image acquisition unit.
また、他の一態様では、これら上述の頭部検出装置において、前記円形状領域抽出部は、前記低反射率領域抽出部で抽出した低反射率領域から、略円形状の領域を円形状領域として抽出することを特徴とする。 Further, in another aspect, in the head detection device described above, the circular area extraction unit is configured to generate a substantially circular area from the low reflectance area extracted by the low reflectance area extraction section. It is characterized by being extracted as
このような頭部検出装置は、前記低反射率領域抽出部で抽出した低反射率領域を頭部領域の候補として絞り込み、この絞り込んだ候補から略円形状を考慮して頭部を検出するので、前記画像取得部で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。 Such a head detection device narrows down the low reflectance area extracted by the low reflectance area extraction unit as a head area candidate, and detects the head from the narrowed down candidates in consideration of the substantially circular shape. The amount of information processing can be reduced compared to the case where a substantially circular circular area is extracted from the entire image acquired by the image acquisition unit.
また、他の一態様では、これら上述の頭部検出装置において、前記マーカーは、特定の形状を持つマーカーであることを特徴とする。 In another aspect, in the above-described head detection device, the marker is a marker having a specific shape.
このような頭部検出装置は、特定の形状を持つマーカーを用いることで、マーカー検出部での誤検出を低減できる。 Such a head detection device can reduce false detection in the marker detection unit by using a marker having a specific shape.
そして、本発明の他の一態様にかかる頭部検出方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記画像取得工程で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、前記画像取得工程で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程とを備え、前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程とを備え、前記頭部選定工程は、前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えることを特徴とする。 In the head detection method according to another aspect of the present invention, an image acquisition step of acquiring an image obtained by capturing an image of a person to be monitored from above the person to be monitored, and the image acquisition step Based on the extracted image, a circular area extraction step of extracting a substantially circular area as a circular area, and a predetermined reflectance for infrared light based on the image acquired in the image acquisition step An area is extracted as a low reflectance area, a low reflectance area extraction process, a circular shaped area extracted in the circular shape area extraction process, and a low reflectance area extracted in the low reflectance area extraction process A head selecting step of selecting an area and detecting the head, and a marker detecting step of detecting a predetermined marker based on the image acquired in the image acquiring step, the head selecting step Is the circular area The remaining circular shape area and the low reflectance area except the circular shape area extracted in the extraction process and the low reflectance area extracted in the low reflectance area extraction process excluding the area having the marker detected in the marker detection process Selecting the area of the head based on the detection of the head, and the marker is distinguishable only by the infrared light, and the reflectance for the infrared light exceeds the predetermined reflectance It is characterized by
このような頭部検出方法は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。 Since such a head detection method detects the head in consideration of not only the substantially circular shape but also the reflectance to infrared light, the head of the person to be monitored is detected based on an image of the person to be monitored from above. It can detect more accurately.
さらに、本発明の他の一態様にかかる被監視者監視装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部と、前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、前記頭部検出部は、これら上述のいずれかの頭部検出装置を含むことを特徴とする。 Furthermore, the to-be-monitored person monitoring device according to another aspect of the present invention is a head detection unit that detects a head of a to-be-monitored person to be monitored from an image captured from above the to-be-monitored person; An action detection unit for detecting a predetermined action of the person to be monitored based on the head of the person to be monitored detected by a head detection unit, and a notification for notifying the outside of the predetermined action detected by the action detection unit And the head detection unit includes any of the above-described head detection devices.
このような被監視者監視装置は、頭部をこれら上述のいずれかの頭部検出装置を用いて検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出でき、この結果、被監視者における所定の行動をより精度良く検知できる。 Such a person-to-be-monitored monitoring apparatus detects the head by using any of the above-described head detection devices, so that the head of the person to be monitored can be made more accurate based on an image of the person to be monitored It is possible to detect well, and as a result, it is possible to detect predetermined behavior of the person to be monitored more accurately.
本発明にかかる頭部検出装置および頭部検出方法ならびに被監視者監視装置は、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。 The head detection device, the head detection method, and the monitored person monitoring device according to the present invention can more accurately detect the head of the monitored person based on an image obtained by imaging the monitored person from above.
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, an embodiment according to the present invention will be described based on the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, and abbreviate | omits the description suitably. In the present specification, suffixes are generally indicated by reference numerals without suffixes, and individual configurations are indicated by subscripts.
本被監視者監視装置は、監視対象である被監視者における、予め設定された所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備えるものである。そして、上記被監視者監視装置は、前記被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部をさらに備え、前記行動検知部は、一態様として、前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する。このような被監視者監視装置は、1個の機器として、一体に構成されて実現されて良く、また、システムとして、複数の機器で実現されて良い。そして、被監視者監視装置が複数の機器で実現される場合に、前記行動検知部は、これら複数の機器のうちのいずれに実装されて良い。一例として、ここでは、前記被監視者監視装置がシステムとして複数の機器で実現されている場合について、前記被監視者監視装置の実施形態を説明する。なお、前記被監視者監視装置が1個の機器として一体に構成されて実現される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。また、一例として、ここでは、前記行動検知部が前記頭部検出部および前記通知部と共に後述のセンサ装置SUに実装される場合について、説明するが、このシステムのうちの他の装置、例えば後述の管理サーバ装置SV、固定端末装置SPあるいは携帯端末装置TAに実装される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。 The monitored person monitoring apparatus comprises an activity detecting unit for detecting a predetermined activity set in advance in the monitored person to be monitored, and a notifying unit for notifying the predetermined activity detected by the activity detecting unit to the outside And. And the said to-be-monitored person monitoring apparatus is further provided with the head detection part which detects a head from the image which imaged the said to-be-monitored person from the upper direction of the said to-be-monitored person. The predetermined behavior of the person to be monitored is detected based on the head of the person to be monitored detected by the head detection unit. Such a person-to-be-monitored monitoring apparatus may be realized integrally as one device, or may be realized as a system with a plurality of devices. And when a to-be-monitored person monitoring apparatus is implement | achieved by several apparatuses, the said action detection part may be mounted in any of these several apparatuses. As an example, an embodiment of the monitored person monitoring device will be described here in a case where the monitored person monitoring device is realized by a plurality of devices as a system. In addition, also when the said to-be-monitored person monitoring apparatus is comprised integrally as one apparatus, and implement | achieved, the said to-be-monitored person monitoring apparatus can be comprised similarly to the following description. Also, as an example, the case where the action detection unit is mounted on the sensor device SU described later together with the head detection unit and the notification unit will be described here, but other devices in the system, for example, Also in the case where the management server SV, the fixed terminal SP or the mobile terminal TA is mounted, the above-mentioned person-to-be-monitored monitoring apparatus can be configured as in the following description.
(第1実施形態)
図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、第1実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、実施形態の被監視者監視システムにおけるセンサ装置の配設の様子を示す図である。
First Embodiment
FIG. 1 is a diagram showing a configuration of a monitored person monitoring system in the embodiment. FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the first embodiment. FIG. 3 is a view showing the arrangement of the sensor device in the monitored person monitoring system of the embodiment.
前記被監視者監視装置をシステムとして実現したその一例の第1実施形態における被監視者監視システムMSaは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、図1に示すように、1または複数のセンサ装置SUa(SUa−1〜SUa−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備え、これらは、有線や無線で、LAN(Local Area Network)、電話網およびデータ通信網等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ、ルーターおよびクロスコネクト等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SUa−1〜SUa−4、管理サーバ装置SV、固定端末装置SPおよび複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを含む無線LAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。 The monitored person monitoring system MSa in the first embodiment of the example in which the monitored person monitoring device is realized as a system is a monitored person (observed person) who should be monitored (should watch) The monitoring target person Ob is detected by detecting a predetermined action set in advance in Ob (Ob-1 to Ob-4) and, for example, as shown in FIG. 1, one or a plurality of sensor devices SUa (SUa-1 to SUa-4), management server device SV, fixed terminal device SP, and one or more portable terminal devices TA (TA-1 and TA-2) It is wirelessly connected communicably via a network (network, communication line) NW such as a LAN (Local Area Network), a telephone network, and a data communication network. The network NW may be equipped with relays such as repeaters, bridges, routers, and cross connects that relay communication signals. In the example illustrated in FIG. 1, the plurality of sensor devices SUa-1 to SUa-4, the management server device SV, the fixed terminal device SP, and the plurality of portable terminal devices TA-1 and TA-2 include radios including the access point AP. They are communicably connected to each other by a LAN (for example, a LAN according to the IEEE 802.11 standard) NW.
被監視者監視システムMSaは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSaは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MSa is disposed at an appropriate place according to the monitored person Ob. The monitored person (watching target person) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs care due to a decrease in physical ability or the like, or a single person living alone. In particular, from the viewpoint of enabling early detection and coping, the person to be monitored Ob is a person who needs the detection when a predetermined adverse event such as an abnormal condition occurs in the person. preferable. For this reason, the person-to-be-monitored monitoring system MSa is suitably disposed in buildings such as hospitals, welfare facilities for the elderly and dwelling units according to the type of the person to be monitored Ob. In the example illustrated in FIG. 1, the monitored person monitoring system MS is disposed in a building of a care facility provided with a plurality of living rooms RM in which a plurality of monitored persons Ob reside, and a plurality of rooms such as a nurse station.
センサ装置SUaは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このようなセンサ装置SUaは、例えば、図2に示すように、センサ部1と、音入出力部2と、制御処理部3と、通信インターフェース部(通信IF部)4と、記憶部5とを備える。
The sensor device SUa has a communication function of communicating with the other devices SV, SP, and TA via the network NW, detects the monitored person Ob, and transmits the detection result to the management server device SV. For example, as shown in FIG. 2, such a sensor device SUa includes a
センサ部1は、制御処理部3に接続され、制御処理部3の制御に従って、被監視者Obにおける予め設定された所定の諸量を検出する装置である。前記所定の諸量は、被監視者Obにおける検出すべき所定の行動に応じて適宜に決定される。本実施形態では、前記所定の行動は、被監視者Obの起床、離床、転倒および微体動異常である。これらを検出するために、センサ部1は、例えば、ドップラセンサ11と、カメラ12とを備える。
The
ドップラセンサ11は、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサであり、前記ドップラ信号を制御処理部3へ出力する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。
The
カメラ12は、制御処理部3に接続され、制御処理部3の制御に従って、画像(画像データ)を生成する装置である。カメラ12は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像を制御処理部3へ出力する。
The
本実施形態では、図3に示すように、被監視者Ob全体を撮像できる蓋然性が高いことから、カメラ12が、被監視者Obの横臥する例えばベッド等の寝具BTにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように、センサ装置SUは、配設される。センサ装置SUは、前記センサ部1のドップラセンサ11によって、被監視者Obの上方から測定したドップラ信号を取得し、前記センサ部1のカメラ12によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。なお、図5を用いて後述するように、寝具BT上には、枕PIが置かれ、絵柄PTを含む布団BDが掛けられ、被監視者Obの居室RMには、ごみ箱WBおよび洗面器BAが置かれているが、図3には、これらの図示が省略されている。
In the present embodiment, as shown in FIG. 3, since the probability of being able to image the whole of the monitored person Ob is high, the
このようなカメラ12は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外光の画像を生成する装置である。このようなカメラ12は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。カメラ12の結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。
Such a
音入出力部2は、制御処理部3に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、制御処理部3の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。音入出力部2は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。音入出力部2は、外部の音を表す電気信号を制御処理部3へ出力し、また、制御処理部3から入力された電気信号を音の音響振動に変換して出力する。
The sound input /
通信IF部4は、制御処理部3に接続され、制御処理部3の制御に従って通信を行うための通信回路である。通信IF部4は、制御処理部3から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSaのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。通信IF部4は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部3が処理可能な形式のデータに変換して制御処理部3へ出力する。なお、通信IF部4は、さらに、例えば、Bluetooth(登録商標)規格、IrDA(Infrared Data Asscoiation)規格およびUSB(Universal Serial Bus)規格等の規格を用い、外部機器との間でデータの入出力を行うインターフェース回路を備えても良い。
The communication IF
記憶部5は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、センサ部1の出力に基づいて被監視者Obの頭部を検出する頭部検出処理プログラム、センサ部1の出力に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。そして、前記頭部検出処理プログラムには、センサ部1のカメラ12によって取得した画像から被監視者Obの人体領域として動体領域を抽出する動体抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出プログラム、および、前記円形状領域抽出プログラムで抽出した円形状領域および前記低反射率領域抽出プログラムで抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定プログラム等が含まれる。行動検知処理プログラムは、一態様として、前記頭部検出処理プログラムで検出した被監視者Obの頭部に基づいて被監視者Obにおける所定の行動を検知する。前記各種の所定のデータには、これら各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。
The
制御処理部3は、センサ装置SUaの各部を当該各部の機能に応じてそれぞれ制御し、センサ部1によって被監視者Obにおける予め設定された所定の諸量を検出し、この検出した前記所定の諸量に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3は、前記制御処理プログラムが実行されることによって、制御部31、頭部検出処理部32、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36を機能的に備える。
The
制御部31は、センサ装置SUaの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。
The
頭部検出処理部32は、センサ部1の出力に基づいて被監視者Obの頭部を検出するものである。より具体的には、頭部検出処理部32は、センサ部1のカメラ12で取得した、被監視者Obの上方から撮像した画像に基づいて被監視者Obの頭部を検出する。このために、頭部検出処理部32は、機能的に、動体抽出部321、円形状領域抽出部322、低反射率領域抽出部323および頭部選定部324を備える。
The head
動体抽出部321は、センサ部1のカメラ12で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出するものである。前記背景差分法では、予め背景画像が求められて前記各種の所定のデータの1つとして記憶部5に予め記憶され、カメラ12によって生成された画像と前記背景画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。前記フレーム差分法では、カメラ12によって生成された、現在のフレームの画像と過去のフレーム(例えば1つ前のフレーム)の画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。動体抽出部321は、この抽出した動体領域を、後述の第1態様の動作では円形状領域抽出部322へ通知する一方、後述の第2態様の動作では低反射率領域抽出部323へ通知する。
The moving
円形状領域抽出部322は、センサ部1のカメラ12で取得した画像に基づいて、略円形状の領域を円形状領域として抽出するものである。上方から撮像した画像では、頭部は、略円形状に写るので、円形状領域を抽出することで前記頭部の候補となる領域(頭部候補領域)が抽出される。例えば、円形状領域抽出部322は、円形状を抽出するハフ変換を用いることで、センサ部1のカメラ12で取得した画像から円形状領域を抽出する。また例えば、頭部の形状パターンに対応する円形状の形状パターンが予め用意されて前記各種の所定のデータの1つとして記憶部5に予め記憶され、円形状領域抽出部322は、この記憶部5に予め記憶された前記円形状の形状パターンを、センサ部1のカメラ12で取得した画像からパターンマッチングを用いることで探索し、この円形状の形状パターンにマッチングする領域を前記円形状領域として抽出する。より具体的には、第1態様の動作では、円形状領域抽出部322は、動体抽出部321で抽出した動体領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を低反射率領域抽出部323へ通知する。また、第2態様の動作では、円形状領域抽出部322は、後述するように低反射率領域抽出部323で抽出した低反射率領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を頭部選定部324へ通知する。
The circular
低反射率領域抽出部323は、センサ部1のカメラ12で取得した画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出するものである。頭部は、赤外光に対し比較的低反射率であるので、低反射率領域を抽出することで前記頭部候補領域が抽出される。頭部は、赤外光に対し例えば9%、10%および11%等の低反射率であるので、例えば50%、好ましくは30%、さらに好ましくは10%等が閾値とされ、低反射率領域抽出部323は、センサ部1のカメラ12で取得した画像から前記閾値以下の領域を低反射率領域として抽出する。より具体的には、第1態様の動作では、低反射率領域抽出部323は、円形状領域抽出部322で抽出した円形状領域から、前記閾値以下の領域を低反射率領域として抽出し、この抽出した低反射率領域を頭部選定部324へ通知する。また、第2態様の動作では、低反射率領域抽出部323は、動体抽出部321で抽出した動体領域から、前記前記閾値以下の領域を低反射率領域として抽出し、この抽出した低反射率領域を円形状領域抽出部322へ通知する。
The low reflectance
頭部選定部324は、前記円形状領域抽出部322で抽出した円形状領域および前記低反射率領域抽出部323で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出するものである。より具体的には、第1態様の動作では、頭部選定部324は、低反射率領域抽出部323で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部33へ通知する。本実施形態では、頭部選定部324は、デフォルトの閾値から所定値ずつ変化させることで低反射率領域が1個になるまで低反射率領域抽出部323に低反射率領域を抽出させ、この1個の低反射率領域を頭部(頭部領域)として選定して前記頭部を検出する。また、第2態様の動作では、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部33へ通知する。本実施形態では、頭部選定部324は、円形状領域抽出部322で抽出される円形状領域が1個になるまで、デフォルトの閾値から所定値ずつ変化させることで低反射率領域抽出部323に低反射率領域を抽出させ、この1個の円形状領域を頭部(頭部領域)として選定して前記頭部を検出する。
The
行動検知処理部33は、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知するものである。本実施形態では、上述したように、前記所定の行動は、被監視者Obの起床、離床、転倒および微体動異常であり、行動検知処理部33は、センサ部1の出力に基づいて被監視者Obにおける起床、離床、転倒および微体動異常を検知結果として検知し、その検知結果を通知処理部34へ通知する。例えば、行動検知処理部33は、頭部検出処理部32で検出した頭部(頭部領域)の高さ(大きさ)から被監視者Obの姿勢(例えば立位、座位および横臥等)を判定し、この検出した頭部の位置を検出し、これら判定、検出した被監視者Obの姿勢および位置に基づいて前記起床、離床および転倒の別を判定する。例えば、前記頭部(頭部領域)の高さ(大きさ)が寝具BT上に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT内である場合には、被監視者Obが寝具BTで横臥、すなわち、寝ていると、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が座位に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT内である場合には、被監視者Obが起床したと、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が立位に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT外である場合には、被監視者Obが離床したと、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が床上に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT外である場合には、被監視者Obが転倒したと、行動検知処理部33は、判定できる。なお、記憶部5には、前記各種の所定のデータの1つとして、画像上での寝具BTの領域が予め記憶される。また、頭部(頭部領域)の高さは、被監視者Obの上方から画像を取得しているので、頭部(頭部領域)の大きさ(例えば横長、縦長、面積等)から求めることができる。また例えば、行動検知処理部33は、センサ部1のドップラセンサ11によって被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、その胸部の体動における周期の乱れや予め設定された閾値以下である前記胸部の体動における振幅を検知すると、前記微体動異常であると判定する。
The action
通知処理部34は、行動検知処理部33で検知した前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常)を外部に通知するものである。より具体的には、通知処理部34は、検知した前記所定の行動(状態、状況)を表す情報(検知行動情報(本実施形態では起床、離床、転倒および微体動異常のうちの1または複数を表す情報))、前記所定の行動が検知された被監視者Obを特定し識別するための識別子情報(前記被監視者Obを検知しているセンサ装置SUaを特定し識別するための識別子情報)、および、前記所定の行動の検知に用いられた画像等を収容した通信信号(監視情報通信信号)を生成し、通信IF部4で管理サーバ装置SVへ送信する。
The
ストリーミング処理部35は、ネットワークNWおよび通信IF部4を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、センサ部1のカメラ12で生成した動画(例えばライブの動画)をストリーミング再生で通信IF部4およびネットワークNWを介して配信するものである。
When the
ナースコール処理部36は、被監視者Obからナースコールを受け付ける図略のナースコール押しボタンスイッチでその入力操作を受け付けた場合に、通信IF部4およびネットワークNWを介して、固定端末装置SPまたは携帯端末装置TAとの間で音声通話を可能にするものである。
When the nurse
図1には、一例として、4個の第1ないし第4センサ装置SUa−1〜SUa−4が示されており、第1センサ装置SUa−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SUa−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SUa−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SUa−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。 Four first to fourth sensor devices SUa-1 to SUa-4 are shown in FIG. 1 as an example, and the first sensor device SUa-1 is a person A who is one of the monitored persons Ob. The second sensor device SUa-2 is disposed in a living room RM-1 (not shown) of Ob-1, and is disposed in a living room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor unit SUa-3 is disposed in a living room RM-3 (not shown) of Mr. C's Ob-3, who is one of the monitored persons Ob, and the fourth sensor unit SUa-4 is It is arrange | positioned by the room RM-4 (not shown) of Mr. D Ob-4 who is one of the to-be-monitored person Ob.
なお、本実施形態では、カメラ12は、画像取得部の一例に相当し、頭部検出処理部32は、頭部検出装置の一例に相当する。すなわち、センサ装置SUaは、頭部検出装置を備えている。
In the present embodiment, the
管理サーバ装置SVは、ネットワークNWを介して他の装置SUa、SP、TAと通信する通信機能を備え、センサ装置SUaから被監視者Obに関する検知結果および前記被監視者Obの画像を受信して被監視者Obに対する監視に関する情報(監視情報)を管理する機器である。管理サーバ装置SVは、センサ装置SUaから被監視者Obに関する前記検知結果および前記被監視者Obの画像を受信すると、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(監視情報通信信号)を固定端末装置SPおよび携帯端末装置TAに送信する。また、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SPおよび携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function of communicating with the other devices SUa, SP, TA via the network NW, and receives from the sensor device SUa the detection result regarding the monitored person Ob and the image of the monitored person Ob. It is a device that manages information (monitoring information) related to monitoring of the monitored person Ob. When the management server device SV receives the detection result on the monitored person Ob and the image of the monitored person Ob from the sensor device SUa, the management server device stores (records) the monitoring information related to the monitoring of the monitored person Ob and A communication signal (monitoring information communication signal) containing the monitoring information relating to the monitoring of the supervisor Ob is transmitted to the fixed terminal apparatus SP and the portable terminal apparatus TA. Also, the management server SV provides the client with data in response to the request of the client (in the present embodiment, the fixed terminal SP and the portable terminal TA, etc.). Such a management server SV can be configured, for example, by a computer with a communication function.
固定端末装置SPは、ネットワークNWを介して他の装置SUa、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUaで得られた検知結果や画像を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。 The fixed terminal device SP includes a communication function of communicating with other devices SUa, SV, TA via the network NW, a display function of displaying predetermined information, and an input function of inputting predetermined instructions and data. The user interface of the person-to-be-monitored monitoring system MS by inputting predetermined instructions and data given to the management server device SV and the portable terminal device TA, and displaying detection results and images obtained by the sensor device SUa It is a device that functions as (UI). Such fixed terminal apparatus SP can be configured, for example, by a computer with a communication function.
携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUaと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUaに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUaで得られた前記検知結果や画像を表示したり等することによって、被監視者Obに対する監視に関する前記監視情報を受け付けて表示する機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 The mobile terminal device TA has a communication function of communicating with other devices SV, SP, and SUa via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. It has a call function to be performed, etc. and inputs predetermined instructions and data given to the management server SV and the sensor SUa, or displays the detection result and image obtained by the sensor SUa by notification from the management server SV It is an apparatus which receives and displays the said monitoring information regarding monitoring with respect to the to-be-monitored person Ob by doing etc. Such a portable terminal device TA can be configured by, for example, a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.
次に、本実施形態の動作について説明する。このような構成の被監視者監視システムMSaでは、各装置SUa、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUaでは、その制御処理プログラムの実行によって、制御処理部3には、制御部31、頭部検出処理部32、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36が機能的に構成され、頭部検出処理部32には、動体抽出部321、円形状領域抽出部322、低反射率領域抽出部323および頭部選定部324が機能的に構成される。
Next, the operation of this embodiment will be described. In the monitored person monitoring system MSa having such a configuration, each of the devices SUa, SV, SP, and TA performs initialization of necessary parts when the power is turned on, and starts its operation. Further, in the sensor device SUa, the
そして、上記構成の被監視者監視システムMSaは、大略、次の動作によって、各被監視者Obそれぞれを監視している。センサ装置SUaは、所定のサンプリング周期でセンサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得し、行動検知処理部33によって、このサンプリングおよび取得したドップラセンサ11の出力およびカメラ12の画像に基づいて被監視者Obにおける所定の行動(状態、状況)を判定し、この判定の結果、被監視者Obが予め設定された前記所定の行動(例えば、本実施形態では起床、離床、転倒および微体動異常等)であると判定すると、通知処理部34によって、被監視者Obの状態として判定された判定結果を表す判定結果情報や被監視者Obの静止画の画像データ等の監視情報を収容した通信信号(監視情報通信信号)をネットワークNWを介して管理サーバ装置SVへ送信する。なお、起床、離床および転倒を検知するための頭部を検出する動作(頭部検出動作)は、後に詳述する。
The monitored person monitoring system MSa having the above-described configuration monitors each of the monitored persons Ob generally by the following operation. The sensor unit SUa samples the output of the
管理サーバ装置SVは、前記監視情報通信信号をネットワークNWを介してセンサ装置SUaから受信すると、この監視情報通信信号に収容された判定結果情報や静止画の画像データ等の監視情報をその記憶部に記憶(記録)する。そして、管理サーバ装置SVは、これら判定結果情報や静止画の画像データ等の監視情報を収容した監視情報通信信号を端末装置(本実施形態では固定端末装置SPおよび携帯端末装置TA)へ送信する。これによって被監視者Obの状態(状況)が端末装置SP、TAを介して例えば看護師や介護士等の監視者に報知される。 When the management server SV receives the monitoring information communication signal from the sensor unit SUa via the network NW, the management server SV stores the monitoring information such as the determination result information and the still image data stored in the monitoring information communication signal. Store (Record) Then, the management server device SV transmits a monitoring information communication signal containing monitoring information such as the determination result information and the image data of the still image to the terminal device (the fixed terminal device SP and the portable terminal device TA in the present embodiment). . As a result, the status (condition) of the person to be monitored Ob is notified to the monitor such as a nurse or a care worker via the terminal device SP or TA.
固定端末装置SPおよび携帯端末装置TAは、前記監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この監視情報通信信号に収容された前記監視情報を表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SUa、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obを検知して各被監視者Obを監視している。 When the fixed terminal apparatus SP and the portable terminal apparatus TA receive the monitoring information communication signal from the management server apparatus SV via the network NW, they display the monitoring information contained in the monitoring information communication signal. According to such an operation, the monitored person monitoring system MS detects each monitored person Ob mainly by each sensor device SUa, the management server device SV, the fixed terminal device SP and the portable terminal device TA and detects each monitored person. Ob is monitored.
次に、被監視者監視システムMSaにおける、頭部検出動作について、説明する。図4は、第1実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。図5は、第1実施形態の被監視者監視システムにおけるセンサ装置によって取得される画像の一例を説明するための図である。図6は、布団の絵柄を示す図である。図7は、第1実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。本実施形態におけるセンサ装置SUaは、例えば、図4に示す第1態様の動作によって頭部(頭部領域)を検出し、また例えば、図7に示す第2態様の動作によって頭部(頭部領域)を検出している。以下、前記第1態様の動作をまず説明し、次に、前記第2態様の動作について説明する。 Next, the head detection operation in the monitored person monitoring system MSa will be described. FIG. 4 is a flowchart showing the operation of the first aspect of the sensor device in the monitored person monitoring system of the first embodiment. FIG. 5 is a diagram for explaining an example of an image acquired by the sensor device in the monitored person monitoring system of the first embodiment. FIG. 6 is a diagram showing a pattern of a futon. FIG. 7 is a flowchart showing the operation of the second aspect of the sensor device in the monitored person monitoring system of the first embodiment. The sensor device SUa in this embodiment detects the head (head region) by the operation of the first mode shown in FIG. 4, for example, and also detects the head (head of the second device shown in FIG. 7). Area) is detected. Hereinafter, the operation of the first aspect will be described first, and then the operation of the second aspect will be described.
まず、第1態様の動作について説明する。センサ装置SUaは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。
First, the operation of the first aspect will be described. The sensor device SUa samples the output of the
図4において、まず、制御処理部3は、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S11)。カメラ12によって、例えば、図5に示す画像が取得される。この一例の図5に示す画像には、体幹BDおよび略円形状の頭部HDから成る被監視者Obだけでなく、寝具BT、寝具BT上の略円形状の枕PI、寝具BTに掛けられた布団BD、略円形状のごみ箱WBおよび略円形状の洗面器BAが写っている。布団BDは、円形状の絵柄PTを持ち、前記円形状の絵柄PTが前記画像に写っている。このような図5に示す画像に対し、略円形状の領域を抽出する処理だけで頭部HDを検出する場合では、頭部HDが検出されるだけでなく、枕PI、絵柄PT、ごみ箱WBおよび洗面器BAが頭部HDとして誤検出されてしまう虞がある。布団BDの絵柄PTは、図5に示す円形状だけではなく、例えば図6に示す形状も頭部HDとして誤検出されてしまう虞がある。この図6には、八角形(多角形の代表例)、V字状のギザギザで囲まれた略円形状、放射状に8個の三角形で囲まれた略円形状(太陽を模した形状)、放射状に複数の花弁で囲まれた3個の略円形状(花柄を模した3個の形状)、三角形および四角形が図示されている。三角形や四角形は、布団BDの歪みに伴ってその形状が歪むので、略円形状と誤検出される虞がある。このような誤検出を低減するために、本実施形態では、次のように前記画像が処理される。なお、これら枕PI、絵柄PT、ごみ箱WBおよび洗面器BAにおける赤外光に対する反射率は、その材質等により、大略、頭部における赤外光に対する反射率よりも高い(大きい)。
In FIG. 4, first, the
図4に戻って、次に、制御処理部3は、頭部検出処理部32の動体抽出部321によって、このカメラ12によって取得した画像から、例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出する動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S12)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部3は、動体抽出部321によって抽出した前記動体領域を動体抽出部321から円形状領域抽出部322へ通知し、次の処理S13を実行する。
Returning to FIG. 4, next, the
この処理S13では、制御処理部3は、頭部検出処理部32の円形状領域抽出部322によって、動体抽出部321で抽出された動体領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部3は、円形状領域抽出部322によって抽出した前記円形状領域を円形状領域抽出部322から低反射率領域抽出部323および頭部選定部324へ通知し、次の処理S14を実行する。
In this process S13, the
この処理S14では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、円形状領域抽出部322で抽出した円形状領域が複数か否かを判定する。この判定の結果、前記円形状領域が複数ではない場合、すなわち、前記円形状領域が1個である場合(No)には、制御処理部3は、頭部選定部324によって、前記処理S13で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S15を実行する。一方、前記判定の結果、前記円形状領域が複数である場合(Yes)には、制御処理部3は、前記処理S13で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、次の処理S17を実行する。
In the process S14, the
この処理S17では、制御処理部3は、頭部検出処理部32の低反射率領域抽出部323によって、前記処理S13で円形状領域抽出部322によって抽出した円形状領域から、前記閾値以下の領域を低反射率領域として抽出する低反射率領域抽出処理を実行し、次の処理S18を実行する。
In the process S17, the
この処理S18では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、低反射率領域抽出部323で抽出した低反射率領域が1個か否かを判定する。この判定の結果、前記低反射率領域が1個である場合(Yes)には、制御処理部3は、頭部選定部324によって、前記処理S17で抽出した前記低反射率領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S15を実行する。一方、前記判定の結果、前記低反射率領域が1個ではない場合、すなわち、前記低反射率領域が複数である場合(No)には、制御処理部3は、前記処理S17で抽出した複数の前記低反射率領域の中に頭部(頭部領域)ではない物体も抽出されているとし、頭部選定部324によって、デフォルトの閾値(例えば50%や30%や10%等)から所定値(例えば0.5%や0.2%等)を減算することで前記閾値を再設定し(S19)、処理を処理S17に戻す。したがって、制御処理部3は、頭部選定部324によって前記デフォルトの閾値から所定値ずつ変化させることで、処理S17における低反射率領域抽出部323による低反射率領域抽出処理の実行によって円形状領域であって低反射率領域が1個になるまで、処理S17ないし処理S19を繰り返す。
In the process S18, the
例えば、上述の図5に示す画像では、枕PIや布団BDがずれることによって、また、ごみ箱WBや洗面器BAが動かされることによって、上述の処理S12および処理S13によって、頭部HDだけでなく、枕PI、絵柄PT、ごみ箱WBおよび洗面器BAも円形状領域として抽出される。仮に、絵柄PTが頭部(頭部領域)として誤検出されると、布団BDがずれ落ちた場合に、被監視者Obの転倒転落と誤検知されてしまう。しかしながら、本実施形態では、これら複数の円形状領域に対し、処理S14の実行を介して、処理S17ないし処理S19が実行される。ここで、これら枕PI、絵柄PT、ごみ箱WBおよび洗面器BAは、その素材(例えば布製、金属製、金属コーディング、プラスチック製および籐製等)により、赤外光に対する反射率が頭部における赤外光に対する反射率よりも大略高い(大きい)ので、処理S17ないし処理S19の実行によって、低反射率領域から除かれ、頭部HDのみが低反射率領域として残る。このように赤外光に対する反射率を考慮することで、頭部HDをより精度良く検出できる。 For example, in the image shown in FIG. 5 described above, not only the head HD but also the above-described processing S12 and processing S13 by shifting the pillow PI and the duvet BD and moving the trash can WB and the basin BA. , Pillow PI, pattern PT, trash can WB and basin BA are also extracted as circular shaped areas. If the pattern PT is erroneously detected as a head (head area), the fall of the duvet BD may be erroneously detected as falling of the monitored person Ob. However, in the present embodiment, the processes S17 to S19 are performed on the plurality of circular regions through the execution of the process S14. Here, the pillow PI, the pattern PT, the trash can WB and the basin BA are made of a material (for example, fabric, metal, metal coating, plastic, rattan, etc.), and the infrared reflectance is red at the head Since the reflectance for external light is substantially higher (larger), the execution of the processing S17 to the processing S19 removes it from the low reflectance region, leaving only the head HD as the low reflectance region. By thus considering the reflectance to infrared light, the head HD can be detected more accurately.
図4に戻って、処理S15では、上述の各処理S11〜S14、S17〜S19によって、頭部(頭部領域)が検出されたので、制御処理部3は、行動検知処理部33によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。より具体的には、行動検知処理部33は、前記行動検知処理の一態様として、頭部検出処理部32で検出した頭部(頭部領域)の高さ(大きさ)から被監視者Obの姿勢(例えば立位、座位および横臥等)を判定し、この検出した頭部の位置を検出し、これら判定、検出した被監視者Obの姿勢および位置に基づいて前記起床、離床および転倒の別を判定する。行動検知処理部33は、前記行動検知処理の他の一態様として、センサ部1のドップラセンサ11によって被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、微体動異常の有無を判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部3は、処理S15で検知した前記所定の行動を通知処理部34へ通知し、次の処理S16を実行する。
Referring back to FIG. 4, in the processing S15, the head (head region) is detected by the above-described processing S11 to S14 and S17 to S19. Based on the output of the
この処理S16では、行動検知処理部33から被監視者Obにおける前記所定の行動が通知されると、通知処理部34は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。
In this process S16, when the predetermined action in the monitored person Ob is notified from the action
次に、第2態様の動作について説明する。センサ装置SUaは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。
Next, the operation of the second aspect will be described. The sensor device SUa samples the output of the
図7において、まず、制御処理部3は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S21)。
In FIG. 7, first, the
次に、制御処理部3は、上述の処理S12と同様に、頭部検出処理部32の動体抽出部321によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S22)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部3は、動体抽出部321によって抽出した前記動体領域を動体抽出部321から低反射率領域抽出部323へ通知し、次の処理S23を実行する。
Next, the
この処理S23では、制御処理部3は、頭部検出処理部32の低反射率領域抽出部323によって、前記処理S22で動体抽出部321によって抽出した動体領域から、前記閾値以下の領域を低反射率領域として抽出する低反射率領域抽出処理を実行し、低反射率領域抽出部323によって抽出した前記低反射率領域を低反射率領域抽出部323から円形状領域抽出部322へ通知し、次の処理S24を実行する。
In the processing S23, the
この処理S24では、制御処理部3は、頭部検出処理部32の円形状領域抽出部322によって、低反射率領域抽出部323で抽出された低反射率領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部3は、円形状領域抽出部322によって抽出した前記円形状領域を円形状領域抽出部322から頭部選定部324へ通知し、次の処理S25を実行する。
In the process S24, the
この処理S25では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、円形状領域抽出部322で抽出した円形状領域が1個か否かを判定する。この判定の結果、前記円形状領域が1個である場合(Yes)には、制御処理部3は、頭部選定部324によって、前記処理S24で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S26を実行する。一方、前記判定の結果、前記円形状領域が1個ではない場合、すなわち、前記円形状領域が複数である場合(No)には、制御処理部3は、前記処理S24で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、頭部選定部324によって、デフォルトの閾値(例えば50%や30%や10%等)から所定値(例えば0.5%や0.2%等)を減算することで前記閾値を再設定し(S28)、処理を処理S23に戻す。したがって、制御処理部3は、頭部選定部324によって前記デフォルトの閾値から所定値ずつ変化させることで、処理S23における低反射率領域抽出部323による低反射率領域抽出処理の実行によって低反射率領域であって円形状領域が1個になるまで、処理S23〜S25、S28を繰り返す。
In the process S25, the
一方、処理S26では、上述の各処理S21〜S25、S28によって、頭部(頭部領域)が検出されたので、制御処理部3は、上述の処理S15と同様に、前記行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部3は、処理S26で検知した前記所定の行動を通知処理部34へ通知し、次の処理S27を実行する。
On the other hand, in the processing S26, since the head (head region) is detected by the above-described processing S21 to S25 and S28, the
この処理S27では、行動検知処理部33から被監視者Obにおける前記所定の行動が通知されると、通知処理部34は、上述の処理S16と同様に、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。
In the process S27, when the action
以上説明したように、被監視者監視装置の一例である被監視者監視システムMSaならびに頭部検出装置および頭部検出方法を用いたその一例のセンサ装置SUaは、略円形状だけでなく赤外光に対する反射率も考慮して頭部HDを検出するので、被監視者Obを上方から撮像した画像に基づき被監視者Obの頭部HDをより精度良く検出できる。この結果、上記被監視者監視システムMSaおよびセンサ装置SUaは、被監視者Obにおける所定の行動をより精度良く検知できる。 As described above, the monitored person monitoring system MSa which is an example of the monitored person monitoring device, the head detection device, and the sensor device SUa of the example using the head detection method are not only substantially circular but also infrared. Since the head HD is detected in consideration of the reflectance with respect to light, the head HD of the monitored person Ob can be detected more accurately based on the image captured from the upper side of the monitored person Ob. As a result, the to-be-monitored person monitoring system MSa and the sensor device SUa can detect a predetermined action in the to-be-monitored person Ob more accurately.
また、上記被監視者監視システムMSaおよびセンサ装置SUaは、上述の第1態様の動作において、円形状領域抽出部322で抽出した円形状領域を頭部領域の候補として絞り込み、この絞り込んだ候補から赤外光に対する反射率を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から低反射率領域を抽出する場合に比べて、単に反射率の低いものを誤検出することを低減できる。
Further, in the operation of the above-described first aspect, the monitored person monitoring system MSa and the sensor device SUa narrow down the circular area extracted by the circular
また、上記被監視者監視システムMSaおよびセンサ装置SUaは、上述の第2態様の動作において、低反射率領域抽出部323で抽出した低反射率領域を頭部領域の候補として絞り込み、この絞り込んだ候補から略円形状を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。
Further, in the operation of the second aspect described above, the monitored person monitoring system MSa and the sensor device SUa narrow down the low reflectance area extracted by the low reflectance
なお、上述の実施形態において、頭部ではない頭部に近似するものの誤検出をより低減するために、頭部ではない頭部に近似するものに所定のマーカーが付与されても良い。この場合では、頭部検出装置の一例であるセンサ装置SUaの頭部検出処理部32は、図2に破線で示すように、画像取得部の一例であるセンサ部1のカメラ12で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部325を機能的にさらに備え、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域、低反射率領域抽出部323で抽出した低反射率領域およびマーカー検出部325で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する。このようなセンサ装置SUaは、さらにマーカーも考慮するので、さらに精度良く被監視者Obの頭部を検出できる。
In the above-described embodiment, in order to further reduce false detection of something that approximates a head that is not a head, a predetermined marker may be added to something that approximates a head that is not a head. In this case, the head
より具体的には、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域および低反射率領域抽出部323で抽出した低反射率領域からマーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する。この場合、例えば、上述の処理S12において、動体抽出部321で抽出した動体領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記動体領域に対し、上述の以降の各処理S13〜S19が実行される。また例えば、上述の処理S13において、円形状領域抽出部322で抽出された円形状領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域に対し、上述の以降の各処理S14〜S19が実行される。また例えば、上述の処理S17において、低反射率領域抽出部323で抽出された低反射率領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記低反射率領域に対し、上述の以降の各処理S15〜S19が実行される。また例えば、上述の処理S22において、動体抽出部321で抽出した動体領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記動体領域に対し、上述の以降の各処理S23〜S28が実行される。また例えば、上述の処理S23において、低反射率領域抽出部323で抽出された低反射率領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記低反射率領域に対し、上述の以降の各処理S23〜S28が実行される。また例えば、上述の処理S24において、円形状領域抽出部322で抽出された円形状領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域に対し、上述の以降の各処理S23〜S28が実行される。頭部ではない頭部に近似するものにマーカーを付与することで、このようなセンサ装置SUaは、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、円形状領域抽出部322で抽出した円形状領域および低反射率領域抽出部323で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者Obの頭部を検出できる。
More specifically, the
このようなマーカーは、好ましくは、特定の形状を持つマーカーである。例えば、ごみ箱WBの縁やベッド等の寝具BTの縁に、例えば矩形形状や円弧形状等のマーカーが貼付される。このようなセンサ装置SUaは、特定の形状を持つマーカーを用いることで、マーカー検出部325での誤検出を低減できる。また好ましくは、前記マーカーは、赤外光でのみ識別可能なマーカーである。この赤外光のみで識別可能な前記マーカーは、好ましくは、赤外光に対する頭部の反射率よりも高い反射率(例えば50%以上の反射率)で赤外光を反射する素材、前記素材で形成されたシール(例えば金属シールや木材シール等)、赤外光に対する頭部の反射率よりも高い反射率(例えば50%以上の反射率)で赤外光を反射する顔料(赤外線反射顔料)で形成された所定の形状、および、生地の織の密度の相違で形成された所定の形状のうちの1または複数の組合せである。例えば、布団BDや枕PIが高い反射率で赤外光を反射する前記素材で作成されることで、布団BDや枕PIにマーカーが付与される(布団BD自体や枕PI自体がマーカーとなる)。また例えば、綿や麻等の天然素材とポリエステル等の化学繊維素材とでは赤外光に対する反射率が異なるため、天然素材(または化学繊維素材)で作成された布団BDや枕PIに、化学繊維素材(または天然素材)の糸を縫い込むことで、布団BDや枕PIにマーカーが付与される。また例えば、織の密度で赤外光に対する反射率が異なるため、織の粗い生地(または織の密な生地)で作成された布団BDや枕PIに、織の密な所定形状の生地(または織の粗い生地)を縫い込むことで、布団BDや枕PIにマーカーが付与される。このようなセンサ装置SUaは、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部325での誤検出を低減できる。マーカーを可視できないので、上記センサ装置SUは、被監視者監視システムMSaに用いられる場合に、被監視者Obにマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。
Such a marker is preferably a marker having a specific shape. For example, a marker having, for example, a rectangular shape or a circular arc shape is attached to the edge of the bedding BT such as the edge of the trash can WB or the bed. Such a sensor device SUa can reduce false detection in the
次に、別の実施形態について説明する。
(第2実施形態)
図8は、第2実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。
Next, another embodiment will be described.
Second Embodiment
FIG. 8 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the second embodiment.
前記被監視者監視装置をシステムとして実現したその一例の第2実施形態における被監視者監視システムMSbは、第1実施形態における被監視者監視システムMSaと同様に、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、1または複数のセンサ装置SUb(SUb−1〜SUb−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備える。すなわち、第2実施形態における被監視者監視システムMSbは、センサ装置SUaに代え、センサ装置SUbを備える点を除き、第1実施形態における被監視者監視システムMSaと同様である。このため、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAの説明を省略する。 The monitored person monitoring system MSb in the second embodiment of the example in which the monitored person monitoring device is realized as a system is monitoring (should be watched) monitoring in the same manner as the monitored person monitoring system MSa in the first embodiment. The monitoring target person Ob is detected by detecting a predetermined behavior set in advance in the monitoring target person (watching target person) Ob (Ob-1 to Ob-4) which is a target (watching target), For example, one or more sensor devices SUb (SUb-1 to SUb-4), management server device SV, fixed terminal device SP, and one or more mobile terminal devices TA (TA-1 and TA-2) Equipped with That is, the monitored person monitoring system MSb in the second embodiment is the same as the monitored person monitoring system MSa in the first embodiment except that the sensor device SUa is provided instead of the sensor device SUa. Therefore, the descriptions of the management server device SV, the fixed terminal device SP, and the portable terminal device TA will be omitted.
センサ装置SUbは、センサ装置SUaと同様に、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このようなセンサ装置SUbは、例えば、図8に示すように、センサ部1と、音入出力部2と、制御処理部6と、通信インターフェース部(通信IF部)4と、記憶部7とを備える。すなわち、センサ装置SUbは、制御処理部3に代え制御処理部6を備え、記憶部5に代え記憶部7を備える点を除き、センサ装置SUaと同様である。このため、センサ部1、音入出力部2および通信IF部4の説明を省略する。
Similar to the sensor device SUa, the sensor device SUb has a communication function of communicating with other devices SV, SP, and TA via the network NW, detects the monitored person Ob, and sends the detection result to the management server device SV. It is an apparatus to transmit. For example, as shown in FIG. 8, such a sensor device SUb includes a
記憶部7は、制御処理部6に接続され、制御処理部6の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、センサ部1の出力に基づいて被監視者Obの頭部を検出する頭部検出処理プログラム、センサ部1の出力に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。そして、前記頭部検出処理プログラムには、センサ部1のカメラ12によって取得した画像から被監視者Obの人体領域として動体領域を抽出する動体抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、所定のマーカーを検出するマーカー検出プログラム、および、前記円形状領域抽出プログラムで抽出した円形状領域および前記マーカー検出プログラムで抽出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定プログラム等が含まれる。行動検知処理プログラムは、一態様として、前記頭部検出処理プログラムで検出した被監視者Obの頭部に基づいて被監視者Obにおける所定の行動を検知する。前記各種の所定のデータには、これら各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。記憶部7は、例えば不揮発性の記憶素子であるROMや書き換え可能な不揮発性の記憶素子であるEEPROM等を備える。そして、記憶部7は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM等を含む。
The storage unit 7 is a circuit which is connected to the control processing unit 6 and stores various predetermined programs and various predetermined data according to the control of the control processing unit 6. The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing related to monitoring of the monitored person Ob. The monitoring processing program includes a head detection processing program for detecting the head of the person to be monitored Ob based on the output of the
制御処理部6は、センサ装置SUbの各部を当該各部の機能に応じてそれぞれ制御し、センサ部1によって被監視者Obにおける予め設定された所定の諸量を検出し、この検出した前記所定の諸量に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部6は、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部6は、前記制御処理プログラムが実行されることによって、制御部61、頭部検出処理部62、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66を機能的に備える。これら制御処理部6における制御部61、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66は、それぞれ、第1実施形態の制御処理部3における制御部31、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36と同様であるので、その説明を省略する。
The control processing unit 6 controls the respective units of the sensor device SUb according to the functions of the respective units, and the
頭部検出処理部62は、頭部検出処理部32と同様に、センサ部1の出力に基づいて被監視者Obの頭部を検出するものである。より具体的には、頭部検出処理部62は、センサ部1のカメラ12で取得した、被監視者Obの上方から撮像した画像に基づいて被監視者Obの頭部を検出する。このために、頭部検出処理部62は、機能的に、動体抽出部621、円形状領域抽出部632、マーカー検出部623および頭部選定部624を備える。
The head
体動抽出部621は、動体抽出部321と同様に、センサ部1のカメラ12で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出するものである。動体抽出部621は、この抽出した動体領域を、後述の第1態様の動作では円形状領域抽出部622へ通知する一方、後述の第2態様の動作ではマーカー検出部623へ通知する。
Similar to the moving
円形状領域抽出部622は、円形状領域抽出部322と同様に、センサ部1のカメラ12で取得した画像に基づいて、略円形状の領域を円形状領域として抽出するものである。より具体的には、第1態様の動作では、円形状領域抽出部622は、動体抽出部621で抽出した動体領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域をマーカー検出部623へ通知する。また、第2態様の動作では、円形状領域抽出部322は、後述するようにマーカー検出部623で検出したマーカーの領域を除く残余の体動領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を頭部選定部624へ通知する。
The circular
マーカー検出部623は、センサ部1のカメラ12で取得した画像に基づいて、所定のマーカーを検出するものである。前記所定のマーカーは、上述と同様に、頭部ではない頭部に近似するものの誤検出をより低減するために、頭部ではない頭部に近似するものに付与され、好ましくは、特定の形状を持つマーカーであり、また好ましくは、赤外光でのみ識別可能なマーカーである。より具体的には、第1態様の動作では、マーカー検出部623は、円形状領域抽出部622で抽出した円形状領域から、前記所定のマーカーを検出し、円形状領域抽出部622で抽出した前記円形状領域からこの検出したマーカーを持つ円形状領域を除く残余の円形状領域を頭部選定部624へ通知する。また、第2態様の動作では、マーカー検出部623は、動体抽出部621で抽出した動体領域から、前記所定のマーカーを検出し、動体抽出部621で抽出した動体領域からこの検出したマーカーを持つ体動領域を除く残余の体動領域を円形状領域抽出部622へ通知する。
The
頭部選定部624は、前記円形状領域抽出部622で抽出した円形状領域および前記マーカー検出部623で抽出した所定のマーカーに基づいて頭部の領域を選定して前記頭部を検出するものである。より具体的には、第1態様の動作では、頭部選定部624は、マーカー検出部623で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知する。また、第2態様の動作では、頭部選定部624は、円形状領域抽出部622で抽出した円形状領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知する。
The
このような構成の被監視者監視システムMSbでは、各装置SUb、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUbでは、その制御処理プログラムの実行によって、制御処理部6には、制御部61、頭部検出処理部62、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66が機能的に構成され、頭部検出処理部62には、動体抽出部621、円形状領域抽出部622、低反射率領域抽出部623および頭部選定部624が機能的に構成される。そして、上記構成の被監視者監視システムMSbは、センサ装置SUbが後述のように動作する点を除き、上述した被監視者監視システムMSaと同様に動作するので、その説明を省略する。
In the monitored person monitoring system MSb having such a configuration, each of the devices SUb, SV, SP, and TA performs initialization of necessary parts when the power is turned on, and starts its operation. Further, in the sensor device SUb, the control processing unit 6 includes the
次に、被監視者監視システムMSbにおける、頭部検出動作について、説明する。図9は、第2実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。図10は、第2実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。本実施形態におけるセンサ装置SUbは、例えば、図9に示す第1態様の動作によって頭部(頭部領域)を検出し、また例えば、図10に示す第2態様の動作によって頭部(頭部領域)を検出している。以下、前記第1態様の動作をまず説明し、次に、前記第2態様の動作について説明する。 Next, the head detection operation in the monitored person monitoring system MSb will be described. FIG. 9 is a flowchart showing the operation of the first aspect of the sensor device in the monitored person monitoring system of the second embodiment. FIG. 10 is a flowchart showing the operation of the second aspect of the sensor device in the monitored person monitoring system of the second embodiment. The sensor device SUb in the present embodiment detects the head (head area) by the operation of the first mode shown in FIG. 9, for example, and also detects the head (head of the second mode shown in FIG. 10). Area) is detected. Hereinafter, the operation of the first aspect will be described first, and then the operation of the second aspect will be described.
まず、第1態様の動作について説明する。センサ装置SUbは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。
First, the operation of the first aspect will be described. The sensor device SUb samples the output of the
図9において、まず、制御処理部6は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S31)。
In FIG. 9, first, the control processing unit 6 acquires a Doppler signal from the
次に、制御処理部6は、上述の処理S12と同様に、頭部検出処理部62の動体抽出部621によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S32)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部6は、動体抽出部621によって抽出した前記動体領域を動体抽出部621から円形状領域抽出部622へ通知し、次の処理S33を実行する。
Next, the control processing unit 6 executes the moving body region extraction processing by the moving
この処理S33では、制御処理部6は、頭部検出処理部62の円形状領域抽出部622によって、動体抽出部321で抽出された動体領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を円形状領域抽出部622からマーカー検出部623および頭部選定部624へ通知し、次の処理S34を実行する。
In this process S33, the control processing unit 6 uses the method such as Hough transformation or pattern matching from the moving object region extracted by the moving
この処理S34では、制御処理部6は、頭部検出処理部62の頭部選定部624によって、円形状領域抽出部622で抽出した円形状領域が複数か否かを判定する。この判定の結果、前記円形状領域が複数ではない場合、すなわち、前記円形状領域が1個である場合(No)には、制御処理部6は、頭部選定部624によって、前記処理S33で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部624によって選定された頭部(頭部領域)を頭部検出処理部62から行動検知処理部63へ通知し、次の処理S35を実行する。一方、前記判定の結果、前記円形状領域が複数である場合(Yes)には、制御処理部6は、前記処理S33で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、次の処理S37を実行する。
In the process S34, the control processing unit 6 determines, by the
この処理S37では、制御処理部6は、頭部検出処理部62のマーカー検出部623によって、円形状領域抽出部622によって抽出した前記円形状領域から所定のマーカーを検出し、円形状領域抽出部622で抽出した前記円形状領域からこの検出したマーカーを持つ円形状領域を除く残余の円形状領域を頭部選定部624へ通知し、頭部選定部624によってマーカー検出部623によって除かれた残余の前記円形状領域を頭部の領域として選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知し、次の処理S35を実行する。なお、制御処理部6は、マーカー検出部623によって除かれた残余の前記円形状領域を頭部の領域としてマーカー検出部623から行動検知処理部63へ通知してもよい。
In step S37, the control processing unit 6 causes the
この処理S35では、上述の各処理S31〜S34、S37によって、頭部(頭部領域)が検出されたので、制御処理部6は、上述の処理S15と同様に、行動検知処理部63によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部6は、処理S35で検知した前記所定の行動を通知処理部64へ通知し、次の処理S36を実行する。
In the process S35, since the head (head region) is detected by the processes S31 to S34 and S37 described above, the control processing unit 6 causes the behavior
この処理S36では、行動検知処理部63から被監視者Obにおける前記所定の行動が通知されると、通知処理部64は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。
In this process S36, when the predetermined action in the monitored person Ob is notified from the action
次に、第2態様の動作について説明する。センサ装置SUbは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。
Next, the operation of the second aspect will be described. The sensor device SUb samples the output of the
図10において、まず、制御処理部6は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S41)。
In FIG. 10, first, the control processing unit 6 acquires a Doppler signal from the
次に、制御処理部6は、上述の処理S12と同様に、頭部検出処理部62の動体抽出部621によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S42)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部6は、動体抽出部621によって抽出した前記動体領域を動体抽出部621からマーカー検出部623へ通知し、次の処理S43を実行する。
Next, the control processing unit 6 executes the moving body region extraction processing by the moving
この処理S43では、制御処理部6は、頭部検出処理部62のマーカー検出部623によって、体動抽出部621によって抽出した前記体動領域から所定のマーカーを検出し、体動抽出部621で抽出した前記体動領域からこの検出したマーカーを持つ体動領域を除く残余の体動領域を円形状領域抽出部622へ通知し、次の処理S44を実行する。
In the processing S43, the control processing unit 6 causes the
この処理S44では、制御処理部6は、頭部検出処理部62の円形状領域抽出部622によって、マーカー検出部623によってマーカーを持つ体動領域を除いた前記残余の体動領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を円形状領域抽出部622から頭部選定部624へ通知し、頭部選定部624によって円形状領域抽出部622によって抽出した前記円形状領域を頭部の領域として選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知し、次の処理S45を実行する。なお、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を頭部の領域として円形状領域抽出部622から行動検知処理部63へ通知してもよい。
In the processing S44, the control processing unit 6 causes the circular
この処理S45では、上述の各処理S41〜S44によって、頭部(頭部領域)が検出されたので、制御処理部6は、上述の処理S15と同様に、行動検知処理部63によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部6は、処理S45で検知した前記所定の行動を通知処理部64へ通知し、次の処理S46を実行する。
In this process S45, since the head (head area) is detected by the processes S41 to S44 described above, the control processing unit 6 detects the sensor unit by the action
この処理S46では、行動検知処理部63から被監視者Obにおける前記所定の行動が通知されると、通知処理部64は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。
In the process S46, when the action
以上説明したように、被監視者監視装置の一例である被監視者監視システムMSbならびに頭部検出装置および頭部検出方法を用いたその一例のセンサ装置SUbは、略円形状だけでなくマーカーも考慮して頭部HDを検出するので、被監視者Obを上方から撮像した画像に基づき被監視者Obの頭部HDをより精度良く検出できる。この結果、上記被監視者監視システムMSbおよびセンサ装置SUbは、被監視者Obにおける所定の行動をより精度良く検知できる。 As described above, the monitored person monitoring system MSb, which is an example of the monitored person monitoring device, the head detection device, and the sensor device SUb of the example using the head detection method are not only substantially circular but also markers Since the head HD is detected in consideration, the head HD of the person to be monitored Ob can be detected more accurately based on the image obtained by capturing the person to be monitored Ob from above. As a result, the to-be-monitored person monitoring system MSb and the sensor device SUb can detect predetermined actions in the to-be-monitored person Ob more accurately.
また、上記被監視者監視システムMSbおよびセンサ装置SUbは、上述の第1態様の動作において、円形状領域抽出部622で抽出した円形状領域を頭部領域の候補として絞り込み、この絞り込んだ候補から前記マーカーを持つ前記円形状領域を除くことで、円形状領域抽出部622で抽出した円形状領域から頭部ではない前記ものを除くことができ、より精度良く被監視者Obの頭部HDを検出できる。
Further, in the operation of the first aspect described above, the monitored person monitoring system MSb and the sensor device SUb narrow down the circular shaped area extracted by the circular shaped
また、上記被監視者監視システムMSbおよびセンサ装置SUbは、上述の第2態様の動作において、体動抽出部621で抽出した体動領域からマーカーを持つ体動領域を除くことで体動領域を絞り込み、この絞り込んだ体動領域から略円形状を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。
Further, in the operation of the second aspect described above, the monitored person monitoring system MSb and the sensor device SUb remove the body motion area by removing the body motion area having the marker from the body motion area extracted by the body
また、これら上述の実施形態において、寝具BT上は、安全であるという考えから、円形状領域が寝具BTの領域内で検出された場合には、この円形状領域が処理S15、処理S26、処理S35および処理S45それぞれでの前記行動検知処理の対象から除外されても良い。 Further, in the above-described embodiment, in the case where the circular area is detected within the area of the bedding BT, the circular area is the process S15, the process S26, the process S26, in view of the safety on the bedding BT. You may exclude from the object of the said action detection process in each of S35 and process S45.
また、これら上述の実施形態では、センサ装置SUa、SUbが前記行動検知部および前記通知部を備えたが、前記行動検知部および前記通知部は、管理サーバ装置SVに備えられても良く、また、固定端末装置SPに備えられても良く、また、携帯端末装置TAに備えられても良い。このような場合、センサ装置SUa、SUbからネットワークNWを介して被監視者Obの上方から撮像した画像およびドップラ信号を収容した通信信号を受信して取得する通信インターフェース等が、画像取得部の一例および測距部の一部の一例に相当することになる。 Moreover, in these above-mentioned embodiment, although sensor apparatus SUa and SUb were provided with the said action detection part and the said notification part, the said action detection part and the said notification part may be equipped in the management server apparatus SV, and The fixed terminal apparatus SP may be provided, or the mobile terminal apparatus TA may be provided. In such a case, a communication interface or the like that receives and acquires a communication signal containing an image and a Doppler signal captured from above the monitored person Ob from the sensor devices SUa and SUb via the network NW is an example of an image acquisition unit And one example of part of the distance measuring unit.
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 While the present invention has been properly and sufficiently described above through the embodiments with reference to the drawings in order to express the present invention, those skilled in the art can easily change and / or improve the above embodiments. It should be recognized that it is possible. Therefore, unless a change or improvement implemented by a person skilled in the art is at a level that deviates from the scope of the claims set forth in the claims, the change or the improvement is the scope of the rights of the claim It is interpreted as being included in
Ob(Ob−1〜Ob−4) 被監視者
NS(NS−1、NS−2) 監視者(ユーザ)
MSa、MSb 被監視者監視システム
SUa、SUb センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA 携帯端末装置
1 センサ部
3、6 制御処理部
4 通信インターフェース部(通信IF部)
5、7 記憶部
11 ドップラセンサ
12 カメラ(画像取得部の一例)
31、61 制御部
32、62 頭部検出処理部
33、63 行動検知処理部
34、64 通知処理部
321、621 動体抽出部
322、622 円形状領域抽出部
323 低反射率領域抽出部
324、624 頭部選定部
325、623 マーカー検出部
Ob (Ob-1 to Ob-4) Monitored person NS (NS-1, NS-2) Observer (user)
MSa, MSb Monitored person monitoring system SUa, SUb Sensor device SV Management server device SP Fixed terminal device TA Portable
5, 7
31 and 61
Claims (6)
前記画像取得部で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、
前記画像取得部で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、
前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、
前記円形状領域抽出部で抽出した円形状領域、前記低反射率領域抽出部で抽出した低反射率領域および前記マーカー検出部で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、
前記頭部選定部は、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、
前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えること
を特徴とする頭部検出装置。 An image acquisition unit for acquiring an image obtained by capturing a person to be monitored from above the person to be monitored;
A circular area extraction unit that extracts a substantially circular area as a circular area based on the image acquired by the image acquisition unit;
A low reflectance area extraction unit that extracts a region having a predetermined reflectance or less with respect to infrared light as a low reflectance region based on the image acquired by the image acquisition unit;
A marker detection unit configured to detect a predetermined marker based on the image acquired by the image acquisition unit;
The head region is selected based on the circular area extracted by the circular area extraction unit, the low reflectance area extracted by the low reflectance area extraction unit, and the marker detected by the marker detection unit. And a head selection unit for detecting
The head selecting unit is a circular area extracted by the circular area extracting unit, and a low reflectance area extracted by the low reflectance area extracting unit, the remaining area excluding the area having the marker detected by the marker detecting unit. Selecting the area of the head based on the circular area and the low reflectance area, and detecting the head;
The head detection device, wherein the marker is distinguishable only by the infrared light, and the reflectance to the infrared light exceeds the predetermined reflectance.
を特徴とする請求項1に記載の頭部検出装置。 The head according to claim 1, wherein the low reflectance area extraction unit extracts an area having a predetermined reflectance or less from the circular area extracted by the circular area extraction unit as a low reflectance area. Part detection device.
を特徴とする請求項1に記載の頭部検出装置。 The head detection according to claim 1, wherein the circular area extraction unit extracts a substantially circular area as a circular area from the low reflectance area extracted by the low reflectance area extraction section. apparatus.
を特徴とする請求項1ないし請求項3のいずれか1項に記載の頭部検出装置。 The head detection device according to any one of claims 1 to 3, wherein the marker is a marker having a specific shape.
前記画像取得工程で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、
前記画像取得工程で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、
前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程と、
前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程とを備え、
前記頭部選定工程は、前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、
前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えること
を特徴とする頭部検出方法。 An image acquisition step of acquiring an image obtained by photographing a person to be monitored from above the person to be monitored;
A circular area extraction step of extracting a substantially circular area as a circular area based on the image acquired in the image acquisition step;
A low reflectance area extraction process of extracting an area having a predetermined reflectance or less with respect to infrared light as a low reflectance area based on the image acquired in the image acquisition process;
A head selecting step of selecting a head region based on the circular shaped region extracted in the circular shaped region extracting step and the low reflectance region extracted in the low reflectance region extracting step;
And a marker detection step of detecting a predetermined marker based on the image acquired in the image acquisition step.
The head selecting step is the remaining portion excluding the region having the marker detected in the marker detecting step from the circular shaped region extracted in the circular shaped region extracting step and the low reflectance region extracted in the low reflectance region extracting step Selecting the area of the head based on the circular area and the low reflectance area, and detecting the head;
The head detection method, wherein the marker is distinguishable only by the infrared light, and the reflectance to the infrared light exceeds the predetermined reflectance.
前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する行動検知部と、
前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、
前記頭部検出部は、請求項1ないし請求項4のいずれか1項に記載の頭部検出装置を含むこと
を特徴とする被監視者監視装置。 A head detection unit that detects a head of an image of a person to be monitored from an image captured from above the person to be monitored;
An activity detection unit that detects a predetermined activity of the monitored person based on the head of the monitored person detected by the head detection unit;
A notification unit for notifying the outside of the predetermined action detected by the action detection unit;
The said head detection part contains the head detection apparatus of any one of Claims 1-4, The to-be-monitored person monitoring apparatus characterized by these.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022635A JP6737355B2 (en) | 2019-02-12 | 2019-02-12 | Head detection device, head detection method, and monitored person monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022635A JP6737355B2 (en) | 2019-02-12 | 2019-02-12 | Head detection device, head detection method, and monitored person monitoring device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015140776A Division JP6481537B2 (en) | 2015-07-14 | 2015-07-14 | Monitored person monitoring device and monitored person monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019115052A true JP2019115052A (en) | 2019-07-11 |
JP6737355B2 JP6737355B2 (en) | 2020-08-05 |
Family
ID=67222924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019022635A Active JP6737355B2 (en) | 2019-02-12 | 2019-02-12 | Head detection device, head detection method, and monitored person monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6737355B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62177689A (en) * | 1986-01-30 | 1987-08-04 | Mitsubishi Electric Corp | Device for counting the number of persons |
JPH1048008A (en) * | 1996-08-02 | 1998-02-20 | Omron Corp | Attention information measuring method, instrument for the method and various system using the instrument |
JP2001243472A (en) * | 2000-03-01 | 2001-09-07 | Matsushita Electric Works Ltd | Image processor |
JP2007209008A (en) * | 2003-10-21 | 2007-08-16 | Matsushita Electric Ind Co Ltd | Surveillance device |
JP2012071003A (en) * | 2010-09-29 | 2012-04-12 | Omron Healthcare Co Ltd | Safe nursing system and method for controlling the safe nursing system |
JP2013117896A (en) * | 2011-12-05 | 2013-06-13 | Saxa Inc | Person detection device, person detection method and person detection program |
JP2014021619A (en) * | 2012-07-13 | 2014-02-03 | Aiphone Co Ltd | Patient recognition device |
-
2019
- 2019-02-12 JP JP2019022635A patent/JP6737355B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62177689A (en) * | 1986-01-30 | 1987-08-04 | Mitsubishi Electric Corp | Device for counting the number of persons |
JPH1048008A (en) * | 1996-08-02 | 1998-02-20 | Omron Corp | Attention information measuring method, instrument for the method and various system using the instrument |
JP2001243472A (en) * | 2000-03-01 | 2001-09-07 | Matsushita Electric Works Ltd | Image processor |
JP2007209008A (en) * | 2003-10-21 | 2007-08-16 | Matsushita Electric Ind Co Ltd | Surveillance device |
JP2012071003A (en) * | 2010-09-29 | 2012-04-12 | Omron Healthcare Co Ltd | Safe nursing system and method for controlling the safe nursing system |
JP2013117896A (en) * | 2011-12-05 | 2013-06-13 | Saxa Inc | Person detection device, person detection method and person detection program |
JP2014021619A (en) * | 2012-07-13 | 2014-02-03 | Aiphone Co Ltd | Patient recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP6737355B2 (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6115692B1 (en) | Behavior detecting device, method and program, and monitored person monitoring device | |
WO2017082037A1 (en) | Central processing device and method for person monitoring system, and person monitoring system | |
JP6680352B2 (en) | Monitored person monitoring apparatus, method and system | |
JP6852733B2 (en) | Living body monitoring device and living body monitoring method | |
JPWO2017099091A1 (en) | Central processing unit and central processing method for monitored person monitoring system, and monitored person monitoring system | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JP7044060B2 (en) | Observer monitoring device, method and system | |
JP6870465B2 (en) | Observed person monitoring device and its method and monitored person monitoring system | |
JP6226110B1 (en) | Monitored person monitoring apparatus, method and system | |
WO2017195839A1 (en) | Monitored person monitoring system, terminal device, and monitored person monitoring method | |
JP6696606B2 (en) | Care support system, care support method and program | |
JP6481537B2 (en) | Monitored person monitoring device and monitored person monitoring method | |
JP6737355B2 (en) | Head detection device, head detection method, and monitored person monitoring device | |
WO2016181731A1 (en) | Fall detecting device, fall detecting method, and device for monitoring person to be monitored | |
JP2019197263A (en) | System and system control method | |
JP6946276B2 (en) | The terminal device of the monitored person monitoring system, the control method and program of the terminal device, and the monitored person monitoring system | |
JP6292363B2 (en) | Terminal device, terminal device display method, and monitored person monitoring system | |
JPWO2019073735A1 (en) | Monitored person monitoring support system and monitored person monitoring support method | |
JP7352197B2 (en) | Mobile behavior abnormality determination device and method, and monitored person monitoring support system | |
WO2017141629A1 (en) | Terminal device, display method for terminal device, sensor device, and person-to-be-monitored monitoring system | |
JPWO2019031012A1 (en) | BEHAVIOR DETECTION DEVICE AND METHOD, AND MONITORED SUPPORT SUPPORT SYSTEM | |
WO2017130684A1 (en) | Monitored-person monitoring device, method thereof, and system thereof | |
JPWO2019142449A1 (en) | Image recording system and its method and monitored person monitoring support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200616 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6737355 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |