JP6737355B2 - Head detection device, head detection method, and monitored person monitoring device - Google Patents

Head detection device, head detection method, and monitored person monitoring device Download PDF

Info

Publication number
JP6737355B2
JP6737355B2 JP2019022635A JP2019022635A JP6737355B2 JP 6737355 B2 JP6737355 B2 JP 6737355B2 JP 2019022635 A JP2019022635 A JP 2019022635A JP 2019022635 A JP2019022635 A JP 2019022635A JP 6737355 B2 JP6737355 B2 JP 6737355B2
Authority
JP
Japan
Prior art keywords
head
unit
region
area
monitored person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019022635A
Other languages
Japanese (ja)
Other versions
JP2019115052A (en
Inventor
安紀 辻
安紀 辻
篤広 野田
篤広 野田
山下 雅宣
雅宣 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019022635A priority Critical patent/JP6737355B2/en
Publication of JP2019115052A publication Critical patent/JP2019115052A/en
Application granted granted Critical
Publication of JP6737355B2 publication Critical patent/JP6737355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視すべき監視対象である被監視者の頭部を検出する頭部検出装置および頭部検出方法に関する。そして、本発明は、この頭部検出装置を用いた被監視者監視装置に関する。 The present invention relates to a head detecting device and a head detecting method for detecting a head of a monitored person who is a monitoring target to be monitored. The present invention also relates to a monitored person monitoring device using this head detecting device.

我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。また、2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、高齢化社会ではない通常の社会で生じる、病気や怪我や高齢等による看護や介護を必要とする要看護者よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、看護や介護の必要な高齢者を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。 Japan has an aging society due to the improvement of living standards, the improvement of hygiene environment and the improvement of medical care, etc. accompanying the post-war high economic growth. Is over 21% in an aging society. In 2005, the total population was 127.65 million and the number of elderly people aged 65 and over was 255.6 million. In 2020, the total population was 124.11 million. It is predicted that the elderly population will be approximately 3,456,000. In such an aging society, the number is expected to increase more than the number of nurses requiring nursing care or nursing due to illness, injury, aging, etc. that occur in a normal society that is not an aging society. Japan is also a declining birthrate society with a total fertility rate of 1.43 in 2013, for example. For this reason, elderly care is also occurring in which elderly family members (spouse, children, brothers) take care of elderly people who need nursing care.

要看護者や要介護者は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの問題がある。このような事態に対し、可及的速やかに対応する必要があり、また、このような事態を放置しておくとさらに大きな問題に発展してしまう可能性もあるため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。 Nursing and care recipients are admitted to hospitals and other facilities such as welfare facilities for the aged (short-term nursing homes for the elderly, nursing homes and special nursing homes, etc. under Japanese law) for nursing and care. In such a facility, there is a problem that a nurse or the like suffers an injury due to a fall from a bed, a fall while walking, or the like, getting out of the bed and wandering around. It is necessary to respond to such a situation as soon as possible, and if such a situation is left untreated, it may develop into a larger problem. And caregivers check the safety and condition by regularly patrol.

しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。 However, the increase in the number of nurses and the like cannot keep up with the increase in the number of nurses and the like, and there is a chronic labor shortage in the nursing industry and the nursing care industry. Further, the number of nurses, caregivers and the like decreases in the semi-night shift and night shift hours compared to the day shift hours, and the work load per person increases. Therefore, it is required to reduce the work load. In addition, the situation of the old-age care is not an exception even in the above-mentioned facilities, and elderly nurses and the like often take care of elderly care recipients and the like. In general, physical strength deteriorates as a person ages, so even if they are healthy, the burden of nursing, etc. will be heavier than that of young nurses, and their movements and judgment will be slow.

このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視装置が研究、開発されている。 In order to reduce the labor shortage and the burden on nurses, there is a demand for technology that complements nursing work and nursing care work. For this reason, in recent years, a monitored person monitoring device for monitoring (monitoring) a monitored person, such as a nurse requiring care, to be monitored has been studied and developed.

このような技術の一つとして、例えば特許文献1に開示された転倒検知装置がある。この特許文献1に開示された転倒検知装置は、カメラと、カメラが出力する映像信号を取り込み、取り込まれた画像に対して差分処理を行う画像処理手段と、差分処理によって得られた差分領域の面積に基づいて人体の転倒動作を検知する判断手段とからなる。より具体的には、前記判断手段は、人体における単位時間当たりの面積変化で転倒の有無を判断している。 As one of such techniques, there is a fall detection device disclosed in Patent Document 1, for example. The fall detection device disclosed in Patent Document 1 includes a camera, an image processing unit that captures a video signal output from the camera and performs difference processing on the captured image, and a difference region obtained by the difference processing. And a determination means for detecting a fall motion of the human body based on the area. More specifically, the determination means determines the presence or absence of a fall based on a change in the area of the human body per unit time.

一方、安否確認の点では、一人暮らしの独居者も前記要看護者等と同様であり、監視対象である被監視者となる。 On the other hand, in terms of safety confirmation, a single person living alone is the same as the above-mentioned nursing-requiring person, etc., and is to be monitored.

特開2000−207665号公報JP, 2000-207665, A

ところで、転倒の有無によって画像に写る人体の領域の大きさが変化するので、前記特許文献1に開示された転倒検知装置は、人体領域における単位時間当たりの面積変化で転倒を検知しているが、転倒の有無によって画像に写る頭部の領域の大きさも変化するので、頭部領域の大きさによって転倒を検知する手法が考えられる。この手法では、上方から撮像した画像では、頭部は、略円形状に写るので、画像から円形状の領域が頭部領域として検出される。しかしながら、実際の画像には、枕、洗面器、ボール、ゴミ箱および布団の柄等の頭部ではない略円形状の物体も写り込むため、これらの物体の領域が頭部領域として誤検出され、転倒が誤検知されてしまう場合がある。 By the way, since the size of the region of the human body shown in the image changes depending on the presence/absence of a fall, the fall detection device disclosed in Patent Document 1 detects a fall by a change in the area of the human body region per unit time. Since the size of the head region shown in the image also changes depending on the presence/absence of a fall, a method of detecting a fall based on the size of the head region can be considered. In this method, in the image captured from above, the head appears in a substantially circular shape, so that a circular area is detected as the head area from the image. However, since a substantially circular object other than the head such as a pillow, a washbasin, a ball, a trash can, and a futon handle is also reflected in the actual image, the areas of these objects are erroneously detected as the head area, A fall may be erroneously detected.

一方、これらの物体が定位置に存在すれば、定位置にあるこれら物体の領域を、頭部を検出する領域から予め除くことで、前記誤検知が回避できる。しかしながら、これらの物体は、必ずしも定位置に存在するとは、限らない。 On the other hand, if these objects are present at fixed positions, the false detection can be avoided by excluding the regions of these objects at fixed positions from the region for detecting the head in advance. However, these objects do not always exist at fixed positions.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる頭部検出装置および頭部検出方法ならびにこの頭部検出装置を用いた被監視者監視装置を提供することである。 The present invention is made in view of the above circumstances, and an object thereof is a head detecting device and a head capable of detecting the head of a monitored person more accurately based on an image obtained by capturing the monitored person from above. It is intended to provide a part detection method and a monitored person monitoring device using the head detecting device.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる頭部検出装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、前記画像取得部で取得した前記画像から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、前記円形状領域抽出部で抽出した前記円形状領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、前記低反射率領域抽出部で抽出した前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであることを特徴とする。好ましくは、上述の頭部検出装置において、前記被監視者全体を撮像できる蓋然性が高いことから、前記画像は、前記被監視者が横臥する寝具における、前記被監視者の頭部が位置すると予定されている予め設定された頭部予定位置の直上から撮像したものである。 As a result of various studies, the present inventor has found that the above object can be achieved by the present invention described below. That is, the head detecting apparatus according to an aspect of the present invention, a monitored person is monitored, an image acquisition unit that acquires an image captured from above of the monitored person, acquired by the image acquisition portion and the Based on the image, a marker detection unit that detects a predetermined marker, and from the remaining region excluding the region having the marker detected by the marker detection unit from the image acquired by the image acquisition unit, a substantially circular region From the circular area extracted by the circular area extraction unit and the circular area extraction unit for extracting as a circular area, an area having a predetermined reflectance or less for infrared light is extracted as a low reflectance area. A low reflectance region extraction unit, and a head selection unit for selecting the region of the head based on the low reflectance region extracted by the low reflectance region extraction unit to detect the head, the marker , it said a only be identified by infrared light, and wherein the reflectance to the infrared light is beyond a predetermined reflectance. Preferably, in the head detecting device described above, since there is a high probability that the entire monitored person can be imaged, the image is expected to be the head of the monitored person in the bedding in which the monitored person lies down. The image is taken from directly above the preset planned head position.

発明者は、種々検討した結果、頭部が赤外光(赤外線)に対し比較的低反射率であることを見出した。この知見から、上記頭部検出装置は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。また、さらにマーカーも考慮するので、さらに精度良く被監視者の頭部を検出できる。また、頭部ではない頭部に近似するものにマーカーを付与することで、上記頭部検出装置は、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者の頭部を検出できる。また、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部での誤検出を低減できる。マーカーを可視できないので、上記頭部検出装置は、被監視者監視装置に搭載された場合に、被監視者にマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。また、前記円形状領域抽出部で抽出した円形状領域を頭部の領域(頭部領域)の候補として絞り込み、この絞り込んだ候補から赤外光に対する反射率を考慮して頭部を検出するので、前記画像取得部で取得した画像全体から低反射率領域を抽出する場合に比べて、単に反射率の低いものを誤検出することを低減できる。 As a result of various studies, the inventor has found that the head has a relatively low reflectance for infrared light (infrared rays). From this knowledge, since the head detecting device detects the head not only in a substantially circular shape but also in consideration of the reflectance with respect to infrared light, the head of the monitored person is detected based on the image of the monitored person from above. The part can be detected more accurately. Further, since the marker is also taken into consideration, the head of the monitored person can be detected with higher accuracy. In addition, by providing a marker to a head that is not a head, the head detecting device removes the circular area and the low reflectance area having the marker, thereby the circular area. The circular region extracted by the extraction unit and the low-reflectance region extracted by the low-reflectance region extraction unit can exclude the above-mentioned non-head region, and the head of the monitored person can be detected more accurately. Further, by using a marker that can be identified only by infrared light, it is possible to reduce erroneous detection at the marker detection unit. Since the marker cannot be seen, the head detecting device, when mounted on the monitored person monitoring device, does not make the monitored person recognize the presence of the marker and does not give a sense of discomfort. Further, since the circular area extracted by the circular area extraction unit is narrowed down as a candidate for the head area (head area), the head is detected from the narrowed down candidates in consideration of the reflectance to infrared light. As compared with the case where the low reflectance region is extracted from the entire image acquired by the image acquisition unit, it is possible to reduce erroneous detection of a low reflectance region.

また、本発明の一態様にかかる頭部検出装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、前記画像取得部で取得した前記画像から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、前記低反射率領域抽出部で抽出した前記低反射率領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、前記円形状領域抽出部で抽出した前記円形状領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであることを特徴とする。 Further , the head detecting apparatus according to one aspect of the present invention includes an image acquisition unit that acquires an image of a monitored person who is a monitoring target taken from above the monitored person, and the image acquisition unit that acquires the image. Based on the image, a marker detection unit that detects a predetermined marker, and the remaining area excluding the area having the marker detected by the marker detection unit from the image acquired by the image acquisition unit, to infrared light circular and the low reflectance region extraction unit that extracts a predetermined reflectance following areas as a low reflectance area, from the low reflectance region extracted in the previous SL low reflectance region extraction unit, a substantially circular region Te A circular region extracting unit for extracting as a region, and a head selecting unit for selecting the region of the head based on the circular region extracted by the circular region extracting unit to detect the head, The marker is identifiable only by the infrared light, and has a reflectance with respect to the infrared light that exceeds the predetermined reflectance .

発明者は、種々検討した結果、頭部が赤外光(赤外線)に対し比較的低反射率であることを見出した。この知見から、上記頭部検出装置は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。また、さらにマーカーも考慮するので、さらに精度良く被監視者の頭部を検出できる。また、頭部ではない頭部に近似するものにマーカーを付与することで、上記頭部検出装置は、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者の頭部を検出できる。また、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部での誤検出を低減できる。マーカーを可視できないので、上記頭部検出装置は、被監視者監視装置に搭載された場合に、被監視者にマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。また、前記低反射率領域抽出部で抽出した低反射率領域を頭部領域の候補として絞り込み、この絞り込んだ候補から略円形状を考慮して頭部を検出するので、前記画像取得部で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。 As a result of various studies, the inventor has found that the head has a relatively low reflectance for infrared light (infrared rays). From this knowledge, since the head detecting device detects the head not only in a substantially circular shape but also in consideration of the reflectance with respect to infrared light, the head of the monitored person is detected based on the image of the monitored person from above. The part can be detected more accurately. Further, since the marker is also taken into consideration, the head of the monitored person can be detected with higher accuracy. In addition, by providing a marker to a head that is not a head, the head detecting device removes the circular area and the low reflectance area having the marker, thereby the circular area. The circular region extracted by the extraction unit and the low-reflectance region extracted by the low-reflectance region extraction unit can exclude the above-mentioned non-head region, and the head of the monitored person can be detected more accurately. Further, by using a marker that can be identified only by infrared light, it is possible to reduce erroneous detection at the marker detection unit. Since the marker cannot be seen, the head detecting device, when mounted on the monitored person monitoring device, does not make the monitored person recognize the presence of the marker and does not give a sense of discomfort. Further, the low reflectance region extracted by the low reflectance region extraction unit is narrowed down as a candidate for the head region, and the head is detected in consideration of the substantially circular shape from the narrowed down candidates, so the image acquisition unit acquires it. The amount of information processing can be reduced as compared to the case where a substantially circular area is extracted from the entire image.

また、他の一態様では、これら上述の頭部検出装置において、前記マーカーは、特定の形状を持つマーカーであることを特徴とする。 Further, in another aspect, in the above-described head detecting device, the marker is a marker having a specific shape.

このような頭部検出装置は、特定の形状を持つマーカーを用いることで、マーカー検出部での誤検出を低減できる。 By using a marker having a specific shape, such a head detecting device can reduce erroneous detection in the marker detecting unit.

そして、本発明の他の一態様にかかる頭部検出方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程と、前記画像取得工程で取得した前記画像から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、前記円形状領域抽出工程で抽出した前記円形状領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、前記低反射率領域抽出工程で抽出した前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程とを備え、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであることを特徴とする。
また、本発明の他の一態様にかかる頭部検出方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程と、前記画像取得工程で取得した前記画像から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、前記低反射率領域抽出工程で抽出した前記低反射率領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、前記円形状領域抽出工程で抽出した前記円形状領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程とを備え、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであることを特徴とする。
Then, a head detecting method according to another aspect of the present invention includes an image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person, and an acquisition step in the image acquiring step. Based on the image, the marker detection step of detecting a predetermined marker, from the remaining area excluding the area having the marker detected in the marker detection step from the image acquired in the image acquisition step, a substantially circular shape From the circular area extracted in the circular area extraction step, the circular area extraction step of extracting the area as a circular area, the area of a predetermined reflectance or less for infrared light as a low reflectance area A low reflectance region extracting step of extracting, and a head selecting step of selecting the head region based on the low reflectance region extracted in the low reflectance region extracting step to detect the head, the marker is only a possible identification by the infrared light, and wherein the reflectance to the infrared light is beyond a predetermined reflectance.
Further, a head detecting method according to another aspect of the present invention includes an image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person, and an acquisition step in the image acquiring step. Based on the image, the marker detection step of detecting a predetermined marker, from the remaining area excluding the area having the marker detected in the marker detection step from the image acquired in the image acquisition step, infrared light With respect to the low reflectance region extraction step of extracting a region having a predetermined reflectance or less as a low reflectance region, from the low reflectance region extracted in the low reflectance region extraction step, a substantially circular area is circled. A circular area extracting step of extracting as a shape area, and a head selecting step of detecting the head by selecting an area of the head based on the circular area extracted in the circular area extracting step, The marker can be identified only by the infrared light, and the reflectance of the infrared light exceeds the predetermined reflectance.

このような頭部検出方法は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。 In such a head detecting method, the head is detected not only in a substantially circular shape but also in consideration of the reflectance with respect to infrared light. Therefore, the head of the monitored person is detected based on the image of the monitored person from above. It can be detected more accurately.

さらに、本発明の他の一態様にかかる被監視者監視装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部と、前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、前記頭部検出部は、これら上述のいずれかの頭部検出装置を含むことを特徴とする。 Further, a monitored person monitoring apparatus according to another aspect of the present invention includes a head detecting unit that detects a monitored person as a monitoring target from an image captured from above the monitored person, and a head detecting unit, An action detection unit that detects a predetermined action of the monitored person based on the head of the monitored person detected by the head detection unit, and a notification that notifies the predetermined action detected by the action detection unit to the outside. And a head detecting unit including any one of the above head detecting devices.

このような被監視者監視装置は、頭部をこれら上述のいずれかの頭部検出装置を用いて検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出でき、この結果、被監視者における所定の行動をより精度良く検知できる。 Since such a person-to-be-monitored device detects the head using any one of the head detecting devices described above, the head of the person to be monitored can be more accurately detected based on the image of the person being monitored from above. As a result, the predetermined behavior of the person to be monitored can be detected more accurately.

本発明にかかる頭部検出装置および頭部検出方法ならびに被監視者監視装置は、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。 The head detecting apparatus, the head detecting method, and the monitored person monitoring apparatus according to the present invention can detect the monitored person's head more accurately based on the image of the monitored person taken from above.

実施形態における被監視者監視システムの構成を示す図である。It is a figure which shows the structure of the to-be-monitored person monitoring system in embodiment. 第1実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 実施形態の被監視者監視システムにおけるセンサ装置の配設の様子を示す図である。It is a figure which shows the mode of arrangement|positioning of the sensor apparatus in the to-be-monitored person monitoring system of embodiment. 第1実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the 1st aspect of the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 第1実施形態の被監視者監視システムにおけるセンサ装置によって取得される画像の一例を説明するための図である。It is a figure for demonstrating an example of the image acquired by the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 布団の絵柄を示す図である。It is a figure which shows the design of a futon. 第1実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the 2nd aspect of the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 第2実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system of 2nd Embodiment. 第2実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the 1st aspect of the sensor apparatus in the to-be-monitored person monitoring system of 2nd Embodiment. 第2実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the 2nd aspect of the sensor apparatus in the to-be-monitored person monitoring system of 2nd Embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 An embodiment of the present invention will be described below with reference to the drawings. In addition, in each of the drawings, the components denoted by the same reference numerals indicate the same components, and the description thereof will be appropriately omitted. In the present specification, reference numerals without suffixes are used for generic names, and reference numerals with suffixes are used when referring to individual configurations.

本被監視者監視装置は、監視対象である被監視者における、予め設定された所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備えるものである。そして、上記被監視者監視装置は、前記被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部をさらに備え、前記行動検知部は、一態様として、前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する。このような被監視者監視装置は、1個の機器として、一体に構成されて実現されて良く、また、システムとして、複数の機器で実現されて良い。そして、被監視者監視装置が複数の機器で実現される場合に、前記行動検知部は、これら複数の機器のうちのいずれに実装されて良い。一例として、ここでは、前記被監視者監視装置がシステムとして複数の機器で実現されている場合について、前記被監視者監視装置の実施形態を説明する。なお、前記被監視者監視装置が1個の機器として一体に構成されて実現される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。また、一例として、ここでは、前記行動検知部が前記頭部検出部および前記通知部と共に後述のセンサ装置SUに実装される場合について、説明するが、このシステムのうちの他の装置、例えば後述の管理サーバ装置SV、固定端末装置SPあるいは携帯端末装置TAに実装される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。 The person-to-be-monitored device includes a behavior detector that detects a preset predetermined behavior of a monitored person, and a notification unit that externally notifies the predetermined behavior detected by the behavior detector. And with. Then, the monitored person monitoring device further comprises a head detecting section for detecting the head of the monitored person from an image taken from above the monitored person, and the action detecting section, as one aspect, A predetermined action in the monitored person is detected based on the head of the monitored person detected by the head detecting unit. Such a person-to-be-monitored device may be realized by being integrally configured as one device, or may be realized by a plurality of devices as a system. Then, when the monitored person monitoring device is realized by a plurality of devices, the action detection unit may be mounted on any of the plurality of devices. As an example, an embodiment of the monitored person monitoring apparatus will be described here in the case where the monitored person monitoring apparatus is realized by a plurality of devices as a system. Even when the monitored person monitoring device is integrally configured as one device, the monitored person monitoring device can be configured as in the following description. In addition, as an example, a case will be described here in which the behavior detection unit is mounted on the sensor device SU described later together with the head detection unit and the notification unit. However, other devices in this system, for example, described later. Also in the case of being mounted on the management server device SV, the fixed terminal device SP, or the mobile terminal device TA, the monitored person monitoring device can be configured as in the following description.

(第1実施形態)
図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、第1実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、実施形態の被監視者監視システムにおけるセンサ装置の配設の様子を示す図である。
(First embodiment)
FIG. 1 is a diagram showing a configuration of a monitored person monitoring system according to the embodiment. FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the first embodiment. FIG. 3 is a diagram showing how the sensor device is arranged in the monitored person monitoring system of the embodiment.

前記被監視者監視装置をシステムとして実現したその一例の第1実施形態における被監視者監視システムMSaは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、図1に示すように、1または複数のセンサ装置SUa(SUa−1〜SUa−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備え、これらは、有線や無線で、LAN(Local Area Network)、電話網およびデータ通信網等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ、ルーターおよびクロスコネクト等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SUa−1〜SUa−4、管理サーバ装置SV、固定端末装置SPおよび複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを含む無線LAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。 The monitored person monitoring system MSa in the first embodiment of the example in which the monitored person monitoring device is realized as a system is a monitored person (watched person) to be monitored (should be watched) (monitored person). Ob (Ob-1 to Ob-4) detects a predetermined action set in advance and monitors the monitored person Ob. For example, as shown in FIG. 1, one or a plurality of sensor devices are provided. SUa (SUa-1 to SUa-4), a management server device SV, a fixed terminal device SP, and one or more mobile terminal devices TA (TA-1, TA-2) are provided, which are wired or Wirelessly, communication is connected via a network (network, communication line) NW such as a LAN (Local Area Network), a telephone network, and a data communication network. The network NW may be equipped with repeaters such as repeaters, bridges, routers, and cross-connects that relay communication signals. In the example illustrated in FIG. 1, the plurality of sensor devices SUa-1 to SUa-4, the management server device SV, the fixed terminal device SP, and the plurality of mobile terminal devices TA-1 and TA-2 are wireless including an access point AP. A LAN (for example, a LAN according to the IEEE 802.11 standard) NW is communicably connected to each other.

被監視者監視システムMSaは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSaは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MSa is arranged at an appropriate place according to the monitored person Ob. The person to be monitored (person to be watched) Ob is, for example, a person who needs nursing care due to illness or injury, a person who needs nursing care due to deterioration of physical ability, a single person living alone, and the like. In particular, from the viewpoint of enabling early detection and early action, the monitored person Ob may be a person who needs to be detected when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable. Therefore, the monitored person monitoring system MSa is preferably installed in a building such as a hospital, a welfare facility for the aged, and a dwelling unit according to the type of the monitored person Ob. In the example shown in FIG. 1, the monitored-person monitoring system MS is arranged in a building of a care facility including a plurality of living rooms RM in which a plurality of monitored persons Ob live and a plurality of rooms such as a nurse station.

センサ装置SUaは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このようなセンサ装置SUaは、例えば、図2に示すように、センサ部1と、音入出力部2と、制御処理部3と、通信インターフェース部(通信IF部)4と、記憶部5とを備える。 The sensor device SUa has a communication function of communicating with other devices SV, SP, and TA via the network NW, and is a device that detects the monitored person Ob and transmits the detection result to the management server device SV. Such a sensor device SUa includes, for example, as shown in FIG. 2, a sensor unit 1, a sound input/output unit 2, a control processing unit 3, a communication interface unit (communication IF unit) 4, and a storage unit 5. Equipped with.

センサ部1は、制御処理部3に接続され、制御処理部3の制御に従って、被監視者Obにおける予め設定された所定の諸量を検出する装置である。前記所定の諸量は、被監視者Obにおける検出すべき所定の行動に応じて適宜に決定される。本実施形態では、前記所定の行動は、被監視者Obの起床、離床、転倒および微体動異常である。これらを検出するために、センサ部1は、例えば、ドップラセンサ11と、カメラ12とを備える。 The sensor unit 1 is a device that is connected to the control processing unit 3 and detects, under the control of the control processing unit 3, various preset amounts of the monitored person Ob. The predetermined amounts are appropriately determined according to predetermined actions to be detected by the monitored person Ob. In the present embodiment, the predetermined behaviors are waking up, leaving the bed, falling, and microscopic movement abnormality of the monitored person Ob. In order to detect these, the sensor unit 1 includes, for example, a Doppler sensor 11 and a camera 12.

ドップラセンサ11は、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサであり、前記ドップラ信号を制御処理部3へ出力する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。 The Doppler sensor 11 is a body motion sensor that transmits a transmission wave, receives a reflection wave of the transmission wave reflected by an object, and outputs a Doppler signal of a Doppler frequency component based on the transmission wave and the reflection wave. , And outputs the Doppler signal to the control processing unit 3. The transmission wave may be an ultrasonic wave, a microwave, or the like, but is a microwave in the present embodiment. Since the microwaves can pass through the clothes and be reflected on the body surface of the monitored person Ob, the movement of the body surface can be detected even when the monitored person Ob is wearing clothes, which is preferable.

カメラ12は、制御処理部3に接続され、制御処理部3の制御に従って、画像(画像データ)を生成する装置である。カメラ12は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像を制御処理部3へ出力する。 The camera 12 is a device that is connected to the control processing unit 3 and generates an image (image data) under the control of the control processing unit 3. The camera 12 is arranged so as to be able to monitor the space (location space, room RM of the installation location in the example shown in FIG. 1) where the monitored person Ob to be monitored is scheduled to reside, and the location space is the aforementioned location space. Is imaged from above as an imaging target, an image (image data) of the bird's-eye view of the imaging target is generated, and the image of the imaging target is output to the control processing unit 3.

本実施形態では、図3に示すように、被監視者Ob全体を撮像できる蓋然性が高いことから、カメラ12が、被監視者Obの横臥する例えばベッド等の寝具BTにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように、センサ装置SUは、配設される。センサ装置SUは、前記センサ部1のドップラセンサ11によって、被監視者Obの上方から測定したドップラ信号を取得し、前記センサ部1のカメラ12によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。なお、図5を用いて後述するように、寝具BT上には、枕PIが置かれ、絵柄PTを含む布団BDが掛けられ、被監視者Obの居室RMには、ごみ箱WBおよび洗面器BAが置かれているが、図3には、これらの図示が省略されている。 In the present embodiment, as shown in FIG. 3, since there is a high probability that the entire monitored person Ob can be imaged, the camera 12 causes the monitored person Ob to detect the monitored person Ob in the bedding BT such as a bed lying on the monitored person Ob. The sensor device SU is arranged so that the imaging target can be imaged from directly above a preset head planned position (usually, a pillow disposition position) where the head is supposed to be located. The sensor device SU obtains the Doppler signal measured from above the person Ob to be monitored by the Doppler sensor 11 of the sensor unit 1, and the camera 12 of the sensor unit 1 monitors the person Ob to be monitored. An image captured from above, preferably an image captured from immediately above the planned head position is acquired. As will be described later with reference to FIG. 5, a pillow PI is placed on the bedding BT, a futon BD including a pattern PT is hung, and a trash can WB and a washbasin BA are provided in the living room RM of the monitored person Ob. Are shown, but they are not shown in FIG.

このようなカメラ12は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外光の画像を生成する装置である。このようなカメラ12は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。カメラ12の結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。 Such a camera 12 may be a device that generates an image of visible light, but in the present embodiment, it is a device that generates an image of infrared light so that the monitored person Ob can be monitored even in a relatively dark place. is there. Such a camera 12 is, for example, in the present embodiment, an imaging optical system that forms an infrared optical image of an imaging target on a predetermined imaging surface, and a light receiving surface is arranged so as to coincide with the imaging surface. And an image sensor that converts an infrared optical image of the imaging target into an electrical signal, and image data that is data representing an infrared image of the imaging target by performing image processing on the output of the image sensor. It is a digital infrared camera including an image processing unit that generates the image. In the present embodiment, the imaging optical system of the camera 12 is preferably a wide-angle optical system (a so-called wide-angle lens (including a fisheye lens)) having an angle of view capable of imaging the entire living room RM in which the camera 12 is arranged.

音入出力部2は、制御処理部3に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、制御処理部3の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。音入出力部2は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。音入出力部2は、外部の音を表す電気信号を制御処理部3へ出力し、また、制御処理部3から入力された電気信号を音の音響振動に変換して出力する。 The sound input/output unit 2 is a circuit that is connected to the control processing unit 3 and that acquires an external sound and inputs the external sound to the sensor device SU. According to the control of the control processing unit 3, the sound input/output unit 2 responds to an electric signal representing the sound. It is a circuit for generating and outputting sound. The sound input/output unit 2 includes, for example, a microphone that converts acoustic vibration of sound into an electric signal, a speaker that converts electric signal of sound into the acoustic vibration of sound, and the like. The sound input/output unit 2 outputs an electric signal representing an external sound to the control processing unit 3, and also converts the electric signal input from the control processing unit 3 into acoustic vibration of sound and outputs the acoustic vibration.

通信IF部4は、制御処理部3に接続され、制御処理部3の制御に従って通信を行うための通信回路である。通信IF部4は、制御処理部3から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSaのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。通信IF部4は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部3が処理可能な形式のデータに変換して制御処理部3へ出力する。なお、通信IF部4は、さらに、例えば、Bluetooth(登録商標)規格、IrDA(Infrared Data Asscoiation)規格およびUSB(Universal Serial Bus)規格等の規格を用い、外部機器との間でデータの入出力を行うインターフェース回路を備えても良い。 The communication IF unit 4 is a communication circuit that is connected to the control processing unit 3 and performs communication under the control of the control processing unit 3. The communication IF unit 4 generates a communication signal containing the data to be transferred, which is input from the control processing unit 3, according to the communication protocol used in the network NW of the monitored person monitoring system MSa, and generates the generated communication signal. It is transmitted to other devices SV, SP, TA via the network NW. The communication IF unit 4 receives communication signals from other devices SV, SP, TA via the network NW, extracts data from the received communication signals, and a format in which the control processing unit 3 can process the extracted data. Data and output to the control processing unit 3. The communication IF unit 4 further uses, for example, a Bluetooth (registered trademark) standard, an IrDA (Infrared Data Association) standard, a USB (Universal Serial Bus) standard, and the like to input and output data to and from an external device. An interface circuit for performing the above may be provided.

記憶部5は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、センサ部1の出力に基づいて被監視者Obの頭部を検出する頭部検出処理プログラム、センサ部1の出力に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。そして、前記頭部検出処理プログラムには、センサ部1のカメラ12によって取得した画像から被監視者Obの人体領域として動体領域を抽出する動体抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出プログラム、および、前記円形状領域抽出プログラムで抽出した円形状領域および前記低反射率領域抽出プログラムで抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定プログラム等が含まれる。行動検知処理プログラムは、一態様として、前記頭部検出処理プログラムで検出した被監視者Obの頭部に基づいて被監視者Obにおける所定の行動を検知する。前記各種の所定のデータには、これら各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。 The storage unit 5 is a circuit which is connected to the control processing unit 3 and stores various predetermined programs and various predetermined data under the control of the control processing unit 3. The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing regarding monitoring of the monitored person Ob. The monitoring processing program includes a head detection processing program that detects the head of the monitored person Ob based on the output of the sensor unit 1, and detects a predetermined action of the monitored person Ob based on the output of the sensor unit 1. An action detection processing program, a notification processing program that notifies the predetermined action detected by the action detection program to the outside, and a moving image captured by the camera 12 is streamed to a fixed terminal device SP or a mobile terminal device TA that requests the moving image. A streaming processing program to be distributed and a nurse call processing program for making a voice call with the fixed terminal device SP or the mobile terminal device TA by using the sound input/output unit 2 and the like are included. Then, the head detection processing program is based on a moving body extraction program that extracts a moving body region as a human body region of the monitored person Ob from the image acquired by the camera 12 of the sensor unit 1, based on the moving body region extracted by the moving body extraction program. A circular area extraction program for extracting a substantially circular area as a circular area, and based on the moving body area extracted by the moving body extraction program, an area having a predetermined reflectance or less for infrared light has a low reflectance. A low reflectance region extraction program to extract as a region, and a head region is selected based on the circular region extracted by the circular region extraction program and the low reflectance region extracted by the low reflectance region extraction program. A head selection program for detecting the head is included. As one aspect, the behavior detection processing program detects a predetermined behavior of the monitored person Ob based on the head of the monitored person Ob detected by the head detection processing program. The various kinds of predetermined data include data necessary for executing these programs and data necessary for monitoring the monitored person Ob. The storage unit 5 includes, for example, a ROM (Read Only Memory) which is a non-volatile storage element, and an EEPROM (Electrically Erasable Programmable Read Only Memory) which is a rewritable non-volatile storage element. The storage unit 5 includes a RAM (Random Access Memory) that serves as a working memory of the so-called control processing unit 3 that stores data and the like generated during execution of the predetermined program.

制御処理部3は、センサ装置SUaの各部を当該各部の機能に応じてそれぞれ制御し、センサ部1によって被監視者Obにおける予め設定された所定の諸量を検出し、この検出した前記所定の諸量に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3は、前記制御処理プログラムが実行されることによって、制御部31、頭部検出処理部32、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36を機能的に備える。 The control processing unit 3 controls each unit of the sensor device SUa in accordance with the function of each unit, the sensor unit 1 detects a preset various amount in the monitored person Ob, and the detected predetermined number. It is a circuit for detecting and notifying a predetermined behavior of the monitored person Ob based on various amounts. The control processing unit 3 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. The control processing unit 3 causes the control unit 31, the head detection processing unit 32, the action detection processing unit 33, the notification processing unit 34, the streaming processing unit 35, and the nurse call processing unit 36 to be executed by executing the control processing program. Be functionally equipped.

制御部31は、センサ装置SUaの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。 The control unit 31 controls each unit of the sensor device SUa according to the function of each unit, and controls the entire control of the sensor device SU.

頭部検出処理部32は、センサ部1の出力に基づいて被監視者Obの頭部を検出するものである。より具体的には、頭部検出処理部32は、センサ部1のカメラ12で取得した、被監視者Obの上方から撮像した画像に基づいて被監視者Obの頭部を検出する。このために、頭部検出処理部32は、機能的に、動体抽出部321、円形状領域抽出部322、低反射率領域抽出部323および頭部選定部324を備える。 The head detection processing unit 32 detects the head of the monitored person Ob based on the output of the sensor unit 1. More specifically, the head detection processing unit 32 detects the head of the monitored person Ob based on the image captured by the camera 12 of the sensor unit 1 from above the monitored person Ob. For this purpose, the head detection processing unit 32 functionally includes a moving body extraction unit 321, a circular region extraction unit 322, a low reflectance region extraction unit 323, and a head selection unit 324.

動体抽出部321は、センサ部1のカメラ12で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出するものである。前記背景差分法では、予め背景画像が求められて前記各種の所定のデータの1つとして記憶部5に予め記憶され、カメラ12によって生成された画像と前記背景画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。前記フレーム差分法では、カメラ12によって生成された、現在のフレームの画像と過去のフレーム(例えば1つ前のフレーム)の画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。動体抽出部321は、この抽出した動体領域を、後述の第1態様の動作では円形状領域抽出部322へ通知する一方、後述の第2態様の動作では低反射率領域抽出部323へ通知する。 The moving body extraction unit 321 extracts a moving body region as a human body region of the monitored person Ob from the image acquired by the camera 12 of the sensor unit 1 by using a method such as a background difference method or an interframe difference method. In the background subtraction method, a background image is obtained in advance and stored in the storage unit 5 as one of the various kinds of predetermined data in advance, and whether or not there is a moving object is detected from the difference image between the image generated by the camera 12 and the background image. Is determined, and if there is a moving body as a result of this determination, the area of this moving body is set as the moving body area. In the frame difference method, the presence/absence of a moving object is determined from the difference image between the image of the current frame and the image of the past frame (for example, the previous frame) generated by the camera 12, and as a result of this determination, the moving object is detected. If there is, the moving body area is set as the moving body area. The moving body extraction unit 321 notifies the extracted moving body region to the circular region extraction unit 322 in the operation of the first mode described later, and notifies the low reflectance region extraction unit 323 in the operation of the second mode described later. ..

円形状領域抽出部322は、センサ部1のカメラ12で取得した画像に基づいて、略円形状の領域を円形状領域として抽出するものである。上方から撮像した画像では、頭部は、略円形状に写るので、円形状領域を抽出することで前記頭部の候補となる領域(頭部候補領域)が抽出される。例えば、円形状領域抽出部322は、円形状を抽出するハフ変換を用いることで、センサ部1のカメラ12で取得した画像から円形状領域を抽出する。また例えば、頭部の形状パターンに対応する円形状の形状パターンが予め用意されて前記各種の所定のデータの1つとして記憶部5に予め記憶され、円形状領域抽出部322は、この記憶部5に予め記憶された前記円形状の形状パターンを、センサ部1のカメラ12で取得した画像からパターンマッチングを用いることで探索し、この円形状の形状パターンにマッチングする領域を前記円形状領域として抽出する。より具体的には、第1態様の動作では、円形状領域抽出部322は、動体抽出部321で抽出した動体領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を低反射率領域抽出部323へ通知する。また、第2態様の動作では、円形状領域抽出部322は、後述するように低反射率領域抽出部323で抽出した低反射率領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を頭部選定部324へ通知する。 The circular area extraction unit 322 extracts a substantially circular area as a circular area based on the image acquired by the camera 12 of the sensor unit 1. In the image picked up from above, the head appears in a substantially circular shape, and therefore by extracting the circular area, a head candidate area (head candidate area) is extracted. For example, the circular area extracting unit 322 extracts the circular area from the image acquired by the camera 12 of the sensor unit 1 by using the Hough transform for extracting the circular shape. Further, for example, a circular shape pattern corresponding to the shape pattern of the head is prepared in advance and stored in the storage unit 5 as one of the various kinds of predetermined data, and the circular area extraction unit 322 uses the storage unit. 5, the circular shape pattern stored in advance in 5 is searched by using pattern matching from the image acquired by the camera 12 of the sensor unit 1, and the area matching the circular shape pattern is set as the circular shape area. Extract. More specifically, in the operation of the first aspect, the circular area extracting unit 322 extracts a circular area from the moving object area extracted by the moving object extracting unit 321, for example, by the Hough transform method or the pattern matching method. The extracted circular area is notified to the low reflectance area extraction unit 323. Further, in the operation of the second aspect, the circular area extracting unit 322 uses, for example, the Hough transform method or the pattern matching method from the low reflectance area extracted by the low reflectance area extracting unit 323 as described later. The circular area is extracted by and the extracted circular area is notified to the head selecting unit 324.

低反射率領域抽出部323は、センサ部1のカメラ12で取得した画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出するものである。頭部は、赤外光に対し比較的低反射率であるので、低反射率領域を抽出することで前記頭部候補領域が抽出される。頭部は、赤外光に対し例えば9%、10%および11%等の低反射率であるので、例えば50%、好ましくは30%、さらに好ましくは10%等が閾値とされ、低反射率領域抽出部323は、センサ部1のカメラ12で取得した画像から前記閾値以下の領域を低反射率領域として抽出する。より具体的には、第1態様の動作では、低反射率領域抽出部323は、円形状領域抽出部322で抽出した円形状領域から、前記閾値以下の領域を低反射率領域として抽出し、この抽出した低反射率領域を頭部選定部324へ通知する。また、第2態様の動作では、低反射率領域抽出部323は、動体抽出部321で抽出した動体領域から、前記前記閾値以下の領域を低反射率領域として抽出し、この抽出した低反射率領域を円形状領域抽出部322へ通知する。 The low reflectance region extraction unit 323 extracts a region having a predetermined reflectance or less with respect to infrared light as a low reflectance region based on the image acquired by the camera 12 of the sensor unit 1. Since the head has a relatively low reflectance to infrared light, the head candidate area is extracted by extracting the low reflectance area. Since the head has a low reflectance of, for example, 9%, 10%, and 11% with respect to infrared light, the threshold is set to, for example, 50%, preferably 30%, and more preferably 10%. The area extraction unit 323 extracts an area equal to or less than the threshold value from the image acquired by the camera 12 of the sensor unit 1 as a low reflectance area. More specifically, in the operation of the first aspect, the low reflectance region extraction unit 323 extracts a region equal to or less than the threshold value as the low reflectance region from the circular region extracted by the circular region extraction unit 322, The head selection unit 324 is notified of the extracted low reflectance region. Further, in the operation of the second aspect, the low reflectance region extraction unit 323 extracts a region below the threshold value as a low reflectance region from the moving body region extracted by the moving body extraction unit 321, and the extracted low reflectance ratio The area is notified to the circular area extraction unit 322.

頭部選定部324は、前記円形状領域抽出部322で抽出した円形状領域および前記低反射率領域抽出部323で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出するものである。より具体的には、第1態様の動作では、頭部選定部324は、低反射率領域抽出部323で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部33へ通知する。本実施形態では、頭部選定部324は、デフォルトの閾値から所定値ずつ変化させることで低反射率領域が1個になるまで低反射率領域抽出部323に低反射率領域を抽出させ、この1個の低反射率領域を頭部(頭部領域)として選定して前記頭部を検出する。また、第2態様の動作では、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部33へ通知する。本実施形態では、頭部選定部324は、円形状領域抽出部322で抽出される円形状領域が1個になるまで、デフォルトの閾値から所定値ずつ変化させることで低反射率領域抽出部323に低反射率領域を抽出させ、この1個の円形状領域を頭部(頭部領域)として選定して前記頭部を検出する。 The head selecting unit 324 selects the head region based on the circular region extracted by the circular region extracting unit 322 and the low reflectance region extracted by the low reflectance region extracting unit 323, and the head region is selected. Is to detect. More specifically, in the operation of the first aspect, the head selecting unit 324 detects the head by selecting the head region based on the low reflectance region extracted by the low reflectance region extracting unit 323. Then, the detected head (head region) is notified to the action detection processing unit 33. In the present embodiment, the head selecting unit 324 causes the low reflectance region extracting unit 323 to extract the low reflectance region until the number of low reflectance regions becomes one by changing the default threshold value by a predetermined value. One low reflectance region is selected as the head (head region) and the head is detected. In the operation of the second aspect, the head selecting unit 324 selects the head region based on the circular area extracted by the circular area extracting unit 322, detects the head, and detects the detected head. The part (head region) is notified to the action detection processing unit 33. In the present embodiment, the head selection unit 324 changes the default threshold value by a predetermined value until the number of circular regions extracted by the circular region extraction unit 322 becomes one, and thus the low reflectance region extraction unit 323. The low-reflectance area is extracted, and this one circular area is selected as the head (head area) to detect the head.

行動検知処理部33は、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知するものである。本実施形態では、上述したように、前記所定の行動は、被監視者Obの起床、離床、転倒および微体動異常であり、行動検知処理部33は、センサ部1の出力に基づいて被監視者Obにおける起床、離床、転倒および微体動異常を検知結果として検知し、その検知結果を通知処理部34へ通知する。例えば、行動検知処理部33は、頭部検出処理部32で検出した頭部(頭部領域)の高さ(大きさ)から被監視者Obの姿勢(例えば立位、座位および横臥等)を判定し、この検出した頭部の位置を検出し、これら判定、検出した被監視者Obの姿勢および位置に基づいて前記起床、離床および転倒の別を判定する。例えば、前記頭部(頭部領域)の高さ(大きさ)が寝具BT上に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT内である場合には、被監視者Obが寝具BTで横臥、すなわち、寝ていると、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が座位に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT内である場合には、被監視者Obが起床したと、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が立位に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT外である場合には、被監視者Obが離床したと、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が床上に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT外である場合には、被監視者Obが転倒したと、行動検知処理部33は、判定できる。なお、記憶部5には、前記各種の所定のデータの1つとして、画像上での寝具BTの領域が予め記憶される。また、頭部(頭部領域)の高さは、被監視者Obの上方から画像を取得しているので、頭部(頭部領域)の大きさ(例えば横長、縦長、面積等)から求めることができる。また例えば、行動検知処理部33は、センサ部1のドップラセンサ11によって被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、その胸部の体動における周期の乱れや予め設定された閾値以下である前記胸部の体動における振幅を検知すると、前記微体動異常であると判定する。 The action detection processing unit 33 detects a predetermined action set in advance in the monitored person Ob based on the output of the sensor unit 1. In the present embodiment, as described above, the predetermined action is the waking up, leaving the bed, falling, and slight body movement abnormality of the monitored person Ob, and the action detection processing unit 33 determines whether the predetermined action is based on the output of the sensor unit 1. Waking up, leaving the bed, falling, and fine movement abnormality in the observer Ob are detected as detection results, and the detection result is notified to the notification processing unit 34. For example, the behavior detection processing unit 33 determines the posture (for example, standing position, sitting position, and recumbent position) of the monitored person Ob from the height (size) of the head (head region) detected by the head detection processing unit 32. The position of the detected head is detected, and whether the user is getting up, leaving the bed, or falling is determined based on the detected and detected posture and position of the monitored person Ob. For example, when the height (size) of the head (head region) is a height (size) corresponding to the bedding BT and the position of the head (head region) is in the bedding BT. In particular, the behavior detection processing unit 33 can determine that the monitored person Ob is lying down on the bedding BT, that is, sleeping. Further, for example, when the height (size) of the head (head region) is a height (size) corresponding to a sitting position and the position of the head (head region) is in the bedding BT, The action detection processing unit 33 can determine that the monitored person Ob has woken up. In addition, for example, when the height (size) of the head (head region) is a height (size) corresponding to standing, and the position of the head (head region) is outside the bedding BT. In particular, the behavior detection processing unit 33 can determine that the monitored person Ob has left the bed. Further, for example, when the height (size) of the head (head region) is a height (size) corresponding to the floor, and the position of the head (head region) is outside the bedding BT, The action detection processing unit 33 can determine that the monitored person Ob has fallen. The area of the bedding BT on the image is previously stored in the storage unit 5 as one of the various kinds of predetermined data. The height of the head (head region) is obtained from the size of the head (head region) (for example, horizontally long, vertically long, or area) because the image is acquired from above the monitored person Ob. be able to. Further, for example, the action detection processing unit 33 detects the body movement of the chest (up and down movement of the chest) associated with the breathing movement of the monitored person Ob by the Doppler sensor 11 of the sensor unit 1, and the disturbance of the cycle in the body movement of the chest. When the amplitude of the body movement of the chest that is less than or equal to a preset threshold value is detected, it is determined that the fine body movement is abnormal.

通知処理部34は、行動検知処理部33で検知した前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常)を外部に通知するものである。より具体的には、通知処理部34は、検知した前記所定の行動(状態、状況)を表す情報(検知行動情報(本実施形態では起床、離床、転倒および微体動異常のうちの1または複数を表す情報))、前記所定の行動が検知された被監視者Obを特定し識別するための識別子情報(前記被監視者Obを検知しているセンサ装置SUaを特定し識別するための識別子情報)、および、前記所定の行動の検知に用いられた画像等を収容した通信信号(監視情報通信信号)を生成し、通信IF部4で管理サーバ装置SVへ送信する。 The notification processing unit 34 notifies the outside of the predetermined action detected by the action detection processing unit 33 (in the present embodiment, getting up, leaving the bed, falling down, and abnormal body movements). More specifically, the notification processing unit 34 includes information indicating the detected predetermined action (state, situation) (detection action information (in the present embodiment, one of wake-up, leaving the bed, falling, and abnormal body movement or (Information indicating a plurality)), identifier information for identifying and identifying the monitored person Ob in which the predetermined action is detected (identifier for identifying and identifying the sensor device SUa detecting the monitored person Ob) Information) and a communication signal (surveillance information communication signal) accommodating the image used for detecting the predetermined action and the like are generated and transmitted to the management server SV by the communication IF unit 4.

ストリーミング処理部35は、ネットワークNWおよび通信IF部4を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、センサ部1のカメラ12で生成した動画(例えばライブの動画)をストリーミング再生で通信IF部4およびネットワークNWを介して配信するものである。 When there is a request for distribution of a moving image from the fixed terminal device SP or the mobile terminal device TA via the network NW and the communication IF unit 4, the streaming processing unit 35 requests the fixed terminal device SP or the mobile terminal device. A moving image (for example, a live moving image) generated by the camera 12 of the sensor unit 1 is distributed to the TA by streaming reproduction via the communication IF unit 4 and the network NW.

ナースコール処理部36は、被監視者Obからナースコールを受け付ける図略のナースコール押しボタンスイッチでその入力操作を受け付けた場合に、通信IF部4およびネットワークNWを介して、固定端末装置SPまたは携帯端末装置TAとの間で音声通話を可能にするものである。 When the nurse call processing unit 36 receives an input operation by a nurse call push button switch (not shown) that receives a nurse call from the monitored person Ob, the nurse call processing unit 36 transmits the fixed terminal device SP or the fixed terminal device SP via the communication IF unit 4 and the network NW. This enables a voice call with the mobile terminal device TA.

図1には、一例として、4個の第1ないし第4センサ装置SUa−1〜SUa−4が示されており、第1センサ装置SUa−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SUa−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SUa−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SUa−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。 In FIG. 1, four first to fourth sensor devices SUa-1 to SUa-4 are shown as an example, and the first sensor device SUa-1 is Mr. A who is one of the monitored persons Ob. The second sensor device SUa-2 is arranged in a living room RM-1 (not shown) of Ob-1 and is arranged in a living room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor device SUa-3 is installed in the room RM-3 (not shown) of Mr. C. Ob-3, who is one of the monitored persons Ob, and the fourth sensor device SUa-4, It is arranged in the room RM-4 (not shown) of Mr. D Ob-4 who is one of the monitored persons Ob.

なお、本実施形態では、カメラ12は、画像取得部の一例に相当し、頭部検出処理部32は、頭部検出装置の一例に相当する。すなわち、センサ装置SUaは、頭部検出装置を備えている。 In the present embodiment, the camera 12 corresponds to an example of an image acquisition unit, and the head detection processing unit 32 corresponds to an example of a head detection device. That is, the sensor device SUa includes a head detecting device.

管理サーバ装置SVは、ネットワークNWを介して他の装置SUa、SP、TAと通信する通信機能を備え、センサ装置SUaから被監視者Obに関する検知結果および前記被監視者Obの画像を受信して被監視者Obに対する監視に関する情報(監視情報)を管理する機器である。管理サーバ装置SVは、センサ装置SUaから被監視者Obに関する前記検知結果および前記被監視者Obの画像を受信すると、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(監視情報通信信号)を固定端末装置SPおよび携帯端末装置TAに送信する。また、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SPおよび携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function of communicating with other devices SUa, SP, TA via the network NW, and receives the detection result of the monitored person Ob and the image of the monitored person Ob from the sensor device SUa. It is a device that manages information (monitoring information) about monitoring the monitored person Ob. When the management server device SV receives the detection result of the monitored person Ob and the image of the monitored person Ob from the sensor device SUa, the management server device SV stores (records) the monitoring information about the monitoring of the monitored person Ob, and A communication signal (monitoring information communication signal) accommodating the monitoring information regarding the monitoring of the monitor Ob is transmitted to the fixed terminal device SP and the mobile terminal device TA. Further, the management server device SV provides the client with data in response to a request from the client (the fixed terminal device SP, the mobile terminal device TA, etc. in this embodiment). Such a management server device SV can be configured by, for example, a computer with a communication function.

固定端末装置SPは、ネットワークNWを介して他の装置SUa、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUaで得られた検知結果や画像を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。 The fixed terminal device SP has a communication function of communicating with other devices SUa, SV, TA via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and the like. A user interface of the monitored person monitoring system MS by inputting a predetermined instruction or data to be given to the management server device SV or the mobile terminal device TA, displaying a detection result or an image obtained by the sensor device SUa, and the like. A device that functions as a (UI). Such a fixed terminal device SP can be configured by, for example, a computer with a communication function.

携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUaと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUaに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUaで得られた前記検知結果や画像を表示したり等することによって、被監視者Obに対する監視に関する前記監視情報を受け付けて表示する機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 The mobile terminal device TA performs a communication function of communicating with other devices SV, SP, SUa via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. It is equipped with a call function to perform, and inputs predetermined instructions and data to be given to the management server device SV and the sensor device SUa, and displays the detection results and images obtained by the sensor device SUa by the notification from the management server device SV. It is a device that receives and displays the monitoring information regarding the monitoring of the person Ob to be monitored by, for example. Such a mobile terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, smartphone, or mobile phone.

次に、本実施形態の動作について説明する。このような構成の被監視者監視システムMSaでは、各装置SUa、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUaでは、その制御処理プログラムの実行によって、制御処理部3には、制御部31、頭部検出処理部32、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36が機能的に構成され、頭部検出処理部32には、動体抽出部321、円形状領域抽出部322、低反射率領域抽出部323および頭部選定部324が機能的に構成される。 Next, the operation of this embodiment will be described. In the monitored person monitoring system MSa having such a configuration, each of the devices SUa, SV, SP, and TA, when the power is turned on, executes necessary initialization of each unit and starts its operation. Further, in the sensor device SUa, the control processing unit 3 causes the control processing unit 3 to execute a control processing program, a head detection processing unit 32, an action detection processing unit 33, a notification processing unit 34, a streaming processing unit 35, and a nurse. The call processing unit 36 is functionally configured, and the head detection processing unit 32 is functionally configured with a moving body extraction unit 321, a circular region extraction unit 322, a low reflectance region extraction unit 323, and a head selection unit 324. To be done.

そして、上記構成の被監視者監視システムMSaは、大略、次の動作によって、各被監視者Obそれぞれを監視している。センサ装置SUaは、所定のサンプリング周期でセンサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得し、行動検知処理部33によって、このサンプリングおよび取得したドップラセンサ11の出力およびカメラ12の画像に基づいて被監視者Obにおける所定の行動(状態、状況)を判定し、この判定の結果、被監視者Obが予め設定された前記所定の行動(例えば、本実施形態では起床、離床、転倒および微体動異常等)であると判定すると、通知処理部34によって、被監視者Obの状態として判定された判定結果を表す判定結果情報や被監視者Obの静止画の画像データ等の監視情報を収容した通信信号(監視情報通信信号)をネットワークNWを介して管理サーバ装置SVへ送信する。なお、起床、離床および転倒を検知するための頭部を検出する動作(頭部検出動作)は、後に詳述する。 Then, the monitored person monitoring system MSa having the above-mentioned configuration monitors each monitored person Ob by the following operation. The sensor device SUa samples the output of the Doppler sensor 11 of the sensor unit 1 at a predetermined sampling period and acquires an image with the camera 12, and the action detection processing unit 33 performs this sampling and the acquired output of the Doppler sensor 11 and the camera. The predetermined behavior (state, situation) of the monitored person Ob is determined based on the 12 images, and as a result of this determination, the predetermined behavior of the monitored person Ob set in advance (for example, wake-up in the present embodiment, When the notification processing unit 34 determines that the person is out of bed, falls, and abnormalities of microscopic movements), the notification processing unit 34 determines the determination result information indicating the determination result and the image data of the still image of the monitored person Ob. A communication signal (monitoring information communication signal) accommodating monitoring information such as is transmitted to the management server device SV via the network NW. The operation of detecting the head (head detection operation) for detecting getting up, leaving the bed, and falling will be described in detail later.

管理サーバ装置SVは、前記監視情報通信信号をネットワークNWを介してセンサ装置SUaから受信すると、この監視情報通信信号に収容された判定結果情報や静止画の画像データ等の監視情報をその記憶部に記憶(記録)する。そして、管理サーバ装置SVは、これら判定結果情報や静止画の画像データ等の監視情報を収容した監視情報通信信号を端末装置(本実施形態では固定端末装置SPおよび携帯端末装置TA)へ送信する。これによって被監視者Obの状態(状況)が端末装置SP、TAを介して例えば看護師や介護士等の監視者に報知される。 When the management server device SV receives the monitoring information communication signal from the sensor device SUa via the network NW, the management server device SV stores the monitoring information such as the determination result information and the still image data contained in the monitoring information communication signal in its storage unit. Memorize (record) in. Then, the management server device SV transmits a monitoring information communication signal accommodating the determination result information and the monitoring information such as the image data of the still image to the terminal devices (the fixed terminal device SP and the mobile terminal device TA in this embodiment). .. As a result, the state (situation) of the monitored person Ob is notified to the monitoring person such as a nurse or a caregiver via the terminal devices SP and TA.

固定端末装置SPおよび携帯端末装置TAは、前記監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この監視情報通信信号に収容された前記監視情報を表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SUa、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obを検知して各被監視者Obを監視している。 When the fixed terminal device SP and the mobile terminal device TA receive the monitoring information communication signal from the management server device SV via the network NW, the fixed terminal device SP and the mobile terminal device TA display the monitoring information contained in the monitoring information communication signal. By such an operation, the monitored person monitoring system MS detects each monitored person Ob by the sensor device SUa, the management server device SV, the fixed terminal device SP, and the mobile terminal device TA, and roughly detects each monitored person Ob. Ob is being monitored.

次に、被監視者監視システムMSaにおける、頭部検出動作について、説明する。図4は、第1実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。図5は、第1実施形態の被監視者監視システムにおけるセンサ装置によって取得される画像の一例を説明するための図である。図6は、布団の絵柄を示す図である。図7は、第1実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。本実施形態におけるセンサ装置SUaは、例えば、図4に示す第1態様の動作によって頭部(頭部領域)を検出し、また例えば、図7に示す第2態様の動作によって頭部(頭部領域)を検出している。以下、前記第1態様の動作をまず説明し、次に、前記第2態様の動作について説明する。 Next, the head detecting operation in the monitored person monitoring system MSa will be described. FIG. 4 is a flowchart showing the operation of the first aspect of the sensor device in the monitored person monitoring system of the first embodiment. FIG. 5 is a diagram for explaining an example of an image acquired by the sensor device in the monitored person monitoring system of the first embodiment. FIG. 6 is a diagram showing a design of a futon. FIG. 7 is a flowchart showing the operation of the second aspect of the sensor device in the monitored person monitoring system of the first embodiment. The sensor device SUa according to the present embodiment detects the head (head region) by, for example, the operation of the first mode shown in FIG. 4, and also detects the head (head by the operation of the second mode shown in FIG. 7, for example. Area) is detected. Hereinafter, the operation of the first aspect will be described first, and then the operation of the second aspect will be described.

まず、第1態様の動作について説明する。センサ装置SUaは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。 First, the operation of the first aspect will be described. The sensor device SUa operates as follows each time the output of the Doppler sensor 11 of the sensor unit 1 is sampled and the image is acquired by the camera 12 at each sampling timing, whereby the head of the monitored person Ob ( The head region) is detected to detect a predetermined action in the monitored person Ob.

図4において、まず、制御処理部3は、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S11)。カメラ12によって、例えば、図5に示す画像が取得される。この一例の図5に示す画像には、体幹BDおよび略円形状の頭部HDから成る被監視者Obだけでなく、寝具BT、寝具BT上の略円形状の枕PI、寝具BTに掛けられた布団BD、略円形状のごみ箱WBおよび略円形状の洗面器BAが写っている。布団BDは、円形状の絵柄PTを持ち、前記円形状の絵柄PTが前記画像に写っている。このような図5に示す画像に対し、略円形状の領域を抽出する処理だけで頭部HDを検出する場合では、頭部HDが検出されるだけでなく、枕PI、絵柄PT、ごみ箱WBおよび洗面器BAが頭部HDとして誤検出されてしまう虞がある。布団BDの絵柄PTは、図5に示す円形状だけではなく、例えば図6に示す形状も頭部HDとして誤検出されてしまう虞がある。この図6には、八角形(多角形の代表例)、V字状のギザギザで囲まれた略円形状、放射状に8個の三角形で囲まれた略円形状(太陽を模した形状)、放射状に複数の花弁で囲まれた3個の略円形状(花柄を模した3個の形状)、三角形および四角形が図示されている。三角形や四角形は、布団BDの歪みに伴ってその形状が歪むので、略円形状と誤検出される虞がある。このような誤検出を低減するために、本実施形態では、次のように前記画像が処理される。なお、これら枕PI、絵柄PT、ごみ箱WBおよび洗面器BAにおける赤外光に対する反射率は、その材質等により、大略、頭部における赤外光に対する反射率よりも高い(大きい)。 In FIG. 4, first, the control processing unit 3 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 and acquires an image (an image for one frame) from the camera 12 of the sensor unit 1 (S11). The image shown in FIG. 5, for example, is acquired by the camera 12. In the image shown in FIG. 5 of this example, not only the monitored person Ob composed of the trunk BD and the substantially circular head HD, but also the bedding BT, the substantially circular pillow PI on the bedding BT, and the bedding BT are hung. The futon BD, the substantially circular trash can WB, and the substantially circular washbasin BA are shown in the figure. The futon BD has a circular pattern PT, and the circular pattern PT is reflected in the image. In the case where the head HD is detected only by the process of extracting the substantially circular area in the image shown in FIG. 5, not only the head HD is detected but also the pillow PI, the pattern PT, and the trash box WB. Also, the washbasin BA may be erroneously detected as the head HD. The pattern PT of the futon BD may be erroneously detected not only as the circular shape shown in FIG. 5 but also as shown in FIG. 6 as the head HD. In FIG. 6, an octagon (a typical example of a polygon), a substantially circular shape surrounded by V-shaped notches, a substantially circular shape surrounded by eight triangles radially (a shape imitating the sun), Three substantially circular shapes (three shapes imitating a flower pattern), triangles and quadrangles that are radially surrounded by a plurality of petals are illustrated. The shape of the triangle or the quadrangle is distorted due to the distortion of the futon BD, and thus may be erroneously detected as a substantially circular shape. In order to reduce such erroneous detection, in the present embodiment, the image is processed as follows. Note that the reflectance of the pillow PI, the pattern PT, the trash can WB, and the washbasin BA with respect to infrared light is generally higher (greater) than the reflectance of infrared light with respect to the head, depending on its material and the like.

図4に戻って、次に、制御処理部3は、頭部検出処理部32の動体抽出部321によって、このカメラ12によって取得した画像から、例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出する動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S12)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部3は、動体抽出部321によって抽出した前記動体領域を動体抽出部321から円形状領域抽出部322へ通知し、次の処理S13を実行する。 Returning to FIG. 4, next, the control processing unit 3 uses the moving body extraction unit 321 of the head detection processing unit 32 to perform a method such as a background difference method or an interframe difference method from the image acquired by the camera 12. By using it, a moving body region extraction process is executed to extract a moving body region as a human body region of the monitored person Ob, and it is determined whether or not the moving body region has been extracted (S12). As a result of this determination, if the moving body region is not extracted (No), the control processing unit 3 terminates the processing at this timing, while if the moving body region is extracted (Yes), The control processing unit 3 notifies the circular region extraction unit 322 of the moving body region extracted by the moving body extraction unit 321 and executes the next process S13.

この処理S13では、制御処理部3は、頭部検出処理部32の円形状領域抽出部322によって、動体抽出部321で抽出された動体領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部3は、円形状領域抽出部322によって抽出した前記円形状領域を円形状領域抽出部322から低反射率領域抽出部323および頭部選定部324へ通知し、次の処理S14を実行する。 In this processing S13, the control processing unit 3 uses, for example, a Hough transform or a pattern matching method from the moving body region extracted by the moving body extraction unit 321 by the circular region extraction unit 322 of the head detection processing unit 32. In step S21, a circular area extracting process for extracting a substantially circular area (circular area) is executed to determine whether or not the circular area is extracted. As a result of this determination, if the circular area is not extracted (No), the control processing unit 3 ends the processing at this timing, while if the circular area is extracted (Yes). The control processing unit 3 notifies the circular area extracted by the circular area extracting unit 322 from the circular area extracting unit 322 to the low reflectance area extracting unit 323 and the head selecting unit 324, and the next processing is performed. Execute S14.

この処理S14では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、円形状領域抽出部322で抽出した円形状領域が複数か否かを判定する。この判定の結果、前記円形状領域が複数ではない場合、すなわち、前記円形状領域が1個である場合(No)には、制御処理部3は、頭部選定部324によって、前記処理S13で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S15を実行する。一方、前記判定の結果、前記円形状領域が複数である場合(Yes)には、制御処理部3は、前記処理S13で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、次の処理S17を実行する。 In this processing S14, the control processing unit 3 determines whether the head selection unit 324 of the head detection processing unit 32 has a plurality of circular areas extracted by the circular area extraction unit 322. As a result of this determination, when there are not a plurality of circular areas, that is, when the number of circular areas is one (No), the control processing unit 3 causes the head selecting unit 324 to perform the process S13. The extracted circular region is selected as the head (head region), and the head (head region) selected by the head selection unit 324 is transferred from the head detection processing unit 32 to the action detection processing unit 33. It is notified and the following process S15 is performed. On the other hand, as a result of the determination, when the circular region is plural (Yes), the control processing unit 3 includes a head (head region) in the circular regions extracted in the process S13. If an object other than the above is also extracted, the following process S17 is executed.

この処理S17では、制御処理部3は、頭部検出処理部32の低反射率領域抽出部323によって、前記処理S13で円形状領域抽出部322によって抽出した円形状領域から、前記閾値以下の領域を低反射率領域として抽出する低反射率領域抽出処理を実行し、次の処理S18を実行する。 In this processing S17, the control processing unit 3 causes the low reflectance region extraction unit 323 of the head detection processing unit 32 to extract the circular region extracted by the circular region extraction unit 322 in the processing S13 from the circular region equal to or less than the threshold value. Is executed as a low reflectance area, and the low reflectance area extraction processing is executed, and the next processing S18 is executed.

この処理S18では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、低反射率領域抽出部323で抽出した低反射率領域が1個か否かを判定する。この判定の結果、前記低反射率領域が1個である場合(Yes)には、制御処理部3は、頭部選定部324によって、前記処理S17で抽出した前記低反射率領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S15を実行する。一方、前記判定の結果、前記低反射率領域が1個ではない場合、すなわち、前記低反射率領域が複数である場合(No)には、制御処理部3は、前記処理S17で抽出した複数の前記低反射率領域の中に頭部(頭部領域)ではない物体も抽出されているとし、頭部選定部324によって、デフォルトの閾値(例えば50%や30%や10%等)から所定値(例えば0.5%や0.2%等)を減算することで前記閾値を再設定し(S19)、処理を処理S17に戻す。したがって、制御処理部3は、頭部選定部324によって前記デフォルトの閾値から所定値ずつ変化させることで、処理S17における低反射率領域抽出部323による低反射率領域抽出処理の実行によって円形状領域であって低反射率領域が1個になるまで、処理S17ないし処理S19を繰り返す。 In this processing S18, the control processing unit 3 determines whether the head selection unit 324 of the head detection processing unit 32 has one low reflectance region extracted by the low reflectance region extraction unit 323. As a result of this determination, when the number of the low reflectance region is one (Yes), the control processing unit 3 causes the head selecting unit 324 to determine that the low reflectance region extracted in the process S17 is the head ( Head region), and the head detection processing unit 32 notifies the action detection processing unit 33 of the head (head region) selected by the head selection unit 324, and the next process S15 is executed. .. On the other hand, as a result of the determination, when the low reflectance region is not one, that is, when the low reflectance regions are plural (No), the control processing unit 3 selects the plural extracted in the processing S17. It is assumed that an object that is not a head (head area) is also extracted in the low reflectance area of the above, and the head selecting unit 324 determines a predetermined threshold value (for example, 50%, 30%, 10%, etc.). The threshold value is reset by subtracting a value (for example, 0.5% or 0.2%) (S19), and the process returns to the process S17. Therefore, the control processing unit 3 causes the head selection unit 324 to change the default threshold value by a predetermined value, thereby performing the low reflectance region extraction processing by the low reflectance region extraction unit 323 in the processing S17. Therefore, steps S17 to S19 are repeated until the number of low reflectance regions is one.

例えば、上述の図5に示す画像では、枕PIや布団BDがずれることによって、また、ごみ箱WBや洗面器BAが動かされることによって、上述の処理S12および処理S13によって、頭部HDだけでなく、枕PI、絵柄PT、ごみ箱WBおよび洗面器BAも円形状領域として抽出される。仮に、絵柄PTが頭部(頭部領域)として誤検出されると、布団BDがずれ落ちた場合に、被監視者Obの転倒転落と誤検知されてしまう。しかしながら、本実施形態では、これら複数の円形状領域に対し、処理S14の実行を介して、処理S17ないし処理S19が実行される。ここで、これら枕PI、絵柄PT、ごみ箱WBおよび洗面器BAは、その素材(例えば布製、金属製、金属コーディング、プラスチック製および籐製等)により、赤外光に対する反射率が頭部における赤外光に対する反射率よりも大略高い(大きい)ので、処理S17ないし処理S19の実行によって、低反射率領域から除かれ、頭部HDのみが低反射率領域として残る。このように赤外光に対する反射率を考慮することで、頭部HDをより精度良く検出できる。 For example, in the image shown in FIG. 5 described above, not only the head HD, but also the head HD is not performed by the above-described processing S12 and processing S13 due to the displacement of the pillow PI or the futon BD and the movement of the dustbin WB or the washbasin BA. , Pillow PI, pattern PT, trash can WB, and washbasin BA are also extracted as circular areas. If the pattern PT is erroneously detected as the head (head region), if the futon BD slips off, it is erroneously detected as the fall of the monitored person Ob. However, in the present embodiment, the processing S17 to the processing S19 are executed on the plurality of circular areas through the execution of the processing S14. Here, the pillow PI, the pattern PT, the trash can WB, and the washbasin BA have a red reflectance at the head with respect to infrared light due to their materials (for example, cloth, metal, metal coating, plastic, and rattan). Since the reflectance is substantially higher (larger) than the reflectance with respect to external light, it is removed from the low reflectance area by performing the processing S17 to S19, and only the head HD remains as the low reflectance area. By thus considering the reflectance with respect to infrared light, the head HD can be detected more accurately.

図4に戻って、処理S15では、上述の各処理S11〜S14、S17〜S19によって、頭部(頭部領域)が検出されたので、制御処理部3は、行動検知処理部33によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。より具体的には、行動検知処理部33は、前記行動検知処理の一態様として、頭部検出処理部32で検出した頭部(頭部領域)の高さ(大きさ)から被監視者Obの姿勢(例えば立位、座位および横臥等)を判定し、この検出した頭部の位置を検出し、これら判定、検出した被監視者Obの姿勢および位置に基づいて前記起床、離床および転倒の別を判定する。行動検知処理部33は、前記行動検知処理の他の一態様として、センサ部1のドップラセンサ11によって被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、微体動異常の有無を判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部3は、処理S15で検知した前記所定の行動を通知処理部34へ通知し、次の処理S16を実行する。 Returning to FIG. 4, in process S15, the head (head region) is detected by each of the processes S11 to S14 and S17 to S19 described above, so the control processing unit 3 causes the action detection processing unit 33 to detect the sensor. Based on the output of the unit 1, an action detection process of detecting a preset predetermined action in the monitored person Ob is executed to determine whether or not the predetermined action is detected. More specifically, the behavior detection processing unit 33 determines, as one aspect of the behavior detection processing, from the height (size) of the head (head region) detected by the head detection processing unit 32, the monitored person Ob. Posture (for example, standing position, sitting position, and recumbent position) is detected, and the detected position of the head is detected. Based on these determinations and the detected posture and position of the monitored person Ob, the wake-up, bed leaving, and fall are detected. Determine another. As another mode of the action detection process, the action detection processing unit 33 detects the body movement of the chest (up and down movement of the chest) associated with the breathing action of the monitored person Ob by the Doppler sensor 11 of the sensor unit 1, and The presence/absence of body movement abnormality is determined. As a result of this determination, when the predetermined action is not detected (No), the control processing unit 3 ends the process at this timing, while the predetermined action (in the present embodiment, wakes up, When at least one of leaving the bed, falling, and anomalous body movement is detected (Yes), the control processing unit 3 notifies the notification processing unit 34 of the predetermined action detected in step S15, The following process S16 is executed.

この処理S16では、行動検知処理部33から被監視者Obにおける前記所定の行動が通知されると、通知処理部34は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。 In this processing S16, when the behavior detection processing unit 33 notifies the predetermined behavior of the monitored person Ob, the notification processing unit 34 notifies the management server device SV of the fact by the above-described monitoring information communication signal, The process at this timing ends.

次に、第2態様の動作について説明する。センサ装置SUaは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。 Next, the operation of the second aspect will be described. The sensor device SUa operates as follows each time the output of the Doppler sensor 11 of the sensor unit 1 is sampled and the image is acquired by the camera 12 at each sampling timing, whereby the head of the monitored person Ob ( The head region) is detected to detect a predetermined action in the monitored person Ob.

図7において、まず、制御処理部3は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S21)。 In FIG. 7, first, the control processing unit 3 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 and acquires an image (an image of one frame) from the camera 12 of the sensor unit 1 as in the above-described process S11. It is acquired (S21).

次に、制御処理部3は、上述の処理S12と同様に、頭部検出処理部32の動体抽出部321によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S22)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部3は、動体抽出部321によって抽出した前記動体領域を動体抽出部321から低反射率領域抽出部323へ通知し、次の処理S23を実行する。 Next, the control processing unit 3 executes the moving body region extraction processing by the moving body extraction unit 321 of the head detection processing unit 32 and determines whether or not the moving body region is extracted, as in the above-described processing S12. Yes (S22). As a result of this determination, if the moving body region is not extracted (No), the control processing unit 3 terminates the processing at this timing, while if the moving body region is extracted (Yes), The control processing unit 3 notifies the moving body extraction unit 321 of the moving body region extracted by the moving body extraction unit 321 to the low reflectance region extraction unit 323, and executes the next process S23.

この処理S23では、制御処理部3は、頭部検出処理部32の低反射率領域抽出部323によって、前記処理S22で動体抽出部321によって抽出した動体領域から、前記閾値以下の領域を低反射率領域として抽出する低反射率領域抽出処理を実行し、低反射率領域抽出部323によって抽出した前記低反射率領域を低反射率領域抽出部323から円形状領域抽出部322へ通知し、次の処理S24を実行する。 In this processing S23, the control processing unit 3 causes the low-reflectance area extraction unit 323 of the head detection processing unit 32 to perform low reflection of the area below the threshold value from the moving body area extracted by the moving body extraction unit 321 in the processing S22. Low reflectance region extraction processing for extracting as a reflectance region is performed, the low reflectance region extracted by the low reflectance region extraction unit 323 is notified from the low reflectance region extraction unit 323 to the circular region extraction unit 322, and then The processing S24 is executed.

この処理S24では、制御処理部3は、頭部検出処理部32の円形状領域抽出部322によって、低反射率領域抽出部323で抽出された低反射率領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部3は、円形状領域抽出部322によって抽出した前記円形状領域を円形状領域抽出部322から頭部選定部324へ通知し、次の処理S25を実行する。 In this processing S24, the control processing unit 3 causes the circular region extraction unit 322 of the head detection processing unit 32 to extract, for example, Hough transform or pattern matching from the low reflectance region extracted by the low reflectance region extraction unit 323. By using the method described above, a circular area extraction process for extracting a substantially circular area (circular area) is executed to determine whether or not the circular area has been extracted. As a result of this determination, if the circular area is not extracted (No), the control processing unit 3 ends the processing at this timing, while if the circular area is extracted (Yes). First, the control processing unit 3 notifies the head selecting unit 324 of the circular area extracted by the circular area extracting unit 322 from the circular area extracting unit 322, and executes the next process S25.

この処理S25では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、円形状領域抽出部322で抽出した円形状領域が1個か否かを判定する。この判定の結果、前記円形状領域が1個である場合(Yes)には、制御処理部3は、頭部選定部324によって、前記処理S24で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S26を実行する。一方、前記判定の結果、前記円形状領域が1個ではない場合、すなわち、前記円形状領域が複数である場合(No)には、制御処理部3は、前記処理S24で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、頭部選定部324によって、デフォルトの閾値(例えば50%や30%や10%等)から所定値(例えば0.5%や0.2%等)を減算することで前記閾値を再設定し(S28)、処理を処理S23に戻す。したがって、制御処理部3は、頭部選定部324によって前記デフォルトの閾値から所定値ずつ変化させることで、処理S23における低反射率領域抽出部323による低反射率領域抽出処理の実行によって低反射率領域であって円形状領域が1個になるまで、処理S23〜S25、S28を繰り返す。 In this processing S25, the control processing unit 3 determines by the head selecting unit 324 of the head detection processing unit 32 whether or not there is one circular area extracted by the circular area extracting unit 322. As a result of this determination, when the number of the circular areas is one (Yes), the control processing unit 3 causes the head selecting unit 324 to determine that the circular area extracted in the processing S24 is the head (the head). Region), the head detection processing unit 32 notifies the action detection processing unit 33 of the head (head region) selected by the head selection unit 324, and the next process S26 is executed. On the other hand, as a result of the determination, when the number of the circular areas is not one, that is, when the number of the circular areas is plural (No), the control processing unit 3 causes the plurality of the plurality of the circular areas extracted in the processing S24. It is assumed that an object that is not the head (head area) is also extracted in the circular area, and the head selecting unit 324 sets a predetermined value (for example, 50%, 30%, or 10%) from a default threshold value (for example, 50%, 30%, or 10%). The threshold value is reset by subtracting (0.5%, 0.2%, etc.) (S28), and the process returns to the process S23. Therefore, the control processing unit 3 causes the head selecting unit 324 to change from the default threshold value by a predetermined value, so that the low reflectance region extracting process by the low reflectance region extracting unit 323 in process S23 causes the low reflectance region to be reduced. The processes S23 to S25 and S28 are repeated until the number of circular regions is one.

一方、処理S26では、上述の各処理S21〜S25、S28によって、頭部(頭部領域)が検出されたので、制御処理部3は、上述の処理S15と同様に、前記行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部3は、処理S26で検知した前記所定の行動を通知処理部34へ通知し、次の処理S27を実行する。 On the other hand, in the process S26, the head (head region) is detected by the processes S21 to S25 and S28 described above, and thus the control processing unit 3 executes the action detection process as in the process S15 described above. Then, it is determined whether or not the predetermined action is detected. As a result of this determination, when the predetermined action is not detected (No), the control processing unit 3 ends the process at this timing, while the predetermined action (in the present embodiment, wakes up, When at least one of leaving the bed, falling down, and microscopic movement abnormality) is detected (Yes), the control processing unit 3 notifies the notification processing unit 34 of the predetermined action detected in step S26, The following process S27 is executed.

この処理S27では、行動検知処理部33から被監視者Obにおける前記所定の行動が通知されると、通知処理部34は、上述の処理S16と同様に、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。 In this processing S27, when the behavior detection processing unit 33 notifies the predetermined behavior of the monitored person Ob, the notification processing unit 34 notifies the fact by the above-described monitoring information communication signal, as in the above-described processing S16. The management server device SV is notified, and the processing at this timing ends.

以上説明したように、被監視者監視装置の一例である被監視者監視システムMSaならびに頭部検出装置および頭部検出方法を用いたその一例のセンサ装置SUaは、略円形状だけでなく赤外光に対する反射率も考慮して頭部HDを検出するので、被監視者Obを上方から撮像した画像に基づき被監視者Obの頭部HDをより精度良く検出できる。この結果、上記被監視者監視システムMSaおよびセンサ装置SUaは、被監視者Obにおける所定の行動をより精度良く検知できる。 As described above, the monitored person monitoring system MSa, which is an example of the monitored person, and the sensor device SUa, which uses the head detecting device and the head detecting method, are not only substantially circular but also infrared. Since the head HD is detected in consideration of the reflectance with respect to light, the head HD of the monitored person Ob can be detected more accurately based on the image of the monitored person Ob taken from above. As a result, the monitored person monitoring system MSa and the sensor device SUa can more accurately detect the predetermined behavior of the monitored person Ob.

また、上記被監視者監視システムMSaおよびセンサ装置SUaは、上述の第1態様の動作において、円形状領域抽出部322で抽出した円形状領域を頭部領域の候補として絞り込み、この絞り込んだ候補から赤外光に対する反射率を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から低反射率領域を抽出する場合に比べて、単に反射率の低いものを誤検出することを低減できる。 In addition, the monitored person monitoring system MSa and the sensor device SUa narrow down the circular areas extracted by the circular area extracting unit 322 as candidates for the head area in the operation of the above-described first aspect, and select from the narrowed candidates. Since the head HD is detected in consideration of the reflectance with respect to infrared light, it is possible to simply erroneously detect an object having a low reflectance as compared with the case of extracting the low reflectance region from the entire image acquired by the camera 12. It can be reduced.

また、上記被監視者監視システムMSaおよびセンサ装置SUaは、上述の第2態様の動作において、低反射率領域抽出部323で抽出した低反射率領域を頭部領域の候補として絞り込み、この絞り込んだ候補から略円形状を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。 Further, the monitored person monitoring system MSa and the sensor device SUa narrow down the low reflectance region extracted by the low reflectance region extraction unit 323 as a candidate for the head region in the operation of the above-described second aspect, and narrows down this. Since the head HD is detected in consideration of the substantially circular shape from the candidates, the amount of information processing can be reduced as compared with the case where the substantially circular circular area is extracted from the entire image acquired by the camera 12.

なお、上述の実施形態において、頭部ではない頭部に近似するものの誤検出をより低減するために、頭部ではない頭部に近似するものに所定のマーカーが付与されても良い。この場合では、頭部検出装置の一例であるセンサ装置SUaの頭部検出処理部32は、図2に破線で示すように、画像取得部の一例であるセンサ部1のカメラ12で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部325を機能的にさらに備え、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域、低反射率領域抽出部323で抽出した低反射率領域およびマーカー検出部325で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する。このようなセンサ装置SUaは、さらにマーカーも考慮するので、さらに精度良く被監視者Obの頭部を検出できる。 In addition, in the above-described embodiment, in order to further reduce erroneous detection of a head that is not the head, a predetermined marker may be added to the head that is not the head. In this case, the head detection processing unit 32 of the sensor device SUa, which is an example of the head detection device, is acquired by the camera 12 of the sensor unit 1 that is an example of an image acquisition unit, as indicated by a broken line in FIG. A marker detecting unit 325 that detects a predetermined marker based on the image is functionally further provided, and the head selecting unit 324 uses the circular region extracted by the circular region extracting unit 322 and the low reflectance region extracting unit 323. The head region is selected based on the extracted low reflectance region and the marker detected by the marker detection unit 325 to detect the head. Since such a sensor device SUa further considers the marker, the head of the monitored person Ob can be detected with higher accuracy.

より具体的には、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域および低反射率領域抽出部323で抽出した低反射率領域からマーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する。この場合、例えば、上述の処理S12において、動体抽出部321で抽出した動体領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記動体領域に対し、上述の以降の各処理S13〜S19が実行される。また例えば、上述の処理S13において、円形状領域抽出部322で抽出された円形状領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域に対し、上述の以降の各処理S14〜S19が実行される。また例えば、上述の処理S17において、低反射率領域抽出部323で抽出された低反射率領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記低反射率領域に対し、上述の以降の各処理S15〜S19が実行される。また例えば、上述の処理S22において、動体抽出部321で抽出した動体領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記動体領域に対し、上述の以降の各処理S23〜S28が実行される。また例えば、上述の処理S23において、低反射率領域抽出部323で抽出された低反射率領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記低反射率領域に対し、上述の以降の各処理S23〜S28が実行される。また例えば、上述の処理S24において、円形状領域抽出部322で抽出された円形状領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域に対し、上述の以降の各処理S23〜S28が実行される。頭部ではない頭部に近似するものにマーカーを付与することで、このようなセンサ装置SUaは、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、円形状領域抽出部322で抽出した円形状領域および低反射率領域抽出部323で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者Obの頭部を検出できる。 More specifically, the head selection unit 324 selects the marker detected by the marker detection unit 325 from the circular region extracted by the circular region extraction unit 322 and the low reflectance region extracted by the low reflectance region extraction unit 323. An area of the head is selected based on the remaining circular area excluding the area to be held and the low reflectance area, and the head is detected. In this case, for example, in the above-described process S12, for each of the remaining moving body regions obtained by removing the region having the marker detected by the marker detection unit 325 from the moving body region extracted by the moving body extraction unit 321, the following respective processes described above are performed. S13 to S19 are executed. Further, for example, in the above-described process S13, the remaining circular-shaped region obtained by removing the region having the marker detected by the marker detection unit 325 from the circular-shaped region extracted by the circular-shaped region extraction unit 322 is described above. The respective processes S14 to S19 are executed. Further, for example, in the above-described process S17, with respect to the remaining low reflectance region excluding the region having the marker detected by the marker detection unit 325 from the low reflectance region extracted by the low reflectance region extraction unit 323, The respective processes S15 to S19 described above are executed. In addition, for example, in the above-described processing S22, for each of the remaining moving body areas obtained by removing the area having the marker detected by the marker detection unit 325 from the moving body area extracted by the moving body extraction unit 321, the following respective processing S23 to S28 is executed. Further, for example, in the processing S23 described above, from the low reflectance region extracted by the low reflectance region extraction unit 323, with respect to the remaining low reflectance region excluding the region having the marker detected by the marker detection unit 325, The respective processes S23 to S28 described above are executed. Further, for example, in the above-described process S24, the remaining circular-shaped region obtained by removing the region having the marker detected by the marker detection unit 325 from the circular-shaped region extracted by the circular-shaped region extraction unit 322 is described below. The respective processes S23 to S28 are executed. Such a sensor device SUa removes the circular area and the low reflectance area having the marker by adding a marker to the head which is not the head and thus the circular area extraction unit. The circular region extracted in 322 and the low reflectance region extracted by the low reflectance region extraction unit 323 can be excluded from the above-mentioned non-head portion, and the head of the monitored person Ob can be detected more accurately.

このようなマーカーは、好ましくは、特定の形状を持つマーカーである。例えば、ごみ箱WBの縁やベッド等の寝具BTの縁に、例えば矩形形状や円弧形状等のマーカーが貼付される。このようなセンサ装置SUaは、特定の形状を持つマーカーを用いることで、マーカー検出部325での誤検出を低減できる。また好ましくは、前記マーカーは、赤外光でのみ識別可能なマーカーである。この赤外光のみで識別可能な前記マーカーは、好ましくは、赤外光に対する頭部の反射率よりも高い反射率(例えば50%以上の反射率)で赤外光を反射する素材、前記素材で形成されたシール(例えば金属シールや木材シール等)、赤外光に対する頭部の反射率よりも高い反射率(例えば50%以上の反射率)で赤外光を反射する顔料(赤外線反射顔料)で形成された所定の形状、および、生地の織の密度の相違で形成された所定の形状のうちの1または複数の組合せである。例えば、布団BDや枕PIが高い反射率で赤外光を反射する前記素材で作成されることで、布団BDや枕PIにマーカーが付与される(布団BD自体や枕PI自体がマーカーとなる)。また例えば、綿や麻等の天然素材とポリエステル等の化学繊維素材とでは赤外光に対する反射率が異なるため、天然素材(または化学繊維素材)で作成された布団BDや枕PIに、化学繊維素材(または天然素材)の糸を縫い込むことで、布団BDや枕PIにマーカーが付与される。また例えば、織の密度で赤外光に対する反射率が異なるため、織の粗い生地(または織の密な生地)で作成された布団BDや枕PIに、織の密な所定形状の生地(または織の粗い生地)を縫い込むことで、布団BDや枕PIにマーカーが付与される。このようなセンサ装置SUaは、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部325での誤検出を低減できる。マーカーを可視できないので、上記センサ装置SUは、被監視者監視システムMSaに用いられる場合に、被監視者Obにマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。 Such a marker is preferably a marker having a specific shape. For example, a marker having, for example, a rectangular shape or an arc shape is attached to the edge of the trash can WB or the edge of the bedding BT such as a bed. Such a sensor device SUa can reduce erroneous detection by the marker detection unit 325 by using a marker having a specific shape. Also preferably, the marker is a marker that can be identified only by infrared light. The marker that can be identified only by the infrared light is preferably a material that reflects infrared light with a reflectance (for example, 50% or more) higher than the reflectance of the head with respect to infrared light, the material. A seal formed of (for example, a metal seal or a wood seal), a pigment that reflects infrared light with a reflectance (for example, 50% or more) higher than the reflectance of the head with respect to infrared light (infrared reflective pigment). ) And a combination of one or more of the predetermined shape formed by the difference in the density of the weave of the cloth. For example, the futon BD or the pillow PI is made of the above-mentioned material that reflects infrared light with high reflectance, so that the futon BD or the pillow PI is provided with a marker (the futon BD itself or the pillow PI itself serves as a marker). ). Further, for example, since natural materials such as cotton and linen and chemical fiber materials such as polyester have different reflectances to infrared light, a futon BD or pillow PI made of a natural material (or a chemical fiber material) has a chemical fiber By sewing in a thread of a material (or a natural material), a marker is given to the futon BD or the pillow PI. Further, for example, since the reflectance to infrared light differs depending on the density of the woven fabric, the futon BD or the pillow PI made of the coarse woven fabric (or the dense woven fabric) has a dense woven fabric (or a predetermined shape). A marker is given to the futon BD or the pillow PI by sewing in a coarsely woven material. Such a sensor device SUa can reduce erroneous detection by the marker detection unit 325 by using a marker that can be identified only by infrared light. Since the marker cannot be seen, the sensor device SU, when used in the monitored person monitoring system MSa, does not cause the monitored person Ob to recognize the presence of the marker and does not give a sense of discomfort.

次に、別の実施形態について説明する。
(第2実施形態)
図8は、第2実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。
Next, another embodiment will be described.
(Second embodiment)
FIG. 8 is a diagram showing the configuration of the sensor device in the monitored person monitoring system of the second embodiment.

前記被監視者監視装置をシステムとして実現したその一例の第2実施形態における被監視者監視システムMSbは、第1実施形態における被監視者監視システムMSaと同様に、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、1または複数のセンサ装置SUb(SUb−1〜SUb−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備える。すなわち、第2実施形態における被監視者監視システムMSbは、センサ装置SUaに代え、センサ装置SUbを備える点を除き、第1実施形態における被監視者監視システムMSaと同様である。このため、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAの説明を省略する。 The monitored person monitoring system MSb in the second embodiment, which is an example of the monitored person monitoring apparatus realized as a system, is the same as the monitored person monitoring system MSa in the first embodiment. In order to monitor the monitored person Ob by detecting a preset predetermined action in a monitored person (monitoring target person) Ob (Ob-1 to Ob-4) which is a target (monitoring target), For example, one or a plurality of sensor devices SUb (SUb-1 to SUb-4), a management server device SV, a fixed terminal device SP, and one or a plurality of mobile terminal devices TA (TA-1, TA-2). Equipped with. That is, the monitored person monitoring system MSb in the second embodiment is the same as the monitored person monitoring system MSa in the first embodiment except that the sensor device SUa is replaced by the sensor device SUb. Therefore, the description of the management server device SV, the fixed terminal device SP, and the mobile terminal device TA is omitted.

センサ装置SUbは、センサ装置SUaと同様に、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このようなセンサ装置SUbは、例えば、図8に示すように、センサ部1と、音入出力部2と、制御処理部6と、通信インターフェース部(通信IF部)4と、記憶部7とを備える。すなわち、センサ装置SUbは、制御処理部3に代え制御処理部6を備え、記憶部5に代え記憶部7を備える点を除き、センサ装置SUaと同様である。このため、センサ部1、音入出力部2および通信IF部4の説明を省略する。 Like the sensor device SUa, the sensor device SUb has a communication function of communicating with other devices SV, SP, TA via the network NW, detects the monitored person Ob, and sends the detection result to the management server device SV. It is a device for transmitting. Such a sensor device SUb includes, for example, as shown in FIG. 8, a sensor unit 1, a sound input/output unit 2, a control processing unit 6, a communication interface unit (communication IF unit) 4, and a storage unit 7. Equipped with. That is, the sensor device SUb is similar to the sensor device SUa except that the control processing unit 3 is replaced by the control processing unit 6 and the storage unit 5 is replaced by the storage unit 7. Therefore, the description of the sensor unit 1, the sound input/output unit 2, and the communication IF unit 4 is omitted.

記憶部7は、制御処理部6に接続され、制御処理部6の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、センサ部1の出力に基づいて被監視者Obの頭部を検出する頭部検出処理プログラム、センサ部1の出力に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。そして、前記頭部検出処理プログラムには、センサ部1のカメラ12によって取得した画像から被監視者Obの人体領域として動体領域を抽出する動体抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、所定のマーカーを検出するマーカー検出プログラム、および、前記円形状領域抽出プログラムで抽出した円形状領域および前記マーカー検出プログラムで抽出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定プログラム等が含まれる。行動検知処理プログラムは、一態様として、前記頭部検出処理プログラムで検出した被監視者Obの頭部に基づいて被監視者Obにおける所定の行動を検知する。前記各種の所定のデータには、これら各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。記憶部7は、例えば不揮発性の記憶素子であるROMや書き換え可能な不揮発性の記憶素子であるEEPROM等を備える。そして、記憶部7は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM等を含む。 The storage unit 7 is a circuit which is connected to the control processing unit 6 and stores various predetermined programs and various predetermined data under the control of the control processing unit 6. The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing regarding monitoring of the monitored person Ob. The monitoring processing program includes a head detection processing program that detects the head of the monitored person Ob based on the output of the sensor unit 1, and detects a predetermined action of the monitored person Ob based on the output of the sensor unit 1. An action detection processing program, a notification processing program that notifies the predetermined action detected by the action detection program to the outside, and a moving image captured by the camera 12 is streamed to a fixed terminal device SP or a mobile terminal device TA that requests the moving image. A streaming processing program to be distributed and a nurse call processing program for making a voice call with the fixed terminal device SP or the mobile terminal device TA by using the sound input/output unit 2 and the like are included. Then, the head detection processing program is based on a moving body extraction program that extracts a moving body region as a human body region of the monitored person Ob from the image acquired by the camera 12 of the sensor unit 1, based on the moving body region extracted by the moving body extraction program. A circular area extraction program for extracting a substantially circular area as a circular area, a marker detection program for detecting a predetermined marker based on the moving body area extracted by the moving body extraction program, and the circular shape area extraction A head selection program or the like for selecting a head region based on the circular region extracted by the program and the marker extracted by the marker detection program to detect the head is included. As one aspect, the behavior detection processing program detects a predetermined behavior of the monitored person Ob based on the head of the monitored person Ob detected by the head detection processing program. The various kinds of predetermined data include data necessary for executing these programs and data necessary for monitoring the monitored person Ob. The storage unit 7 includes, for example, a ROM that is a nonvolatile storage element, an EEPROM that is a rewritable nonvolatile storage element, and the like. The storage unit 7 includes a RAM or the like that serves as a working memory of the so-called control processing unit 3 that stores data and the like generated during execution of the predetermined program.

制御処理部6は、センサ装置SUbの各部を当該各部の機能に応じてそれぞれ制御し、センサ部1によって被監視者Obにおける予め設定された所定の諸量を検出し、この検出した前記所定の諸量に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部6は、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部6は、前記制御処理プログラムが実行されることによって、制御部61、頭部検出処理部62、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66を機能的に備える。これら制御処理部6における制御部61、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66は、それぞれ、第1実施形態の制御処理部3における制御部31、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36と同様であるので、その説明を省略する。 The control processing unit 6 controls each unit of the sensor device SUb in accordance with the function of each unit, the sensor unit 1 detects a predetermined amount set in the monitored person Ob, and the detected predetermined amount. It is a circuit for detecting and notifying a predetermined behavior of the monitored person Ob based on various amounts. The control processing unit 6 includes, for example, a CPU and its peripheral circuits. The control processing unit 6 causes the control unit 61, the head detection processing unit 62, the action detection processing unit 63, the notification processing unit 64, the streaming processing unit 65, and the nurse call processing unit 66 to be executed by executing the control processing program. Be functionally equipped. The control unit 61, the behavior detection processing unit 63, the notification processing unit 64, the streaming processing unit 65, and the nurse call processing unit 66 in the control processing unit 6 are respectively the control unit 31 and the behavior in the control processing unit 3 of the first embodiment. The detection processing unit 33, the notification processing unit 34, the streaming processing unit 35, and the nurse call processing unit 36 are the same as those of the detection processing unit 33, the description thereof will be omitted.

頭部検出処理部62は、頭部検出処理部32と同様に、センサ部1の出力に基づいて被監視者Obの頭部を検出するものである。より具体的には、頭部検出処理部62は、センサ部1のカメラ12で取得した、被監視者Obの上方から撮像した画像に基づいて被監視者Obの頭部を検出する。このために、頭部検出処理部62は、機能的に、動体抽出部621、円形状領域抽出部632、マーカー検出部623および頭部選定部624を備える。 The head detection processing unit 62, like the head detection processing unit 32, detects the head of the monitored person Ob based on the output of the sensor unit 1. More specifically, the head detection processing unit 62 detects the head of the monitored person Ob based on the image captured by the camera 12 of the sensor unit 1 from above the monitored person Ob. For this purpose, the head detection processing unit 62 functionally includes a moving body extraction unit 621, a circular area extraction unit 632, a marker detection unit 623, and a head selection unit 624.

体動抽出部621は、動体抽出部321と同様に、センサ部1のカメラ12で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出するものである。動体抽出部621は、この抽出した動体領域を、後述の第1態様の動作では円形状領域抽出部622へ通知する一方、後述の第2態様の動作ではマーカー検出部623へ通知する。 Similar to the moving body extracting unit 321, the body movement extracting unit 621 uses the image obtained by the camera 12 of the sensor unit 1 as a human body region of the monitored person Ob by using a method such as a background difference method or an interframe difference method. The moving body area is extracted. The moving body extraction unit 621 notifies the extracted moving body region to the circular area extraction unit 622 in the operation of the first mode described later, and notifies the marker detection unit 623 in the operation of the second mode described later.

円形状領域抽出部622は、円形状領域抽出部322と同様に、センサ部1のカメラ12で取得した画像に基づいて、略円形状の領域を円形状領域として抽出するものである。より具体的には、第1態様の動作では、円形状領域抽出部622は、動体抽出部621で抽出した動体領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域をマーカー検出部623へ通知する。また、第2態様の動作では、円形状領域抽出部322は、後述するようにマーカー検出部623で検出したマーカーの領域を除く残余の体動領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を頭部選定部624へ通知する。 The circular area extraction unit 622, similar to the circular area extraction unit 322, extracts a substantially circular area as a circular area based on the image acquired by the camera 12 of the sensor unit 1. More specifically, in the operation of the first aspect, the circular area extraction unit 622 extracts the circular area from the moving body area extracted by the moving body extraction unit 621 by, for example, the Hough transform method or the pattern matching method. The extracted circular area is notified to the marker detection unit 623. Further, in the operation of the second aspect, the circular area extraction unit 322 uses, for example, the Hough transform method or the pattern matching from the remaining body motion area excluding the marker area detected by the marker detection unit 623 as described later. The circular area is extracted by the method described above and the extracted circular area is notified to the head selecting unit 624.

マーカー検出部623は、センサ部1のカメラ12で取得した画像に基づいて、所定のマーカーを検出するものである。前記所定のマーカーは、上述と同様に、頭部ではない頭部に近似するものの誤検出をより低減するために、頭部ではない頭部に近似するものに付与され、好ましくは、特定の形状を持つマーカーであり、また好ましくは、赤外光でのみ識別可能なマーカーである。より具体的には、第1態様の動作では、マーカー検出部623は、円形状領域抽出部622で抽出した円形状領域から、前記所定のマーカーを検出し、円形状領域抽出部622で抽出した前記円形状領域からこの検出したマーカーを持つ円形状領域を除く残余の円形状領域を頭部選定部624へ通知する。また、第2態様の動作では、マーカー検出部623は、動体抽出部621で抽出した動体領域から、前記所定のマーカーを検出し、動体抽出部621で抽出した動体領域からこの検出したマーカーを持つ体動領域を除く残余の体動領域を円形状領域抽出部622へ通知する。 The marker detection unit 623 detects a predetermined marker based on the image acquired by the camera 12 of the sensor unit 1. Similar to the above, the predetermined marker is given to the one that is close to the head that is not the head in order to further reduce the false detection of the one that is close to the head that is not the head, and is preferably a specific shape. And a marker that can be identified only by infrared light. More specifically, in the operation of the first aspect, the marker detection unit 623 detects the predetermined marker from the circular area extracted by the circular area extraction unit 622 and extracts it by the circular area extraction unit 622. The head selecting unit 624 is notified of the remaining circular area excluding the circular area having the detected marker from the circular area. Further, in the operation of the second aspect, the marker detection unit 623 detects the predetermined marker from the moving body region extracted by the moving body extraction unit 621, and has the detected marker from the moving body region extracted by the moving body extraction unit 621. The remaining body movement area excluding the body movement area is notified to the circular area extraction unit 622.

頭部選定部624は、前記円形状領域抽出部622で抽出した円形状領域および前記マーカー検出部623で抽出した所定のマーカーに基づいて頭部の領域を選定して前記頭部を検出するものである。より具体的には、第1態様の動作では、頭部選定部624は、マーカー検出部623で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知する。また、第2態様の動作では、頭部選定部624は、円形状領域抽出部622で抽出した円形状領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知する。 The head selecting unit 624 detects the head by selecting a region of the head based on the circular region extracted by the circular region extracting unit 622 and the predetermined marker extracted by the marker detecting unit 623. Is. More specifically, in the operation of the first aspect, the head selection unit 624 selects the head region based on the marker detected by the marker detection unit 623, detects the head, and detects the detected head. The part (head region) is notified to the action detection processing unit 63. In the operation of the second aspect, the head selecting unit 624 selects the head region based on the circular area extracted by the circular area extracting unit 622, detects the head, and detects the detected head. The part (head region) is notified to the action detection processing unit 63.

このような構成の被監視者監視システムMSbでは、各装置SUb、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUbでは、その制御処理プログラムの実行によって、制御処理部6には、制御部61、頭部検出処理部62、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66が機能的に構成され、頭部検出処理部62には、動体抽出部621、円形状領域抽出部622、低反射率領域抽出部623および頭部選定部624が機能的に構成される。そして、上記構成の被監視者監視システムMSbは、センサ装置SUbが後述のように動作する点を除き、上述した被監視者監視システムMSaと同様に動作するので、その説明を省略する。 In the monitored person monitoring system MSb having such a configuration, each of the devices SUb, SV, SP, and TA, when the power is turned on, initializes necessary parts and starts operating. Further, in the sensor device SUb, by executing the control processing program, the control processing unit 6 has the control unit 61, the head detection processing unit 62, the action detection processing unit 63, the notification processing unit 64, the streaming processing unit 65, and the nurse. The call processing unit 66 is functionally configured, and the head detection processing unit 62 is functionally configured with a moving body extraction unit 621, a circular region extraction unit 622, a low reflectance region extraction unit 623, and a head selection unit 624. To be done. The monitored person monitoring system MSb having the above-described configuration operates in the same manner as the monitored person monitoring system MSa described above, except that the sensor device SUb operates as described below, and therefore description thereof will be omitted.

次に、被監視者監視システムMSbにおける、頭部検出動作について、説明する。図9は、第2実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。図10は、第2実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。本実施形態におけるセンサ装置SUbは、例えば、図9に示す第1態様の動作によって頭部(頭部領域)を検出し、また例えば、図10に示す第2態様の動作によって頭部(頭部領域)を検出している。以下、前記第1態様の動作をまず説明し、次に、前記第2態様の動作について説明する。 Next, the head detecting operation in the monitored person monitoring system MSb will be described. FIG. 9 is a flowchart showing the operation of the first aspect of the sensor device in the monitored person monitoring system of the second embodiment. FIG. 10 is a flowchart showing the operation of the second aspect of the sensor device in the monitored person monitoring system of the second embodiment. The sensor device SUb in the present embodiment detects the head (head region) by, for example, the operation of the first mode shown in FIG. 9, and also detects the head (head by the operation of the second mode shown in FIG. 10, for example. Area) is detected. Hereinafter, the operation of the first aspect will be described first, and then the operation of the second aspect will be described.

まず、第1態様の動作について説明する。センサ装置SUbは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。 First, the operation of the first aspect will be described. The sensor device SUb operates as follows each time the output of the Doppler sensor 11 of the sensor unit 1 is sampled and the image is acquired by the camera 12 at each sampling timing, whereby the head of the monitored person Ob ( The head region) is detected to detect a predetermined action in the monitored person Ob.

図9において、まず、制御処理部6は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S31)。 In FIG. 9, first, the control processing unit 6 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 and acquires an image (an image for one frame) from the camera 12 of the sensor unit 1 as in the above-described process S11. It is acquired (S31).

次に、制御処理部6は、上述の処理S12と同様に、頭部検出処理部62の動体抽出部621によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S32)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部6は、動体抽出部621によって抽出した前記動体領域を動体抽出部621から円形状領域抽出部622へ通知し、次の処理S33を実行する。 Next, the control processing unit 6 executes the moving body region extraction processing by the moving body extraction unit 621 of the head detection processing unit 62 and determines whether or not the moving body region has been extracted, as in the above-described processing S12. Yes (S32). As a result of this determination, if the moving body region is not extracted (No), the control processing unit 6 ends the process at this timing, while if the moving body region is extracted (Yes), The control processing unit 6 notifies the circular region extracting unit 622 of the moving body region extracted by the moving body extracting unit 621, and executes the next process S33.

この処理S33では、制御処理部6は、頭部検出処理部62の円形状領域抽出部622によって、動体抽出部321で抽出された動体領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を円形状領域抽出部622からマーカー検出部623および頭部選定部624へ通知し、次の処理S34を実行する。 In this processing S33, the control processing unit 6 uses a method such as Hough transform or pattern matching from the moving body region extracted by the moving body extraction unit 321 by the circular shape region extraction unit 622 of the head detection processing unit 62. In step S21, a circular area extracting process for extracting a substantially circular area (circular area) is executed to determine whether the circular area has been extracted. As a result of this determination, when the circular area is not extracted (No), the control processing unit 6 ends the processing at this timing, while when the circular area is extracted (Yes). Then, the control processing unit 6 notifies the marker detection unit 623 and the head selection unit 624 of the circular area extracted by the circular area extraction unit 622 from the circular area extraction unit 622, and executes the next processing S34. To do.

この処理S34では、制御処理部6は、頭部検出処理部62の頭部選定部624によって、円形状領域抽出部622で抽出した円形状領域が複数か否かを判定する。この判定の結果、前記円形状領域が複数ではない場合、すなわち、前記円形状領域が1個である場合(No)には、制御処理部6は、頭部選定部624によって、前記処理S33で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部624によって選定された頭部(頭部領域)を頭部検出処理部62から行動検知処理部63へ通知し、次の処理S35を実行する。一方、前記判定の結果、前記円形状領域が複数である場合(Yes)には、制御処理部6は、前記処理S33で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、次の処理S37を実行する。 In this processing S34, the control processing unit 6 determines whether or not there are a plurality of circular areas extracted by the circular area extraction unit 622 by the head selection unit 624 of the head detection processing unit 62. As a result of this determination, when there are not a plurality of circular areas, that is, when the number of circular areas is one (No), the control processing unit 6 causes the head selecting unit 624 to perform the processing in S33. The extracted circular region is selected as the head (head region), and the head (head region) selected by the head selection unit 624 is transferred from the head detection processing unit 62 to the action detection processing unit 63. It is notified and the following process S35 is performed. On the other hand, as a result of the determination, when there are a plurality of circular areas (Yes), the control processing unit 6 sets the head (head area) in the plurality of circular areas extracted in the process S33. If an object other than the above is also extracted, the following process S37 is executed.

この処理S37では、制御処理部6は、頭部検出処理部62のマーカー検出部623によって、円形状領域抽出部622によって抽出した前記円形状領域から所定のマーカーを検出し、円形状領域抽出部622で抽出した前記円形状領域からこの検出したマーカーを持つ円形状領域を除く残余の円形状領域を頭部選定部624へ通知し、頭部選定部624によってマーカー検出部623によって除かれた残余の前記円形状領域を頭部の領域として選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知し、次の処理S35を実行する。なお、制御処理部6は、マーカー検出部623によって除かれた残余の前記円形状領域を頭部の領域としてマーカー検出部623から行動検知処理部63へ通知してもよい。 In this processing S37, the control processing unit 6 causes the marker detection unit 623 of the head detection processing unit 62 to detect a predetermined marker from the circular area extracted by the circular area extraction unit 622, and the circular area extraction unit The head-shaped selecting unit 624 is notified of the remaining circular-shaped region excluding the circular-shaped region having the detected marker from the circular-shaped region extracted in 622, and the head-selecting unit 624 removes the residual circular-shaped region by the marker detecting unit 623. The circular area is selected as the head area, the head is detected, the detected head (head area) is notified to the action detection processing unit 63, and the next processing S35 is executed. The control processing unit 6 may notify the behavior detection processing unit 63 from the marker detection unit 623 of the remaining circular area removed by the marker detection unit 623 as a head region.

この処理S35では、上述の各処理S31〜S34、S37によって、頭部(頭部領域)が検出されたので、制御処理部6は、上述の処理S15と同様に、行動検知処理部63によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部6は、処理S35で検知した前記所定の行動を通知処理部64へ通知し、次の処理S36を実行する。 In this process S35, the head (head region) is detected by each of the processes S31 to S34 and S37 described above, and thus the control processing unit 6 causes the action detection processing unit 63 to perform the same operation as in the process S15 described above. Based on the output of the sensor unit 1, an action detection process of detecting a preset predetermined action in the monitored person Ob is executed to determine whether or not the predetermined action is detected. As a result of this determination, when the predetermined action is not detected (No), the control processing unit 6 ends the process at this timing, while the predetermined action (in the present embodiment, wakes up, When at least one of leaving the bed, falling, and anomalous body movement is detected (Yes), the control processing unit 6 notifies the notification processing unit 64 of the predetermined action detected in step S35, The following process S36 is executed.

この処理S36では、行動検知処理部63から被監視者Obにおける前記所定の行動が通知されると、通知処理部64は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。 In this processing S36, when the behavior detection processing unit 63 notifies the predetermined behavior of the monitored person Ob, the notification processing unit 64 notifies the management server device SV of that fact by the above-mentioned monitoring information communication signal, The process at this timing ends.

次に、第2態様の動作について説明する。センサ装置SUbは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。 Next, the operation of the second aspect will be described. The sensor device SUb operates as follows each time the output of the Doppler sensor 11 of the sensor unit 1 is sampled and the image is acquired by the camera 12 at each sampling timing, whereby the head of the monitored person Ob ( The head region) is detected to detect a predetermined action in the monitored person Ob.

図10において、まず、制御処理部6は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S41)。 In FIG. 10, first, the control processing unit 6 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 and acquires an image (an image for one frame) from the camera 12 of the sensor unit 1 as in the above-described process S11. It is acquired (S41).

次に、制御処理部6は、上述の処理S12と同様に、頭部検出処理部62の動体抽出部621によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S42)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部6は、動体抽出部621によって抽出した前記動体領域を動体抽出部621からマーカー検出部623へ通知し、次の処理S43を実行する。 Next, the control processing unit 6 executes the moving body region extraction processing by the moving body extraction unit 621 of the head detection processing unit 62 and determines whether or not the moving body region has been extracted, as in the above-described processing S12. (S42). As a result of this determination, if the moving body region is not extracted (No), the control processing unit 6 ends the process at this timing, while if the moving body region is extracted (Yes), The control processing unit 6 notifies the marker detection unit 623 from the moving body extraction unit 621 of the moving body region extracted by the moving body extraction unit 621, and executes the next process S43.

この処理S43では、制御処理部6は、頭部検出処理部62のマーカー検出部623によって、体動抽出部621によって抽出した前記体動領域から所定のマーカーを検出し、体動抽出部621で抽出した前記体動領域からこの検出したマーカーを持つ体動領域を除く残余の体動領域を円形状領域抽出部622へ通知し、次の処理S44を実行する。 In this processing S43, the control processing unit 6 causes the marker detection unit 623 of the head detection processing unit 62 to detect a predetermined marker from the body movement region extracted by the body movement extraction unit 621, and the body movement extraction unit 621 The remaining body movement area excluding the body movement area having the detected marker from the extracted body movement area is notified to the circular area extraction unit 622, and the next process S44 is executed.

この処理S44では、制御処理部6は、頭部検出処理部62の円形状領域抽出部622によって、マーカー検出部623によってマーカーを持つ体動領域を除いた前記残余の体動領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を円形状領域抽出部622から頭部選定部624へ通知し、頭部選定部624によって円形状領域抽出部622によって抽出した前記円形状領域を頭部の領域として選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知し、次の処理S45を実行する。なお、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を頭部の領域として円形状領域抽出部622から行動検知処理部63へ通知してもよい。 In this processing S44, the control processing unit 6 causes the circular area extraction unit 622 of the head detection processing unit 62 to extract, for example, a Hough from the remaining body movement area excluding the body movement area having the marker by the marker detection unit 623. A circular area extraction process for extracting a substantially circular area (circular area) by using a method such as conversion or pattern matching is executed to determine whether or not the circular area is extracted. As a result of this determination, when the circular area is not extracted (No), the control processing unit 6 ends the processing at this timing, while when the circular area is extracted (Yes). In addition, the control processing unit 6 notifies the circular area extracted by the circular area extracting unit 622 from the circular area extracting unit 622 to the head selecting unit 624, and the head selecting unit 624 causes the circular area extracting unit 624 to detect the circular area. The circular area extracted by 622 is selected as the area of the head, the head is detected, the detected head (head area) is notified to the action detection processing unit 63, and the next processing S45 is executed. To do. The control processing unit 6 may notify the action detection processing unit 63 from the circular area extracting unit 622 of the circular area extracted by the circular area extracting unit 622 as the head area.

この処理S45では、上述の各処理S41〜S44によって、頭部(頭部領域)が検出されたので、制御処理部6は、上述の処理S15と同様に、行動検知処理部63によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部6は、処理S45で検知した前記所定の行動を通知処理部64へ通知し、次の処理S46を実行する。 In this process S45, the head (head region) is detected by each of the processes S41 to S44 described above, so that the control processing unit 6 causes the action detection processing unit 63 to detect the sensor unit as in the case of the process S15 described above. Based on the output of 1, the behavior detection process for detecting a preset predetermined behavior in the monitored person Ob is executed to determine whether or not the predetermined behavior is detected. As a result of this determination, when the predetermined action is not detected (No), the control processing unit 6 ends the process at this timing, while the predetermined action (in the present embodiment, wakes up, When at least one of leaving the bed, falling down, and anomalous body movement is detected (Yes), the control processing unit 6 notifies the notification processing unit 64 of the predetermined action detected in step S45, The next process S46 is executed.

この処理S46では、行動検知処理部63から被監視者Obにおける前記所定の行動が通知されると、通知処理部64は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。 In this processing S46, when the behavior detection processing unit 63 notifies the predetermined behavior of the monitored person Ob, the notification processing unit 64 notifies the management server device SV of that fact by the above-mentioned monitoring information communication signal, The process at this timing ends.

以上説明したように、被監視者監視装置の一例である被監視者監視システムMSbならびに頭部検出装置および頭部検出方法を用いたその一例のセンサ装置SUbは、略円形状だけでなくマーカーも考慮して頭部HDを検出するので、被監視者Obを上方から撮像した画像に基づき被監視者Obの頭部HDをより精度良く検出できる。この結果、上記被監視者監視システムMSbおよびセンサ装置SUbは、被監視者Obにおける所定の行動をより精度良く検知できる。 As described above, the monitored person monitoring system MSb, which is an example of the monitored person monitoring device, and the sensor device SUb of the example using the head detecting device and the head detecting method, not only has a substantially circular shape but also a marker. Since the head HD is detected in consideration, the head HD of the monitored person Ob can be detected more accurately based on the image of the monitored person Ob taken from above. As a result, the monitored person monitoring system MSb and the sensor device SUb can more accurately detect the predetermined behavior of the monitored person Ob.

また、上記被監視者監視システムMSbおよびセンサ装置SUbは、上述の第1態様の動作において、円形状領域抽出部622で抽出した円形状領域を頭部領域の候補として絞り込み、この絞り込んだ候補から前記マーカーを持つ前記円形状領域を除くことで、円形状領域抽出部622で抽出した円形状領域から頭部ではない前記ものを除くことができ、より精度良く被監視者Obの頭部HDを検出できる。 Further, the monitored person monitoring system MSb and the sensor device SUb in the operation of the first aspect described above narrow down the circular area extracted by the circular area extraction unit 622 as a head area candidate, and from this narrowed-down candidate, By removing the circular area having the marker, the circular area extracted by the circular area extraction unit 622 can be removed from the circular area, and the head HD of the monitored person Ob can be more accurately detected. Can be detected.

また、上記被監視者監視システムMSbおよびセンサ装置SUbは、上述の第2態様の動作において、体動抽出部621で抽出した体動領域からマーカーを持つ体動領域を除くことで体動領域を絞り込み、この絞り込んだ体動領域から略円形状を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。 Further, the monitored person monitoring system MSb and the sensor device SUb remove the body movement area having the marker from the body movement area extracted by the body movement extraction unit 621 in the operation of the above-described second aspect, thereby removing the body movement area. Since the head HD is detected by narrowing down and considering the substantially circular shape from the narrowed body movement area, the amount of information processing is larger than that in the case of extracting the substantially circular circular area from the entire image acquired by the camera 12. Can be reduced.

また、これら上述の実施形態において、寝具BT上は、安全であるという考えから、円形状領域が寝具BTの領域内で検出された場合には、この円形状領域が処理S15、処理S26、処理S35および処理S45それぞれでの前記行動検知処理の対象から除外されても良い。 Further, in the above-described embodiments, when the circular area is detected within the area of the bedding BT from the idea that it is safe on the bedding BT, the circular area is processed by the processing S15, the processing S26, and the processing S26. It may be excluded from the targets of the action detection processing in each of S35 and processing S45.

また、これら上述の実施形態では、センサ装置SUa、SUbが前記行動検知部および前記通知部を備えたが、前記行動検知部および前記通知部は、管理サーバ装置SVに備えられても良く、また、固定端末装置SPに備えられても良く、また、携帯端末装置TAに備えられても良い。このような場合、センサ装置SUa、SUbからネットワークNWを介して被監視者Obの上方から撮像した画像およびドップラ信号を収容した通信信号を受信して取得する通信インターフェース等が、画像取得部の一例および測距部の一部の一例に相当することになる。 In addition, in the above-described embodiments, the sensor devices SUa and SUb include the action detection unit and the notification unit, but the action detection unit and the notification unit may be included in the management server device SV. The fixed terminal device SP may be provided, or the mobile terminal device TA may be provided. In such a case, a communication interface or the like that receives and acquires a communication signal containing an image and a Doppler signal captured from above the monitored person Ob via the network NW from the sensor devices SUa and SUb is an example of the image acquisition unit. It also corresponds to an example of a part of the distance measuring unit.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to represent the present invention, the present invention has been described above appropriately and sufficiently through the embodiments with reference to the drawings, but those skilled in the art can easily modify and/or improve the embodiments. It should be recognized that this is possible. Therefore, unless a modification or improvement carried out by a person skilled in the art is at a level that departs from the scope of rights of the claims recited in the claims, the modification or the improvement is covered by the scope of claims of the claim. Is understood to be included in.

Ob(Ob−1〜Ob−4) 被監視者
NS(NS−1、NS−2) 監視者(ユーザ)
MSa、MSb 被監視者監視システム
SUa、SUb センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA 携帯端末装置
1 センサ部
3、6 制御処理部
4 通信インターフェース部(通信IF部)
5、7 記憶部
11 ドップラセンサ
12 カメラ(画像取得部の一例)
31、61 制御部
32、62 頭部検出処理部
33、63 行動検知処理部
34、64 通知処理部
321、621 動体抽出部
322、622 円形状領域抽出部
323 低反射率領域抽出部
324、624 頭部選定部
325、623 マーカー検出部
Ob (Ob-1 to Ob-4) Monitored person NS (NS-1, NS-2) Monitored person (user)
MSa, MSb Monitored person monitoring system SUa, SUb Sensor device SV Management server device SP Fixed terminal device TA Mobile terminal device 1 Sensor unit 3, 6 Control processing unit 4 Communication interface unit (communication IF unit)
5, 7 Storage unit 11 Doppler sensor 12 Camera (an example of image acquisition unit)
31, 61 Control unit 32, 62 Head detection processing unit 33, 63 Behavior detection processing unit 34, 64 Notification processing unit 321, 621 Moving body extraction unit 322, 622 Circular region extraction unit 323 Low reflectance region extraction unit 324, 624 Head selection unit 325, 623 Marker detection unit

Claims (6)

監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、
前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、
前記画像取得部で取得した前記画像から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、
前記円形状領域抽出部で抽出した前記円形状領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、
記低反射率領域抽出部で抽出した前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、
記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであること
を特徴とする頭部検出装置。
An image acquisition unit that acquires an image of a monitored person who is a monitoring target from above the monitored person,
Based on the image acquired by the image acquisition unit, a marker detection unit for detecting a predetermined marker,
From the remaining region excluding the region having the marker detected by the marker detecting unit from the image acquired by the image acquisition unit, a circular region extraction unit for extracting a substantially circular area as the circular region,
From the circular region extracted by the circular region extraction unit, a low reflectance region extraction unit that extracts a region having a predetermined reflectance or less for infrared light as a low reflectance region,
E Bei a head selection unit for detecting the head by selecting an area of the head on the basis of the low reflectance area extracted in the previous SL low reflectance region extraction unit,
Before SL marker, the only a distinguishable with infrared light, a head detecting apparatus characterized by reflectance to the infrared light is beyond a predetermined reflectance.
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、
前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、
前記画像取得部で取得した前記画像から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、
前記低反射率領域抽出部で抽出した前記低反射率領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、
前記円形状領域抽出部で抽出した前記円形状領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、
前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであること
を特徴とする頭部検出装置。
An image acquisition unit that acquires an image of a monitored person who is a monitoring target from above the monitored person,
Based on the image acquired by the image acquisition unit, a marker detection unit for detecting a predetermined marker,
From the residual region excluding the region having the marker detected by the marker detection unit from the image acquired by the image acquisition unit, a region having a predetermined reflectance or less for infrared light is extracted as a low reflectance region. A low reflectance region extraction unit,
From the low reflectance region extracted by the low reflectance region extracting unit, a circular region extracting unit that extracts a substantially circular region as a circular region,
A head selection unit that detects a head region by selecting a head region based on the circular region extracted by the circular region extraction unit,
The marker is the only a distinguishable with infrared light, the head portion detection apparatus you wherein the reflectance to the infrared light is beyond a predetermined reflectance.
前記マーカーは、特定の形状を持つマーカーであること
を特徴とする請求項1ないし請求項2のいずれか1項に記載の頭部検出装置。
The marker head detecting apparatus according to any one of claims 1 to 2, characterized in that a marker having a particular shape.
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、 An image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person,
前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程と、 Based on the image acquired in the image acquisition step, a marker detection step of detecting a predetermined marker,
前記画像取得工程で取得した前記画像から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、 From the remaining area excluding the area having the marker detected in the marker detection step from the image acquired in the image acquisition step, a circular area extraction step of extracting a substantially circular area as a circular area,
前記円形状領域抽出工程で抽出した前記円形状領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、 From the circular area extracted in the circular area extraction step, a low reflectance area extraction step of extracting a region having a predetermined reflectance or less for infrared light as a low reflectance area,
前記低反射率領域抽出工程で抽出した前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程とを備え、 A head selecting step of detecting the head by selecting a head area based on the low reflectance area extracted in the low reflectance area extracting step,
前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであること The marker is distinguishable only by the infrared light, and the reflectance for the infrared light exceeds the predetermined reflectance.
を特徴とする頭部検出方法。 A head detection method characterized by:
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程と、
前記画像取得工程で取得した前記画像から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の領域から、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、
前記低反射率領域抽出工程で抽出した前記低反射率領域から、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、
前記円形状領域抽出工程で抽出した前記円形状領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程とを備え、
記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えるものであること
を特徴とする頭部検出方法。
An image acquisition step of acquiring an image of a monitored person who is a monitoring target from above the monitored person,
Based on the image acquired in the image acquisition step, a marker detection step of detecting a predetermined marker,
From the remaining area excluding the area having the marker detected in the marker detection step from the image acquired in the image acquisition step, an area having a predetermined reflectance or less for infrared light is extracted as a low reflectance area. Low reflectance region extraction step,
From the low reflectance area extracted in the low reflectance area extraction step, a circular area extraction step of extracting a substantially circular area as a circular area,
A head selecting step of detecting the head by selecting an area of the head based on the circular area extracted in the circular area extracting step ,
Before SL marker, only a identifiable by the infrared light, a head detecting method characterized by reflectance to the infrared light is beyond a predetermined reflectance.
監視対象である被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部と、
前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する行動検知部と、
前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、
前記頭部検出部は、請求項1ないし請求項のいずれか1項に記載の頭部検出装置を含むこと
を特徴とする被監視者監視装置。
A monitored person as a monitoring target, a head detection unit that detects a head from an image captured from above the monitored person,
An action detection unit that detects a predetermined action in the monitored person based on the monitored person's head detected by the head detection unit,
A notification unit for notifying the outside of the predetermined action detected by the action detection unit,
The said head detection part contains the head detection apparatus of any one of Claim 1 thru|or 3 , The to-be-monitored person monitoring apparatus characterized by the above-mentioned.
JP2019022635A 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device Active JP6737355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022635A JP6737355B2 (en) 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022635A JP6737355B2 (en) 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015140776A Division JP6481537B2 (en) 2015-07-14 2015-07-14 Monitored person monitoring device and monitored person monitoring method

Publications (2)

Publication Number Publication Date
JP2019115052A JP2019115052A (en) 2019-07-11
JP6737355B2 true JP6737355B2 (en) 2020-08-05

Family

ID=67222924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022635A Active JP6737355B2 (en) 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device

Country Status (1)

Country Link
JP (1) JP6737355B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62177689A (en) * 1986-01-30 1987-08-04 Mitsubishi Electric Corp Device for counting the number of persons
JP3800257B2 (en) * 1996-08-02 2006-07-26 オムロン株式会社 Attention information measurement method and apparatus, and various systems using the same
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2007209008A (en) * 2003-10-21 2007-08-16 Matsushita Electric Ind Co Ltd Surveillance device
JP5682203B2 (en) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 Safety nursing system and method for controlling safety nursing system
JP5679456B2 (en) * 2011-12-05 2015-03-04 サクサ株式会社 Human detection device, human detection method, and human detection program
JP5812948B2 (en) * 2012-07-13 2015-11-17 アイホン株式会社 Patient recognition device

Also Published As

Publication number Publication date
JP2019115052A (en) 2019-07-11

Similar Documents

Publication Publication Date Title
JP6720909B2 (en) Action detection device, method and program, and monitored person monitoring device
WO2017082037A1 (en) Central processing device and method for person monitoring system, and person monitoring system
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP6680352B2 (en) Monitored person monitoring apparatus, method and system
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP7044060B2 (en) Observer monitoring device, method and system
JP6870465B2 (en) Observed person monitoring device and its method and monitored person monitoring system
JP2016115054A (en) Monitoring control program, monitoring controller, and monitoring control method
JP2019197263A (en) System and system control method
JP6226110B1 (en) Monitored person monitoring apparatus, method and system
JP6737355B2 (en) Head detection device, head detection method, and monitored person monitoring device
JP6696606B2 (en) Care support system, care support method and program
JP6481537B2 (en) Monitored person monitoring device and monitored person monitoring method
JP6115689B1 (en) Fall detection device, fall detection method and monitored person monitoring device
JP6908028B2 (en) Observer monitoring device, method, system and program
JPWO2019216045A1 (en) System and system control method
JP7259540B2 (en) Determination device, control program for determination device, and determination method
JP6292363B2 (en) Terminal device, terminal device display method, and monitored person monitoring system
JP6946276B2 (en) The terminal device of the monitored person monitoring system, the control method and program of the terminal device, and the monitored person monitoring system
WO2019073735A1 (en) Monitored person monitoring assistance system and monitored person monitoring assistance method
JP7352197B2 (en) Mobile behavior abnormality determination device and method, and monitored person monitoring support system
JP2023177886A (en) Information processing device, information processing system, and information processing method
JP2023177885A (en) Information processing device, information processing system, and information processing method
JP2020184201A (en) Information reporting program, information processing device, and method to be executed by computer in order to report information
JPWO2019130890A1 (en) Monitored person monitoring support device, monitored person monitoring support method, and monitored person monitoring support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150