JP2019115052A - Head detector and head detection method and monitored person monitoring device - Google Patents

Head detector and head detection method and monitored person monitoring device Download PDF

Info

Publication number
JP2019115052A
JP2019115052A JP2019022635A JP2019022635A JP2019115052A JP 2019115052 A JP2019115052 A JP 2019115052A JP 2019022635 A JP2019022635 A JP 2019022635A JP 2019022635 A JP2019022635 A JP 2019022635A JP 2019115052 A JP2019115052 A JP 2019115052A
Authority
JP
Japan
Prior art keywords
head
area
unit
marker
circular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019022635A
Other languages
Japanese (ja)
Other versions
JP6737355B2 (en
Inventor
安紀 辻
Yasunori Tsuji
安紀 辻
篤広 野田
Atsuhiro Noda
篤広 野田
山下 雅宣
Masanori Yamashita
雅宣 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019022635A priority Critical patent/JP6737355B2/en
Publication of JP2019115052A publication Critical patent/JP2019115052A/en
Application granted granted Critical
Publication of JP6737355B2 publication Critical patent/JP6737355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To detect the head of a monitored person more precisely.SOLUTION: A sensor unit SU includes a camera 12 for acquiring an image capturing a monitoring object, i.e., a monitored person, from above the monitored person, a circular area extraction part 322 for extracting a substantially circular area, as the circular area, on the basis of the image captured by means of the camera 12, a low index of reflection area extraction part 323 for extracting an area of a predetermined index of reflection or less for infrared radiation, as the low index of reflection area, on the basis of the image captured by means of the camera 12, a marker detector 325 for detecting a predetermined marker on the basis of the image captured by means of the camera 12, and a head selection part 324 for detecting the head. The head selection part 324 selects the area of head on the basis of residual circular area and low index of reflection area excepting the area having the marker from the circular area and the low index of reflection area, and detects the head, and the marker is identifiable only with infrared light, and the index of reflection for infrared light exceeds the predetermined index of reflection.SELECTED DRAWING: Figure 2

Description

本発明は、監視すべき監視対象である被監視者の頭部を検出する頭部検出装置および頭部検出方法に関する。そして、本発明は、この頭部検出装置を用いた被監視者監視装置に関する。   The present invention relates to a head detection device and a head detection method for detecting the head of a monitored person to be monitored. And this invention relates to the to-be-monitored person monitoring apparatus using this head detection apparatus.

我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。また、2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、高齢化社会ではない通常の社会で生じる、病気や怪我や高齢等による看護や介護を必要とする要看護者よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、看護や介護の必要な高齢者を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。   Japan's aging society, which is the ratio of the population over the age of 65 to the total population, is due to the improvement of living standards following the postwar high economic growth, the improvement of the sanitation environment and the improvement of medical care. Has become a super-aging society with over 21%. Also, in 2005, the total population was about 127.65 million, compared with about 25.56 million for the elderly population aged 65 and over, in 2020 the total population was about 124.11 million. The elderly population is expected to be about 34.56 million. Such an aging society is expected to increase compared to the number of nurses who need nursing or nursing care due to illness, injury or old age, which occurs in a normal society that is not an aging society. And Japan is also a low birthrate society, for example, with a total fertility rate of 1.43 in 2013. Therefore, old-age care for elderly people (spouses, children, brothers) taking care of old people who need nursing or care has also been awake.

要看護者や要介護者は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの問題がある。このような事態に対し、可及的速やかに対応する必要があり、また、このような事態を放置しておくとさらに大きな問題に発展してしまう可能性もあるため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。   Those who need nursing care and those who need nursing care enter facilities such as hospitals and welfare facilities for the elderly (in Japan, the facilities for entering the elderly for the elderly, nursing homes for the elderly and special nursing homes for the elderly, etc.) and receive their nursing and nursing care. In such a facility, there is a problem that a nurse who needs care is injured, for example, by falling from a bed or falling while walking, or he gets out of bed and hesitates. It is necessary to respond to such a situation as quickly as possible, and if such a situation is left as it is, there is a possibility that it will develop into a bigger problem. And carers, etc., have confirmed their safety and condition by patrolling regularly.

しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。   However, the number of nurses etc. can not keep up with the number of nurses etc., and the nursing industry and the care industry are chronically understaffed. Furthermore, since the number of nurses and carers etc. decreases during the night shift and night shift hours compared with the day shift hours, the workload per person increases, so it is required to reduce the load. In addition, the elderly care is not an exception at the facilities, and it is often seen that an elderly nurse or the like cares for an elderly nurse or the like. Generally, when you get older, your physical strength declines, and even if you are healthy, the burden of nursing etc. becomes heavier than younger nurses and so on, and its movement and judgment also become slower.

このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視装置が研究、開発されている。   In order to reduce such labor shortages and the burden of nurses etc., there is a need for techniques that complement nursing work and care work. For this reason, in recent years, a monitored person monitoring device for monitoring (monitoring) a monitored person to be monitored such as a nurse who needs to be monitored has been researched and developed.

このような技術の一つとして、例えば特許文献1に開示された転倒検知装置がある。この特許文献1に開示された転倒検知装置は、カメラと、カメラが出力する映像信号を取り込み、取り込まれた画像に対して差分処理を行う画像処理手段と、差分処理によって得られた差分領域の面積に基づいて人体の転倒動作を検知する判断手段とからなる。より具体的には、前記判断手段は、人体における単位時間当たりの面積変化で転倒の有無を判断している。   One such technique is, for example, a fall detection device disclosed in Patent Document 1. The fall detection device disclosed in Patent Document 1 includes a camera, an image processing unit that takes in an image signal output from the camera, and performs difference processing on the captured image, and a difference region obtained by the difference processing. And judging means for detecting a falling motion of the human body based on the area. More specifically, the determination means determines the presence or absence of a fall by the change in area per unit time in the human body.

一方、安否確認の点では、一人暮らしの独居者も前記要看護者等と同様であり、監視対象である被監視者となる。   On the other hand, in terms of safety confirmation, a single person living alone is also the same as the nurse who needs to be a person to be monitored and is a monitored person.

特開2000−207665号公報JP, 2000-207665, A

ところで、転倒の有無によって画像に写る人体の領域の大きさが変化するので、前記特許文献1に開示された転倒検知装置は、人体領域における単位時間当たりの面積変化で転倒を検知しているが、転倒の有無によって画像に写る頭部の領域の大きさも変化するので、頭部領域の大きさによって転倒を検知する手法が考えられる。この手法では、上方から撮像した画像では、頭部は、略円形状に写るので、画像から円形状の領域が頭部領域として検出される。しかしながら、実際の画像には、枕、洗面器、ボール、ゴミ箱および布団の柄等の頭部ではない略円形状の物体も写り込むため、これらの物体の領域が頭部領域として誤検出され、転倒が誤検知されてしまう場合がある。   By the way, since the size of the area of the human body shown in the image changes depending on the presence or absence of the fall, the fall detection device disclosed in Patent Document 1 detects the fall by the area change per unit time in the human body area. Since the size of the head area shown in the image also changes depending on the presence or absence of a fall, a method for detecting a fall based on the size of the head area can be considered. In this method, in the image captured from above, the head appears in a substantially circular shape, so a circular area is detected from the image as the head area. However, since a substantially circular object other than the head such as a pillow, a basin, a ball, a trash can and a futon handle is also included in the actual image, the area of these objects is erroneously detected as a head area, A fall may be misdetected.

一方、これらの物体が定位置に存在すれば、定位置にあるこれら物体の領域を、頭部を検出する領域から予め除くことで、前記誤検知が回避できる。しかしながら、これらの物体は、必ずしも定位置に存在するとは、限らない。   On the other hand, if these objects exist at a fixed position, the false detection can be avoided by previously excluding the regions of the objects at the fixed position from the region for detecting the head. However, these objects do not always exist at fixed positions.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる頭部検出装置および頭部検出方法ならびにこの頭部検出装置を用いた被監視者監視装置を提供することである。   The present invention is an invention made in view of the above-mentioned circumstances, and an object thereof is a head detection device and a head capable of detecting the head of a person to be monitored with high accuracy based on an image taken from above the person to be monitored It is an object of the present invention to provide a part detection method and a monitored person monitoring device using the head detection device.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる頭部検出装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像取得部で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、前記画像取得部で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、前記円形状領域抽出部で抽出した円形状領域、前記低反射率領域抽出部で抽出した低反射率領域および前記マーカー検出部で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、前記頭部選定部は、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えることを特徴とする。好ましくは、上述の頭部検出装置において、前記被監視者全体を撮像できる蓋然性が高いことから、前記画像は、前記被監視者が横臥する寝具における、前記被監視者の頭部が位置すると予定されている予め設定された頭部予定位置の直上から撮像したものである。   As a result of various studies, the present inventor has found that the above object can be achieved by the present invention described below. That is, in the head detection device according to one aspect of the present invention, an image acquisition unit that acquires an image obtained by capturing an image of a person to be monitored from above the person to be monitored, and an image acquired by the image acquisition unit And a circular area extraction unit that extracts a substantially circular area as a circular area, and an area having a predetermined reflectance or less for infrared light based on the image acquired by the image acquisition unit. A low reflectance area extraction unit extracted as a low reflectance area, a marker detection unit detecting a predetermined marker based on the image acquired by the image acquisition unit, and a circular shape extracted by the circular area extraction unit A head selecting unit for selecting the head region based on the region, the low reflectance region extracted by the low reflectance region extraction unit, and the marker detected by the marker detection unit; The head selection unit may The circular shaped area remaining after removing the area having the marker detected by the marker detection unit from the circular shaped area extracted by the shape area extracting unit and the low reflectance area extracted by the low reflectance area extracting unit The head area is selected based on the index area to detect the head, and the marker is distinguishable only by the infrared light, and the reflectance for the infrared light is the predetermined reflectance. It is characterized by exceeding. Preferably, in the head detection apparatus described above, since the probability of being able to image the entire monitored person is high, the image is scheduled when the head of the monitored person is located in the bedclothes where the monitored person is lying down The image is taken from directly above the preset head planned position.

発明者は、種々検討した結果、頭部が赤外光(赤外線)に対し比較的低反射率であることを見出した。この知見から、上記頭部検出装置は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。また、さらにマーカーも考慮するので、さらに精度良く被監視者の頭部を検出できる。また、頭部ではない頭部に近似するものにマーカーを付与することで、上記頭部検出装置は、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者の頭部を検出できる。また、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部での誤検出を低減できる。マーカーを可視できないので、上記頭部検出装置は、被監視者監視装置に搭載された場合に、被監視者にマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。   As a result of various studies, the inventor has found that the head has a relatively low reflectance to infrared light (infrared light). From this finding, the head detection device detects the head in consideration of not only the substantially circular shape but also the reflectance to infrared light, so the head of the person to be monitored is detected based on the image of the person to be monitored from above It is possible to detect a part more accurately. Further, since the marker is also considered, the head of the person to be monitored can be detected more accurately. Further, by adding a marker to a head approximating a head other than the head, the head detection device excludes the circular area having the marker and the low reflectance area, thereby forming the circular area. The non-head portion can be removed from the circular shaped region extracted by the extraction unit and the low reflectance region extracted by the low reflectance region extraction unit, and the head of the person to be monitored can be detected more accurately. Moreover, the misdetection in a marker detection part can be reduced by using the marker which can be identified only by infrared light. Since the marker can not be viewed, the head detection device does not give a sense of discomfort to the monitored person without being aware of the presence of the marker when mounted on the monitored person monitoring device.

また、他の一態様では、これら上述の頭部検出装置において、前記低反射率領域抽出部は、前記円形状領域抽出部で抽出した円形状領域から、所定の反射率以下の領域を低反射率領域として抽出することを特徴とする。   Further, in another aspect, in the above-described head detection device, the low reflectance area extraction unit performs low reflection on a region having a predetermined reflectance or less from a circular region extracted by the circular region extraction unit. It is characterized in that it is extracted as a rate area.

このような頭部検出装置は、前記円形状領域抽出部で抽出した円形状領域を頭部の領域(頭部領域)の候補として絞り込み、この絞り込んだ候補から赤外光に対する反射率を考慮して頭部を検出するので、前記画像取得部で取得した画像全体から低反射率領域を抽出する場合に比べて、単に反射率の低いものを誤検出することを低減できる。   Such a head detection device narrows the circular area extracted by the circular area extraction unit as a candidate for the head area (head area), and considers the reflectance to infrared light from the narrowed candidates Since the head is detected, it is possible to reduce erroneous detection of an object having a low reflectance as compared with the case where a low reflectance area is extracted from the entire image acquired by the image acquisition unit.

また、他の一態様では、これら上述の頭部検出装置において、前記円形状領域抽出部は、前記低反射率領域抽出部で抽出した低反射率領域から、略円形状の領域を円形状領域として抽出することを特徴とする。   Further, in another aspect, in the head detection device described above, the circular area extraction unit is configured to generate a substantially circular area from the low reflectance area extracted by the low reflectance area extraction section. It is characterized by being extracted as

このような頭部検出装置は、前記低反射率領域抽出部で抽出した低反射率領域を頭部領域の候補として絞り込み、この絞り込んだ候補から略円形状を考慮して頭部を検出するので、前記画像取得部で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。   Such a head detection device narrows down the low reflectance area extracted by the low reflectance area extraction unit as a head area candidate, and detects the head from the narrowed down candidates in consideration of the substantially circular shape. The amount of information processing can be reduced compared to the case where a substantially circular circular area is extracted from the entire image acquired by the image acquisition unit.

また、他の一態様では、これら上述の頭部検出装置において、前記マーカーは、特定の形状を持つマーカーであることを特徴とする。   In another aspect, in the above-described head detection device, the marker is a marker having a specific shape.

このような頭部検出装置は、特定の形状を持つマーカーを用いることで、マーカー検出部での誤検出を低減できる。   Such a head detection device can reduce false detection in the marker detection unit by using a marker having a specific shape.

そして、本発明の他の一態様にかかる頭部検出方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記画像取得工程で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、前記画像取得工程で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程とを備え、前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程とを備え、前記頭部選定工程は、前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えることを特徴とする。   In the head detection method according to another aspect of the present invention, an image acquisition step of acquiring an image obtained by capturing an image of a person to be monitored from above the person to be monitored, and the image acquisition step Based on the extracted image, a circular area extraction step of extracting a substantially circular area as a circular area, and a predetermined reflectance for infrared light based on the image acquired in the image acquisition step An area is extracted as a low reflectance area, a low reflectance area extraction process, a circular shaped area extracted in the circular shape area extraction process, and a low reflectance area extracted in the low reflectance area extraction process A head selecting step of selecting an area and detecting the head, and a marker detecting step of detecting a predetermined marker based on the image acquired in the image acquiring step, the head selecting step Is the circular area The remaining circular shape area and the low reflectance area except the circular shape area extracted in the extraction process and the low reflectance area extracted in the low reflectance area extraction process excluding the area having the marker detected in the marker detection process Selecting the area of the head based on the detection of the head, and the marker is distinguishable only by the infrared light, and the reflectance for the infrared light exceeds the predetermined reflectance It is characterized by

このような頭部検出方法は、略円形状だけでなく赤外光に対する反射率も考慮して頭部を検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。   Since such a head detection method detects the head in consideration of not only the substantially circular shape but also the reflectance to infrared light, the head of the person to be monitored is detected based on an image of the person to be monitored from above. It can detect more accurately.

さらに、本発明の他の一態様にかかる被監視者監視装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部と、前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、前記頭部検出部は、これら上述のいずれかの頭部検出装置を含むことを特徴とする。   Furthermore, the to-be-monitored person monitoring device according to another aspect of the present invention is a head detection unit that detects a head of a to-be-monitored person to be monitored from an image captured from above the to-be-monitored person; An action detection unit for detecting a predetermined action of the person to be monitored based on the head of the person to be monitored detected by a head detection unit, and a notification for notifying the outside of the predetermined action detected by the action detection unit And the head detection unit includes any of the above-described head detection devices.

このような被監視者監視装置は、頭部をこれら上述のいずれかの頭部検出装置を用いて検出するので、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出でき、この結果、被監視者における所定の行動をより精度良く検知できる。   Such a person-to-be-monitored monitoring apparatus detects the head by using any of the above-described head detection devices, so that the head of the person to be monitored can be made more accurate based on an image of the person to be monitored It is possible to detect well, and as a result, it is possible to detect predetermined behavior of the person to be monitored more accurately.

本発明にかかる頭部検出装置および頭部検出方法ならびに被監視者監視装置は、被監視者を上方から撮像した画像に基づき被監視者の頭部をより精度良く検出できる。   The head detection device, the head detection method, and the monitored person monitoring device according to the present invention can more accurately detect the head of the monitored person based on an image obtained by imaging the monitored person from above.

実施形態における被監視者監視システムの構成を示す図である。It is a figure which shows the structure of the to-be-monitored person monitoring system in embodiment. 第1実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 実施形態の被監視者監視システムにおけるセンサ装置の配設の様子を示す図である。It is a figure which shows the mode of arrangement | positioning of the sensor apparatus in the to-be-monitored person monitoring system of embodiment. 第1実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 1st aspect of the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 第1実施形態の被監視者監視システムにおけるセンサ装置によって取得される画像の一例を説明するための図である。It is a figure for demonstrating an example of the image acquired by the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 布団の絵柄を示す図である。It is a figure which shows the pattern of a futon. 第1実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd aspect of the sensor apparatus in the to-be-monitored person monitoring system of 1st Embodiment. 第2実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system of 2nd Embodiment. 第2実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 1st aspect of the sensor apparatus in the to-be-monitored person monitoring system of 2nd Embodiment. 第2実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd aspect of the sensor apparatus in the to-be-monitored person monitoring system of 2nd Embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   Hereinafter, an embodiment according to the present invention will be described based on the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, and abbreviate | omits the description suitably. In the present specification, suffixes are generally indicated by reference numerals without suffixes, and individual configurations are indicated by subscripts.

本被監視者監視装置は、監視対象である被監視者における、予め設定された所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備えるものである。そして、上記被監視者監視装置は、前記被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部をさらに備え、前記行動検知部は、一態様として、前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する。このような被監視者監視装置は、1個の機器として、一体に構成されて実現されて良く、また、システムとして、複数の機器で実現されて良い。そして、被監視者監視装置が複数の機器で実現される場合に、前記行動検知部は、これら複数の機器のうちのいずれに実装されて良い。一例として、ここでは、前記被監視者監視装置がシステムとして複数の機器で実現されている場合について、前記被監視者監視装置の実施形態を説明する。なお、前記被監視者監視装置が1個の機器として一体に構成されて実現される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。また、一例として、ここでは、前記行動検知部が前記頭部検出部および前記通知部と共に後述のセンサ装置SUに実装される場合について、説明するが、このシステムのうちの他の装置、例えば後述の管理サーバ装置SV、固定端末装置SPあるいは携帯端末装置TAに実装される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。   The monitored person monitoring apparatus comprises an activity detecting unit for detecting a predetermined activity set in advance in the monitored person to be monitored, and a notifying unit for notifying the predetermined activity detected by the activity detecting unit to the outside And. And the said to-be-monitored person monitoring apparatus is further provided with the head detection part which detects a head from the image which imaged the said to-be-monitored person from the upper direction of the said to-be-monitored person. The predetermined behavior of the person to be monitored is detected based on the head of the person to be monitored detected by the head detection unit. Such a person-to-be-monitored monitoring apparatus may be realized integrally as one device, or may be realized as a system with a plurality of devices. And when a to-be-monitored person monitoring apparatus is implement | achieved by several apparatuses, the said action detection part may be mounted in any of these several apparatuses. As an example, an embodiment of the monitored person monitoring device will be described here in a case where the monitored person monitoring device is realized by a plurality of devices as a system. In addition, also when the said to-be-monitored person monitoring apparatus is comprised integrally as one apparatus, and implement | achieved, the said to-be-monitored person monitoring apparatus can be comprised similarly to the following description. Also, as an example, the case where the action detection unit is mounted on the sensor device SU described later together with the head detection unit and the notification unit will be described here, but other devices in the system, for example, Also in the case where the management server SV, the fixed terminal SP or the mobile terminal TA is mounted, the above-mentioned person-to-be-monitored monitoring apparatus can be configured as in the following description.

(第1実施形態)
図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、第1実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、実施形態の被監視者監視システムにおけるセンサ装置の配設の様子を示す図である。
First Embodiment
FIG. 1 is a diagram showing a configuration of a monitored person monitoring system in the embodiment. FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the first embodiment. FIG. 3 is a view showing the arrangement of the sensor device in the monitored person monitoring system of the embodiment.

前記被監視者監視装置をシステムとして実現したその一例の第1実施形態における被監視者監視システムMSaは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、図1に示すように、1または複数のセンサ装置SUa(SUa−1〜SUa−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備え、これらは、有線や無線で、LAN(Local Area Network)、電話網およびデータ通信網等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ、ルーターおよびクロスコネクト等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SUa−1〜SUa−4、管理サーバ装置SV、固定端末装置SPおよび複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを含む無線LAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。   The monitored person monitoring system MSa in the first embodiment of the example in which the monitored person monitoring device is realized as a system is a monitored person (observed person) who should be monitored (should watch) The monitoring target person Ob is detected by detecting a predetermined action set in advance in Ob (Ob-1 to Ob-4) and, for example, as shown in FIG. 1, one or a plurality of sensor devices SUa (SUa-1 to SUa-4), management server device SV, fixed terminal device SP, and one or more portable terminal devices TA (TA-1 and TA-2) It is wirelessly connected communicably via a network (network, communication line) NW such as a LAN (Local Area Network), a telephone network, and a data communication network. The network NW may be equipped with relays such as repeaters, bridges, routers, and cross connects that relay communication signals. In the example illustrated in FIG. 1, the plurality of sensor devices SUa-1 to SUa-4, the management server device SV, the fixed terminal device SP, and the plurality of portable terminal devices TA-1 and TA-2 include radios including the access point AP. They are communicably connected to each other by a LAN (for example, a LAN according to the IEEE 802.11 standard) NW.

被監視者監視システムMSaは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSaは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。   The monitored person monitoring system MSa is disposed at an appropriate place according to the monitored person Ob. The monitored person (watching target person) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs care due to a decrease in physical ability or the like, or a single person living alone. In particular, from the viewpoint of enabling early detection and coping, the person to be monitored Ob is a person who needs the detection when a predetermined adverse event such as an abnormal condition occurs in the person. preferable. For this reason, the person-to-be-monitored monitoring system MSa is suitably disposed in buildings such as hospitals, welfare facilities for the elderly and dwelling units according to the type of the person to be monitored Ob. In the example illustrated in FIG. 1, the monitored person monitoring system MS is disposed in a building of a care facility provided with a plurality of living rooms RM in which a plurality of monitored persons Ob reside, and a plurality of rooms such as a nurse station.

センサ装置SUaは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このようなセンサ装置SUaは、例えば、図2に示すように、センサ部1と、音入出力部2と、制御処理部3と、通信インターフェース部(通信IF部)4と、記憶部5とを備える。   The sensor device SUa has a communication function of communicating with the other devices SV, SP, and TA via the network NW, detects the monitored person Ob, and transmits the detection result to the management server device SV. For example, as shown in FIG. 2, such a sensor device SUa includes a sensor unit 1, a sound input / output unit 2, a control processing unit 3, a communication interface unit (communication IF unit) 4, and a storage unit 5. Equipped with

センサ部1は、制御処理部3に接続され、制御処理部3の制御に従って、被監視者Obにおける予め設定された所定の諸量を検出する装置である。前記所定の諸量は、被監視者Obにおける検出すべき所定の行動に応じて適宜に決定される。本実施形態では、前記所定の行動は、被監視者Obの起床、離床、転倒および微体動異常である。これらを検出するために、センサ部1は、例えば、ドップラセンサ11と、カメラ12とを備える。   The sensor unit 1 is a device that is connected to the control processing unit 3 and detects predetermined amounts of predetermined in the monitored person Ob under the control of the control processing unit 3. The predetermined amounts are appropriately determined in accordance with predetermined actions to be detected in the monitored person Ob. In the present embodiment, the predetermined action is the rising, leaving, falling, and movement abnormality of the monitored person Ob. In order to detect these, the sensor unit 1 includes, for example, a Doppler sensor 11 and a camera 12.

ドップラセンサ11は、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサであり、前記ドップラ信号を制御処理部3へ出力する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。   The Doppler sensor 11 is a body movement sensor that transmits a transmission wave, receives a reflection wave of the transmission wave reflected by an object, and outputs a Doppler signal of a Doppler frequency component based on the transmission wave and the reflection wave. And outputting the Doppler signal to the control processing unit 3. The transmission wave may be an ultrasonic wave, a microwave or the like, but in the present embodiment, it is a microwave. The microwave can be transmitted through the clothes and reflected by the body surface of the monitored person Ob, so that the movement of the body surface can be detected even if the monitored person Ob wears clothes, which is preferable.

カメラ12は、制御処理部3に接続され、制御処理部3の制御に従って、画像(画像データ)を生成する装置である。カメラ12は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像を制御処理部3へ出力する。   The camera 12 is a device that is connected to the control processing unit 3 and generates an image (image data) according to the control of the control processing unit 3. The camera 12 is disposed so as to be able to monitor the space (location space, a room RM in the arrangement location in the example shown in FIG. 1) where the monitored subject Ob to be monitored is scheduled to be located, The image pickup target is picked up from above, an image (image data) which looks over the image pickup target is generated, and the image of the pickup target is output to the control processing unit 3.

本実施形態では、図3に示すように、被監視者Ob全体を撮像できる蓋然性が高いことから、カメラ12が、被監視者Obの横臥する例えばベッド等の寝具BTにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように、センサ装置SUは、配設される。センサ装置SUは、前記センサ部1のドップラセンサ11によって、被監視者Obの上方から測定したドップラ信号を取得し、前記センサ部1のカメラ12によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。なお、図5を用いて後述するように、寝具BT上には、枕PIが置かれ、絵柄PTを含む布団BDが掛けられ、被監視者Obの居室RMには、ごみ箱WBおよび洗面器BAが置かれているが、図3には、これらの図示が省略されている。   In the present embodiment, as shown in FIG. 3, since the probability of being able to image the whole of the monitored person Ob is high, the camera 12 is in the bedding BT such as a bed or the like lying on the monitored person Ob. The sensor device SU is disposed so that an imaging target can be imaged from directly above a preset head planned position (usually, the arrangement position of a pillow) where the head is planned to be positioned. The sensor device SU acquires a Doppler signal measured from above the monitored person Ob by the Doppler sensor 11 of the sensor unit 1, and the camera 12 of the sensor unit 1 monitors the monitored person Ob by the monitored person Ob. An image taken from the top, preferably an image taken from directly above the planned head position is obtained. As described later with reference to FIG. 5, a pillow PI is placed on the bedding BT, a duvet BD including a pattern PT is hung, and a trash can WB and a basin BA are placed in the room RM of the monitored person Ob. However, illustration of these is omitted in FIG.

このようなカメラ12は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外光の画像を生成する装置である。このようなカメラ12は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。カメラ12の結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。   Such a camera 12 may be a device that generates an image of visible light, but in the present embodiment, it is a device that generates an image of infrared light so that the monitored person Ob can be monitored even in relatively dark conditions. is there. Such a camera 12 is disposed, for example, in the present embodiment, an imaging optical system for forming an optical image of infrared in an imaging object on a predetermined imaging surface, a light receiving surface being made to coincide with the imaging surface An image sensor that converts an infrared optical image of the imaging target into an electrical signal, and image data processing representing an infrared image of the imaging target by performing image processing on an output of the image sensor It is a digital infrared camera provided with an image processing unit and the like to be generated. In the present embodiment, the imaging optical system of the camera 12 is preferably a wide-angle optical system (a so-called wide-angle lens (including a fisheye lens)) having an angle of view capable of imaging the entire room RM provided.

音入出力部2は、制御処理部3に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、制御処理部3の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。音入出力部2は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。音入出力部2は、外部の音を表す電気信号を制御処理部3へ出力し、また、制御処理部3から入力された電気信号を音の音響振動に変換して出力する。   The sound input / output unit 2 is a circuit connected to the control processing unit 3 for acquiring an external sound and inputting it to the sensor unit SU, and according to the control of the control processing unit 3 according to the electric signal representing the sound It is a circuit for generating and outputting sound. The sound input / output unit 2 includes, for example, a microphone that converts acoustic vibration of sound into an electrical signal, and a speaker that converts the electrical signal of sound into acoustic vibration of sound. The sound input / output unit 2 outputs an electrical signal representing an external sound to the control processing unit 3, and converts the electrical signal input from the control processing unit 3 into acoustic vibration of sound and outputs it.

通信IF部4は、制御処理部3に接続され、制御処理部3の制御に従って通信を行うための通信回路である。通信IF部4は、制御処理部3から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSaのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。通信IF部4は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部3が処理可能な形式のデータに変換して制御処理部3へ出力する。なお、通信IF部4は、さらに、例えば、Bluetooth(登録商標)規格、IrDA(Infrared Data Asscoiation)規格およびUSB(Universal Serial Bus)規格等の規格を用い、外部機器との間でデータの入出力を行うインターフェース回路を備えても良い。   The communication IF unit 4 is a communication circuit that is connected to the control processing unit 3 and performs communication according to the control of the control processing unit 3. The communication IF unit 4 generates a communication signal containing the data to be transferred, which is input from the control processing unit 3, according to the communication protocol used in the network NW of the monitored person monitoring system MSa, and generates the generated communication signal. Transmit to other devices SV, SP, TA via the network NW. The communication IF unit 4 receives communication signals from the other devices SV, SP, and TA via the network NW, extracts data from the received communication signals, and allows the control processing unit 3 to process the extracted data. Data to the control processing unit 3. The communication IF unit 4 further uses, for example, standards such as Bluetooth (registered trademark) standard, IrDA (Infrared Data Association) standard, USB (Universal Serial Bus) standard, etc. to input / output data to / from an external device. May be provided with an interface circuit for

記憶部5は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、センサ部1の出力に基づいて被監視者Obの頭部を検出する頭部検出処理プログラム、センサ部1の出力に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。そして、前記頭部検出処理プログラムには、センサ部1のカメラ12によって取得した画像から被監視者Obの人体領域として動体領域を抽出する動体抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出プログラム、および、前記円形状領域抽出プログラムで抽出した円形状領域および前記低反射率領域抽出プログラムで抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定プログラム等が含まれる。行動検知処理プログラムは、一態様として、前記頭部検出処理プログラムで検出した被監視者Obの頭部に基づいて被監視者Obにおける所定の行動を検知する。前記各種の所定のデータには、これら各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。   The storage unit 5 is a circuit that is connected to the control processing unit 3 and stores various predetermined programs and various predetermined data according to the control of the control processing unit 3. The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing related to monitoring of the monitored person Ob. The monitoring processing program includes a head detection processing program for detecting the head of the person to be monitored Ob based on the output of the sensor unit 1 and a predetermined action on the person to be monitored Ob based on the output of the sensor unit 1. An action detection processing program, a notification processing program for notifying the predetermined action detected by the action detection program to the outside, a moving image captured by the camera 12 by streaming to the fixed terminal apparatus SP or the portable terminal apparatus TA that requested the moving image It includes a streaming processing program to be distributed, and a nurse call processing program for voice communication with the fixed terminal apparatus SP or the portable terminal apparatus TA by using the sound input / output unit 2 or the like. The head detection processing program includes a moving body extraction program for extracting a moving body area as a human body area of the monitored person Ob from an image acquired by the camera 12 of the sensor unit 1, and a moving body area extracted by the moving body extraction program. And a circular area extraction program for extracting a substantially circular area as a circular area, and a low reflectance for an area having a reflectance less than a predetermined reflectance for infrared light based on the moving body area extracted by the moving body extraction program. A head region is selected based on a low reflectance area extraction program to be extracted as an area, a circular shape area extracted by the circular shape area extraction program, and a low reflectance area extracted by the low reflectance area extraction program And a head selection program for detecting the head. The action detection processing program, as one aspect, detects a predetermined action in the monitored person Ob based on the head of the monitored person Ob detected by the head detection processing program. The various predetermined data includes data necessary for executing each of these programs, data necessary for monitoring the monitored person Ob, and the like. The storage unit 5 includes, for example, a ROM (Read Only Memory), which is a nonvolatile storage element, and an EEPROM (Electrically Erasable Programmable Read Only Memory), which is a rewritable nonvolatile storage element. The storage unit 5 includes, for example, a random access memory (RAM) serving as a working memory of the control processing unit 3 that stores data and the like generated during execution of the predetermined program.

制御処理部3は、センサ装置SUaの各部を当該各部の機能に応じてそれぞれ制御し、センサ部1によって被監視者Obにおける予め設定された所定の諸量を検出し、この検出した前記所定の諸量に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3は、前記制御処理プログラムが実行されることによって、制御部31、頭部検出処理部32、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36を機能的に備える。   The control processing unit 3 controls the respective units of the sensor device SUa according to the functions of the respective units, and the sensor unit 1 detects predetermined amounts set in advance in the person to be monitored Ob, and the detected predetermined amount It is a circuit for detecting and notifying a predetermined action in the person to be monitored Ob based on various amounts. The control processing unit 3 includes, for example, a central processing unit (CPU) and peripheral circuits thereof. The control processing unit 3 executes the control processing program to execute the control unit 31, the head detection processing unit 32, the action detection processing unit 33, the notification processing unit 34, the streaming processing unit 35, and the nurse call processing unit 36. Functionally equipped.

制御部31は、センサ装置SUaの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。   The control unit 31 controls each part of the sensor device SUa in accordance with the function of each part, and controls the entire control of the sensor device SU.

頭部検出処理部32は、センサ部1の出力に基づいて被監視者Obの頭部を検出するものである。より具体的には、頭部検出処理部32は、センサ部1のカメラ12で取得した、被監視者Obの上方から撮像した画像に基づいて被監視者Obの頭部を検出する。このために、頭部検出処理部32は、機能的に、動体抽出部321、円形状領域抽出部322、低反射率領域抽出部323および頭部選定部324を備える。   The head detection processing unit 32 detects the head of the monitored person Ob based on the output of the sensor unit 1. More specifically, the head detection processing unit 32 detects the head of the monitored person Ob based on the image captured by the camera 12 of the sensor unit 1 and captured from the upper side of the monitored person Ob. To this end, the head detection processing unit 32 functionally includes a moving body extraction unit 321, a circular area extraction unit 322, a low reflectance area extraction unit 323, and a head selection unit 324.

動体抽出部321は、センサ部1のカメラ12で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出するものである。前記背景差分法では、予め背景画像が求められて前記各種の所定のデータの1つとして記憶部5に予め記憶され、カメラ12によって生成された画像と前記背景画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。前記フレーム差分法では、カメラ12によって生成された、現在のフレームの画像と過去のフレーム(例えば1つ前のフレーム)の画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。動体抽出部321は、この抽出した動体領域を、後述の第1態様の動作では円形状領域抽出部322へ通知する一方、後述の第2態様の動作では低反射率領域抽出部323へ通知する。   The moving body extraction unit 321 extracts a moving body region from the image acquired by the camera 12 of the sensor unit 1 as a human body region of the monitored person Ob by using a method such as a background difference method or an interframe difference method. In the background subtraction method, a background image is obtained in advance and stored in advance in the storage unit 5 as one of the various predetermined data, and the presence or absence of a moving object is obtained from the difference image between the image generated by the camera 12 and the background image. As a result of this determination, if there is a moving body, the area of the moving body is regarded as a moving body area. In the frame difference method, the presence or absence of a moving object is determined from the difference image of the image of the current frame and the image of the past frame (for example, the immediately preceding frame) generated by the camera 12. If there is a region of this moving body, it becomes the moving body region. The moving body extraction unit 321 notifies the extracted moving body region to the circular area extraction unit 322 in the operation of the first mode described later, and notifies the low reflectance area extraction unit 323 in the operation of the second mode described later. .

円形状領域抽出部322は、センサ部1のカメラ12で取得した画像に基づいて、略円形状の領域を円形状領域として抽出するものである。上方から撮像した画像では、頭部は、略円形状に写るので、円形状領域を抽出することで前記頭部の候補となる領域(頭部候補領域)が抽出される。例えば、円形状領域抽出部322は、円形状を抽出するハフ変換を用いることで、センサ部1のカメラ12で取得した画像から円形状領域を抽出する。また例えば、頭部の形状パターンに対応する円形状の形状パターンが予め用意されて前記各種の所定のデータの1つとして記憶部5に予め記憶され、円形状領域抽出部322は、この記憶部5に予め記憶された前記円形状の形状パターンを、センサ部1のカメラ12で取得した画像からパターンマッチングを用いることで探索し、この円形状の形状パターンにマッチングする領域を前記円形状領域として抽出する。より具体的には、第1態様の動作では、円形状領域抽出部322は、動体抽出部321で抽出した動体領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を低反射率領域抽出部323へ通知する。また、第2態様の動作では、円形状領域抽出部322は、後述するように低反射率領域抽出部323で抽出した低反射率領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を頭部選定部324へ通知する。   The circular area extraction unit 322 extracts a substantially circular area as a circular area based on the image acquired by the camera 12 of the sensor unit 1. In the image captured from above, the head appears in a substantially circular shape, so extracting a circular area extracts the area (head candidate area) that is a candidate for the head. For example, the circular area extraction unit 322 extracts the circular area from the image acquired by the camera 12 of the sensor unit 1 by using the Hough transform that extracts the circular shape. Also, for example, a circular shape pattern corresponding to the shape pattern of the head is prepared in advance and stored in advance in the storage unit 5 as one of the various predetermined data, and the circular region extraction unit 322 The circular shape pattern stored in advance in 5 is searched from the image acquired by the camera 12 of the sensor unit 1 by using pattern matching, and an area matching the circular shape pattern is used as the circular area. Extract. More specifically, in the operation of the first aspect, the circular area extraction unit 322 extracts a circular area from the moving body area extracted by the moving body extraction unit 321 by, for example, the Hough transform method or the pattern matching method. The extracted circular area is notified to the low reflectance area extraction unit 323. Further, in the operation of the second aspect, the circular area extraction unit 322 performs, for example, the Hough transform method, the pattern matching method, and the like from the low reflectance area extracted by the low reflectance area extraction section 323 as described later. The circular shape area is extracted by the above, and the extracted circular shape area is notified to the head selection unit 324.

低反射率領域抽出部323は、センサ部1のカメラ12で取得した画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出するものである。頭部は、赤外光に対し比較的低反射率であるので、低反射率領域を抽出することで前記頭部候補領域が抽出される。頭部は、赤外光に対し例えば9%、10%および11%等の低反射率であるので、例えば50%、好ましくは30%、さらに好ましくは10%等が閾値とされ、低反射率領域抽出部323は、センサ部1のカメラ12で取得した画像から前記閾値以下の領域を低反射率領域として抽出する。より具体的には、第1態様の動作では、低反射率領域抽出部323は、円形状領域抽出部322で抽出した円形状領域から、前記閾値以下の領域を低反射率領域として抽出し、この抽出した低反射率領域を頭部選定部324へ通知する。また、第2態様の動作では、低反射率領域抽出部323は、動体抽出部321で抽出した動体領域から、前記前記閾値以下の領域を低反射率領域として抽出し、この抽出した低反射率領域を円形状領域抽出部322へ通知する。   The low reflectance area extraction unit 323 extracts an area having a predetermined reflectance or less with respect to infrared light as a low reflectance area based on the image acquired by the camera 12 of the sensor unit 1. Since the head has a relatively low reflectance for infrared light, the head candidate region is extracted by extracting the low reflectance region. The head has a low reflectance of, for example, 9%, 10% and 11% to infrared light, so 50%, preferably 30%, more preferably 10%, etc. is considered as the threshold, and low reflectance The area extraction unit 323 extracts an area equal to or less than the threshold from the image acquired by the camera 12 of the sensor unit 1 as a low reflectance area. More specifically, in the operation of the first aspect, the low reflectance area extraction unit 323 extracts, from the circular area extracted by the circular area extraction unit 322, an area equal to or less than the threshold as a low reflection area; The extracted low reflectance area is notified to the head selecting unit 324. Further, in the operation of the second aspect, the low reflectance area extraction unit 323 extracts an area equal to or less than the threshold from the moving body area extracted by the moving body extraction unit 321 as the low reflectivity area, and the extracted low reflectivity The area is notified to the circular area extraction unit 322.

頭部選定部324は、前記円形状領域抽出部322で抽出した円形状領域および前記低反射率領域抽出部323で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出するものである。より具体的には、第1態様の動作では、頭部選定部324は、低反射率領域抽出部323で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部33へ通知する。本実施形態では、頭部選定部324は、デフォルトの閾値から所定値ずつ変化させることで低反射率領域が1個になるまで低反射率領域抽出部323に低反射率領域を抽出させ、この1個の低反射率領域を頭部(頭部領域)として選定して前記頭部を検出する。また、第2態様の動作では、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部33へ通知する。本実施形態では、頭部選定部324は、円形状領域抽出部322で抽出される円形状領域が1個になるまで、デフォルトの閾値から所定値ずつ変化させることで低反射率領域抽出部323に低反射率領域を抽出させ、この1個の円形状領域を頭部(頭部領域)として選定して前記頭部を検出する。   The head selecting unit 324 selects a head region based on the circular shaped region extracted by the circular shaped region extracting unit 322 and the low reflectance region extracted by the low reflectance region extracting unit 323, and the head is selected. To detect More specifically, in the operation of the first aspect, the head selection unit 324 selects the area of the head based on the low reflectance area extracted by the low reflectance area extraction unit 323 and detects the head. The action detection processing unit 33 is notified of the detected head (head area). In the present embodiment, the head selection unit 324 causes the low reflectance area extraction unit 323 to extract a low reflectance area until the number of low reflectance areas becomes one by changing the default threshold value by a predetermined value. One low reflectance area is selected as a head (head area) to detect the head. Further, in the operation of the second aspect, the head selection unit 324 selects the area of the head based on the circular area extracted by the circular area extraction unit 322, detects the head, and detects the head. The part (head area) is notified to the action detection processing part 33. In the present embodiment, the head selecting unit 324 changes the predetermined threshold value from the default threshold value by a predetermined value until the number of circular regions extracted by the circular region extracting unit 322 is one. The low reflectance area is extracted, and this one circular area is selected as a head (head area) to detect the head.

行動検知処理部33は、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知するものである。本実施形態では、上述したように、前記所定の行動は、被監視者Obの起床、離床、転倒および微体動異常であり、行動検知処理部33は、センサ部1の出力に基づいて被監視者Obにおける起床、離床、転倒および微体動異常を検知結果として検知し、その検知結果を通知処理部34へ通知する。例えば、行動検知処理部33は、頭部検出処理部32で検出した頭部(頭部領域)の高さ(大きさ)から被監視者Obの姿勢(例えば立位、座位および横臥等)を判定し、この検出した頭部の位置を検出し、これら判定、検出した被監視者Obの姿勢および位置に基づいて前記起床、離床および転倒の別を判定する。例えば、前記頭部(頭部領域)の高さ(大きさ)が寝具BT上に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT内である場合には、被監視者Obが寝具BTで横臥、すなわち、寝ていると、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が座位に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT内である場合には、被監視者Obが起床したと、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が立位に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT外である場合には、被監視者Obが離床したと、行動検知処理部33は、判定できる。また例えば、前記頭部(頭部領域)の高さ(大きさ)が床上に相当する高さ(大きさ)であり、前記頭部(頭部領域)の位置が寝具BT外である場合には、被監視者Obが転倒したと、行動検知処理部33は、判定できる。なお、記憶部5には、前記各種の所定のデータの1つとして、画像上での寝具BTの領域が予め記憶される。また、頭部(頭部領域)の高さは、被監視者Obの上方から画像を取得しているので、頭部(頭部領域)の大きさ(例えば横長、縦長、面積等)から求めることができる。また例えば、行動検知処理部33は、センサ部1のドップラセンサ11によって被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、その胸部の体動における周期の乱れや予め設定された閾値以下である前記胸部の体動における振幅を検知すると、前記微体動異常であると判定する。   The action detection processing unit 33 detects a predetermined action set in advance by the monitored person Ob based on the output of the sensor unit 1. In the present embodiment, as described above, the predetermined action is getting up, leaving, falling, falling or abnormal movement of the monitored subject Ob, and the action detection processing unit 33 selects the target based on the output of the sensor unit 1. Waking up, leaving, falling, and body movement abnormality in the observer Ob are detected as detection results, and the detection results are notified to the notification processing unit 34. For example, from the height (size) of the head (head area) detected by the head detection processing unit 32, the action detection processing unit 33 determines the posture (for example, standing position, sitting position, lying position, etc.) of the monitored person Ob. It judges and detects the position of this detected head, and judges the distinction between the rising, leaving and falling based on the judgment and the detected posture and position of the person to be monitored Ob. For example, when the height (size) of the head (head area) corresponds to the height (size) on the bedding BT, and the position of the head (head area) is in the bedding BT The behavior detection processing unit 33 can determine that the monitored person Ob lays down with the bedding BT, that is, is sleeping. Also, for example, when the height (size) of the head (head area) is the height (size) corresponding to a sitting position, and the position of the head (head area) is in the bedding BT The action detection processing unit 33 can determine that the monitored person Ob has got up. Also, for example, when the height (size) of the head (head area) is the height (size) corresponding to a standing position, and the position of the head (head area) is outside the bedding BT The behavior detection processing unit 33 can determine that the monitored person Ob has left the floor. Also, for example, when the height (size) of the head (head area) corresponds to the height (size) on the floor and the position of the head (head area) is outside the bedding BT The action detection processing unit 33 can determine that the monitored person Ob falls. In addition, the area of the bedding BT on the image is stored in advance in the storage unit 5 as one of the various predetermined data. Further, the height of the head (head area) is obtained from the size of the head (head area) (for example, the horizontal length, the vertical length, the area, etc.) since the image is obtained from above the monitored person Ob. be able to. Further, for example, the behavior detection processing unit 33 detects body motion of the chest (up and down movement of the chest) accompanying the breathing operation of the monitored person Ob by the Doppler sensor 11 of the sensor unit 1, and the cycle in the body motion of the chest is disturbed. When the amplitude in the body movement of the chest which is equal to or less than a preset threshold is detected, it is determined that the micro movement abnormality is present.

通知処理部34は、行動検知処理部33で検知した前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常)を外部に通知するものである。より具体的には、通知処理部34は、検知した前記所定の行動(状態、状況)を表す情報(検知行動情報(本実施形態では起床、離床、転倒および微体動異常のうちの1または複数を表す情報))、前記所定の行動が検知された被監視者Obを特定し識別するための識別子情報(前記被監視者Obを検知しているセンサ装置SUaを特定し識別するための識別子情報)、および、前記所定の行動の検知に用いられた画像等を収容した通信信号(監視情報通信信号)を生成し、通信IF部4で管理サーバ装置SVへ送信する。   The notification processing unit 34 notifies the outside of the predetermined action detected in the action detection processing unit 33 (in the present embodiment, getting up, leaving, falling, and abnormal body movement). More specifically, the notification processing unit 34 is information indicating the detected predetermined action (state, condition) (detected action information (in the present embodiment, one of wake up, leaving, fall, and body movement abnormality or Identifier information for identifying and identifying the monitored person Ob whose predetermined action has been detected)) (an identifier for identifying and identifying the sensor device SUa that is detecting the monitored person Ob) A communication signal (monitoring information communication signal) containing information) and an image etc. used for detection of the predetermined action is generated and transmitted to the management server SV by the communication IF unit 4.

ストリーミング処理部35は、ネットワークNWおよび通信IF部4を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、センサ部1のカメラ12で生成した動画(例えばライブの動画)をストリーミング再生で通信IF部4およびネットワークNWを介して配信するものである。   When the streaming processing unit 35 requests distribution of a moving image from the fixed terminal apparatus SP or the portable terminal apparatus TA via the network NW and the communication IF unit 4, the fixed terminal apparatus SP or the portable terminal apparatus that has made the request A moving image (for example, a live moving image) generated by the camera 12 of the sensor unit 1 is distributed to the TA by streaming reproduction via the communication IF unit 4 and the network NW.

ナースコール処理部36は、被監視者Obからナースコールを受け付ける図略のナースコール押しボタンスイッチでその入力操作を受け付けた場合に、通信IF部4およびネットワークNWを介して、固定端末装置SPまたは携帯端末装置TAとの間で音声通話を可能にするものである。   When the nurse call processing unit 36 receives an input operation with a nurse call push button switch (not shown) that receives a nurse call from the monitored person Ob, the fixed terminal apparatus SP or the fixed terminal apparatus SP via the communication IF unit 4 and the network NW. It enables voice communication with the portable terminal device TA.

図1には、一例として、4個の第1ないし第4センサ装置SUa−1〜SUa−4が示されており、第1センサ装置SUa−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SUa−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SUa−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SUa−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。   Four first to fourth sensor devices SUa-1 to SUa-4 are shown in FIG. 1 as an example, and the first sensor device SUa-1 is a person A who is one of the monitored persons Ob. The second sensor device SUa-2 is disposed in a living room RM-1 (not shown) of Ob-1, and is disposed in a living room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor unit SUa-3 is disposed in a living room RM-3 (not shown) of Mr. C's Ob-3, who is one of the monitored persons Ob, and the fourth sensor unit SUa-4 is It is arrange | positioned by the room RM-4 (not shown) of Mr. D Ob-4 who is one of the to-be-monitored person Ob.

なお、本実施形態では、カメラ12は、画像取得部の一例に相当し、頭部検出処理部32は、頭部検出装置の一例に相当する。すなわち、センサ装置SUaは、頭部検出装置を備えている。   In the present embodiment, the camera 12 corresponds to an example of an image acquisition unit, and the head detection processing unit 32 corresponds to an example of a head detection device. That is, the sensor device SUa includes a head detection device.

管理サーバ装置SVは、ネットワークNWを介して他の装置SUa、SP、TAと通信する通信機能を備え、センサ装置SUaから被監視者Obに関する検知結果および前記被監視者Obの画像を受信して被監視者Obに対する監視に関する情報(監視情報)を管理する機器である。管理サーバ装置SVは、センサ装置SUaから被監視者Obに関する前記検知結果および前記被監視者Obの画像を受信すると、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(監視情報通信信号)を固定端末装置SPおよび携帯端末装置TAに送信する。また、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SPおよび携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。   The management server device SV has a communication function of communicating with the other devices SUa, SP, TA via the network NW, and receives from the sensor device SUa the detection result regarding the monitored person Ob and the image of the monitored person Ob. It is a device that manages information (monitoring information) related to monitoring of the monitored person Ob. When the management server device SV receives the detection result on the monitored person Ob and the image of the monitored person Ob from the sensor device SUa, the management server device stores (records) the monitoring information related to the monitoring of the monitored person Ob and A communication signal (monitoring information communication signal) containing the monitoring information relating to the monitoring of the supervisor Ob is transmitted to the fixed terminal apparatus SP and the portable terminal apparatus TA. Also, the management server SV provides the client with data in response to the request of the client (in the present embodiment, the fixed terminal SP and the portable terminal TA, etc.). Such a management server SV can be configured, for example, by a computer with a communication function.

固定端末装置SPは、ネットワークNWを介して他の装置SUa、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUaで得られた検知結果や画像を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。   The fixed terminal device SP includes a communication function of communicating with other devices SUa, SV, TA via the network NW, a display function of displaying predetermined information, and an input function of inputting predetermined instructions and data. The user interface of the person-to-be-monitored monitoring system MS by inputting predetermined instructions and data given to the management server device SV and the portable terminal device TA, and displaying detection results and images obtained by the sensor device SUa It is a device that functions as (UI). Such fixed terminal apparatus SP can be configured, for example, by a computer with a communication function.

携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUaと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUaに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUaで得られた前記検知結果や画像を表示したり等することによって、被監視者Obに対する監視に関する前記監視情報を受け付けて表示する機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。   The mobile terminal device TA has a communication function of communicating with other devices SV, SP, and SUa via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. It has a call function to be performed, etc. and inputs predetermined instructions and data given to the management server SV and the sensor SUa, or displays the detection result and image obtained by the sensor SUa by notification from the management server SV It is an apparatus which receives and displays the said monitoring information regarding monitoring with respect to the to-be-monitored person Ob by doing etc. Such a portable terminal device TA can be configured by, for example, a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.

次に、本実施形態の動作について説明する。このような構成の被監視者監視システムMSaでは、各装置SUa、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUaでは、その制御処理プログラムの実行によって、制御処理部3には、制御部31、頭部検出処理部32、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36が機能的に構成され、頭部検出処理部32には、動体抽出部321、円形状領域抽出部322、低反射率領域抽出部323および頭部選定部324が機能的に構成される。   Next, the operation of this embodiment will be described. In the monitored person monitoring system MSa having such a configuration, each of the devices SUa, SV, SP, and TA performs initialization of necessary parts when the power is turned on, and starts its operation. Further, in the sensor device SUa, the control processing unit 3 includes the control unit 31, the head detection processing unit 32, the action detection processing unit 33, the notification processing unit 34, the streaming processing unit 35, and the nurse by executing the control processing program. The call processing unit 36 is functionally configured, and in the head detection processing unit 32, the moving body extracting unit 321, the circular area extracting unit 322, the low reflectance area extracting unit 323, and the head selecting unit 324 are functionally configured. Be done.

そして、上記構成の被監視者監視システムMSaは、大略、次の動作によって、各被監視者Obそれぞれを監視している。センサ装置SUaは、所定のサンプリング周期でセンサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得し、行動検知処理部33によって、このサンプリングおよび取得したドップラセンサ11の出力およびカメラ12の画像に基づいて被監視者Obにおける所定の行動(状態、状況)を判定し、この判定の結果、被監視者Obが予め設定された前記所定の行動(例えば、本実施形態では起床、離床、転倒および微体動異常等)であると判定すると、通知処理部34によって、被監視者Obの状態として判定された判定結果を表す判定結果情報や被監視者Obの静止画の画像データ等の監視情報を収容した通信信号(監視情報通信信号)をネットワークNWを介して管理サーバ装置SVへ送信する。なお、起床、離床および転倒を検知するための頭部を検出する動作(頭部検出動作)は、後に詳述する。   The monitored person monitoring system MSa having the above-described configuration monitors each of the monitored persons Ob generally by the following operation. The sensor unit SUa samples the output of the Doppler sensor 11 of the sensor unit 1 at a predetermined sampling cycle and acquires an image by the camera 12. The behavior detection processing unit 33 outputs the sampled and acquired Doppler sensor 11 and the camera A predetermined action (state, condition) in the monitored person Ob is determined based on the 12 images, and as a result of this determination, the predetermined action (for example, wake up in the present embodiment, When it is determined that the bed is falling, falling, a micro-motion abnormality, etc., determination result information indicating the determination result determined as the state of the monitored person Ob by the notification processing unit 34 or the image data of the still image of the monitored person Ob Communication signal (monitoring information communication signal) containing monitoring information such as the above is transmitted to the management server apparatus SV via the network NW. In addition, the operation (head detection operation) of detecting the head for detecting getting up, leaving, and falling will be described in detail later.

管理サーバ装置SVは、前記監視情報通信信号をネットワークNWを介してセンサ装置SUaから受信すると、この監視情報通信信号に収容された判定結果情報や静止画の画像データ等の監視情報をその記憶部に記憶(記録)する。そして、管理サーバ装置SVは、これら判定結果情報や静止画の画像データ等の監視情報を収容した監視情報通信信号を端末装置(本実施形態では固定端末装置SPおよび携帯端末装置TA)へ送信する。これによって被監視者Obの状態(状況)が端末装置SP、TAを介して例えば看護師や介護士等の監視者に報知される。   When the management server SV receives the monitoring information communication signal from the sensor unit SUa via the network NW, the management server SV stores the monitoring information such as the determination result information and the still image data stored in the monitoring information communication signal. Store (Record) Then, the management server device SV transmits a monitoring information communication signal containing monitoring information such as the determination result information and the image data of the still image to the terminal device (the fixed terminal device SP and the portable terminal device TA in the present embodiment). . As a result, the status (condition) of the person to be monitored Ob is notified to the monitor such as a nurse or a care worker via the terminal device SP or TA.

固定端末装置SPおよび携帯端末装置TAは、前記監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この監視情報通信信号に収容された前記監視情報を表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SUa、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obを検知して各被監視者Obを監視している。   When the fixed terminal apparatus SP and the portable terminal apparatus TA receive the monitoring information communication signal from the management server apparatus SV via the network NW, they display the monitoring information contained in the monitoring information communication signal. According to such an operation, the monitored person monitoring system MS detects each monitored person Ob mainly by each sensor device SUa, the management server device SV, the fixed terminal device SP and the portable terminal device TA and detects each monitored person. Ob is monitored.

次に、被監視者監視システムMSaにおける、頭部検出動作について、説明する。図4は、第1実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。図5は、第1実施形態の被監視者監視システムにおけるセンサ装置によって取得される画像の一例を説明するための図である。図6は、布団の絵柄を示す図である。図7は、第1実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。本実施形態におけるセンサ装置SUaは、例えば、図4に示す第1態様の動作によって頭部(頭部領域)を検出し、また例えば、図7に示す第2態様の動作によって頭部(頭部領域)を検出している。以下、前記第1態様の動作をまず説明し、次に、前記第2態様の動作について説明する。   Next, the head detection operation in the monitored person monitoring system MSa will be described. FIG. 4 is a flowchart showing the operation of the first aspect of the sensor device in the monitored person monitoring system of the first embodiment. FIG. 5 is a diagram for explaining an example of an image acquired by the sensor device in the monitored person monitoring system of the first embodiment. FIG. 6 is a diagram showing a pattern of a futon. FIG. 7 is a flowchart showing the operation of the second aspect of the sensor device in the monitored person monitoring system of the first embodiment. The sensor device SUa in this embodiment detects the head (head region) by the operation of the first mode shown in FIG. 4, for example, and also detects the head (head of the second device shown in FIG. 7). Area) is detected. Hereinafter, the operation of the first aspect will be described first, and then the operation of the second aspect will be described.

まず、第1態様の動作について説明する。センサ装置SUaは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。   First, the operation of the first aspect will be described. The sensor device SUa samples the output of the Doppler sensor 11 of the sensor unit 1 at each sampling timing, and operates as follows every time an image is acquired by the camera 12, thereby the head of the monitored person Ob ( The head region is detected, and a predetermined action in the monitored person Ob is detected.

図4において、まず、制御処理部3は、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S11)。カメラ12によって、例えば、図5に示す画像が取得される。この一例の図5に示す画像には、体幹BDおよび略円形状の頭部HDから成る被監視者Obだけでなく、寝具BT、寝具BT上の略円形状の枕PI、寝具BTに掛けられた布団BD、略円形状のごみ箱WBおよび略円形状の洗面器BAが写っている。布団BDは、円形状の絵柄PTを持ち、前記円形状の絵柄PTが前記画像に写っている。このような図5に示す画像に対し、略円形状の領域を抽出する処理だけで頭部HDを検出する場合では、頭部HDが検出されるだけでなく、枕PI、絵柄PT、ごみ箱WBおよび洗面器BAが頭部HDとして誤検出されてしまう虞がある。布団BDの絵柄PTは、図5に示す円形状だけではなく、例えば図6に示す形状も頭部HDとして誤検出されてしまう虞がある。この図6には、八角形(多角形の代表例)、V字状のギザギザで囲まれた略円形状、放射状に8個の三角形で囲まれた略円形状(太陽を模した形状)、放射状に複数の花弁で囲まれた3個の略円形状(花柄を模した3個の形状)、三角形および四角形が図示されている。三角形や四角形は、布団BDの歪みに伴ってその形状が歪むので、略円形状と誤検出される虞がある。このような誤検出を低減するために、本実施形態では、次のように前記画像が処理される。なお、これら枕PI、絵柄PT、ごみ箱WBおよび洗面器BAにおける赤外光に対する反射率は、その材質等により、大略、頭部における赤外光に対する反射率よりも高い(大きい)。   In FIG. 4, first, the control processing unit 3 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 and acquires an image (an image for one frame) from the camera 12 of the sensor unit 1 (S11). For example, an image shown in FIG. 5 is acquired by the camera 12. In the image shown in FIG. 5 of this example, not only the monitored person Ob consisting of the trunk BD and the substantially circular head HD but also the bedding BT, the substantially circular pillow PI on the bedding BT, and the bedding BT are hung The duvet BD, the substantially circular trash can WB and the substantially circular basin BA are shown. The futon BD has a circular pattern PT, and the circular pattern PT is shown in the image. In the case where the head HD is detected only by the process of extracting the substantially circular area from the image shown in FIG. 5, not only the head HD is detected, but also the pillow PI, the pattern PT, and the trash can WB And there is a possibility that basin BA may be misdetected as head HD. The pattern PT of the duvet BD may be erroneously detected as the head HD as well as the circular shape shown in FIG. 5, for example, the shape shown in FIG. In FIG. 6, an octagon (representative example of a polygon), a substantially circular shape surrounded by a V-shaped jagged edge, a substantially circular shape surrounded by eight triangles in a radial shape (shape simulating the sun), Three substantially circular shapes (three shapes imitating a flower pattern), a triangle and a quadrangle that are radially surrounded by a plurality of petals are illustrated. The shape of a triangle or a quadrilateral is distorted with the distortion of the duvet BD, so there is a possibility that it may be erroneously detected as a substantially circular shape. In order to reduce such false detections, in the present embodiment, the image is processed as follows. The reflectance to infrared light in the pillow PI, the pattern PT, the trash can WB and the basin BA is generally higher (larger) than the reflectance to infrared light on the head, depending on the material and the like.

図4に戻って、次に、制御処理部3は、頭部検出処理部32の動体抽出部321によって、このカメラ12によって取得した画像から、例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出する動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S12)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部3は、動体抽出部321によって抽出した前記動体領域を動体抽出部321から円形状領域抽出部322へ通知し、次の処理S13を実行する。   Returning to FIG. 4, next, the control processing unit 3 causes the moving object extraction unit 321 of the head detection processing unit 32 to use, for example, a method such as a background difference method or an interframe difference method from the image acquired by the camera 12. By using it, a moving body area extraction process is performed to extract a moving body area as a human body area of the monitored person Ob, and it is determined whether or not the moving body area is extracted (S12). As a result of this determination, when the moving body area is not extracted (No), the control processing unit 3 ends the processing at this timing, and when the moving body area is extracted (Yes) The control processing unit 3 notifies the moving body region extracted by the moving body extraction unit 321 from the moving body extraction unit 321 to the circular area extraction unit 322, and executes the next process S13.

この処理S13では、制御処理部3は、頭部検出処理部32の円形状領域抽出部322によって、動体抽出部321で抽出された動体領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部3は、円形状領域抽出部322によって抽出した前記円形状領域を円形状領域抽出部322から低反射率領域抽出部323および頭部選定部324へ通知し、次の処理S14を実行する。   In this process S13, the control processing unit 3 uses, for example, a method such as Hough transformation or pattern matching from the moving object region extracted by the moving object extracting unit 321 by the circular region extracting unit 322 of the head detection processing unit 32. Then, a circular area extraction process of extracting a substantially circular area (circular area) is executed to determine whether the circular area is extracted. As a result of this determination, when the circular area is not extracted (No), the control processing unit 3 ends the processing at this timing, and when the circular area is extracted (Yes) The control processing unit 3 notifies the circular area extraction unit 322 of the circular area extracted by the circular area extraction unit 322 from the circular area extraction unit 322 to the low reflectance area extraction unit 323 and the head selection unit 324, and performs the next process Execute S14.

この処理S14では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、円形状領域抽出部322で抽出した円形状領域が複数か否かを判定する。この判定の結果、前記円形状領域が複数ではない場合、すなわち、前記円形状領域が1個である場合(No)には、制御処理部3は、頭部選定部324によって、前記処理S13で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S15を実行する。一方、前記判定の結果、前記円形状領域が複数である場合(Yes)には、制御処理部3は、前記処理S13で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、次の処理S17を実行する。   In the process S14, the control processing unit 3 causes the head selection unit 324 of the head detection processing unit 32 to determine whether the number of circular regions extracted by the circular region extraction unit 322 is more than one. As a result of this determination, when the number of the circular regions is not plural, that is, when the number of the circular regions is one (No), the control processing unit 3 causes the head selection unit 324 to execute the process S13. The extracted circular area is selected as the head (head area), and the head (head area) selected by the head selection unit 324 is sent from the head detection processing unit 32 to the action detection processing unit 33 It notifies and performs the following processing S15. On the other hand, as a result of the determination, if the circular area is plural (Yes), the control processing unit 3 determines that the head (head area) is in the plural circular areas extracted in the process S13. It is assumed that an object other than is also extracted, and the next process S17 is executed.

この処理S17では、制御処理部3は、頭部検出処理部32の低反射率領域抽出部323によって、前記処理S13で円形状領域抽出部322によって抽出した円形状領域から、前記閾値以下の領域を低反射率領域として抽出する低反射率領域抽出処理を実行し、次の処理S18を実行する。   In the process S17, the control processing unit 3 causes the low reflectance area extracting unit 323 of the head detection processing unit 32 to generate an area equal to or less than the threshold from the circular area extracted by the circular area extracting unit 322 in the process S13. The low reflectance area extraction process of extracting the low reflectance area as the low reflectance area is performed, and the next process S18 is performed.

この処理S18では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、低反射率領域抽出部323で抽出した低反射率領域が1個か否かを判定する。この判定の結果、前記低反射率領域が1個である場合(Yes)には、制御処理部3は、頭部選定部324によって、前記処理S17で抽出した前記低反射率領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S15を実行する。一方、前記判定の結果、前記低反射率領域が1個ではない場合、すなわち、前記低反射率領域が複数である場合(No)には、制御処理部3は、前記処理S17で抽出した複数の前記低反射率領域の中に頭部(頭部領域)ではない物体も抽出されているとし、頭部選定部324によって、デフォルトの閾値(例えば50%や30%や10%等)から所定値(例えば0.5%や0.2%等)を減算することで前記閾値を再設定し(S19)、処理を処理S17に戻す。したがって、制御処理部3は、頭部選定部324によって前記デフォルトの閾値から所定値ずつ変化させることで、処理S17における低反射率領域抽出部323による低反射率領域抽出処理の実行によって円形状領域であって低反射率領域が1個になるまで、処理S17ないし処理S19を繰り返す。   In the process S18, the control processing unit 3 determines whether or not the number of low reflectance areas extracted by the low reflectance area extraction unit 323 is one by the head selection unit 324 of the head detection processing unit 32. If it is determined that the number of the low reflectance areas is one as a result of this determination (Yes), the control processing unit 3 causes the head selection unit 324 to display the low reflectance areas extracted in the process S17. The head detection processing unit 32 notifies the behavior detection processing unit 33 of the head (head region) selected by the head selection unit 324, and executes the next process S15. . On the other hand, as a result of the determination, when the number of the low reflectance areas is not one, that is, when the number of the low reflectance areas is plural (No), the control processing unit 3 extracts the plural extracted in the process S17. It is assumed that an object that is not the head (head region) is also extracted in the low reflectance region of the above, and the head selection unit 324 determines a predetermined threshold (for example, 50%, 30%, 10%, etc.) The threshold value is reset by subtracting a value (for example, 0.5%, 0.2%, etc.) (S19), and the process returns to the process S17. Therefore, the control processing unit 3 changes the predetermined threshold value from the default threshold value by the head selection unit 324, thereby performing the low reflectance area extraction process by the low reflectance area extraction unit 323 in the process S17. The processes S17 to S19 are repeated until there is one low reflectance area.

例えば、上述の図5に示す画像では、枕PIや布団BDがずれることによって、また、ごみ箱WBや洗面器BAが動かされることによって、上述の処理S12および処理S13によって、頭部HDだけでなく、枕PI、絵柄PT、ごみ箱WBおよび洗面器BAも円形状領域として抽出される。仮に、絵柄PTが頭部(頭部領域)として誤検出されると、布団BDがずれ落ちた場合に、被監視者Obの転倒転落と誤検知されてしまう。しかしながら、本実施形態では、これら複数の円形状領域に対し、処理S14の実行を介して、処理S17ないし処理S19が実行される。ここで、これら枕PI、絵柄PT、ごみ箱WBおよび洗面器BAは、その素材(例えば布製、金属製、金属コーディング、プラスチック製および籐製等)により、赤外光に対する反射率が頭部における赤外光に対する反射率よりも大略高い(大きい)ので、処理S17ないし処理S19の実行によって、低反射率領域から除かれ、頭部HDのみが低反射率領域として残る。このように赤外光に対する反射率を考慮することで、頭部HDをより精度良く検出できる。   For example, in the image shown in FIG. 5 described above, not only the head HD but also the above-described processing S12 and processing S13 by shifting the pillow PI and the duvet BD and moving the trash can WB and the basin BA. , Pillow PI, pattern PT, trash can WB and basin BA are also extracted as circular shaped areas. If the pattern PT is erroneously detected as a head (head area), the fall of the duvet BD may be erroneously detected as falling of the monitored person Ob. However, in the present embodiment, the processes S17 to S19 are performed on the plurality of circular regions through the execution of the process S14. Here, the pillow PI, the pattern PT, the trash can WB and the basin BA are made of a material (for example, fabric, metal, metal coating, plastic, rattan, etc.), and the infrared reflectance is red at the head Since the reflectance for external light is substantially higher (larger), the execution of the processing S17 to the processing S19 removes it from the low reflectance region, leaving only the head HD as the low reflectance region. By thus considering the reflectance to infrared light, the head HD can be detected more accurately.

図4に戻って、処理S15では、上述の各処理S11〜S14、S17〜S19によって、頭部(頭部領域)が検出されたので、制御処理部3は、行動検知処理部33によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。より具体的には、行動検知処理部33は、前記行動検知処理の一態様として、頭部検出処理部32で検出した頭部(頭部領域)の高さ(大きさ)から被監視者Obの姿勢(例えば立位、座位および横臥等)を判定し、この検出した頭部の位置を検出し、これら判定、検出した被監視者Obの姿勢および位置に基づいて前記起床、離床および転倒の別を判定する。行動検知処理部33は、前記行動検知処理の他の一態様として、センサ部1のドップラセンサ11によって被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、微体動異常の有無を判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部3は、処理S15で検知した前記所定の行動を通知処理部34へ通知し、次の処理S16を実行する。   Referring back to FIG. 4, in the processing S15, the head (head region) is detected by the above-described processing S11 to S14 and S17 to S19. Based on the output of the unit 1, an action detection process for detecting a predetermined action set in advance in the monitored person Ob is executed, and it is determined whether or not the predetermined action is detected. More specifically, the action detection processing unit 33 selects the person to be monitored Ob from the height (size) of the head (head area) detected by the head detection processing unit 32 as one aspect of the action detection processing. Posture (for example, standing position, sitting position, lying position, etc.), the position of the detected head is detected, and based on these positions, the posture and the position of the person to be monitored Ob detected Determine another. The action detection processing unit 33 detects body movement (up and down movement of the chest) associated with the breathing operation of the person Ob to be monitored by the Doppler sensor 11 of the sensor unit 1 as another aspect of the action detection processing. Determine if there is any movement abnormality. As a result of the determination, if the predetermined action is not detected (No), the control processing unit 3 ends the processing at this timing, while the predetermined action (in this embodiment, getting up, If at least one of bed leaving, falling, and body movement abnormality is detected (Yes), the control processing unit 3 notifies the notification processing unit 34 of the predetermined action detected in the processing S15, The next process S16 is performed.

この処理S16では、行動検知処理部33から被監視者Obにおける前記所定の行動が通知されると、通知処理部34は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。   In this process S16, when the predetermined action in the monitored person Ob is notified from the action detection processing unit 33, the notification processing unit 34 notifies that to the management server SV by the above-mentioned monitoring information communication signal, The processing at this timing ends.

次に、第2態様の動作について説明する。センサ装置SUaは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。   Next, the operation of the second aspect will be described. The sensor device SUa samples the output of the Doppler sensor 11 of the sensor unit 1 at each sampling timing, and operates as follows every time an image is acquired by the camera 12, thereby the head of the monitored person Ob ( The head region is detected, and a predetermined action in the monitored person Ob is detected.

図7において、まず、制御処理部3は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S21)。   In FIG. 7, first, the control processing unit 3 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 in the same manner as the process S11 described above, and an image (image for one frame) from the camera 12 of the sensor unit 1. Acquire (S21).

次に、制御処理部3は、上述の処理S12と同様に、頭部検出処理部32の動体抽出部321によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S22)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部3は、動体抽出部321によって抽出した前記動体領域を動体抽出部321から低反射率領域抽出部323へ通知し、次の処理S23を実行する。   Next, the control processing unit 3 executes the moving body region extraction processing by the moving body extraction unit 321 of the head detection processing unit 32 and determines whether the moving body region is extracted, as in the above-described processing S12. To do (S22). As a result of this determination, when the moving body area is not extracted (No), the control processing unit 3 ends the processing at this timing, and when the moving body area is extracted (Yes) The control processing unit 3 notifies the low-reflectance area extraction unit 323 of the moving body area extracted by the moving body extraction unit 321 from the moving body extraction unit 321, and executes the next process S23.

この処理S23では、制御処理部3は、頭部検出処理部32の低反射率領域抽出部323によって、前記処理S22で動体抽出部321によって抽出した動体領域から、前記閾値以下の領域を低反射率領域として抽出する低反射率領域抽出処理を実行し、低反射率領域抽出部323によって抽出した前記低反射率領域を低反射率領域抽出部323から円形状領域抽出部322へ通知し、次の処理S24を実行する。   In the processing S23, the control processing unit 3 causes the low reflectance area extraction unit 323 of the head detection processing unit 32 to reduce the reflection of the area below the threshold from the moving body area extracted by the moving body extraction unit 321 in the process S22. Low-reflectance area extraction processing for extracting the low-reflectance area extracted as the low-reflectance area extraction unit 323 is notified from the low-reflectance area extraction unit 323 to the circular area extraction unit 322. Process S24 of FIG.

この処理S24では、制御処理部3は、頭部検出処理部32の円形状領域抽出部322によって、低反射率領域抽出部323で抽出された低反射率領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部3は、円形状領域抽出部322によって抽出した前記円形状領域を円形状領域抽出部322から頭部選定部324へ通知し、次の処理S25を実行する。   In the process S24, the control processing unit 3 performs, for example, Hough transformation, pattern matching, and the like from the low reflectance area extracted by the low reflectance area extraction unit 323 by the circular area extraction unit 322 of the head detection processing unit 32. A circular area extraction process of extracting a substantially circular area (circular area) is executed by using the method of (4), and it is determined whether the circular area is extracted. As a result of this determination, when the circular area is not extracted (No), the control processing unit 3 ends the processing at this timing, and when the circular area is extracted (Yes) The control processing unit 3 notifies the circular area extracted by the circular area extraction unit 322 from the circular area extraction unit 322 to the head selection unit 324, and executes the next process S25.

この処理S25では、制御処理部3は、頭部検出処理部32の頭部選定部324によって、円形状領域抽出部322で抽出した円形状領域が1個か否かを判定する。この判定の結果、前記円形状領域が1個である場合(Yes)には、制御処理部3は、頭部選定部324によって、前記処理S24で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部324によって選定された頭部(頭部領域)を頭部検出処理部32から行動検知処理部33へ通知し、次の処理S26を実行する。一方、前記判定の結果、前記円形状領域が1個ではない場合、すなわち、前記円形状領域が複数である場合(No)には、制御処理部3は、前記処理S24で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、頭部選定部324によって、デフォルトの閾値(例えば50%や30%や10%等)から所定値(例えば0.5%や0.2%等)を減算することで前記閾値を再設定し(S28)、処理を処理S23に戻す。したがって、制御処理部3は、頭部選定部324によって前記デフォルトの閾値から所定値ずつ変化させることで、処理S23における低反射率領域抽出部323による低反射率領域抽出処理の実行によって低反射率領域であって円形状領域が1個になるまで、処理S23〜S25、S28を繰り返す。   In the process S25, the control processing unit 3 causes the head selection unit 324 of the head detection processing unit 32 to determine whether or not there is one circular area extracted by the circular area extraction unit 322. If it is determined that the number of circular regions is one as a result of this determination (Yes), the control processing unit 3 causes the head selecting unit 324 to select the circular regions extracted in the process S24 as the head (head The head detection processing unit 32 notifies the behavior detection processing unit 33 of the head (head region) selected by the head selection unit 324, and the next process S26 is executed. On the other hand, as a result of the determination, when the number of circular regions is not one, that is, when the number of circular regions is plural (No), the control processing unit 3 extracts the plurality of the extracted in the process S24. It is assumed that an object that is not the head (head region) is also extracted in the circular region, and the head selection unit 324 extracts a predetermined value (for example, 50%, 30%, 10%, etc.) The threshold is reset by subtracting 0.5%, 0.2%, etc.) (S28), and the process returns to step S23. Therefore, the control processing unit 3 changes the predetermined threshold value from the default threshold value by the head selection unit 324 so that the low reflectance area extraction process by the low reflectance area extraction unit 323 in the process S23 is performed. The processes S23 to S25 and S28 are repeated until the area is a single circular area.

一方、処理S26では、上述の各処理S21〜S25、S28によって、頭部(頭部領域)が検出されたので、制御処理部3は、上述の処理S15と同様に、前記行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部3は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部3は、処理S26で検知した前記所定の行動を通知処理部34へ通知し、次の処理S27を実行する。   On the other hand, in the processing S26, since the head (head region) is detected by the above-described processing S21 to S25 and S28, the control processing unit 3 executes the action detection processing in the same manner as the processing S15 described above. And determine whether the predetermined action has been detected. As a result of the determination, if the predetermined action is not detected (No), the control processing unit 3 ends the processing at this timing, while the predetermined action (in this embodiment, getting up, If at least one of bed leaving, falling, and body movement abnormality is detected (Yes), the control processing unit 3 notifies the notification processing unit 34 of the predetermined action detected in the processing S26, The next process S27 is executed.

この処理S27では、行動検知処理部33から被監視者Obにおける前記所定の行動が通知されると、通知処理部34は、上述の処理S16と同様に、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。   In the process S27, when the action detection processing unit 33 is notified of the predetermined action in the monitored person Ob, the notification processing unit 34 notifies that by the monitoring information communication signal as in the above-described process S16. The management server SV is notified, and the processing at this timing is ended.

以上説明したように、被監視者監視装置の一例である被監視者監視システムMSaならびに頭部検出装置および頭部検出方法を用いたその一例のセンサ装置SUaは、略円形状だけでなく赤外光に対する反射率も考慮して頭部HDを検出するので、被監視者Obを上方から撮像した画像に基づき被監視者Obの頭部HDをより精度良く検出できる。この結果、上記被監視者監視システムMSaおよびセンサ装置SUaは、被監視者Obにおける所定の行動をより精度良く検知できる。   As described above, the monitored person monitoring system MSa which is an example of the monitored person monitoring device, the head detection device, and the sensor device SUa of the example using the head detection method are not only substantially circular but also infrared. Since the head HD is detected in consideration of the reflectance with respect to light, the head HD of the monitored person Ob can be detected more accurately based on the image captured from the upper side of the monitored person Ob. As a result, the to-be-monitored person monitoring system MSa and the sensor device SUa can detect a predetermined action in the to-be-monitored person Ob more accurately.

また、上記被監視者監視システムMSaおよびセンサ装置SUaは、上述の第1態様の動作において、円形状領域抽出部322で抽出した円形状領域を頭部領域の候補として絞り込み、この絞り込んだ候補から赤外光に対する反射率を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から低反射率領域を抽出する場合に比べて、単に反射率の低いものを誤検出することを低減できる。   Further, in the operation of the above-described first aspect, the monitored person monitoring system MSa and the sensor device SUa narrow down the circular area extracted by the circular area extraction unit 322 as a head area candidate, and use the narrowed down candidates Since the head HD is detected in consideration of the reflectance to infrared light, it is possible to simply erroneously detect one having a low reflectance as compared with the case of extracting a low reflectance region from the entire image acquired by the camera 12 It can be reduced.

また、上記被監視者監視システムMSaおよびセンサ装置SUaは、上述の第2態様の動作において、低反射率領域抽出部323で抽出した低反射率領域を頭部領域の候補として絞り込み、この絞り込んだ候補から略円形状を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。   Further, in the operation of the second aspect described above, the monitored person monitoring system MSa and the sensor device SUa narrow down the low reflectance area extracted by the low reflectance area extraction unit 323 as a head area candidate, and narrow down this Since the head HD is detected in consideration of the substantially circular shape from the candidates, the amount of information processing can be reduced compared to the case where a substantially circular circular region is extracted from the entire image acquired by the camera 12.

なお、上述の実施形態において、頭部ではない頭部に近似するものの誤検出をより低減するために、頭部ではない頭部に近似するものに所定のマーカーが付与されても良い。この場合では、頭部検出装置の一例であるセンサ装置SUaの頭部検出処理部32は、図2に破線で示すように、画像取得部の一例であるセンサ部1のカメラ12で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部325を機能的にさらに備え、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域、低反射率領域抽出部323で抽出した低反射率領域およびマーカー検出部325で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する。このようなセンサ装置SUaは、さらにマーカーも考慮するので、さらに精度良く被監視者Obの頭部を検出できる。   In the above-described embodiment, in order to further reduce false detection of something that approximates a head that is not a head, a predetermined marker may be added to something that approximates a head that is not a head. In this case, the head detection processing unit 32 of the sensor device SUa, which is an example of a head detection device, is obtained by the camera 12 of the sensor unit 1, which is an example of an image acquisition unit, as shown by a dashed line in FIG. The head selecting unit 324 is functionally further provided with a marker detecting unit 325 for detecting a predetermined marker based on the image, and the head selecting unit 324 includes a circular region extracted by the circular region extracting unit 322 and a low reflectance region extracting unit 323. An area of the head is selected based on the extracted low reflectance area and the marker detected by the marker detection unit 325 to detect the head. Such a sensor device SUa can also detect the head of the person Ob who is to be monitored with higher accuracy because it also considers markers.

より具体的には、頭部選定部324は、円形状領域抽出部322で抽出した円形状領域および低反射率領域抽出部323で抽出した低反射率領域からマーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する。この場合、例えば、上述の処理S12において、動体抽出部321で抽出した動体領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記動体領域に対し、上述の以降の各処理S13〜S19が実行される。また例えば、上述の処理S13において、円形状領域抽出部322で抽出された円形状領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域に対し、上述の以降の各処理S14〜S19が実行される。また例えば、上述の処理S17において、低反射率領域抽出部323で抽出された低反射率領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記低反射率領域に対し、上述の以降の各処理S15〜S19が実行される。また例えば、上述の処理S22において、動体抽出部321で抽出した動体領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記動体領域に対し、上述の以降の各処理S23〜S28が実行される。また例えば、上述の処理S23において、低反射率領域抽出部323で抽出された低反射率領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記低反射率領域に対し、上述の以降の各処理S23〜S28が実行される。また例えば、上述の処理S24において、円形状領域抽出部322で抽出された円形状領域から、マーカー検出部325で検出したマーカーを持つ領域を除いた残余の前記円形状領域に対し、上述の以降の各処理S23〜S28が実行される。頭部ではない頭部に近似するものにマーカーを付与することで、このようなセンサ装置SUaは、前記マーカーを持つ前記円形状領域および前記低反射率領域を除くことで、円形状領域抽出部322で抽出した円形状領域および低反射率領域抽出部323で抽出した低反射率領域から頭部ではない前記ものを除くことができ、より精度良く被監視者Obの頭部を検出できる。   More specifically, the head selection unit 324 detects markers detected by the marker detection unit 325 from the circular area extracted by the circular area extraction unit 322 and the low reflectance area extracted by the low reflectance area extraction unit 323. An area of the head is selected based on the remaining circular area excluding the area having the area and the low reflectance area to detect the head. In this case, for example, in the processing S12 described above, the remaining processing areas after removal of the area having the marker detected by the marker detection section 325 from the moving body area extracted by the moving body extraction section 321 S13 to S19 are executed. Also, for example, in the above-described processing S13, the remaining circular regions excluding the region having the marker detected by the marker detection unit 325 from the circular region extracted by the circular region extraction unit 322 are described above Each process S14 to S19 is executed. Also, for example, with respect to the low reflectance area remaining after excluding the area having the marker detected by the marker detection unit 325 from the low reflectance area extracted by the low reflectance area extraction unit 323 in the above-described processing S17. The subsequent processes S15 to S19 described above are performed. Further, for example, in the process S22 described above, the remaining processes in the moving body area excluding the area having the marker detected by the marker detection unit 325 from the moving body area extracted by the moving body extraction unit 321 S28 is executed. Also, for example, with respect to the low reflectance area remaining after excluding the area having the marker detected by the marker detection unit 325 from the low reflectance area extracted by the low reflectance area extraction unit 323 in the above-described processing S23. The subsequent processes S23 to S28 described above are performed. Further, for example, in the above-described processing S24, the remaining circular regions excluding the region having the marker detected by the marker detection unit 325 from the circular region extracted by the circular region extraction unit 322 are described above The respective processes S23 to S28 are executed. By providing a marker to a head approximating a head that is not the head, such a sensor device SUa removes the circular area having the marker and the low reflectance area, thereby forming a circular area extraction unit. From the circular area extracted in 322 and the low reflectance area extracted by the low reflectance area extraction unit 323, the non-head part can be removed, and the head of the monitored person Ob can be detected more accurately.

このようなマーカーは、好ましくは、特定の形状を持つマーカーである。例えば、ごみ箱WBの縁やベッド等の寝具BTの縁に、例えば矩形形状や円弧形状等のマーカーが貼付される。このようなセンサ装置SUaは、特定の形状を持つマーカーを用いることで、マーカー検出部325での誤検出を低減できる。また好ましくは、前記マーカーは、赤外光でのみ識別可能なマーカーである。この赤外光のみで識別可能な前記マーカーは、好ましくは、赤外光に対する頭部の反射率よりも高い反射率(例えば50%以上の反射率)で赤外光を反射する素材、前記素材で形成されたシール(例えば金属シールや木材シール等)、赤外光に対する頭部の反射率よりも高い反射率(例えば50%以上の反射率)で赤外光を反射する顔料(赤外線反射顔料)で形成された所定の形状、および、生地の織の密度の相違で形成された所定の形状のうちの1または複数の組合せである。例えば、布団BDや枕PIが高い反射率で赤外光を反射する前記素材で作成されることで、布団BDや枕PIにマーカーが付与される(布団BD自体や枕PI自体がマーカーとなる)。また例えば、綿や麻等の天然素材とポリエステル等の化学繊維素材とでは赤外光に対する反射率が異なるため、天然素材(または化学繊維素材)で作成された布団BDや枕PIに、化学繊維素材(または天然素材)の糸を縫い込むことで、布団BDや枕PIにマーカーが付与される。また例えば、織の密度で赤外光に対する反射率が異なるため、織の粗い生地(または織の密な生地)で作成された布団BDや枕PIに、織の密な所定形状の生地(または織の粗い生地)を縫い込むことで、布団BDや枕PIにマーカーが付与される。このようなセンサ装置SUaは、赤外光のみで識別可能なマーカーを用いることで、マーカー検出部325での誤検出を低減できる。マーカーを可視できないので、上記センサ装置SUは、被監視者監視システムMSaに用いられる場合に、被監視者Obにマーカーの存在を認識させることなくマーカーによる違和感を与えることがない。   Such a marker is preferably a marker having a specific shape. For example, a marker having, for example, a rectangular shape or a circular arc shape is attached to the edge of the bedding BT such as the edge of the trash can WB or the bed. Such a sensor device SUa can reduce false detection in the marker detection unit 325 by using a marker having a specific shape. Also preferably, the marker is a marker distinguishable only by infrared light. Preferably, the marker distinguishable only by the infrared light is a material that reflects infrared light with a reflectance (for example, a reflectance of 50% or more) higher than the reflectance of the head to the infrared light, the material In the seal (eg, metal seal, wood seal, etc.) formed by the above, a pigment (infrared reflection pigment) that reflects infrared light with a reflectance (eg, 50% or higher reflectance) higher than the reflectance of the head to infrared light And a combination of one or more of the predetermined shapes formed by the difference in the density of the fabric weave. For example, the duvet BD or pillow PI is made of the above-mentioned material that reflects infrared light with a high reflectance, whereby the duvet BD or pillow PI is provided with a marker (the duvet BD itself or the pillow PI itself is a marker ). Also, for example, since the reflectance to infrared light differs between natural materials such as cotton and hemp and chemical fiber materials such as polyester, chemical fibers can be used for the duvet BD and pillow PI made of natural materials (or chemical fiber materials). By sewing a thread of material (or natural material), a marker is given to the duvet BD and the pillow PI. Also, for example, since the density of the woven fabric differs in reflectance to infrared light, the fabric of the predetermined shape of the woven fabric (or the duvet BD or pillow PI made of the woven rough fabric (or the dense fabric of the woven fabric) A marker is given to the duvet BD and the pillow PI by sewing in a woven rough fabric). Such a sensor apparatus SUa can reduce the erroneous detection in the marker detection part 325 by using the marker which can be identified only with infrared light. Since the marker can not be seen, the sensor device SU does not give a sense of discomfort due to the marker without causing the monitored person Ob to recognize the presence of the marker when used in the monitored person monitoring system MSa.

次に、別の実施形態について説明する。
(第2実施形態)
図8は、第2実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。
Next, another embodiment will be described.
Second Embodiment
FIG. 8 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the second embodiment.

前記被監視者監視装置をシステムとして実現したその一例の第2実施形態における被監視者監視システムMSbは、第1実施形態における被監視者監視システムMSaと同様に、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、1または複数のセンサ装置SUb(SUb−1〜SUb−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備える。すなわち、第2実施形態における被監視者監視システムMSbは、センサ装置SUaに代え、センサ装置SUbを備える点を除き、第1実施形態における被監視者監視システムMSaと同様である。このため、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAの説明を省略する。   The monitored person monitoring system MSb in the second embodiment of the example in which the monitored person monitoring device is realized as a system is monitoring (should be watched) monitoring in the same manner as the monitored person monitoring system MSa in the first embodiment. The monitoring target person Ob is detected by detecting a predetermined behavior set in advance in the monitoring target person (watching target person) Ob (Ob-1 to Ob-4) which is a target (watching target), For example, one or more sensor devices SUb (SUb-1 to SUb-4), management server device SV, fixed terminal device SP, and one or more mobile terminal devices TA (TA-1 and TA-2) Equipped with That is, the monitored person monitoring system MSb in the second embodiment is the same as the monitored person monitoring system MSa in the first embodiment except that the sensor device SUa is provided instead of the sensor device SUa. Therefore, the descriptions of the management server device SV, the fixed terminal device SP, and the portable terminal device TA will be omitted.

センサ装置SUbは、センサ装置SUaと同様に、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このようなセンサ装置SUbは、例えば、図8に示すように、センサ部1と、音入出力部2と、制御処理部6と、通信インターフェース部(通信IF部)4と、記憶部7とを備える。すなわち、センサ装置SUbは、制御処理部3に代え制御処理部6を備え、記憶部5に代え記憶部7を備える点を除き、センサ装置SUaと同様である。このため、センサ部1、音入出力部2および通信IF部4の説明を省略する。   Similar to the sensor device SUa, the sensor device SUb has a communication function of communicating with other devices SV, SP, and TA via the network NW, detects the monitored person Ob, and sends the detection result to the management server device SV. It is an apparatus to transmit. For example, as shown in FIG. 8, such a sensor device SUb includes a sensor unit 1, a sound input / output unit 2, a control processing unit 6, a communication interface unit (communication IF unit) 4, and a storage unit 7. Equipped with That is, the sensor device SUb is the same as the sensor device SUa except that it includes a control processing unit 6 instead of the control processing unit 3 and a storage unit 7 instead of the storage unit 5. Therefore, the description of the sensor unit 1, the sound input / output unit 2 and the communication IF unit 4 is omitted.

記憶部7は、制御処理部6に接続され、制御処理部6の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、センサ部1の出力に基づいて被監視者Obの頭部を検出する頭部検出処理プログラム、センサ部1の出力に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。そして、前記頭部検出処理プログラムには、センサ部1のカメラ12によって取得した画像から被監視者Obの人体領域として動体領域を抽出する動体抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出プログラム、前記動体抽出プログラムで抽出した動体領域に基づいて、所定のマーカーを検出するマーカー検出プログラム、および、前記円形状領域抽出プログラムで抽出した円形状領域および前記マーカー検出プログラムで抽出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定プログラム等が含まれる。行動検知処理プログラムは、一態様として、前記頭部検出処理プログラムで検出した被監視者Obの頭部に基づいて被監視者Obにおける所定の行動を検知する。前記各種の所定のデータには、これら各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。記憶部7は、例えば不揮発性の記憶素子であるROMや書き換え可能な不揮発性の記憶素子であるEEPROM等を備える。そして、記憶部7は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM等を含む。   The storage unit 7 is a circuit which is connected to the control processing unit 6 and stores various predetermined programs and various predetermined data according to the control of the control processing unit 6. The various predetermined programs include, for example, a control processing program such as a monitoring processing program that executes information processing related to monitoring of the monitored person Ob. The monitoring processing program includes a head detection processing program for detecting the head of the person to be monitored Ob based on the output of the sensor unit 1 and a predetermined action on the person to be monitored Ob based on the output of the sensor unit 1. An action detection processing program, a notification processing program for notifying the predetermined action detected by the action detection program to the outside, a moving image captured by the camera 12 by streaming to the fixed terminal apparatus SP or the portable terminal apparatus TA that requested the moving image It includes a streaming processing program to be distributed, and a nurse call processing program for voice communication with the fixed terminal apparatus SP or the portable terminal apparatus TA by using the sound input / output unit 2 or the like. The head detection processing program includes a moving body extraction program for extracting a moving body area as a human body area of the monitored person Ob from an image acquired by the camera 12 of the sensor unit 1, and a moving body area extracted by the moving body extraction program. A circular area extraction program for extracting a substantially circular area as a circular area, a marker detection program for detecting a predetermined marker based on the moving body area extracted by the moving body extraction program, and the circular area extraction And a head selection program for selecting the head region based on the circular region extracted by the program and the marker extracted by the marker detection program. The action detection processing program, as one aspect, detects a predetermined action in the monitored person Ob based on the head of the monitored person Ob detected by the head detection processing program. The various predetermined data includes data necessary for executing each of these programs, data necessary for monitoring the monitored person Ob, and the like. The storage unit 7 includes, for example, a ROM, which is a nonvolatile storage element, and an EEPROM, which is a rewritable nonvolatile storage element. The storage unit 7 includes, for example, a RAM serving as a working memory of the so-called control processing unit 3 that stores data and the like generated during execution of the predetermined program.

制御処理部6は、センサ装置SUbの各部を当該各部の機能に応じてそれぞれ制御し、センサ部1によって被監視者Obにおける予め設定された所定の諸量を検出し、この検出した前記所定の諸量に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部6は、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部6は、前記制御処理プログラムが実行されることによって、制御部61、頭部検出処理部62、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66を機能的に備える。これら制御処理部6における制御部61、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66は、それぞれ、第1実施形態の制御処理部3における制御部31、行動検知処理部33、通知処理部34、ストリーミング処理部35およびナースコール処理部36と同様であるので、その説明を省略する。   The control processing unit 6 controls the respective units of the sensor device SUb according to the functions of the respective units, and the sensor unit 1 detects predetermined amounts set in advance in the person to be monitored Ob, and the detected predetermined amount It is a circuit for detecting and notifying a predetermined action in the person to be monitored Ob based on various amounts. The control processing unit 6 includes, for example, a CPU and its peripheral circuits. The control processing unit 6 executes the control processing program to control the control unit 61, the head detection processing unit 62, the action detection processing unit 63, the notification processing unit 64, the streaming processing unit 65, and the nurse call processing unit 66. Functionally equipped. The control unit 61, the action detection processing unit 63, the notification processing unit 64, the streaming processing unit 65, and the nurse call processing unit 66 in the control processing unit 6 respectively have a control unit 31 in the control processing unit 3 of the first embodiment and an action. Since the detection processing unit 33, the notification processing unit 34, the streaming processing unit 35, and the nurse call processing unit 36 are the same as the detection processing unit 33, the description thereof will be omitted.

頭部検出処理部62は、頭部検出処理部32と同様に、センサ部1の出力に基づいて被監視者Obの頭部を検出するものである。より具体的には、頭部検出処理部62は、センサ部1のカメラ12で取得した、被監視者Obの上方から撮像した画像に基づいて被監視者Obの頭部を検出する。このために、頭部検出処理部62は、機能的に、動体抽出部621、円形状領域抽出部632、マーカー検出部623および頭部選定部624を備える。   The head detection processing unit 62 detects the head of the monitored person Ob based on the output of the sensor unit 1 as the head detection processing unit 32 does. More specifically, the head detection processing unit 62 detects the head of the monitored person Ob based on the image captured by the camera 12 of the sensor unit 1 and captured from above the monitored person Ob. To this end, the head detection processing unit 62 functionally includes a moving body extraction unit 621, a circular area extraction unit 632, a marker detection unit 623, and a head selection unit 624.

体動抽出部621は、動体抽出部321と同様に、センサ部1のカメラ12で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで被監視者Obの人体領域として動体領域を抽出するものである。動体抽出部621は、この抽出した動体領域を、後述の第1態様の動作では円形状領域抽出部622へ通知する一方、後述の第2態様の動作ではマーカー検出部623へ通知する。   Similar to the moving body extraction unit 321, the body movement extraction unit 621 uses a method such as a background difference method or an interframe difference method from an image acquired by the camera 12 of the sensor unit 1 as a human body region of the monitored person Ob. It is to extract a moving body area. The moving body extracting unit 621 notifies the extracted moving body region to the circular area extracting unit 622 in the operation of the first mode described later, and notifies the marker detecting unit 623 in the operation of the second mode described later.

円形状領域抽出部622は、円形状領域抽出部322と同様に、センサ部1のカメラ12で取得した画像に基づいて、略円形状の領域を円形状領域として抽出するものである。より具体的には、第1態様の動作では、円形状領域抽出部622は、動体抽出部621で抽出した動体領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域をマーカー検出部623へ通知する。また、第2態様の動作では、円形状領域抽出部322は、後述するようにマーカー検出部623で検出したマーカーの領域を除く残余の体動領域から、例えば前記ハフ変換の手法や前記パターンマッチングの手法等によって円形状領域を抽出し、この抽出した円形状領域を頭部選定部624へ通知する。   The circular area extraction unit 622 extracts a substantially circular area as a circular area based on the image acquired by the camera 12 of the sensor unit 1 as the circular area extraction unit 322 does. More specifically, in the operation of the first aspect, the circular area extraction unit 622 extracts a circular area from the moving body area extracted by the moving body extraction unit 621, for example, by the Hough transform method or the pattern matching method. The extracted circular area is notified to the marker detection unit 623. Further, in the operation of the second aspect, the circular area extraction unit 322 performs, for example, the Hough transform method or the pattern matching from the remaining body movement area excluding the area of the marker detected by the marker detection unit 623 as described later. A circular area is extracted by the method or the like, and the extracted circular area is notified to the head selecting unit 624.

マーカー検出部623は、センサ部1のカメラ12で取得した画像に基づいて、所定のマーカーを検出するものである。前記所定のマーカーは、上述と同様に、頭部ではない頭部に近似するものの誤検出をより低減するために、頭部ではない頭部に近似するものに付与され、好ましくは、特定の形状を持つマーカーであり、また好ましくは、赤外光でのみ識別可能なマーカーである。より具体的には、第1態様の動作では、マーカー検出部623は、円形状領域抽出部622で抽出した円形状領域から、前記所定のマーカーを検出し、円形状領域抽出部622で抽出した前記円形状領域からこの検出したマーカーを持つ円形状領域を除く残余の円形状領域を頭部選定部624へ通知する。また、第2態様の動作では、マーカー検出部623は、動体抽出部621で抽出した動体領域から、前記所定のマーカーを検出し、動体抽出部621で抽出した動体領域からこの検出したマーカーを持つ体動領域を除く残余の体動領域を円形状領域抽出部622へ通知する。   The marker detection unit 623 detects a predetermined marker based on the image acquired by the camera 12 of the sensor unit 1. The above-mentioned predetermined marker is given to what approximates a head which is not a head in order to reduce false detection of what approximates a head which is not a head, as described above, and preferably, a specific shape The marker is preferably a marker that is distinguishable only by infrared light. More specifically, in the operation of the first aspect, the marker detection unit 623 detects the predetermined marker from the circular area extracted by the circular area extraction unit 622, and the circular area extraction unit 622 extracts the predetermined marker. The remaining circular area excluding the circular area having the detected marker is notified from the circular area to the head selection unit 624. Further, in the operation of the second aspect, the marker detection unit 623 detects the predetermined marker from the moving subject region extracted by the moving subject extraction unit 621 and has the detected marker from the moving subject region extracted by the moving subject extraction unit 621. The remaining body movement area excluding the body movement area is notified to the circular area extraction unit 622.

頭部選定部624は、前記円形状領域抽出部622で抽出した円形状領域および前記マーカー検出部623で抽出した所定のマーカーに基づいて頭部の領域を選定して前記頭部を検出するものである。より具体的には、第1態様の動作では、頭部選定部624は、マーカー検出部623で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知する。また、第2態様の動作では、頭部選定部624は、円形状領域抽出部622で抽出した円形状領域に基づいて頭部の領域を選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知する。   The head selection unit 624 selects the area of the head based on the circular area extracted by the circular area extraction unit 622 and the predetermined marker extracted by the marker detection unit 623, and detects the head. It is. More specifically, in the operation of the first aspect, the head selection unit 624 selects the region of the head based on the marker detected by the marker detection unit 623, detects the head, and detects the head. The part (head area) is notified to the action detection processing part 63. Further, in the operation of the second aspect, the head selection unit 624 selects the area of the head based on the circular area extracted by the circular area extraction unit 622, detects the head, and detects the head. The part (head area) is notified to the action detection processing part 63.

このような構成の被監視者監視システムMSbでは、各装置SUb、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUbでは、その制御処理プログラムの実行によって、制御処理部6には、制御部61、頭部検出処理部62、行動検知処理部63、通知処理部64、ストリーミング処理部65およびナースコール処理部66が機能的に構成され、頭部検出処理部62には、動体抽出部621、円形状領域抽出部622、低反射率領域抽出部623および頭部選定部624が機能的に構成される。そして、上記構成の被監視者監視システムMSbは、センサ装置SUbが後述のように動作する点を除き、上述した被監視者監視システムMSaと同様に動作するので、その説明を省略する。   In the monitored person monitoring system MSb having such a configuration, each of the devices SUb, SV, SP, and TA performs initialization of necessary parts when the power is turned on, and starts its operation. Further, in the sensor device SUb, the control processing unit 6 includes the control unit 61, the head detection processing unit 62, the action detection processing unit 63, the notification processing unit 64, the streaming processing unit 65, and the nurse by executing the control processing program. The call processing unit 66 is functionally configured, and in the head detection processing unit 62, the moving body extracting unit 621, the circular area extracting unit 622, the low reflectance area extracting unit 623 and the head selecting unit 624 are functionally configured Be done. The monitored person monitoring system MSb having the above configuration operates in the same manner as the monitored person monitoring system MSa described above except that the sensor device SUb operates as described later, and thus the description thereof will be omitted.

次に、被監視者監視システムMSbにおける、頭部検出動作について、説明する。図9は、第2実施形態の被監視者監視システムにおけるセンサ装置の第1態様の動作を示すフローチャートである。図10は、第2実施形態の被監視者監視システムにおけるセンサ装置の第2態様の動作を示すフローチャートである。本実施形態におけるセンサ装置SUbは、例えば、図9に示す第1態様の動作によって頭部(頭部領域)を検出し、また例えば、図10に示す第2態様の動作によって頭部(頭部領域)を検出している。以下、前記第1態様の動作をまず説明し、次に、前記第2態様の動作について説明する。   Next, the head detection operation in the monitored person monitoring system MSb will be described. FIG. 9 is a flowchart showing the operation of the first aspect of the sensor device in the monitored person monitoring system of the second embodiment. FIG. 10 is a flowchart showing the operation of the second aspect of the sensor device in the monitored person monitoring system of the second embodiment. The sensor device SUb in the present embodiment detects the head (head area) by the operation of the first mode shown in FIG. 9, for example, and also detects the head (head of the second mode shown in FIG. 10). Area) is detected. Hereinafter, the operation of the first aspect will be described first, and then the operation of the second aspect will be described.

まず、第1態様の動作について説明する。センサ装置SUbは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。   First, the operation of the first aspect will be described. The sensor device SUb samples the output of the Doppler sensor 11 of the sensor unit 1 at each sampling timing, and operates as follows every time an image is acquired by the camera 12, thereby the head of the monitored person Ob ( The head region is detected, and a predetermined action in the monitored person Ob is detected.

図9において、まず、制御処理部6は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S31)。   In FIG. 9, first, the control processing unit 6 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 in the same manner as the above-described processing S11, and an image (image for one frame) from the camera 12 of the sensor unit 1 Acquire (S31).

次に、制御処理部6は、上述の処理S12と同様に、頭部検出処理部62の動体抽出部621によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S32)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部6は、動体抽出部621によって抽出した前記動体領域を動体抽出部621から円形状領域抽出部622へ通知し、次の処理S33を実行する。   Next, the control processing unit 6 executes the moving body region extraction processing by the moving body extraction unit 621 of the head detection processing unit 62 and determines whether the moving body region is extracted, as in the above-described process S12. (S32). As a result of this determination, when the moving body area is not extracted (No), the control processing unit 6 ends the processing at this timing, and when the moving body area is extracted (Yes) The control processing unit 6 notifies the moving body region extracted by the moving body extraction unit 621 from the moving body extraction unit 621 to the circular area extraction unit 622, and executes the next process S33.

この処理S33では、制御処理部6は、頭部検出処理部62の円形状領域抽出部622によって、動体抽出部321で抽出された動体領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を円形状領域抽出部622からマーカー検出部623および頭部選定部624へ通知し、次の処理S34を実行する。   In this process S33, the control processing unit 6 uses the method such as Hough transformation or pattern matching from the moving object region extracted by the moving object extracting unit 321 by the circular region extracting unit 622 of the head detection processing unit 62. Then, a circular area extraction process of extracting a substantially circular area (circular area) is executed to determine whether the circular area is extracted. As a result of this determination, when the circular area is not extracted (No), the control processing unit 6 ends the processing at this timing, and when the circular area is extracted (Yes) The control processing unit 6 notifies the circular area extraction unit 622 of the circular area extracted by the circular area extraction unit 622 to the marker detection unit 623 and the head selection unit 624, and executes the next process S34. Do.

この処理S34では、制御処理部6は、頭部検出処理部62の頭部選定部624によって、円形状領域抽出部622で抽出した円形状領域が複数か否かを判定する。この判定の結果、前記円形状領域が複数ではない場合、すなわち、前記円形状領域が1個である場合(No)には、制御処理部6は、頭部選定部624によって、前記処理S33で抽出した前記円形状領域が頭部(頭部領域)であると選定し、頭部選定部624によって選定された頭部(頭部領域)を頭部検出処理部62から行動検知処理部63へ通知し、次の処理S35を実行する。一方、前記判定の結果、前記円形状領域が複数である場合(Yes)には、制御処理部6は、前記処理S33で抽出した複数の前記円形状領域の中に頭部(頭部領域)ではない物体も抽出されているとし、次の処理S37を実行する。   In the process S34, the control processing unit 6 determines, by the head selection unit 624 of the head detection processing unit 62, whether or not the number of circular regions extracted by the circular region extraction unit 622 is more than one. As a result of this determination, when the number of the circular regions is not plural, that is, when the number of the circular regions is one (No), the control processing unit 6 causes the head selection unit 624 to execute the process S33. The extracted circular area is selected as the head (head area), and the head (head area) selected by the head selection unit 624 is sent from the head detection processing unit 62 to the action detection processing unit 63. It notifies and performs the next process S35. On the other hand, as a result of the determination, if the circular area is plural (Yes), the control processing unit 6 determines that the head (head area) is included in the plural circular areas extracted in the process S33. It is assumed that an object that is not is extracted, and the next process S37 is executed.

この処理S37では、制御処理部6は、頭部検出処理部62のマーカー検出部623によって、円形状領域抽出部622によって抽出した前記円形状領域から所定のマーカーを検出し、円形状領域抽出部622で抽出した前記円形状領域からこの検出したマーカーを持つ円形状領域を除く残余の円形状領域を頭部選定部624へ通知し、頭部選定部624によってマーカー検出部623によって除かれた残余の前記円形状領域を頭部の領域として選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知し、次の処理S35を実行する。なお、制御処理部6は、マーカー検出部623によって除かれた残余の前記円形状領域を頭部の領域としてマーカー検出部623から行動検知処理部63へ通知してもよい。   In step S37, the control processing unit 6 causes the marker detection unit 623 of the head detection processing unit 62 to detect a predetermined marker from the circular area extracted by the circular area extraction unit 622, and the circular area extraction unit The remaining circular area excluding the circular area having the detected marker is notified from the circular area extracted at 622 to the head selecting unit 624, and the remaining part removed by the marker detecting unit 623 by the head selecting unit 624 The circular area is selected as the area of the head to detect the head, the detected head (head area) is notified to the action detection processing unit 63, and the next process S35 is executed. The control processing unit 6 may notify the behavior detection processing unit 63 from the marker detection unit 623 as the remaining circular area removed by the marker detection unit 623 as the area of the head.

この処理S35では、上述の各処理S31〜S34、S37によって、頭部(頭部領域)が検出されたので、制御処理部6は、上述の処理S15と同様に、行動検知処理部63によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部6は、処理S35で検知した前記所定の行動を通知処理部64へ通知し、次の処理S36を実行する。   In the process S35, since the head (head region) is detected by the processes S31 to S34 and S37 described above, the control processing unit 6 causes the behavior detection processing unit 63 to perform the process in the same manner as the process S15 described above. Based on the output of the sensor unit 1, an action detection process for detecting a predetermined action set in advance in the monitored person Ob is executed, and it is determined whether or not the predetermined action has been detected. As a result of the determination, if the predetermined action is not detected (No), the control processing unit 6 ends the processing at this timing, while the predetermined action (in this embodiment, getting up, If at least one of bed leaving, falling, and abnormal body movement is detected (Yes), the control processing unit 6 notifies the notification processing unit 64 of the predetermined action detected in the processing S35, The next process S36 is executed.

この処理S36では、行動検知処理部63から被監視者Obにおける前記所定の行動が通知されると、通知処理部64は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。   In this process S36, when the predetermined action in the monitored person Ob is notified from the action detection processing unit 63, the notification processing unit 64 notifies that to the management server SV by the above-mentioned monitoring information communication signal, The processing at this timing ends.

次に、第2態様の動作について説明する。センサ装置SUbは、各サンプリングタイミングにおいて、センサ部1のドップラセンサ11の出力をサンプリングするとともにカメラ12で画像を取得するごとに、次のように動作することで、被監視者Obの頭部(頭部領域)を検出し、被監視者Obにおける所定の行動を検知している。   Next, the operation of the second aspect will be described. The sensor device SUb samples the output of the Doppler sensor 11 of the sensor unit 1 at each sampling timing, and operates as follows every time an image is acquired by the camera 12, thereby the head of the monitored person Ob ( The head region is detected, and a predetermined action in the monitored person Ob is detected.

図10において、まず、制御処理部6は、上述の処理S11と同様に、センサ部1のドップラセンサ11からドップラ信号を取得し、センサ部1のカメラ12から画像(1フレーム分の画像)を取得する(S41)。   In FIG. 10, first, the control processing unit 6 acquires a Doppler signal from the Doppler sensor 11 of the sensor unit 1 in the same manner as the above-described processing S11, and an image (image for one frame) from the camera 12 of the sensor unit 1. Acquire (S41).

次に、制御処理部6は、上述の処理S12と同様に、頭部検出処理部62の動体抽出部621によって、前記動体領域抽出処理を実行し、前記動体領域が抽出されたか否かを判定する(S42)。この判定の結果、前記動体領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記動体領域が抽出された場合(Yes)には、制御処理部6は、動体抽出部621によって抽出した前記動体領域を動体抽出部621からマーカー検出部623へ通知し、次の処理S43を実行する。   Next, the control processing unit 6 executes the moving body region extraction processing by the moving body extraction unit 621 of the head detection processing unit 62 and determines whether the moving body region is extracted, as in the above-described process S12. (S42). As a result of this determination, when the moving body area is not extracted (No), the control processing unit 6 ends the processing at this timing, and when the moving body area is extracted (Yes) The control processing unit 6 notifies the moving body region extracted by the moving body extraction unit 621 from the moving body extraction unit 621 to the marker detection unit 623, and executes the next process S43.

この処理S43では、制御処理部6は、頭部検出処理部62のマーカー検出部623によって、体動抽出部621によって抽出した前記体動領域から所定のマーカーを検出し、体動抽出部621で抽出した前記体動領域からこの検出したマーカーを持つ体動領域を除く残余の体動領域を円形状領域抽出部622へ通知し、次の処理S44を実行する。   In the processing S43, the control processing unit 6 causes the marker detection unit 623 of the head detection processing unit 62 to detect a predetermined marker from the body movement area extracted by the body movement extraction unit 621, and the body movement extraction unit 621 The remaining body movement area excluding the body movement area having the detected marker is notified from the extracted body movement area to the circular area extraction unit 622, and the next process S44 is performed.

この処理S44では、制御処理部6は、頭部検出処理部62の円形状領域抽出部622によって、マーカー検出部623によってマーカーを持つ体動領域を除いた前記残余の体動領域から、例えばハフ変換やパターンマッチング等の手法を用いることで略円形状の領域(円形状領域)を抽出する円形状領域抽出処理を実行し、前記円形状領域が抽出されたか否かを判定する。この判定の結果、前記円形状領域が抽出されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記円形状領域が抽出された場合(Yes)には、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を円形状領域抽出部622から頭部選定部624へ通知し、頭部選定部624によって円形状領域抽出部622によって抽出した前記円形状領域を頭部の領域として選定して前記頭部を検出し、この検出した頭部(頭部領域)を行動検知処理部63へ通知し、次の処理S45を実行する。なお、制御処理部6は、円形状領域抽出部622によって抽出した前記円形状領域を頭部の領域として円形状領域抽出部622から行動検知処理部63へ通知してもよい。   In the processing S44, the control processing unit 6 causes the circular area extraction unit 622 of the head detection processing unit 62 to, for example, carry out the Hough from the remaining body movement area excluding the body movement area having the marker by the marker detection unit 623. A circular area extraction process for extracting a substantially circular area (circular area) is executed by using a method such as conversion or pattern matching, and it is determined whether the circular area is extracted. As a result of this determination, when the circular area is not extracted (No), the control processing unit 6 ends the processing at this timing, and when the circular area is extracted (Yes) The control processing unit 6 notifies the circular area extraction unit 622 of the circular area extracted by the circular area extraction unit 622 from the circular area extraction unit 622 to the head selection unit 624, and the head selection unit 624 transmits the circular area extraction unit The circular area extracted by 622 is selected as an area of the head, the head is detected, the detected head (head area) is notified to the action detection processing unit 63, and the next process S45 is executed. Do. The control processing unit 6 may notify the behavior detection processing unit 63 from the circular region extraction unit 622 as the region of the head of the circular region extracted by the circular region extraction unit 622.

この処理S45では、上述の各処理S41〜S44によって、頭部(頭部領域)が検出されたので、制御処理部6は、上述の処理S15と同様に、行動検知処理部63によって、センサ部1の出力に基づいて被監視者Obにおける、予め設定された所定の行動を検知する行動検知処理を実行し、前記所定の行動を検知したか否かを判定する。この判定の結果、前記所定の行動が検知されなかった場合(No)には、制御処理部6は、このタイミングでの処理を終了し、一方、前記所定の行動(本実施形態では、起床、離床、転倒および微体動異常のうちの少なくとも1つ)が検知された場合(Yes)には、制御処理部6は、処理S45で検知した前記所定の行動を通知処理部64へ通知し、次の処理S46を実行する。   In this process S45, since the head (head area) is detected by the processes S41 to S44 described above, the control processing unit 6 detects the sensor unit by the action detection processing unit 63 in the same manner as the process S15 described above. Based on the output of 1, an action detection process for detecting a predetermined action set in advance in the monitored person Ob is executed, and it is determined whether or not the predetermined action has been detected. As a result of the determination, if the predetermined action is not detected (No), the control processing unit 6 ends the processing at this timing, while the predetermined action (in this embodiment, getting up, If at least one of bed leaving, falling, and body movement abnormality) is detected (Yes), the control processing unit 6 notifies the notification processing unit 64 of the predetermined action detected in the processing S45, The next process S46 is performed.

この処理S46では、行動検知処理部63から被監視者Obにおける前記所定の行動が通知されると、通知処理部64は、その旨を上述の監視情報通信信号によって管理サーバ装置SVへ通知し、このタイミングでの処理を終了する。   In the process S46, when the action detection processing unit 63 is notified of the predetermined action in the monitored person Ob, the notification processing unit 64 notifies the management server SV of the fact by the monitoring information communication signal. The processing at this timing ends.

以上説明したように、被監視者監視装置の一例である被監視者監視システムMSbならびに頭部検出装置および頭部検出方法を用いたその一例のセンサ装置SUbは、略円形状だけでなくマーカーも考慮して頭部HDを検出するので、被監視者Obを上方から撮像した画像に基づき被監視者Obの頭部HDをより精度良く検出できる。この結果、上記被監視者監視システムMSbおよびセンサ装置SUbは、被監視者Obにおける所定の行動をより精度良く検知できる。   As described above, the monitored person monitoring system MSb, which is an example of the monitored person monitoring device, the head detection device, and the sensor device SUb of the example using the head detection method are not only substantially circular but also markers Since the head HD is detected in consideration, the head HD of the person to be monitored Ob can be detected more accurately based on the image obtained by capturing the person to be monitored Ob from above. As a result, the to-be-monitored person monitoring system MSb and the sensor device SUb can detect predetermined actions in the to-be-monitored person Ob more accurately.

また、上記被監視者監視システムMSbおよびセンサ装置SUbは、上述の第1態様の動作において、円形状領域抽出部622で抽出した円形状領域を頭部領域の候補として絞り込み、この絞り込んだ候補から前記マーカーを持つ前記円形状領域を除くことで、円形状領域抽出部622で抽出した円形状領域から頭部ではない前記ものを除くことができ、より精度良く被監視者Obの頭部HDを検出できる。   Further, in the operation of the first aspect described above, the monitored person monitoring system MSb and the sensor device SUb narrow down the circular shaped area extracted by the circular shaped area extracting unit 622 as the head area candidate, and use the narrowed down candidates By excluding the circular area having the marker, the circular area extracted by the circular area extraction unit 622 can exclude the non-head from the circular area, and the head HD of the person to be monitored Ob can be more accurately detected. It can be detected.

また、上記被監視者監視システムMSbおよびセンサ装置SUbは、上述の第2態様の動作において、体動抽出部621で抽出した体動領域からマーカーを持つ体動領域を除くことで体動領域を絞り込み、この絞り込んだ体動領域から略円形状を考慮して頭部HDを検出するので、カメラ12で取得した画像全体から略円形状の円形状領域を抽出する場合に比べて、情報処理量を低減できる。   Further, in the operation of the second aspect described above, the monitored person monitoring system MSb and the sensor device SUb remove the body motion area by removing the body motion area having the marker from the body motion area extracted by the body motion extracting unit 621. Since the head HD is detected in consideration of the substantially circular shape from the narrowed body movement region, the amount of information processing is compared to the case of extracting the substantially circular circular region from the entire image acquired by the camera 12 Can be reduced.

また、これら上述の実施形態において、寝具BT上は、安全であるという考えから、円形状領域が寝具BTの領域内で検出された場合には、この円形状領域が処理S15、処理S26、処理S35および処理S45それぞれでの前記行動検知処理の対象から除外されても良い。   Further, in the above-described embodiment, in the case where the circular area is detected within the area of the bedding BT, the circular area is the process S15, the process S26, the process S26, in view of the safety on the bedding BT. You may exclude from the object of the said action detection process in each of S35 and process S45.

また、これら上述の実施形態では、センサ装置SUa、SUbが前記行動検知部および前記通知部を備えたが、前記行動検知部および前記通知部は、管理サーバ装置SVに備えられても良く、また、固定端末装置SPに備えられても良く、また、携帯端末装置TAに備えられても良い。このような場合、センサ装置SUa、SUbからネットワークNWを介して被監視者Obの上方から撮像した画像およびドップラ信号を収容した通信信号を受信して取得する通信インターフェース等が、画像取得部の一例および測距部の一部の一例に相当することになる。   Moreover, in these above-mentioned embodiment, although sensor apparatus SUa and SUb were provided with the said action detection part and the said notification part, the said action detection part and the said notification part may be equipped in the management server apparatus SV, and The fixed terminal apparatus SP may be provided, or the mobile terminal apparatus TA may be provided. In such a case, a communication interface or the like that receives and acquires a communication signal containing an image and a Doppler signal captured from above the monitored person Ob from the sensor devices SUa and SUb via the network NW is an example of an image acquisition unit And one example of part of the distance measuring unit.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   While the present invention has been properly and sufficiently described above through the embodiments with reference to the drawings in order to express the present invention, those skilled in the art can easily change and / or improve the above embodiments. It should be recognized that it is possible. Therefore, unless a change or improvement implemented by a person skilled in the art is at a level that deviates from the scope of the claims set forth in the claims, the change or the improvement is the scope of the rights of the claim It is interpreted as being included in

Ob(Ob−1〜Ob−4) 被監視者
NS(NS−1、NS−2) 監視者(ユーザ)
MSa、MSb 被監視者監視システム
SUa、SUb センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA 携帯端末装置
1 センサ部
3、6 制御処理部
4 通信インターフェース部(通信IF部)
5、7 記憶部
11 ドップラセンサ
12 カメラ(画像取得部の一例)
31、61 制御部
32、62 頭部検出処理部
33、63 行動検知処理部
34、64 通知処理部
321、621 動体抽出部
322、622 円形状領域抽出部
323 低反射率領域抽出部
324、624 頭部選定部
325、623 マーカー検出部
Ob (Ob-1 to Ob-4) Monitored person NS (NS-1, NS-2) Observer (user)
MSa, MSb Monitored person monitoring system SUa, SUb Sensor device SV Management server device SP Fixed terminal device TA Portable terminal device 1 Sensor unit 3, 6 Control processing unit 4 Communication interface unit (communication IF unit)
5, 7 storage unit 11 Doppler sensor 12 camera (an example of an image acquisition unit)
31 and 61 control unit 32 and 62 head detection processing unit 33 and 63 action detection processing unit 34 and 64 notification processing unit 321 and 621 moving body extraction unit 322 and 622 circular area extraction unit 323 low reflectance area extraction unit 324 and 624 Head selection unit 325, 623 Marker detection unit

Claims (6)

監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、
前記画像取得部で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出部と、
前記画像取得部で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出部と、
前記画像取得部で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出部と、
前記円形状領域抽出部で抽出した円形状領域、前記低反射率領域抽出部で抽出した低反射率領域および前記マーカー検出部で検出したマーカーに基づいて頭部の領域を選定して前記頭部を検出する頭部選定部とを備え、
前記頭部選定部は、前記円形状領域抽出部で抽出した円形状領域および前記低反射率領域抽出部で抽出した低反射率領域から前記マーカー検出部で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、
前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えること
を特徴とする頭部検出装置。
An image acquisition unit for acquiring an image obtained by capturing a person to be monitored from above the person to be monitored;
A circular area extraction unit that extracts a substantially circular area as a circular area based on the image acquired by the image acquisition unit;
A low reflectance area extraction unit that extracts a region having a predetermined reflectance or less with respect to infrared light as a low reflectance region based on the image acquired by the image acquisition unit;
A marker detection unit configured to detect a predetermined marker based on the image acquired by the image acquisition unit;
The head region is selected based on the circular area extracted by the circular area extraction unit, the low reflectance area extracted by the low reflectance area extraction unit, and the marker detected by the marker detection unit. And a head selection unit for detecting
The head selecting unit is a circular area extracted by the circular area extracting unit, and a low reflectance area extracted by the low reflectance area extracting unit, the remaining area excluding the area having the marker detected by the marker detecting unit. Selecting the area of the head based on the circular area and the low reflectance area, and detecting the head;
The head detection device, wherein the marker is distinguishable only by the infrared light, and the reflectance to the infrared light exceeds the predetermined reflectance.
前記低反射率領域抽出部は、前記円形状領域抽出部で抽出した円形状領域から、所定の反射率以下の領域を低反射率領域として抽出すること
を特徴とする請求項1に記載の頭部検出装置。
The head according to claim 1, wherein the low reflectance area extraction unit extracts an area having a predetermined reflectance or less from the circular area extracted by the circular area extraction unit as a low reflectance area. Part detection device.
前記円形状領域抽出部は、前記低反射率領域抽出部で抽出した低反射率領域から、略円形状の領域を円形状領域として抽出すること
を特徴とする請求項1に記載の頭部検出装置。
The head detection according to claim 1, wherein the circular area extraction unit extracts a substantially circular area as a circular area from the low reflectance area extracted by the low reflectance area extraction section. apparatus.
前記マーカーは、特定の形状を持つマーカーであること
を特徴とする請求項1ないし請求項3のいずれか1項に記載の頭部検出装置。
The head detection device according to any one of claims 1 to 3, wherein the marker is a marker having a specific shape.
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記画像取得工程で取得した画像に基づいて、略円形状の領域を円形状領域として抽出する円形状領域抽出工程と、
前記画像取得工程で取得した前記画像に基づいて、赤外光に対して所定の反射率以下の領域を低反射率領域として抽出する低反射率領域抽出工程と、
前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域に基づいて頭部の領域を選定して前記頭部を検出する頭部選定工程と、
前記画像取得工程で取得した前記画像に基づいて、所定のマーカーを検出するマーカー検出工程とを備え、
前記頭部選定工程は、前記円形状領域抽出工程で抽出した円形状領域および前記低反射率領域抽出工程で抽出した低反射率領域から前記マーカー検出工程で検出したマーカーを持つ領域を除いた残余の前記円形状領域および前記低反射率領域に基づいて頭部の領域を選定して前記頭部を検出し、
前記マーカーは、前記赤外光でのみ識別可能であって、前記赤外光に対する反射率が前記所定の反射率を超えること
を特徴とする頭部検出方法。
An image acquisition step of acquiring an image obtained by photographing a person to be monitored from above the person to be monitored;
A circular area extraction step of extracting a substantially circular area as a circular area based on the image acquired in the image acquisition step;
A low reflectance area extraction process of extracting an area having a predetermined reflectance or less with respect to infrared light as a low reflectance area based on the image acquired in the image acquisition process;
A head selecting step of selecting a head region based on the circular shaped region extracted in the circular shaped region extracting step and the low reflectance region extracted in the low reflectance region extracting step;
And a marker detection step of detecting a predetermined marker based on the image acquired in the image acquisition step.
The head selecting step is the remaining portion excluding the region having the marker detected in the marker detecting step from the circular shaped region extracted in the circular shaped region extracting step and the low reflectance region extracted in the low reflectance region extracting step Selecting the area of the head based on the circular area and the low reflectance area, and detecting the head;
The head detection method, wherein the marker is distinguishable only by the infrared light, and the reflectance to the infrared light exceeds the predetermined reflectance.
監視対象である被監視者を、前記被監視者の上方から撮像した画像から頭部を検出する頭部検出部と、
前記頭部検出部で検出した前記被監視者の頭部に基づいて前記被監視者における所定の行動を検知する行動検知部と、
前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、
前記頭部検出部は、請求項1ないし請求項4のいずれか1項に記載の頭部検出装置を含むこと
を特徴とする被監視者監視装置。
A head detection unit that detects a head of an image of a person to be monitored from an image captured from above the person to be monitored;
An activity detection unit that detects a predetermined activity of the monitored person based on the head of the monitored person detected by the head detection unit;
A notification unit for notifying the outside of the predetermined action detected by the action detection unit;
The said head detection part contains the head detection apparatus of any one of Claims 1-4, The to-be-monitored person monitoring apparatus characterized by these.
JP2019022635A 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device Active JP6737355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022635A JP6737355B2 (en) 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022635A JP6737355B2 (en) 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015140776A Division JP6481537B2 (en) 2015-07-14 2015-07-14 Monitored person monitoring device and monitored person monitoring method

Publications (2)

Publication Number Publication Date
JP2019115052A true JP2019115052A (en) 2019-07-11
JP6737355B2 JP6737355B2 (en) 2020-08-05

Family

ID=67222924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022635A Active JP6737355B2 (en) 2019-02-12 2019-02-12 Head detection device, head detection method, and monitored person monitoring device

Country Status (1)

Country Link
JP (1) JP6737355B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62177689A (en) * 1986-01-30 1987-08-04 Mitsubishi Electric Corp Device for counting the number of persons
JPH1048008A (en) * 1996-08-02 1998-02-20 Omron Corp Attention information measuring method, instrument for the method and various system using the instrument
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2007209008A (en) * 2003-10-21 2007-08-16 Matsushita Electric Ind Co Ltd Surveillance device
JP2012071003A (en) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd Safe nursing system and method for controlling the safe nursing system
JP2013117896A (en) * 2011-12-05 2013-06-13 Saxa Inc Person detection device, person detection method and person detection program
JP2014021619A (en) * 2012-07-13 2014-02-03 Aiphone Co Ltd Patient recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62177689A (en) * 1986-01-30 1987-08-04 Mitsubishi Electric Corp Device for counting the number of persons
JPH1048008A (en) * 1996-08-02 1998-02-20 Omron Corp Attention information measuring method, instrument for the method and various system using the instrument
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2007209008A (en) * 2003-10-21 2007-08-16 Matsushita Electric Ind Co Ltd Surveillance device
JP2012071003A (en) * 2010-09-29 2012-04-12 Omron Healthcare Co Ltd Safe nursing system and method for controlling the safe nursing system
JP2013117896A (en) * 2011-12-05 2013-06-13 Saxa Inc Person detection device, person detection method and person detection program
JP2014021619A (en) * 2012-07-13 2014-02-03 Aiphone Co Ltd Patient recognition device

Also Published As

Publication number Publication date
JP6737355B2 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6115692B1 (en) Behavior detecting device, method and program, and monitored person monitoring device
WO2017082037A1 (en) Central processing device and method for person monitoring system, and person monitoring system
JP6680352B2 (en) Monitored person monitoring apparatus, method and system
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JPWO2017099091A1 (en) Central processing unit and central processing method for monitored person monitoring system, and monitored person monitoring system
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP7044060B2 (en) Observer monitoring device, method and system
JP6870465B2 (en) Observed person monitoring device and its method and monitored person monitoring system
JP6226110B1 (en) Monitored person monitoring apparatus, method and system
WO2017195839A1 (en) Monitored person monitoring system, terminal device, and monitored person monitoring method
JP6696606B2 (en) Care support system, care support method and program
JP6481537B2 (en) Monitored person monitoring device and monitored person monitoring method
JP6737355B2 (en) Head detection device, head detection method, and monitored person monitoring device
WO2016181731A1 (en) Fall detecting device, fall detecting method, and device for monitoring person to be monitored
JP2019197263A (en) System and system control method
JP6946276B2 (en) The terminal device of the monitored person monitoring system, the control method and program of the terminal device, and the monitored person monitoring system
JP6292363B2 (en) Terminal device, terminal device display method, and monitored person monitoring system
JPWO2019073735A1 (en) Monitored person monitoring support system and monitored person monitoring support method
JP7352197B2 (en) Mobile behavior abnormality determination device and method, and monitored person monitoring support system
WO2017141629A1 (en) Terminal device, display method for terminal device, sensor device, and person-to-be-monitored monitoring system
JPWO2019031012A1 (en) BEHAVIOR DETECTION DEVICE AND METHOD, AND MONITORED SUPPORT SUPPORT SYSTEM
WO2017130684A1 (en) Monitored-person monitoring device, method thereof, and system thereof
JPWO2019142449A1 (en) Image recording system and its method and monitored person monitoring support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150