JP6895090B2 - Detection system and display processing method of detection system - Google Patents

Detection system and display processing method of detection system Download PDF

Info

Publication number
JP6895090B2
JP6895090B2 JP2019052766A JP2019052766A JP6895090B2 JP 6895090 B2 JP6895090 B2 JP 6895090B2 JP 2019052766 A JP2019052766 A JP 2019052766A JP 2019052766 A JP2019052766 A JP 2019052766A JP 6895090 B2 JP6895090 B2 JP 6895090B2
Authority
JP
Japan
Prior art keywords
person
image
unit
display
monitored person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019052766A
Other languages
Japanese (ja)
Other versions
JP2019149172A (en
Inventor
山下 雅宣
雅宣 山下
篤広 野田
篤広 野田
琢哉 村田
琢哉 村田
雅史 西角
雅史 西角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JP2019149172A publication Critical patent/JP2019149172A/en
Application granted granted Critical
Publication of JP6895090B2 publication Critical patent/JP6895090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/05Parts, details or accessories of beds
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Description

本発明は、監視すべき監視対象である被監視者を監視する被監視者監視システムに好適に用いられる技術に関する。 The present invention relates to a technique preferably used in a monitored person monitoring system that monitors a monitored person to be monitored.

我が国(日本)は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、病気や怪我や高齢等による看護や介護を必要とする要看護者や要介護者(要看護者等)は、高齢化社会ではない通常の社会で生じる要看護者等よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、高齢な要看護者等を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。 Japan (Japan) is an aging society, more specifically, the ratio of the population aged 65 and over to the total population due to the improvement of living standards, sanitary environment and medical standards accompanying the postwar high economic growth. It is a super-aging society with an aging rate of over 21%. In 2005, the total population of about 127.65 million and the elderly population aged 65 and over was about 25.56 million, while in 2020, the total population of about 124.11 million is elderly. The population is estimated to be about 34.56 million. In such an aging society, the nurses and long-term care recipients who need nursing care or nursing care due to illness, injury, or aging are the nurses who need nursing care in a normal society that is not an aging society. The increase is expected more than the above. Japan is also a society with a declining birthrate, for example, with a total fertility rate of 1.43 in 2013. For this reason, elderly care is also taking place in which elderly families (spouse, children, siblings) care for elderly nurses.

要看護者等は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの事態が生じ得る。このような事態に対し、可及的速やかに対応する必要がある。このような事態を放置しておくとさらに重大な事態に発展してしまう可能性もある。このため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。 Nursing needs are admitted to hospitals and facilities such as welfare facilities for the elderly (short-term admission facilities for the elderly, nursing homes for the elderly, special nursing homes for the elderly, etc. under Japanese law), and receive their nursing and long-term care. In such a facility, a nurse or the like may be injured due to, for example, falling from the bed or falling while walking, or may get out of the bed and wander. It is necessary to respond to such a situation as soon as possible. If such a situation is left unattended, it may develop into a more serious situation. For this reason, at the facility, nurses, caregivers, etc. regularly patrol to confirm their safety and condition.

しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。 However, the increase in the number of nurses cannot keep up with the increase in the number of nurses required, and the nursing industry and the long-term care industry are chronically understaffed. Further, as compared with the day shift time zone, the number of nurses, caregivers, etc. decreases in the semi-night shift time zone and the night shift time zone, so that the work load per person increases. Therefore, it is required to reduce the work load. In addition, the situation of elderly care is no exception in the facility, and it is often seen that elderly nurses and the like care for elderly nurses and the like. In general, as the elderly get older, their physical strength weakens, so even if they are healthy, the burden of nursing etc. becomes heavier than that of young nurses, and their movements and judgments become slower.

このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視技術が研究、開発されている。 In order to reduce such labor shortages and the burden on nurses, there is a need for technology that complements nursing work and long-term care work. For this reason, in recent years, research and development of a monitored person monitoring technique for monitoring (monitoring) a monitored person who is a monitoring target to be monitored, such as a nurse requiring nursing, has been researched and developed.

このような技術の一つとして、例えば特許文献1に開示されたナースコールシステムがある。この特許文献1に開示されたナースコールシステムは、ベッドに設置されて患者が看護師を呼び出すためのナースコール子機と、ナースステーションに設置されて前記ナースコール子機による呼び出しに応答するためのナースコール親機とを有するナースコールシステムであって、ベッド上の患者をベッド上方から撮像するカメラと、前記カメラの撮像映像から、患者が上半身を起こした状態及び患者がベッド上から離れた状態のうち少なくとも一方の発生を判断して注意状態発生信号を出力する状態判断手段とを有し、前記ナースコール親機は、前記注意状態発生信号を受けて報知動作する報知手段を有する。そして、このナースコールシステムは、前記ナースコール子機からの呼び出しに応答するために看護師が携行する携帯端末と、前記注意状態発生信号を受けて、前記カメラの撮像映像を前記携帯端末に送信する通信制御手段とを有する。 As one of such techniques, for example, there is a nurse call system disclosed in Patent Document 1. The nurse call system disclosed in Patent Document 1 is installed in a bed for a patient to call a nurse, and is installed in a nurse station to answer a call by the nurse call slave unit. A nurse call system having a nurse call master unit, in which a camera that images a patient on the bed from above the bed and a state in which the patient is upright and the patient is away from the bed from the images captured by the camera. The nurse call master unit has a state determining means for determining the occurrence of at least one of them and outputting a caution state generating signal, and the nurse call master unit has a notification means for performing a notification operation in response to the caution state generating signal. Then, this nurse call system receives the mobile terminal carried by the nurse to answer the call from the nurse call slave unit and the caution state generation signal, and transmits the captured image of the camera to the mobile terminal. It has a communication control means to be used.

一方、安否確認の点では、一人暮らしの独居者も前記要介護者等と同様であり、被監視対象者となる。 On the other hand, in terms of safety confirmation, a person living alone living alone is the same as the person requiring long-term care, and is a person to be monitored.

特開2014−90913号公報Japanese Unexamined Patent Publication No. 2014-90913

ところで、前記特許文献1に開示されたナースコールシステムのように、カメラの映像が端末装置に表示されると、看護師等の監視者は、要看護者等の被監視者の状況を視覚で把握できるため、便利である。しかしながら、被監視者が小さく写っていたり、表示が低解像度であったり等すると、監視者は、画像中の被監視者を見つけ難い。特に、端末装置が例えばタブレットやスマートフォン等の携帯端末装置である場合、表示画面が比較的小さいため、監視者は、画像中の被監視者を見つけ難い。 By the way, as in the nurse call system disclosed in Patent Document 1, when the image of the camera is displayed on the terminal device, the observer such as a nurse visually observes the situation of the monitored person such as a nurse required. It is convenient because it can be grasped. However, if the monitored person appears small or the display has a low resolution, it is difficult for the watcher to find the monitored person in the image. In particular, when the terminal device is a mobile terminal device such as a tablet or a smartphone, the display screen is relatively small, so that it is difficult for the observer to find the person to be monitored in the image.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、画像中の被監視者を見つけ易くできる検知システムおよび検知システムの表示処理方法を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a detection system capable of easily finding a monitored person in an image and a display processing method of the detection system.

本発明にかかる検知システムは、監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおいて、監視対象である被監視者を撮影した画像データを取得する取得部と、取得した画像データに基づいて、前記被監視者における所定の行動を検知する検知部と、前記検知部により所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成する生成部と、前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示する表示部と、前記表示部を制御する表示処理部とを備え、前記表示部は、所定の操作を行う入力領域を有し、前記表示処理部は、前記入力領域と前記被監視者位置標識とを重ならないように表示位置を変更するThe detection system according to the present invention is a detection system that detects a predetermined action of the monitored person based on the image data obtained by photographing the monitored person as the monitored object, and is the image data obtained by photographing the monitored person as the monitored object. The image data of the acquisition unit for acquiring the image data, the detection unit for detecting a predetermined action in the monitored person based on the acquired image data, and the monitored person for which the predetermined action is detected by the detection unit. Based on this, the generation unit that generates position data indicating the position corresponding to the monitored person, the display unit that displays the image data, the monitored person position indicator based on the position data, and the display unit are controlled. The display processing unit has an input area for performing a predetermined operation, and the display processing unit changes the display position so that the input area and the monitored person position indicator do not overlap with each other. To do .

本発明にかかる検知システムの表示処理方法は、監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおける表示処理方法であって、監視対象である被監視者を撮影した画像データを取得部において取得するステップと、取得した画像データに基づいて、前記被監視者における所定の行動を検知部において検知するステップと、前記所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成部において生成するステップと、前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示部に表示するステップと、前記表示部を制御するステップとを備え、前記表示部は、所定の操作を行う入力領域を有し、前記表示部を制御するステップは、前記入力領域と前記被監視者位置標識とを重ならないように表示位置を変更する Display processing method according detection system of the present invention, based on the image data obtained by photographing the person being monitored which is monitored, a display processing method in the detection system for detecting a predetermined action of the monitored person, the monitored The step of acquiring the image data of the monitored person in the acquisition unit, the step of detecting the predetermined action in the monitored person in the detection unit based on the acquired image data, and the step of detecting the predetermined action. With respect to the monitored person, the step of generating the position data indicating the position corresponding to the monitored person in the generation unit based on the image data, the image data, and the monitored person position based on the position data. The display unit includes a step of displaying a sign on the display unit and a step of controlling the display unit. The display unit has an input area for performing a predetermined operation, and a step of controlling the display unit includes the input area. The display position is changed so as not to overlap with the monitored person position sign .

本発明にかかる検知システムおよび検知システムの表示処理方法は、画像中の被監視者を見つけ易くできる。 The detection system according to the present invention and the display processing method of the detection system can easily find the monitored person in the image.

上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。 The above and other objectives, features and advantages of the present invention will become apparent from the following detailed description and accompanying drawings.

実施形態における被監視者監視システムの構成を示す図である。It is a figure which shows the structure of the monitored person monitoring system in embodiment. 前記被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor device in the said monitored person monitoring system. 第1態様の人物位置データおよび人物位置標識を説明するための図である。It is a figure for demonstrating the person position data and the person position sign of 1st Embodiment. 第2態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。It is a figure for demonstrating the person position data (person area data) and the person position sign of the 2nd aspect. 第3態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。It is a figure for demonstrating the person position data (person area data) and the person position indicator of the 3rd aspect. 第4態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。It is a figure for demonstrating the person position data (person area data) and the person position sign of 4th aspect. 第5態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。It is a figure for demonstrating the person position data (person area data) and the person position sign of 5th aspect. 前記被監視者監視システムにおける携帯端末装置の構成を示す図である。It is a figure which shows the structure of the mobile terminal apparatus in the said person | monitored person monitoring system. 前記被監視者監視システムにおけるセンサ装置の監視情報に関する動作を示すフローチャートである。It is a flowchart which shows the operation about the monitoring information of the sensor device in the monitored person monitoring system. 前記被監視者監視システムにおける携帯端末装置の監視情報に関する動作を示すフローチャートである。It is a flowchart which shows the operation about the monitoring information of the mobile terminal device in the monitored person monitoring system. 前記被監視者監視システムにおける携帯端末装置に表示される待受け画面の一例を示す図である。It is a figure which shows an example of the standby screen displayed on the mobile terminal apparatus in the monitored person monitoring system. 前記被監視者監視システムにおける携帯端末装置に表示される監視情報画面の一例を示す図である。It is a figure which shows an example of the monitoring information screen displayed on the mobile terminal apparatus in the monitored person monitoring system. 前記被監視者監視システムにおける携帯端末装置に表示される、人物の領域を拡大した監視情報画面の一例を示す図である。It is a figure which shows an example of the monitoring information screen which expanded the area of a person, which is displayed on the mobile terminal device in the said person monitoring system. 前記被監視者監視システムにおける携帯端末装置に表示される、人物の領域と「対応する」ボタンとが重なった監視情報画面の一例を示す図である。It is a figure which shows an example of the monitoring information screen which is displayed on the mobile terminal device in the monitored person monitoring system, and the area of a person and the "corresponding" button overlap. 前記被監視者監視システムにおける携帯端末装置に表示される、画像表示領域の中央位置に人物の領域を表示する監視情報画面の一例を示す図である。It is a figure which shows an example of the monitoring information screen which displays the area of a person at the center position of the image display area, which is displayed on the mobile terminal device in the said person monitoring system. 前記被監視者監視システムにおける携帯端末装置に表示される、互いに重ならないように人物の領域と「対応する」ボタンを表示する監視情報画面の一例を示す図である。It is a figure which shows an example of the monitoring information screen which displays the area of a person and the "corresponding" button, which are displayed on the mobile terminal device in the monitored person monitoring system, so that they do not overlap each other.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. It should be noted that the configurations with the same reference numerals in the respective drawings indicate that they are the same configurations, and the description thereof will be omitted as appropriate. In the present specification, when they are generically referred to, they are indicated by reference numerals without subscripts, and when they refer to individual configurations, they are indicated by reference numerals with subscripts.

実施形態における被監視者監視システムは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Obを監視するシステムである。この被監視者監視システムは、センサ装置と、前記センサ装置と通信可能に接続される端末装置とを備え、前記撮像部で撮像された画像に基づいて監視対象である被監視者における所定の行動を検知して検知結果を前記端末装置に報知する。このような被監視者監視システムにおける前記センサ装置は、通信を行う第1通信部と、撮像を行う撮像部と、前記撮像部で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理部と、前記撮像部で撮像された前記画像に基づいて監視対象である被監視者における所定の行動を検知し、検知結果、前記撮像部で撮像した画像の画像データ、および、前記人物位置処理部で生成した人物位置データを収容する監視情報通信信号を前記第1通信部で送信する第1監視処理部とを備える。前記被監視者監視システムにおける前記端末装置は、前記監視情報通信信号を受信する第2通信部と、表示を行う表示部と、前記第2通信部で受信した監視情報通信信号に収容された前記検知結果および前記画像データの画像を前記表示部に表示し、前記監視情報通信信号に収容された前記人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示処理部を有する第2監視処理部とを備える。前記監視情報通信信号は、前記センサ装置から前記端末装置へ直接的に送信されて良く、また、前記センサ装置から他の装置(例えば以下の管理サーバ装置)を介して前記端末装置へ間接的に送信されて良い。なお、前記端末装置は、1種類の装置であって良いが、以下の説明では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用される一方、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点であり、これら固定端末装置と携帯端末装置とは、略同様であるので、以下、携帯端末装置を主に説明する。 The monitored person monitoring system in the embodiment is a system that monitors the monitored person (watching target person) Ob, which is the monitoring target (watching target) to be monitored (watched). This monitored person monitoring system includes a sensor device and a terminal device communicably connected to the sensor device, and a predetermined action in a monitored person to be monitored based on an image captured by the imaging unit. Is detected and the detection result is notified to the terminal device. The sensor device in such a monitored person monitoring system has a first communication unit that communicates, an image pickup unit that performs imaging, and person position data relating to the position of a person in the image captured by the image pickup unit in the image. Based on the image captured by the image pickup unit and the person position processing unit that generates the image, a predetermined action of the monitored person to be monitored is detected, and the detection result is the image data of the image captured by the image pickup unit. It also includes a first monitoring processing unit that transmits a monitoring information communication signal accommodating the person position data generated by the person position processing unit by the first communication unit. The terminal device in the monitored person monitoring system is accommodated in a second communication unit that receives the monitoring information communication signal, a display unit that displays the monitoring information communication signal, and a monitoring information communication signal received by the second communication unit. The detection result and the image of the image data are displayed on the display unit, and the person position indicator indicating the position of the person based on the person position data accommodated in the monitoring information communication signal is displayed in the image displayed on the display unit. It includes a second monitoring processing unit having a display processing unit for displaying. The monitoring information communication signal may be directly transmitted from the sensor device to the terminal device, or indirectly from the sensor device to the terminal device via another device (for example, the following management server device). May be sent. The terminal device may be one type of device, but in the following description, the terminal device is two types of devices, a fixed terminal device and a mobile terminal device. The main difference between these fixed terminal devices and mobile terminal devices is that while fixed terminal devices are operated in a fixed manner, mobile terminal devices are carried and operated by observers (users) such as nurses and caregivers, for example. Since these fixed terminal devices and mobile terminal devices are substantially the same, the mobile terminal device will be mainly described below.

図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、第1態様の人物位置データおよび人物位置標識を説明するための図である。図4は、第2態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図5は、第3態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図6は、第4態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図7は、第5態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図8は、実施形態の被監視者監視システムにおける携帯端末装置の構成を示す図である。 FIG. 1 is a diagram showing a configuration of a monitored person monitoring system according to the embodiment. FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system of the embodiment. FIG. 3 is a diagram for explaining the person position data and the person position sign of the first aspect. FIG. 4 is a diagram for explaining the person position data (person area data) and the person position sign of the second aspect. FIG. 5 is a diagram for explaining the person position data (person area data) and the person position sign of the third aspect. FIG. 6 is a diagram for explaining the person position data (person area data) and the person position sign of the fourth aspect. FIG. 7 is a diagram for explaining the person position data (person area data) and the person position sign of the fifth aspect. FIG. 8 is a diagram showing a configuration of a mobile terminal device in the monitored person monitoring system of the embodiment.

より具体的には、被監視者監視システムMSは、例えば、図1に示すように、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWは、通信信号を中継する例えばリピーター、ブリッジおよびルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA−1、TA−2および構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LSおよびアクセスポイントAPを含む有線および無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SPおよび構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。 More specifically, the monitored person monitoring system MS includes, for example, one or a plurality of sensor devices SU (SU-1 to SU-4), a management server device SV, and a fixed terminal device, as shown in FIG. It is equipped with an SP, one or more mobile terminal devices TA (TA-1, TA-2), and a private branch exchange (PBX, Private branch exchange) CX, which are wired or wireless and are LAN (Local Area Network). Etc. (network, communication line) Connected so that communication is possible via NW. The network NW may be provided with repeaters such as repeaters, bridges and routers that relay communication signals. In the example shown in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, the plurality of mobile terminal devices TA-1, TA-2, and the premises exchange CX are L2 switches. Concentrators (hubs, HUBs) LS and mixed wired and wireless LANs including access point APs (eg LANs according to the 802.11 standard) NWs are communicatively connected to each other. More specifically, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, and the private branch exchange CX are connected to the line concentrator LS, and the plurality of portable terminal devices TA-1 and TA-2 are connected. Is connected to the concentrator LS via the access point AP. Then, the network NW constitutes a so-called intranet by using a group of Internet protocols such as TCP (Transmission Control Protocol) and IP (Internet Protocol).

被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob. The monitored person (person to be watched over) Ob is, for example, a person who needs nursing care due to illness or injury, a person who needs nursing care due to deterioration of physical ability, or a person living alone. In particular, from the viewpoint of enabling early detection and early response, the monitored person Ob may be a person who needs the detection when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable. Therefore, the monitored person monitoring system MS is suitably arranged in a building such as a hospital, a welfare facility for the elderly, and a dwelling unit according to the type of the monitored person Ob. In the example shown in FIG. 1, the monitored person monitoring system MS is arranged in a plurality of living room RMs in which a plurality of monitored person Obs move in, or in a building of a nursing care facility having a plurality of rooms such as a nurse station.

構内交換機(回線切換機)CXは、ネットワークNWに接続され、携帯端末装置TA同士における発信、着信および通話等の内線電話の制御を行って前記携帯端末装置TA同士の内線電話を実施し、そして、例えば固定電話網や携帯電話網等の公衆電話網PNを介して例えば固定電話機や携帯電話機等の外線電話機TLに接続され、外線電話機TLと携帯端末装置TAとの間における発信、着信および通話等の外線電話の制御を行って外線電話機TLと携帯端末装置TAとの間における外線電話を実施する装置である。構内交換機CXは、例えば、デジタル交換機や、IP−PBX(Internet Protocol Private Branch eXchange)等である。 The premises exchange (line switching machine) CX is connected to the network NW, controls extension telephones such as outgoing calls, incoming calls, and calls between mobile terminal devices TAs, performs extension calls between the mobile terminal devices TAs, and then performs extension calls between the mobile terminal devices TAs. , For example, is connected to an external telephone TL such as a fixed telephone or a mobile phone via a public telephone network PN such as a fixed telephone network or a mobile phone network, and makes, receives, and makes a call between the external telephone TL and the mobile terminal device TA. It is a device that controls an external line telephone such as, etc., and performs an external line telephone between the external line telephone TL and the mobile terminal device TA. The private branch exchange CX is, for example, a digital exchange, an IP-PBX (Internet Protocol Private Branch eXchange), or the like.

センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obにおける所定の行動を検知してその検知結果を管理サーバ装置SVへ報知し、ナースコールを受付けてその旨を管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。そして、本実施形態では、画像を端末装置SP、TAへ送信する際に、センサ装置SUは、端末装置SP、TAへ送信するために、前記画像に写る人物の前記画像上での位置に関する人物位置データを生成して前記画像と共に管理サーバ装置SVへ送信する。このようなセンサ装置SUは、例えば、図2に示すように、撮像部11と、センサ側音入出力部(SU音入出力部)12と、ナースコール受付操作部13と、センサ側制御処理部(SU制御処理部)14と、センサ側通信インターフェース部(SU通信IF部)15と、センサ側記憶部(SU記憶部)16とを備える。 The sensor device SU is provided with a communication function for communicating with other devices SV, SP, TA via the network NW, detects a predetermined action in the monitored person Ob, and notifies the detection result to the management server device SV. , A device that accepts a nurse call, notifies the management server device SV to that effect, makes a voice call with the terminal devices SP and TA, generates an image including a moving image, and distributes the moving image to the terminal devices SP and TA. Is. Then, in the present embodiment, when transmitting an image to the terminal devices SP and TA, the sensor device SU is a person related to the position of the person in the image on the image in order to transmit the image to the terminal devices SP and TA. The position data is generated and transmitted to the management server device SV together with the image. For example, as shown in FIG. 2, such a sensor device SU includes an imaging unit 11, a sensor side sound input / output unit (SU sound input / output unit) 12, a nurse call reception operation unit 13, and a sensor side control process. A unit (SU control processing unit) 14, a sensor-side communication interface unit (SU communication IF unit) 15, and a sensor-side storage unit (SU storage unit) 16 are provided.

撮像部11は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、撮像を行い、画像(画像データ)を生成する装置である。前記画像には、静止画(静止画データ)および動画(動画データ)が含まれる。撮像部11は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像(対象画像)をSU制御処理部14へ出力する。好ましくは、被監視者Ob全体を撮像できる蓋然性が高いことから、撮像部11は、被監視者Obが横臥する寝具(例えばベッド等)における、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設される。センサ装置SUは、この撮像部11によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。 The imaging unit 11 is a device that is connected to the SU control processing unit 14 and performs imaging under the control of the SU control processing unit 14 to generate an image (image data). The image includes a still image (still image data) and a moving image (moving image data). The image pickup unit 11 is arranged so as to be able to monitor the space (location space, living room RM of the arrangement location in the example shown in FIG. 1) where the monitored person Ob, which is the monitoring target to be monitored, is scheduled to be located, and the location An image (image data) that gives a bird's-eye view of the imaging target is generated by imaging the space as an imaging target from above, and the image (target image) of the imaging target is output to the SU control processing unit 14. Preferably, since it is highly probable that the entire monitored person Ob can be imaged, the imaging unit 11 is scheduled to position the head of the monitored person Ob in the bedding (for example, a bed) on which the monitored person Ob lies. It is arranged so that the imaging target can be imaged from directly above the preset head position (usually, the pillow arrangement position). The sensor device SU acquires an image of the monitored person Ob from above the monitored person Ob, preferably an image taken from directly above the planned head position, by the imaging unit 11.

このような撮像部11は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外線の画像を生成する装置である。このような撮像部11は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。撮像部11の前記結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。 Such an imaging unit 11 may be a device that generates an image of visible light, but in the present embodiment, it is a device that generates an infrared image so that the monitored person Ob can be monitored even in a relatively dark place. .. In the present embodiment, such an imaging unit 11 is, for example, an imaging optical system that forms an infrared optical image of an imaging target on a predetermined imaging surface, and the light receiving surface is made to coincide with the imaging surface. An image sensor that is arranged and converts an infrared optical image of the imaging target into an electrical signal, and image data that represents an infrared image of the imaging target by image processing the output of the image sensor. It is a digital infrared camera provided with an image processing unit and the like for generating an image. In the present embodiment, the imaging optical system of the imaging unit 11 is preferably a wide-angle optical system (so-called wide-angle lens (including a fisheye lens)) having an angle of view capable of imaging the entire living room RM in which the imaging unit 11 is arranged. ..

SU音入出力部12は、音を入出力する回路である。すなわち、SU音入出力部12は、SU制御処理部14に接続され、SU制御処理部14の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得してセンサ装置SUに入力するための回路である。SU音入出力部12は、例えば、音の電気信号(音データ)を音の機械振動信号(音響信号)に変換するスピーカ等と、可聴領域の音の機械振動信号を電気信号に変換するマイクロフォン等とを備えて構成される。SU音入出力部12は、外部の音を表す電気信号をSU制御処理部14へ出力し、また、SU制御処理部14から入力された電気信号を音の機械振動信号に変換して出力する。 The SU sound input / output unit 12 is a circuit for inputting / outputting sound. That is, the SU sound input / output unit 12 is a circuit that is connected to the SU control processing unit 14 and generates and outputs a sound corresponding to an electric signal representing the sound according to the control of the SU control processing unit 14, and is external. This is a circuit for acquiring the sound of the above and inputting it to the sensor device SU. The SU sound input / output unit 12 includes, for example, a speaker that converts an electric signal (sound data) of sound into a mechanical vibration signal (acoustic signal) of sound, and a microphone that converts a mechanical vibration signal of sound in an audible region into an electric signal. And so on. The SU sound input / output unit 12 outputs an electric signal representing an external sound to the SU control processing unit 14, and also converts the electric signal input from the SU control processing unit 14 into a mechanical vibration signal of the sound and outputs it. ..

ナースコール受付操作部13は、SU制御処理部14に接続され、ナースコールを当該センサ装置SUに入力するための例えば押しボタン式スイッチ等のスイッチ回路である。なお、ナースコール受付操作部13は、有線でSU制御処理部14に接続されて良く、また、例えばBluetooth(登録商標)規格等の近距離無線通信でSU制御処理部14に接続されて良い。 The nurse call reception operation unit 13 is connected to the SU control processing unit 14, and is a switch circuit such as a push button type switch for inputting a nurse call to the sensor device SU. The nurse call reception operation unit 13 may be connected to the SU control processing unit 14 by wire, or may be connected to the SU control processing unit 14 by, for example, short-range wireless communication such as a Bluetooth (registered trademark) standard.

SU通信IF部15は、SU制御処理部14に接続され、SU制御処理部14の制御に従って通信を行うための通信回路である。SU通信IF部15は、SU制御処理部14から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部15は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部14が処理可能な形式のデータに変換してSU制御処理部14へ出力する。SU通信IF部15は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。 The SU communication IF unit 15 is a communication circuit connected to the SU control processing unit 14 and for performing communication under the control of the SU control processing unit 14. The SU communication IF unit 15 generates a communication signal containing data to be transferred input from the SU control processing unit 14 according to the communication protocol used in the network NW of the monitored person monitoring system MS, and this generated communication. The signal is transmitted to other devices SV, SP, and TA via the network NW. The SU communication IF unit 15 receives communication signals from other devices SV, SP, and TA via the network NW, extracts data from the received communication signals, and the SU control processing unit 14 can process the extracted data. It is converted into data in a different format and output to the SU control processing unit 14. The SU communication IF unit 15 is configured to include, for example, a communication interface circuit according to the IEEE802.11 standard or the like.

SU記憶部16は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御するSU制御プログラムや、撮像部11で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理プログラムや、被監視者Obにおける所定の行動を検知して検知結果を、撮像部11で撮像した画像(画像データ)および前記人物位置処理プログラムで生成した人物位置データと共に、管理サーバ装置SVを介して所定の端末装置SP、TAへ通知するSU監視処理プログラムや、ナースコール受付操作部13でナースコールを受付けた場合にその旨を管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うナースコール処理プログラムや、撮像部11で生成した動画を、その動画を要求した端末装置SP、TAへストリーミングで配信するSUストリーミング処理プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、自機の、センサ装置SUを特定し識別するための識別子であるセンサ装置識別子(センサID)、および、管理サーバ装置SVの通信アドレス等の、各プログラムを実行する上で必要なデータ等が含まれる。SU記憶部16は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、SU記憶部16は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるSU制御処理部14のワーキングメモリとなるRAM(Random Access Memory)等を含む。 The SU storage unit 16 is a circuit that is connected to the SU control processing unit 14 and stores various predetermined programs and various predetermined data under the control of the SU control processing unit 14. The various predetermined programs include, for example, a SU control program that controls each part of the sensor device SU according to the function of each part, and a person related to the position of a person in the image captured by the imaging unit 11 in the image. A person position processing program that generates position data, an image (image data) captured by the imaging unit 11 by detecting a predetermined action in the monitored person Ob, and a person position data generated by the person position processing program. At the same time, the SU monitoring processing program that notifies the predetermined terminal devices SP and TA via the management server device SV, and when the nurse call reception operation unit 13 receives the nurse call, the management server device SV is notified to that effect. A nurse call processing program that makes a voice call with the terminal devices SP and TA by using the SU sound input / output unit 12 and the like, and a moving image generated by the imaging unit 11 to the terminal devices SP and TA that requested the moving image. A control processing program such as a SU streaming processing program to be distributed by streaming is included. In the various predetermined data, each program such as the sensor device identifier (sensor ID) which is an identifier for identifying and identifying the sensor device SU of the own machine and the communication address of the management server device SV is executed. It contains the data necessary for the program. The SU storage unit 16 includes, for example, a ROM (Read Only Memory) which is a non-volatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) which is a rewritable non-volatile storage element, and the like. The SU storage unit 16 includes a RAM (Random Access Memory) or the like that serves as a working memory of the so-called SU control processing unit 14 that stores data or the like generated during execution of the predetermined program.

SU制御処理部14は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obにおける所定の行動を検知してその検知結果を前記画像(画像データ)および人物位置データと共に管理サーバ装置SVへ報知し、ナースコールを受付けてその旨を管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信するための回路である。SU制御処理部14は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。SU制御処理部14は、前記制御処理プログラムが実行されることによって、センサ側制御部(SU制御部)141、センサ側監視処理部(SU監視処理部)142、人物位置処理部143、ナースコール処理部(ナースコール処理部)144およびセンサ側ストリーミング処理部(SUストリーミング処理部)145を機能的に備える。 The SU control processing unit 14 controls each unit of the sensor device SU according to the function of each unit, detects a predetermined action in the monitored person Ob, and outputs the detection result to the image (image data) and the person position data. At the same time, it notifies the management server device SV, receives a nurse call, notifies the management server device SV to that effect, makes a voice call with the terminal devices SP and TA, and generates an image including a moving image to the terminal. This is a circuit for delivering a moving image to the devices SP and TA. The SU control processing unit 14 includes, for example, a CPU (Central Processing Unit) and peripheral circuits thereof. When the control processing program is executed, the SU control processing unit 14 has a sensor side control unit (SU control unit) 141, a sensor side monitoring processing unit (SU monitoring processing unit) 142, a person position processing unit 143, and a nurse call. It is functionally provided with a processing unit (nurse call processing unit) 144 and a sensor-side streaming processing unit (SU streaming processing unit) 145.

SU制御部141は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。 The SU control unit 141 controls each unit of the sensor device SU according to the function of each unit, and controls the entire sensor device SU.

SU監視処理部142は、被監視者Obにおける、予め設定された所定の行動(状態、状況)を画像に基づいて検知して、前記画像および後述のように人物位置処理部143で生成した人物位置データと共に、管理サーバ装置SVへ報知(通知、送信)するものである。 The SU monitoring processing unit 142 detects a predetermined predetermined action (state, situation) in the monitored person Ob based on the image, and generates the image and the person generated by the person position processing unit 143 as described later. It notifies (notifies, transmits) to the management server device SV together with the position data.

より具体的には、本実施形態では、前記所定の行動は、例えば、被監視者Obが起きた起床、被監視者Obが寝具から離れた離床、被監視者Obが寝具から落ちた転落、および、被監視者Obが倒れた転倒の4つの行動である。SU監視処理部142は、例えば、撮像部11で撮像した対象画像に基づいて被監視者Obの頭部を検出し、この検出した被監視者Obの頭部における大きさの時間変化に基づいて被監視者Obの起床、離床、転倒および転落を検知する。より詳しくは、まず、寝具の所在領域、および、第1ないし第3閾値Th1〜Th3が前記各種の所定のデータの1つとして予めSU記憶部16に記憶される。前記第1閾値Th1は、寝具の所在領域内における横臥姿勢の頭部の大きさと座位姿勢の頭部の大きさとを識別するための値である。前記第2閾値Th2は、寝具の所在領域を除く居室RM内における立位姿勢の頭部の大きさであるか否かを識別するための値である。前記第3閾値Th3は、寝具の所在領域を除く居室RM内における横臥姿勢の頭部の大きさであるか否かを識別するための値である。そして、SU監視処理部142は、対象画像から例えば背景差分法やフレーム差分法によって被監視者Obの人物の領域として動体領域を抽出する。次に、SU監視処理部142は、この抽出した動体領域から、例えば円形や楕円形のハフ変換によって、また例えば予め用意された頭部のモデルを用いたパターンマッチングによって、また例えば頭部検出用に学習したニューラルネットワークによって、被監視者Obの頭部領域を抽出する。次に、SU監視処理部142は、この抽出した頭部の位置および大きさから起床、離床、転倒および転落を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内であって、前記抽出した頭部の大きさが前記第1閾値Th1を用いることによって横臥姿勢の大きさから座位姿勢の大きさへ時間変化した場合には、起床と判定し、前記起床を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第2閾値Th2を用いることによって或る大きさから立位姿勢の大きさへ時間変化した場合には、離床と判定し、前記離床を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転落と判定し、前記転落を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域を除く居室RM内であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転倒と判定し、前記転倒を検知する。 More specifically, in the present embodiment, the predetermined actions include, for example, waking up when the monitored person Ob wakes up, getting out of bed when the monitored person Ob leaves the bedding, and falling when the monitored person Ob falls from the bedding. And, there are four actions of a fall in which the monitored person Ob has fallen. The SU monitoring processing unit 142 detects, for example, the head of the monitored person Ob based on the target image captured by the imaging unit 11, and based on the time change of the size of the detected head of the monitored person Ob. Detects getting up, getting out of bed, falling and falling of the monitored person Ob. More specifically, first, the location area of the bedding and the first to third threshold values Th1 to Th3 are stored in advance in the SU storage unit 16 as one of the various predetermined data. The first threshold value Th1 is a value for discriminating between the size of the head in the lying posture and the size of the head in the sitting posture in the region where the bedding is located. The second threshold value Th2 is a value for discriminating whether or not the size of the head in the standing posture in the living room RM excluding the area where the bedding is located. The third threshold value Th3 is a value for discriminating whether or not the size of the head in the lying posture in the living room RM excluding the area where the bedding is located. Then, the SU monitoring processing unit 142 extracts a moving object region from the target image as a region of the person of the monitored person Ob by, for example, the background subtraction method or the frame subtraction method. Next, the SU monitoring processing unit 142 uses the extracted moving body region, for example, by a circular or elliptical Hough transform, by, for example, by pattern matching using a prepared head model, or, for example, for head detection. The head region of the monitored person Ob is extracted by the neural network learned in. Next, the SU monitoring processing unit 142 detects getting up, getting out of bed, falling, and falling from the position and size of the extracted head. For example, in the SU monitoring processing unit 142, the position of the extracted head is within the location region of the bedding, and the size of the extracted head is determined from the size of the lying posture by using the first threshold Th1. When the size of the sitting posture changes with time, it is determined that the person has woken up, and the wake-up is detected. For example, in the SU monitoring processing unit 142, when the position of the extracted head changes with time from the inside of the bedding location area to the outside of the bedding location area, the size of the extracted head is the second threshold value. When the time changes from a certain size to the size of the standing posture by using Th2, it is determined that the person has left the bed, and the person has left the bed. For example, in the SU monitoring processing unit 142, when the position of the extracted head changes with time from the inside of the bedding location area to the outside of the bedding location area, the size of the extracted head is the third threshold value. When the time changes from a certain size to the size of the lying posture by using Th3, it is determined that the person has fallen, and the fall is detected. For example, in the SU monitoring processing unit 142, the position of the extracted head is in the living room RM excluding the area where the bedding is located, and the size of the extracted head is determined by using the third threshold value Th3. When the time changes from the size to the size of the lying posture, it is determined that the person has fallen, and the fall is detected.

なお、画像上での人物の領域は、所定の大きさ(広さ、サイズ)の範囲内となるので、人物の領域として抽出する動体領域も所定の大きさ(広さ、サイズ)の範囲内となる。このため、動体領域として抽出する範囲が予め設定され、動体領域を抽出する際に、前記対象画像から例えば背景差分法やフレーム差分法によって抽出された動体領域が前記範囲外である場合には、この対象画像から例えば背景差分法やフレーム差分法によって抽出された動体領域は、人物の領域として抽出する動体領域から除外されてよい。 Since the area of the person on the image is within the range of a predetermined size (width, size), the moving object area extracted as the area of the person is also within the range of the predetermined size (width, size). It becomes. Therefore, the range to be extracted as the moving body region is set in advance, and when the moving body region is extracted, if the moving body region extracted from the target image by, for example, the background subtraction method or the frame subtraction method is out of the range. A moving body region extracted from this target image by, for example, the background subtraction method or the frame subtraction method may be excluded from the moving body region extracted as a person's region.

このように前記所定の行動を検知すると、SU監視処理部142は、この検知結果とこの検知結果を得る際に用いられた前記対象画像と、前記対象画像に対する人物位置データとを、SU通信IF部15で管理サーバ装置SVへ報知する。より詳しくは、SU監視処理部142は、自機のセンサID、検知結果(本実施形態では、起床、離床、転落および転倒のうちの1または複数)、前記所定の行動の検知に用いられた対象画像、および、この対象画像に対する人物位置データを収容した通信信号(第1監視情報通信信号)を、SU通信IF部15を介して管理サーバ装置SVへ送信する。前記画像は、静止画および動画のうちの少なくとも一方であって良く、本実施形態では、後述するように、まず、静止画が報知され、ユーザの要求に応じて動画が配信される。なお、まず、動画が配信されても良く、また、静止画および動画が送信され、画面分割で静止画および動画が端末装置SP、TAに表示されても良い。 When the predetermined action is detected in this way, the SU monitoring processing unit 142 transmits the detection result, the target image used for obtaining the detection result, and the person position data with respect to the target image in the SU communication IF. Unit 15 notifies the management server device SV. More specifically, the SU monitoring processing unit 142 was used to detect the sensor ID of the own machine, the detection result (in this embodiment, one or more of getting up, getting out of bed, falling and falling), and the predetermined action. The target image and a communication signal (first monitoring information communication signal) accommodating the person position data for the target image are transmitted to the management server device SV via the SU communication IF unit 15. The image may be at least one of a still image and a moving image, and in the present embodiment, as will be described later, the still image is first notified and the moving image is distributed according to the user's request. First, the moving image may be delivered, or the still image and the moving image may be transmitted, and the still image and the moving image may be displayed on the terminal devices SP and TA by splitting the screen.

前記人物位置データは、後述のように人物位置処理部143で生成され、前記対象画像の画像データにおけるメタデータとして前記第1監視情報通信信号に収容される。例えば、前記画像データおよび前記人物位置データは、Exif(Exchangeable image file format)ファイルに収容される。より具体的には、Exifファイルは、JPEG(Joint Photographic Experts Group)ファイルフォーマットに準拠したファイルであり、アプリケーションマーカセグメントに、撮影条件等のいわゆるExif情報が格納される。前記人物位置データは、このアプリケーションマーカセグメントに格納される。また例えば、前記画像データおよび前記人物位置データは、HTTP(Hypertext Transfer Protocol)におけるマルチパート形式のファイルにフォームデータとして収容される。より具体的には、前記画像データは、マルチパート形式のファイルにおける1つのフォームデータとして収容され、前記人物位置データは、マルチパート形式の前記ファイルにおける他の1つのフォームデータとして収容される。 The person position data is generated by the person position processing unit 143 as described later, and is accommodated in the first monitoring information communication signal as metadata in the image data of the target image. For example, the image data and the person position data are stored in an Exif (Exif (Exifable image file format) file). More specifically, the Exif file is a file conforming to the JPEG (Joint Photographic Experts Group) file format, and so-called Exif information such as shooting conditions is stored in the application marker segment. The person position data is stored in this application marker segment. Further, for example, the image data and the person position data are stored as form data in a multipart format file in HTTP (Hypertext Transfer Protocol). More specifically, the image data is accommodated as one form data in the multipart format file, and the person position data is accommodated as another form data in the multipart format file.

人物位置処理部143は、撮像部11で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成するものである。本実施形態では、前記画像は、被監視者における所定の行動を検知するために用いられた前記対象画像である。前記人物位置データとして、例えば、次の第1ないし第5態様のデータを用いることができる。 The person position processing unit 143 generates person position data regarding the position of the person in the image captured by the image pickup unit 11. In the present embodiment, the image is the target image used to detect a predetermined behavior in the monitored person. As the person position data, for example, the data of the following first to fifth aspects can be used.

第1態様の人物位置データは、前記画像に写る人物の前記画像上での位置そのものの座標データである。この第1態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、まず、SU監視処理部142と同様に、撮像部11で撮像した対象画像から例えば背景差分法やフレーム差分法によって人物の領域として動体領域MBを抽出する。そして、人物位置処理部143は、図3に示すように、この抽出した動体領域MBにおける重心位置P1を求め、この求めた重心位置P1の座標データ(x、y)を第1態様の人物位置データとして求める(前記画像に写る人物の前記画像上での位置=重心位置P1)。前記座標データ(x、y)は、以下の第2ないし第5態様の人物位置データも同様に、例えば、対象画像の左上頂点を座標原点とする画素位置で与えられる。なお、第1態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、重心位置P1の座標データ(x、y)で表される点の画像HP1となる。 The person position data of the first aspect is the coordinate data of the position itself of the person in the image on the image. When the person position data of the first aspect is used, more specifically, the person position processing unit 143 first, like the SU monitoring processing unit 142, first, for example, background subtraction from the target image captured by the imaging unit 11. The moving body area MB is extracted as a person's area by the method or the frame subtraction method. Then, as shown in FIG. 3, the person position processing unit 143 obtains the center of gravity position P1 in the extracted moving body region MB, and uses the coordinate data (x, y) of the obtained center of gravity position P1 as the person position in the first aspect. Obtained as data (position of the person in the image on the image = center of gravity position P1). The coordinate data (x, y) is similarly given as the person position data of the following second to fifth aspects at a pixel position having the upper left vertex of the target image as the coordinate origin. When the person position data of the first aspect is used, the person position indicator displayed on the mobile terminal device TA is an image of a point represented by the coordinate data (x, y) of the center of gravity position P1 as described later. It becomes HP1.

第2態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む矩形を表す座標データである。この第2態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図4に示すように、この動体領域MBの全部または一部を含む矩形(例えば動体領域MBに対する外接矩形等)を求め、この求めた矩形を表す座標データを第2態様の人物位置データ(人物領域データ)として求める。この矩形を表す座標データは、例えば、矩形における1つの対角線の両端点P20、P21の各座標データ(x0、y0)、(x1、y1)から成る。また例えば、前記矩形を表す座標データは、矩形における4頂点の各座標データから成る(図略)。なお、第2態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)で表される画像、すなわち、矩形の画像(矩形の輪郭線の画像)HP2となる。 The person position data of the second aspect is the person area data relating to the area of the person including the position of the person in the image on the image (for example, the center of gravity position P1 or the like), and the person area data is the person. It is coordinate data representing a rectangle including all or a part of the area of. When the person position data of the second aspect is used, more specifically, the person position processing unit 143 extracts the moving body area MB as the area of the person in the same manner as described above, and as shown in FIG. A rectangle including all or a part of the moving body region MB (for example, an circumscribing rectangle with respect to the moving body region MB) is obtained, and coordinate data representing the obtained rectangle is obtained as the person position data (person area data) of the second aspect. The coordinate data representing this rectangle is, for example, composed of coordinate data (x0, y0) and (x1, y1) of both end points P20 and P21 of one diagonal line in the rectangle. Further, for example, the coordinate data representing the rectangle is composed of the coordinate data of each of the four vertices in the rectangle (not shown). When the person position data of the second aspect is used, the person position indicator displayed on the mobile terminal device TA is represented by the person area data (x0, y0) and (x1, y1) as described later. Image, that is, a rectangular image (an image of a rectangular outline) HP2.

第3態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の輪郭線を表す座標データである。この第3態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図5に示すように、この動体領域MBの輪郭線を求め、この求めた輪郭線を表す座標データを第3態様の人物位置データ(人物領域データ)として求める。この動体領域MBの輪郭線を表す座標データは、動体領域MBの輪郭線における各頂点P30、P31、P32、・・・、P3Cの各座標データ(x0、y0)、(x1、y1)、(x2、y2)、・・・、(xpc、ypc)から成る。より詳しくは、動体領域MBが比較的複雑な形状である場合には、動体領域MBの輪郭線における各頂点の個数が多数となり、第1監視情報通信信号における人物位置データに与えられているデータ容量(例えば数個〜十数個分の座標データのデータ容量)を超える場合が有り得る。このため、人物位置処理部143は、人物の領域としての動体領域MBを構成する画素を、隣接する複数の画素で纏めてモザイクを形成することで、動体領域MBを複数のモザイクで構成する(動体領域MBをモザイク化する)。このモザイクを大きくすることで、動体領域MBを構成するモザイクの個数が低減し、この結果、この複数のモザイクで構成される動体領域MBの輪郭線における頂点の個数も低減する。したがって、人物位置処理部143は、第1監視情報通信信号における人物位置データに与えられているデータ容量以下となるまで、モザイクの大きさを順次に大きくし、モザイクの大きさを調整する。なお、第3態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)、(x2、y2)、・・・、(xpc、ypc)で表される画像、すなわち、人物の領域における輪郭線の画像HP3となる。 The person position data of the third aspect is the person area data relating to the area of the person including the position of the person in the image on the image (for example, the center of gravity position P1 or the like), and the person area data is the person. It is coordinate data representing the outline of the area of. When the person position data of the third aspect is used, more specifically, the person position processing unit 143 extracts the moving body area MB as the area of the person in the same manner as described above, and as shown in FIG. The contour line of the moving body region MB is obtained, and the coordinate data representing the obtained contour line is obtained as the person position data (person area data) of the third aspect. The coordinate data representing the contour line of the moving body region MB is the coordinate data (x0, y0), (x1, y1), (x1, y1) of each of the vertices P30, P31, P32, ..., P3C in the contour line of the moving body region MB. It consists of x2, y2), ..., (Xpc, ypc). More specifically, when the moving body region MB has a relatively complicated shape, the number of each vertex in the contour line of the moving body region MB becomes large, and the data given to the person position data in the first monitoring information communication signal. It may exceed the capacity (for example, the data capacity of several to a dozen coordinate data). Therefore, the person position processing unit 143 forms a mosaic by gathering the pixels constituting the moving body area MB as a person's area with a plurality of adjacent pixels, thereby forming the moving body area MB with a plurality of mosaics ( Mosaic the moving body area MB). By enlarging this mosaic, the number of mosaics constituting the moving body region MB is reduced, and as a result, the number of vertices in the contour line of the moving body region MB composed of the plurality of mosaics is also reduced. Therefore, the person position processing unit 143 sequentially increases the size of the mosaic and adjusts the size of the mosaic until the data capacity is equal to or less than the data capacity given to the person position data in the first monitoring information communication signal. When the person position data of the third aspect is used, the person position indicator displayed on the mobile terminal device TA is the person area data (x0, y0), (x1, y1), (x2) as described later. , Y2), ..., (Xpc, ypc), that is, the image HP3 of the contour line in the area of the person.

第4態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む円形を表す座標データである。この第4態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図6に示すように、この動体領域MBの全部または一部を含む円形(例えば動体領域MBに対する外接円等)を求め、この求めた円形を表す座標データを第4態様の人物位置データ(人物領域データ)として求める。この円形を表す座標データは、例えば、円形における中心点P4の座標データ(x、y)および半径rから成る。また例えば、前記円形を表す座標データは、動体領域MBにおける重心位置P4の座標データ(x、y)および予め設定された固定値の半径rから成る。なお、第4態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x、y)、rで表される画像、すなわち、円形の画像(円形の輪郭線の画像)HP4となる。 The person position data of the fourth aspect is the person area data relating to the area of the person including the position of the person in the image on the image (for example, the center of gravity position P1 or the like), and the person area data is the person. It is coordinate data representing a circle including all or a part of the area of. When the person position data of the fourth aspect is used, more specifically, the person position processing unit 143 extracts the moving body area MB as the area of the person as described above, and as shown in FIG. 6, A circle including all or a part of the moving body region MB (for example, an circumscribed circle with respect to the moving body region MB) is obtained, and coordinate data representing the obtained circle is obtained as the person position data (person area data) of the fourth aspect. The coordinate data representing this circle includes, for example, the coordinate data (x, y) of the center point P4 in the circle and the radius r. Further, for example, the coordinate data representing the circle includes the coordinate data (x, y) of the center of gravity position P4 in the moving body region MB and the radius r of a preset fixed value. When the person position data of the fourth aspect is used, the person position indicator displayed on the mobile terminal device TA is an image represented by the person area data (x, y), r, that is, that is, as described later. , Circular image (image of circular contour line) HP4.

第5態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む楕円形を表す座標データである。この第5態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図7に示すように、この動体領域MBの全部または一部を含む楕円形を求め、この求めた楕円形を表す座標データを第5態様の人物位置データ(人物領域データ)として求める。より詳しくは、人物位置処理部143は、人物の領域としての動体領域MBにおける輪郭線上に適当な1個の第1設定点P51を設け、この第1設定点P51から最も離れた前記輪郭線上の点を第2設定点P53として求め、これら第1設定点P51と第2設定点P53とを結ぶ線分P51P53を楕円形の長軸とする。次に、人物位置処理部143は、前記長軸とした第1設定点P51と第2設定点P53とを結ぶ線分P51P53の中央点P50を通り、前記線分P51P53と直交する直線と前記輪郭線との2交点を求め、これら求めた2交点それぞれと中央点P50との長さを求め、前記2交点のうちから、より長い長さを与える交点を、短軸と楕円との交点P52とする。これによって長軸、短軸および長軸と短軸との交点が求められ、楕円が求められる。この楕円形を表す座標データは、例えば、長軸と短軸との交点P50、楕円上の長軸との1交点(第1設定点)P51、および、楕円上の短軸との1交点P52の各座標データ(x0、y0)、(x1、y1)、(x2、y2)から成る。また例えば、前記楕円形を表す座標データは、長軸と短軸との交点P50の座標データ(x0、y0)、長軸(または短軸)とx軸(またはy軸)とのなす角度、長軸の長さおよび短軸の長さから成る。なお、第5態様の人物位置データが用いられる場合では、携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)、(x2、y2)で表される画像、すなわち、楕円形の画像(楕円形の輪郭線の画像)HP5となる。 The person position data of the fifth aspect is the person area data relating to the area of the person including the position of the person in the image on the image (for example, the center of gravity position P1 or the like), and the person area data is the person. It is coordinate data representing an ellipse including all or a part of the area of. When the person position data of the fifth aspect is used, more specifically, the person position processing unit 143 extracts the moving body area MB as the area of the person in the same manner as described above, and as shown in FIG. 7, An ellipse including all or a part of the moving body region MB is obtained, and the coordinate data representing the obtained ellipse is obtained as the person position data (person area data) of the fifth aspect. More specifically, the person position processing unit 143 provides one appropriate first setting point P51 on the contour line in the moving body region MB as the area of the person, and on the contour line farthest from the first setting point P51. A point is obtained as a second set point P53, and a line segment P51 P53 connecting the first set point P51 and the second set point P53 is defined as an elliptical long axis. Next, the person position processing unit 143 passes through the center point P50 of the line segment P51 P53 connecting the first set point P51 and the second set point P53 as the long axis, and the straight line perpendicular to the line segment P51 P53 and the contour. Two intersections with the line segment are obtained, the lengths of each of these two intersections and the center point P50 are obtained, and the intersection that gives a longer length from the two intersections is defined as the intersection P52 between the minor axis and the ellipse. To do. As a result, the major axis, the minor axis, and the intersection of the major axis and the minor axis are obtained, and an ellipse is obtained. The coordinate data representing the ellipse includes, for example, an intersection P50 between the major axis and the minor axis, one intersection P51 with the major axis on the ellipse (first set point) P51, and one intersection P52 with the minor axis on the ellipse. Each coordinate data (x0, y0), (x1, y1), (x2, y2) of. Further, for example, the coordinate data representing the ellipse includes coordinate data (x0, y0) at the intersection P50 between the major axis and the minor axis, and an angle formed by the major axis (or minor axis) and the x-axis (or y-axis). It consists of a major axis length and a minor axis length. When the person position data of the fifth aspect is used, the person position indicator displayed on the mobile terminal device TA is the person area data (x0, y0), (x1, y1), (x2, y2). The represented image, that is, an elliptical image (an image of an elliptical contour line) HP5.

そして、人物位置処理部143は、このように生成した人物位置データをSU監視処理部142へ通知する。例えば、本実施形態では、第2態様の人物位置データが用いられ、人物位置処理部143は、この第2態様の人物位置データをSU監視処理部142へ通知する。以下、第2態様の人物位置データが用いられる場合について説明するが、他の態様の人物位置データが用いられる場合も同様に説明できる。 Then, the person position processing unit 143 notifies the SU monitoring processing unit 142 of the person position data generated in this way. For example, in the present embodiment, the person position data of the second aspect is used, and the person position processing unit 143 notifies the SU monitoring processing unit 142 of the person position data of the second aspect. Hereinafter, the case where the person position data of the second aspect is used will be described, but the case where the person position data of another aspect is used can also be described in the same manner.

ナースコール処理部144は、ナースコール受付操作部13でナースコールを受付けた場合にその旨を管理サーバ装置SVへ通報し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うものである。より具体的には、ナースコール処理部144は、ナースコール受付操作部13が入力操作されると、自機のセンサID、および、ナースコールを受付けた旨を表すナースコール受付情報を収容した第1ナースコール通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。そして、ナースコール処理部144は、SU音入出力部12等を用い、端末装置SP、TAとの間で例えばVoIP(Voice over Internet Protocol)によって音声通話を行う。 When the nurse call processing unit 144 receives the nurse call at the nurse call reception operation unit 13, the nurse call processing unit 144 notifies the management server device SV to that effect, and uses the SU sound input / output unit 12 or the like to connect with the terminal devices SP and TA. A voice call is made between them. More specifically, when the nurse call reception operation unit 13 is input-operated, the nurse call processing unit 144 accommodates the sensor ID of the own machine and the nurse call reception information indicating that the nurse call has been received. 1 The nurse call notification communication signal is transmitted to the management server device SV via the SU communication IF unit 15. Then, the nurse call processing unit 144 uses the SU sound input / output unit 12 and the like to perform a voice call with the terminal devices SP and TA by, for example, VoIP (Voice over Internet Protocol).

SUストリーミング処理部145は、SU通信IF部15を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、撮像部11で生成した動画(例えばライブの動画)をストリーミング再生でSU通信IF部15を介して配信するものである。 When the SU streaming processing unit 145 receives a request for video distribution from the fixed terminal device SP or the mobile terminal device TA via the SU communication IF unit 15, the SU streaming processing unit 145 receives the request for the fixed terminal device SP or the mobile terminal device TA. The moving image (for example, a live moving image) generated by the imaging unit 11 is distributed via the SU communication IF unit 15 by streaming reproduction.

図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SU−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。 In FIG. 1, four first to fourth sensor devices SU-1 to SU-4 are shown as an example, and the first sensor device SU-1 is Mr. A who is one of the monitored persons Ob. The second sensor device SU-2 is arranged in the living room RM-1 (not shown) of Ob-1, and is arranged in the living room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor device SU-3 is installed in the living room RM-3 (not shown) of Mr. C Ob-3, who is one of the monitored persons Ob, and the fourth sensor device SU-4 is installed. It is arranged in the living room RM-4 (not shown) of Mr. D Ob-4, who is one of the monitored persons Ob.

管理サーバ装置SVは、ネットワークNWを介して他の装置SU、TA、SPと通信する通信機能を備え、センサ装置SUから被監視者Obに関する前記検知結果、前記対象画像および前記人物位置データを受信して被監視者Obに対する監視に関する情報(監視情報)を管理し、これら受信した被監視者Obに関する前記検知結果、前記対象画像および前記人物位置データを所定の端末装置SP、TAへ報知(再報知、送信)する機器である。より具体的には、管理サーバ装置SVは、報知元のセンサ装置SU(センサID)と報知先(再報知先)の端末装置SP、TA(端末ID)との対応関係(報知先対応関係)、および、各装置SU、SP、TA(各ID)とその通信アドレスとの対応関係(通信アドレス対応関係)を予め記憶している。端末IDは、端末装置SP、TAを特定し識別するための識別子である。まず、管理サーバ装置SVは、第1監視情報通信信号を受信すると、この受信した第1監視情報通信信号における報知元(送信元)のセンサ装置と前記受信した第1監視情報通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1監視情報通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2監視情報通信信号を送信する。この第2監視情報通信信号には、前記受信した第1監視情報通信信号に収容されたセンサID、前記検知結果、前記対象画像および前記人物位置データ、ならびに、動画のダウンロード先として、前記受信した第1監視情報通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容される。通信アドレスは、前記通信アドレス対応関係から取得される。また、管理サーバ装置SVは、第1ナースコール通知通信信号を受信すると、この受信した第1ナースコール通知通信信号における報知元のセンサ装置と前記受信した第1ナースコール通知通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1ナースコール通知通信信号における報知元のセンサ装置に対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2ナースコール通知通信信号を送信する。この第2ナースコール通知通信信号には、前記受信した第1ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報が収容される。なお、第2ナースコール通知通信信号に動画のダウンロード先として、前記受信した第1ナースコール通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容されても良い。管理サーバ装置SVは、クライアント(本実施形態では端末装置SP、TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function for communicating with other devices SU, TA, and SP via the network NW, and receives the detection result, the target image, and the person position data regarding the monitored person Ob from the sensor device SU. Then, the information (monitoring information) related to the monitoring of the monitored person Ob is managed, and the detected detection result, the target image and the person position data regarding the received monitored person Ob are notified (re-reported) to the predetermined terminal devices SP and TA. It is a device that notifies and transmits). More specifically, the management server device SV has a correspondence relationship between the sensor device SU (sensor ID) of the notification source and the terminal devices SP and TA (terminal ID) of the notification destination (re-notification destination) (notification destination correspondence relationship). , And the correspondence relationship (communication address correspondence relationship) between each device SU, SP, TA (each ID) and its communication address is stored in advance. The terminal ID is an identifier for identifying and identifying the terminal devices SP and TA. First, when the management server device SV receives the first monitoring information communication signal, it is accommodated in the sensor device of the notification source (source) in the received first monitoring information communication signal and the received first monitoring information communication signal. The data is associated with each other and stored (recorded) as monitoring information of the monitored person Ob. Then, the management server device SV identifies the terminal devices SP and TA of the notification destination corresponding to the sensor device SU of the notification source in the received first monitoring information communication signal from the notification destination correspondence relationship, and the notification destination The second monitoring information communication signal is transmitted to the terminal devices SP and TA. The second monitoring information communication signal includes the sensor ID accommodated in the received first monitoring information communication signal, the detection result, the target image and the person position data, and the received as a download destination of the moving image. The communication address corresponding to the sensor device SU having the sensor ID accommodated in the first monitoring information communication signal is accommodated. The communication address is obtained from the communication address correspondence relationship. Further, when the management server device SV receives the first nurse call notification communication signal, it is accommodated in the sensor device of the notification source in the received first nurse call notification communication signal and the received first nurse call notification communication signal. The data is associated with each other and stored (recorded) as monitoring information of the monitored person Ob. Then, the management server device SV identifies the terminal devices SP and TA of the notification destination corresponding to the sensor device of the notification source in the received first nurse call notification communication signal from the notification destination correspondence relationship, and the notification destination The second nurse call notification communication signal is transmitted to the terminal devices SP and TA. The second nurse call notification communication signal includes the sensor ID and the nurse call reception information contained in the received first nurse call notification communication signal. The second nurse call notification communication signal may include a communication address corresponding to the sensor device SU having the sensor ID accommodated in the received first nurse call notification communication signal as the download destination of the moving image. The management server device SV provides the client with data according to the request of the client (terminal device SP, TA, etc. in this embodiment). Such a management server device SV can be configured by, for example, a computer having a communication function.

固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた監視情報を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。なお、前記端末装置の一例としての固定端末装置SPは、携帯端末装置TAと同様に動作するが、本明細書では、前記端末装置の他の一例である携帯端末装置TAについて説明される。 The fixed terminal device SP includes a communication function for communicating with other devices SU, SV, and TA via a network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and the like. The user interface (UI) of the monitored person monitoring system MS by inputting predetermined instructions and data given to the management server device SV and the mobile terminal device TA, displaying the monitoring information obtained by the sensor device SU, and the like. ) Is a device that functions as. Such a fixed terminal device SP can be configured by, for example, a computer having a communication function. The fixed terminal device SP as an example of the terminal device operates in the same manner as the mobile terminal device TA, but in this specification, the mobile terminal device TA which is another example of the terminal device will be described.

携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通報によってセンサ装置SUで得られた監視情報(動画を含む)を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等するための機器である。 The mobile terminal device TA has a communication function for communicating with other devices SV, SP, and SU via a network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and a voice call. It is equipped with a call function to perform, inputting predetermined instructions and data to be given to the management server device SV and the sensor device SU, and monitoring information (including moving images) obtained by the sensor device SU by a report from the management server device SV. It is a device for displaying, answering a nurse call, and calling out by a voice call with the sensor device SU.

このような携帯端末装置TAは、本実施形態では、例えば、図8に示すように、端末側通信インターフェース部(TA通信IF部)31と、端末側制御処理部(TA制御処理部)32と、端末側記憶部(TA記憶部)33と、端末側音入出力部(TA音入出力部)34と、端末側入力部(TA入力部)35と、端末側表示部(TA表示部)36と、端末側インターフェース部(TAIF部)37とを備える。 In the present embodiment, such a portable terminal device TA includes, for example, a terminal-side communication interface unit (TA communication IF unit) 31 and a terminal-side control processing unit (TA control processing unit) 32, as shown in FIG. , Terminal side storage unit (TA storage unit) 33, terminal side sound input / output unit (TA sound input / output unit) 34, terminal side input unit (TA input unit) 35, and terminal side display unit (TA display unit). 36 and a terminal side interface unit (TAIF unit) 37 are provided.

TA通信IF部31は、SU通信IF部15と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って通信を行うための通信回路である。TA通信IF部31は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。 The TA communication IF unit 31 is a communication circuit that is connected to the TA control processing unit 32 and performs communication under the control of the TA control processing unit 32, similarly to the SU communication IF unit 15. The TA communication IF unit 31 is configured to include, for example, a communication interface circuit according to the IEEE802.11 standard or the like.

TA音入出力部34は、SU音入出力部12と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得して携帯端末装置TAに入力するための回路である。 Like the SU sound input / output unit 12, the TA sound input / output unit 34 is connected to the TA control processing unit 32, and generates and outputs a sound corresponding to an electric signal representing the sound according to the control of the TA control processing unit 32. This is a circuit for acquiring an external sound and inputting it to the portable terminal device TA.

TA入力部35は、TA制御処理部32に接続され、例えば、所定の操作を受け付け、携帯端末装置TAに入力する回路であり、例えば、所定の機能を割り付けられた複数の入力スイッチ等である。前記所定の操作には、例えば、ログインするためのIDの入力操作や、音声通話の要求操作およびその終了操作や、ライブでの動画の要求操作およびその終了操作や、前記報知された被監視者Obに対する例えば救命、看護、介護および介助等の対応(対処、応対)を実行する意思がある旨(“対応する”)の入力操作や、画像に写る人物を拡大して表示する指示(命令、コマンド)である拡大表示指示の入力操作等の、監視する上で必要な各種操作等が含まれる。TA表示部36は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、TA入力部35から入力された所定の操作内容や、被監視者監視システムMSによって監視されている被監視者Obに対する監視に関する前記監視情報(例えばセンサ装置SUで検知した所定の行動の種類や、被監視者Obの画像(静止画および動画)や、人物位置データに基づく人物の位置を表す人物位置標識や、ナースコールの受付等)等を表示する回路であり、例えばLCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置である。そして、本実施形態では、TA入力部35およびTA表示部36からタッチパネルが構成されている。この場合において、TA入力部35は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力デバイスである。このタッチパネルでは、TA表示部36の表示面上に位置入力デバイスが設けられ、TA表示部36に入力可能な1または複数の入力内容の候補が表示され、例えば看護師や介護士等のユーザ(監視者)が、入力したい入力内容を表示した表示位置を触れると、位置入力デバイスによってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として携帯端末装置TAに入力される。 The TA input unit 35 is a circuit connected to the TA control processing unit 32, accepting a predetermined operation and inputting it to the mobile terminal device TA, for example, a plurality of input switches to which a predetermined function is assigned. .. The predetermined operation includes, for example, an ID input operation for logging in, a voice call request operation and its termination operation, a live video request operation and its termination operation, and the notified monitored person. Input operation to the effect (“correspondence”) that there is an intention to perform response (coping, response) such as lifesaving, nursing, nursing care, and assistance to Ob, and instructions (command, command, to enlarge and display the person in the image). It includes various operations necessary for monitoring, such as input operations for enlarged display instructions (commands). The TA display unit 36 is connected to the TA control processing unit 32, and according to the control of the TA control processing unit 32, a predetermined operation content input from the TA input unit 35 and a subject monitored by the monitored person monitoring system MS. The monitoring information regarding the monitoring of the observer Ob (for example, the type of a predetermined action detected by the sensor device SU, the image (still image and moving image) of the monitored person Ob, and the person position indicating the position of the person based on the person position data). It is a circuit that displays signs, reception of nurse calls, etc.), and is a display device such as an LCD (liquid crystal display) and an organic EL display. In the present embodiment, the touch panel is composed of the TA input unit 35 and the TA display unit 36. In this case, the TA input unit 35 is a position input device that detects and inputs an operation position such as a resistance film method or a capacitance method. In this touch panel, a position input device is provided on the display surface of the TA display unit 36, and one or a plurality of input content candidates that can be input to the TA display unit 36 are displayed. When the observer) touches the display position displaying the input content to be input, the position input device detects the position, and the display content displayed at the detected position is displayed on the mobile terminal device TA as the user's operation input content. Entered.

TAIF部37は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA規格等の赤外線通信を行うインターフェース回路、および、USB規格を用いたインターフェース回路等である。 The TAIF unit 37 is a circuit that is connected to the TA control processing unit 32 and inputs / outputs data to / from an external device according to the control of the TA control processing unit 32. For example, the Bluetooth (registered trademark) standard is used. An interface circuit, an interface circuit that performs infrared communication such as the IrDA standard, and an interface circuit that uses the USB standard.

TA記憶部33は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御するTA制御プログラムや、センサ装置SUから管理サーバ装置SVを介して受信した前記検知結果や前記ナースコール等の被監視者Obに対する監視に関する監視情報を記憶(記録)し、前記検知結果や前記ナースコールを表示するTA監視処理プログラムや、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うTA通話処理プログラムや、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するストリーミング処理プログラム等の制御処理プログラムが含まれる。TA監視処理プログラムには、第2監視情報通信信号に収容された検知結果および画像データの画像をTA表示部36に表示し、前記第2監視情報通信信号に収容された人物位置データに基づく人物位置標識をTA表示部36に表示した画像中に表示する表示処理プログラムが含まれる。前記各種の所定のデータでは、自機の端末ID、TA表示部36に表示される画面情報、および、被監視者Obに対する監視に関する前記監視情報等の各プログラムを実行する上で必要なデータ等が含まれる。TA記憶部33は、例えばROMやEEPROM等を備える。TA記憶部33は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるTA制御処理部32のワーキングメモリとなるRAM等を含む。そして、TA記憶部33は、前記監視情報を記憶するための端末側監視情報記憶部(TA監視情報記憶部)331を機能的に備える。 The TA storage unit 33 is a circuit that is connected to the TA control processing unit 32 and stores various predetermined programs and various predetermined data under the control of the TA control processing unit 32. The various predetermined programs include, for example, a TA control program that controls each part of the mobile terminal device TA according to the function of each part, and the detection result received from the sensor device SU via the management server device SV. A sensor device by using a TA monitoring processing program that stores (records) monitoring information related to monitoring of the monitored person Ob such as the nurse call and displays the detection result and the nurse call, a TA sound input / output unit 34, and the like. A control processing program such as a TA call processing program that makes a voice call with the SU, or a streaming processing program that receives video distribution from the sensor device SU and displays the distributed video on the TA display unit 36 by streaming playback. Is included. In the TA monitoring processing program, the detection result and the image of the image data accommodated in the second monitoring information communication signal are displayed on the TA display unit 36, and the person based on the person position data accommodated in the second monitoring information communication signal. A display processing program for displaying the position indicator in the image displayed on the TA display unit 36 is included. In the various predetermined data, data necessary for executing each program such as the terminal ID of the own machine, the screen information displayed on the TA display unit 36, and the monitoring information related to the monitoring of the monitored person Ob, etc. Is included. The TA storage unit 33 includes, for example, a ROM, an EEPROM, or the like. The TA storage unit 33 includes a RAM or the like that serves as a working memory of the so-called TA control processing unit 32 that stores data or the like generated during execution of the predetermined program. Then, the TA storage unit 33 functionally includes a terminal-side monitoring information storage unit (TA monitoring information storage unit) 331 for storing the monitoring information.

TA監視情報記憶部331は、各装置SV、SP、SUそれぞれとの間で送受信した被監視者Obの監視情報を記憶するものである。より具体的には、TA監視情報記憶部331は、本実施形態では、前記監視情報として、管理サーバ装置SVから受信した第2監視情報通信信号に収容されたセンサID、検知結果、対象画像、人物位置データおよび動画のダウンロード先のセンサ装置SUの通信アドレス、ならびに、当該第2監視情報通信信号の受信時刻等を互いに対応付けて記憶し、管理サーバ装置SVから受信した第2ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報、ならびに、当該第2ナースコール通知通信信号の受信時刻等を互いに対応付けて記憶する。 The TA monitoring information storage unit 331 stores the monitoring information of the monitored person Ob transmitted and received to and from each of the devices SV, SP, and SU. More specifically, in the present embodiment, the TA monitoring information storage unit 331 has the sensor ID, the detection result, the target image, which are accommodated in the second monitoring information communication signal received from the management server device SV, as the monitoring information. The communication address of the sensor device SU to which the person position data and the moving image are downloaded, the reception time of the second monitoring information communication signal, etc. are stored in association with each other, and the second nurse call notification communication received from the management server device SV. The sensor ID and nurse call reception information stored in the signal, the reception time of the second nurse call notification communication signal, and the like are stored in association with each other.

TA制御処理部32は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obに対する前記監視情報を受け付けて表示し、ナースコールの応答や声かけするための回路である。TA制御処理部32は、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32は、制御処理プログラムが実行されることによって、端末側制御部(TA制御部)321、端末側監視処理部(TA監視処理部)322、通話処理部323および端末側ストリーミング処理部(TAストリーミング処理部)324を機能的に備える。TA監視処理部322は、表示処理部3221を機能的に備える。 The TA control processing unit 32 controls each unit of the mobile terminal device TA according to the function of each unit, receives and displays the monitoring information for the monitored person Ob, and is a circuit for answering a nurse call or calling out. Is. The TA control processing unit 32 includes, for example, a CPU and peripheral circuits thereof. When the control processing program is executed, the TA control processing unit 32 includes the terminal side control unit (TA control unit) 321 and the terminal side monitoring processing unit (TA monitoring processing unit) 322, the call processing unit 323, and the terminal side streaming processing. A unit (TA streaming processing unit) 324 is functionally provided. The TA monitoring processing unit 322 functionally includes a display processing unit 3221.

TA制御部321は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、携帯端末装置TAの全体制御を司るものである。 The TA control unit 321 controls each part of the mobile terminal device TA according to the function of each part, and controls the entire control of the mobile terminal device TA.

TA監視処理部322は、センサ装置SUから管理サーバ装置SVを介して受信した前記検知結果や前記ナースコール等の被監視者Obに対する監視に関する監視情報を記憶(記録)し、前記検知結果や前記ナースコールを表示するものである。より具体的には、TA監視処理部322は、管理サーバ装置SVから第2監視情報通信信号を受信すると、この受信した第2監視情報通信信号に収容された、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、表示処理部3221によって、前記受信した第2監視情報通信信号に収容された各情報に応じた画面をTA表示部36に表示する。より詳しくは、表示処理部3221は、前記受信した第2監視情報通信信号に収容された前記検知結果および前記対象画像をTA表示部36に表示し、前記受信した第2監視情報通信信号に収容された前記人物位置データに基づく人物位置標識を、TA表示部36に表示した前記対象画像中に表示する。そして、本実施形態では、表示処理部3221は、TA入力部35で前記拡大表示指示を受け付けた場合に、TA表示部36に表示中の前記人物の領域の大きさよりも拡大して前記人物の領域を表示する。TA監視処理部322は、管理サーバ装置SVから第2ナースコール通知通信信号を受信すると、この受信した第2ナースコール通知通信信号に収容された、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、前記受信した第2ナースコール通知通信信号に収容されたナースコール受付情報に応じて、TA記憶部33に予め記憶されたナースコール受付画面をTA表示部36に表示する。そして、TA監視処理部322は、TA入力部35から所定の入力操作を受け付けると、その入力操作に応じた所定の処理を実行する。 The TA monitoring processing unit 322 stores (records) the detection result received from the sensor device SU via the management server device SV and the monitoring information regarding the monitoring of the monitored person Ob such as the nurse call, and stores (records) the detection result and the above. It displays a nurse call. More specifically, when the TA monitoring processing unit 322 receives the second monitoring information communication signal from the management server device SV, the TA monitoring processing unit 322 receives the monitoring information of the monitored person Ob contained in the received second monitoring information communication signal. It is stored (recorded) in the TA monitoring information storage unit 331. The TA monitoring processing unit 322 displays a screen corresponding to each information accommodated in the received second monitoring information communication signal on the TA display unit 36 by the display processing unit 3221. More specifically, the display processing unit 3221 displays the detection result and the target image stored in the received second monitoring information communication signal on the TA display unit 36, and stores the detection result and the target image in the received second monitoring information communication signal. The person position sign based on the person position data is displayed in the target image displayed on the TA display unit 36. Then, in the present embodiment, when the TA input unit 35 receives the enlarged display instruction, the display processing unit 3221 enlarges the size of the area of the person displayed on the TA display unit 36 and increases the size of the person. Display the area. When the TA monitoring processing unit 322 receives the second nurse call notification communication signal from the management server device SV, the TA monitoring processing unit 322 stores the monitoring information of the monitored person Ob contained in the received second nurse call notification communication signal in the TA monitoring information storage. It is stored (recorded) in the unit 331. The TA monitoring processing unit 322 displays the nurse call reception screen stored in advance in the TA storage unit 33 on the TA display unit 36 in response to the nurse call reception information stored in the received second nurse call notification communication signal. .. Then, when the TA monitoring processing unit 322 receives a predetermined input operation from the TA input unit 35, the TA monitoring processing unit 322 executes a predetermined processing according to the input operation.

通話処理部323は、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うものである。より具体的には、通話処理部323は、TA音入出力部34等を用い、第1監視情報通信信号や第1ナースコール通報通信信号を管理サーバ装置SVへ送信した報知元のセンサ装置SUや、携帯端末装置TAのユーザ(監視者)によって選択され指定されたセンサ装置SU等との間で例えばVoIPによって音声通話を行う。 The call processing unit 323 makes a voice call with the sensor device SU by using the TA sound input / output unit 34 and the like. More specifically, the call processing unit 323 uses the TA sound input / output unit 34 and the like to transmit the first monitoring information communication signal and the first nurse call notification communication signal to the management server device SV. Or, a voice call is made with, for example, VoIP with a sensor device SU or the like selected and designated by a user (monitorer) of the mobile terminal device TA.

TAストリーミング処理部324は、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するものである。 The TA streaming processing unit 324 receives the distribution of the moving image from the sensor device SU, and displays the distributed moving image on the TA display unit 36 by streaming reproduction.

このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 Such a mobile terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.

なお、本実施形態では、タッチパネルを構成するTA入力部35およびTA表示部36が、前記画像に写る人物を拡大して表示する指示である拡大表示指示を受け付ける指示入力部(第1指示入力部)の一例に相当し、そして、所定の操作を行う指示である操作指示を受け付ける第2指示入力部の一例にも相当する。 In the present embodiment, the TA input unit 35 and the TA display unit 36 constituting the touch panel receive an instruction input unit (first instruction input unit) that receives an enlarged display instruction which is an instruction to enlarge and display a person appearing in the image. ), And also corresponds to an example of a second instruction input unit that receives an operation instruction that is an instruction to perform a predetermined operation.

次に、本実施形態の動作について説明する。図9は、実施形態の被監視者監視システムにおけるセンサ装置の監視情報に関する動作を示すフローチャートである。図10は、実施形態の被監視者監視システムにおける携帯端末装置の監視情報に関する動作を示すフローチャートである。図11は、実施形態の被監視者監視システムにおける携帯端末装置に表示される待受け画面の一例を示す図である。図12は、実施形態の被監視者監視システムにおける携帯端末装置に表示される監視情報画面の一例を示す図である。図13は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、人物の領域を拡大した監視情報画面の一例を示す図である。 Next, the operation of this embodiment will be described. FIG. 9 is a flowchart showing an operation related to the monitoring information of the sensor device in the monitored person monitoring system of the embodiment. FIG. 10 is a flowchart showing an operation related to monitoring information of the mobile terminal device in the monitored person monitoring system of the embodiment. FIG. 11 is a diagram showing an example of a standby screen displayed on the mobile terminal device in the monitored person monitoring system of the embodiment. FIG. 12 is a diagram showing an example of a monitoring information screen displayed on the mobile terminal device in the monitored person monitoring system of the embodiment. FIG. 13 is a diagram showing an example of a monitoring information screen in which the area of a person is enlarged, which is displayed on the mobile terminal device in the monitored person monitoring system of the embodiment.

このような被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。センサ装置SUでは、その制御処理プログラムの実行によって、SU制御処理部14には、SU制御部141、SU監視処理部142、人物位置処理部143、ナースコール処理部144およびSUストリーミング処理部145が機能的に構成される。携帯端末装置TAでは、その制御処理プログラムの実行によって、TA制御処理部32には、TA制御部321、TA監視処理部322、通話処理部323およびTAストリーミング処理部324が機能的に構成され、TA監視処理部322には、表示処理部3221が機能的に構成される。 In such a monitored person monitoring system MS, each device SU, SV, SP, and TA executes necessary initialization of each part when the power is turned on, and starts its operation. In the sensor device SU, by executing the control processing program, the SU control processing unit 14 includes the SU control unit 141, the SU monitoring processing unit 142, the person position processing unit 143, the nurse call processing unit 144, and the SU streaming processing unit 145. Functionally configured. In the mobile terminal device TA, the TA control processing unit 32 is functionally configured with the TA control unit 321 and the TA monitoring processing unit 322, the call processing unit 323, and the TA streaming processing unit 324 by executing the control processing program. The TA monitoring processing unit 322 is functionally configured with a display processing unit 3221.

センサ装置SUの動作について説明する。センサ装置SUは、各フレームごとに、あるいは、数フレームおきに、次のように動作することで、被監視者Obにおける所定の動作を検知し、ナースコールの受付の有無を判定している。 The operation of the sensor device SU will be described. The sensor device SU detects a predetermined operation of the monitored person Ob by operating as follows for each frame or every few frames, and determines whether or not a nurse call is accepted.

図9において、まず、センサ装置SUは、SU制御処理部14のSU制御部141によって、撮像部11から1フレーム分の画像(画像データ)を前記対象画像として取得する(S11)。 In FIG. 9, first, the sensor device SU acquires an image (image data) for one frame from the imaging unit 11 as the target image by the SU control unit 141 of the SU control processing unit 14 (S11).

次に、センサ装置SUは、SU制御処理部14のSU監視処理部142によって、被監視者Obにおける所定の行動を検知する行動検知処理を前記取得した対象画像に基づいて実行する(S12)。 Next, the sensor device SU is executed by the SU monitoring processing unit 142 of the SU control processing unit 14 based on the acquired target image to perform an action detection process for detecting a predetermined action on the monitored person Ob (S12).

次に、センサ装置SUは、SU監視処理部142によって、前記行動検知処理S12で被監視者Obにおける所定の行動が検知されたか否かを判定する。この判定の結果、前記行動が検知されていない場合(No)には、センサ装置SUは、次に、処理S16を実行し、一方、前記行動が検知されている場合(Yes)には、センサ装置SUは、次の処理S14および処理S15を順次に実行した後に、処理S16を実行する。 Next, the sensor device SU determines whether or not a predetermined action in the monitored person Ob is detected by the action detection process S12 by the SU monitoring processing unit 142. As a result of this determination, if the action is not detected (No), the sensor device SU then executes the process S16, while if the action is detected (Yes), the sensor device SU executes the process S16. The apparatus SU executes the next process S14 and the process S15 in sequence, and then executes the process S16.

この処理S14では、センサ装置SUは、SU制御処理部14の人物位置処理部143によって、前記取得した対象画像に写る人物の前記画像での位置に関する人物位置データを生成する。人物位置データは、上述の第1ないし第5態様の人物位置データのうちのいずれであって良いが、本実施形態では、例えば、第2態様の人物位置データが採用されている。この場合では、人物位置処理部143は、まず、前記取得した対象画像から例えば背景差分法やフレーム差分法によって人物の領域として動体領域MBを抽出する。あるいは、人物位置処理部143は、処理S12でSU監視処理部142によって抽出された動体領域MBをSU監視処理部142から取得する。次に、人物位置処理部143は、この動体領域MBの全部または一部を含む矩形を求め、この求めた矩形を表す座標データを人物位置データ(人物領域データ)として求める。前記矩形を表す座標データは、例えば、矩形における1つの対角線の両端点の各座標データから成る(図4に示す例ではP20(x0、y0)、P21(x1、y1))。そして、人物位置処理部143は、この求めた人物位置データ(人物領域データ)をSU監視処理部142へ通知する。なお、動体領域MBが複数である場合には、人物位置データは、前記複数の動体領域MBそれぞれに対応する複数であって良い。 In this process S14, the sensor device SU generates the person position data regarding the position of the person in the acquired target image in the image by the person position processing unit 143 of the SU control processing unit 14. The person position data may be any of the above-mentioned person position data of the first to fifth aspects, but in the present embodiment, for example, the person position data of the second aspect is adopted. In this case, the person position processing unit 143 first extracts the moving object region MB as the region of the person from the acquired target image by, for example, the background subtraction method or the frame subtraction method. Alternatively, the person position processing unit 143 acquires the moving body region MB extracted by the SU monitoring processing unit 142 in the processing S12 from the SU monitoring processing unit 142. Next, the person position processing unit 143 obtains a rectangle including all or a part of the moving body area MB, and obtains coordinate data representing the obtained rectangle as person position data (person area data). The coordinate data representing the rectangle is, for example, composed of the coordinate data of both end points of one diagonal line in the rectangle (P20 (x0, y0), P21 (x1, y1) in the example shown in FIG. 4). Then, the person position processing unit 143 notifies the SU monitoring processing unit 142 of the obtained person position data (person area data). When there are a plurality of moving body region MBs, the person position data may be a plurality of people corresponding to each of the plurality of moving body region MBs.

前記処理S14の次の処理S15では、処理S12および処理S13で検知した所定の行動を管理サーバ装置SVを介して所定の端末装置SP、TAへ報知するために、センサ装置SUは、SU監視処理部142によって、第1監視情報通信信号を管理サーバ装置SVへ送信する。より具体的には、SU監視処理部142は、自機のセンサID、前記検知結果、前記対象画像および前記人物位置データ(この例では矩形の人物領域データ)を収容した第1監視情報通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。したがって、検知結果を報知するための第1監視情報通信信号には、被監視者Obの画像として対象画像が前記検知結果と共に含まれ、前記対象画像に写る人物の位置に関する人物位置データが前記対象画像と共に含まれる。 In the next process S15 of the process S14, the sensor device SU monitors the SU in order to notify the predetermined terminal devices SP and TA via the management server device SV of the predetermined actions detected in the processes S12 and S13. The unit 142 transmits the first monitoring information communication signal to the management server device SV. More specifically, the SU monitoring processing unit 142 is a first monitoring information communication signal accommodating the sensor ID of the own machine, the detection result, the target image, and the person position data (rectangular person area data in this example). Is transmitted to the management server device SV via the SU communication IF unit 15. Therefore, the first monitoring information communication signal for notifying the detection result includes a target image as an image of the monitored person Ob together with the detection result, and the person position data regarding the position of the person reflected in the target image is the target. Included with image.

前記処理S16では、センサ装置SUは、SU制御処理部14のナースコール処理部144によって、ナースコールを受け付けているか否かを判定する。すなわち、図9に示す処理S11ないし処理S17は、各フレームごとに、あるいは、数フレームおきに、繰り返し実行されるが、前回における処理S16の実行から今般における処理S16の実行までの間に、ナースコール受付操作部13が操作されたか否かが判定される。この判定の結果、ナースコール受付操作部13が操作されず、ナースコールを受け付けていない場合(No)には、センサ装置SUは、今回の本処理を終了し、一方、ナースコール受付操作部13が操作され、ナースコールを受け付けている場合(Yes)には、センサ装置SUは、次の処理S17を実行した後に、今回の本処理を終了する。 In the process S16, the sensor device SU determines whether or not the nurse call is accepted by the nurse call processing unit 144 of the SU control processing unit 14. That is, the processes S11 to S17 shown in FIG. 9 are repeatedly executed every frame or every few frames, but the nurse is executed between the previous execution of the process S16 and the current execution of the process S16. It is determined whether or not the call reception operation unit 13 has been operated. As a result of this determination, if the nurse call reception operation unit 13 is not operated and the nurse call is not accepted (No), the sensor device SU ends the current processing, while the nurse call reception operation unit 13 Is operated and the nurse call is accepted (Yes), the sensor device SU ends the current process after executing the next process S17.

この処理S17では、処理S16でその受付が判明したナースコールを管理サーバ装置SVを介して所定の端末装置SP、TAへ報知するために、センサ装置SUは、ナースコール処理部144によって、第1ナースコール通知通信信号を管理サーバ装置SVへ送信する。より具体的には、ナースコール処理部144は、自機のセンサIDおよびナースコール受付情報を収容した第1ナースコール通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。 In this process S17, in order to notify the predetermined terminal devices SP and TA via the management server device SV of the nurse call whose reception is found in the process S16, the sensor device SU is first set by the nurse call processing unit 144. The nurse call notification communication signal is transmitted to the management server device SV. More specifically, the nurse call processing unit 144 transmits the first nurse call notification communication signal containing the sensor ID of the own device and the nurse call reception information to the management server device SV via the SU communication IF unit 15. ..

被監視者Obにおける所定の行動の検知やナースコールの受け付けに関し、センサ装置SUは、以上のように動作している。 The sensor device SU operates as described above with respect to the detection of a predetermined action in the monitored person Ob and the reception of the nurse call.

管理サーバ装置SVは、第1監視情報通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1監視情報通信信号に収容されたセンサID、判定結果、対象画像および人物位置データ(本実施形態では矩形の人物領域データ)等を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1監視情報通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2監視情報通信信号を送信する。また、管理サーバ装置SVは、第1ナースコール通知通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報等を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1ナースコール通知通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2ナースコール通知通信信号を送信する。 When the management server device SV receives the first monitoring information communication signal from the sensor device SU via the network NW, the management server device SV receives the sensor ID, the determination result, the target image, and the person position data (this) stored in the first monitoring information communication signal. In the embodiment, rectangular person area data) and the like are stored (recorded) as monitoring information of the monitored person Ob monitored by the sensor device SU having this sensor ID. Then, the management server device SV identifies the terminal devices SP and TA of the notification destination corresponding to the sensor device SU of the notification source in the received first monitoring information communication signal from the notification destination correspondence relationship, and the notification destination The second monitoring information communication signal is transmitted to the terminal devices SP and TA. Further, when the management server device SV receives the first nurse call notification communication signal from the sensor device SU via the network NW, the management server device SV receives the sensor ID, the nurse call reception information, and the like accommodated in the first nurse call notification communication signal. It is stored (recorded) as monitoring information of the monitored person Ob monitored by the sensor device SU having this sensor ID. Then, the management server device SV identifies the terminal devices SP and TA of the notification destination corresponding to the sensor device SU of the notification source in the received first nurse call notification communication signal from the notification destination correspondence relationship, and this notification destination. The second nurse call notification communication signal is transmitted to the terminal devices SP and TA of the above.

固定端末装置SPおよび携帯端末装置TAは、前記第2監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2監視情報通信信号に収容された被監視者Obの監視に関する前記監視情報を表示する。携帯端末装置TAによるこの監視情報を表示する動作については、以下で詳述する。また、固定端末装置SPおよび携帯端末装置TAは、前記第2ナースコール通知通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2ナースコール通知通信信号に収容されたセンサIDを持つセンサ装置SUで監視されている被監視者Obからナースコールを受け付けたことを表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obにおける所定の行動を検知して各被監視者Obを監視している。 When the fixed terminal device SP and the mobile terminal device TA receive the second monitoring information communication signal from the management server device SV via the network NW, the fixed terminal device SP and the mobile terminal device TA relate to the monitoring of the monitored person Ob accommodated in the second monitoring information communication signal. The monitoring information is displayed. The operation of displaying this monitoring information by the mobile terminal device TA will be described in detail below. Further, when the fixed terminal device SP and the mobile terminal device TA receive the second nurse call notification communication signal from the management server device SV via the network NW, the fixed terminal device SP and the mobile terminal device TA receive the sensor ID accommodated in the second nurse call notification communication signal. It displays that the nurse call has been accepted from the monitored person Ob monitored by the sensor device SU. By such an operation, the monitored person monitoring system MS roughly detects a predetermined action in each monitored person Ob by each sensor device SU, management server device SV, fixed terminal device SP, and mobile terminal device TA. Each monitored person Ob is monitored.

次に、端末装置SP、TAにおける、被監視者Obの監視に関する前記監視情報を表示する動作およびそれに関連する動作について、説明する。ここでは、代表的に、携帯端末装置TAの動作について説明する。 Next, the operation of displaying the monitoring information regarding the monitoring of the monitored person Ob and the operation related thereto in the terminal devices SP and TA will be described. Here, the operation of the mobile terminal device TA will be typically described.

上述したように、電源が投入され、その稼働を始めると、携帯端末装置TAでは、例えば看護師や介護士等の監視者(ユーザ)によるログイン操作が受け付けられ、TA監視処理部322の表示処理部3221によって、自機宛の通信信号を待ち受ける待受け画面がTA表示部36に表示される。この待受け画面51は、例えば、図11に示すように、メニューバーを表示するメニューバー領域511と、待ち受け中であることを表すメッセージ(例えば「通知はありません」)およびアイコンを表示する待受けメイン領域512と、現在時刻を表示する時刻領域513と、今日の年月日曜日を表示する年月日曜日領域514と、今、当該携帯端末装置TAにログインしているユーザ名を表示するユーザ名領域515とを備える。メニューバー領域511には、他の携帯端末装置TAとの内線通話や外線電話機TLとの外線電話の発信の指示を入力するためのオフフックボタン5111が備えられている。 As described above, when the power is turned on and the operation is started, the mobile terminal device TA accepts a login operation by a monitor (user) such as a nurse or a caregiver, and displays the TA monitoring processing unit 322. The TA display unit 36 displays a standby screen for waiting for a communication signal addressed to the own unit by the unit 3221. As shown in FIG. 11, the standby screen 51 has, for example, a menu bar area 511 for displaying a menu bar, and a standby main area for displaying a message (for example, "no notification") and an icon indicating that the user is in standby. 512, a time area 513 that displays the current time, a date area 514 that displays today's date, and a user name area 515 that displays the user name that is currently logged in to the mobile terminal device TA. To be equipped with. The menu bar area 511 is provided with an off-hook button 5111 for inputting an instruction for making an extension call with another mobile terminal device TA or making an outside line call with the outside line telephone TL.

そして、図10において、携帯端末装置TAは、TA制御処理部32のTA制御部321によって、TA通信IF部31で通信信号を受信したか否かを判定する(S21)。この判定の結果、通信信号を受信していない場合(No)には、携帯端末装置TAは、処理をS21に戻し、前記判定の結果、通信信号を受信している場合(Yes)には、携帯端末装置TAは、次の処理S22を実行する。すなわち、携帯端末装置TAは、通信信号の受信を待ち受けている。 Then, in FIG. 10, the mobile terminal device TA determines whether or not the TA communication IF unit 31 has received the communication signal by the TA control unit 321 of the TA control processing unit 32 (S21). As a result of this determination, if the communication signal is not received (No), the mobile terminal device TA returns the process to S21, and if the result of the determination is that the communication signal is received (Yes), the mobile terminal device TA returns the process to S21. The mobile terminal device TA executes the following process S22. That is, the mobile terminal device TA is waiting for the reception of the communication signal.

処理S22では、携帯端末装置TAは、TA制御部321によって、この受信した通信信号の種類を判定する。この判定の結果、携帯端末装置TAは、前記受信した通信信号が第2監視情報通信信号である場合(第2監視情報)には、次の処理S23および処理S24を順次に実行した後に処理S27を実行し、前記受信した通信信号が第2ナースコール通知通信信号である場合(第2NC通知)には、次の処理S25および処理S26を順次に実行した後に処理S27を実行し、前記受信した通信信号が第2監視情報通信信号および第2ナースコール通知通信信号ではない場合(その他)には、処理S21で受信した通信信号に応じた適宜な処理を行う処理S29を実行した後に本処理を終了する。 In the process S22, the mobile terminal device TA determines the type of the received communication signal by the TA control unit 321. As a result of this determination, when the received communication signal is the second monitoring information communication signal (second monitoring information), the mobile terminal device TA sequentially executes the following processes S23 and S24, and then processes S27. When the received communication signal is the second nurse call notification communication signal (second NC notification), the following processes S25 and S26 are sequentially executed, and then the process S27 is executed, and the received communication signal is received. When the communication signal is not the second monitoring information communication signal and the second nurse call notification communication signal (other), this process is performed after executing process S29 which performs appropriate processing according to the communication signal received in process S21. finish.

処理S23では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S21で管理サーバ装置SVから受信した第2監視情報通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。 In the process S23, the mobile terminal device TA is monitored by the TA monitoring process unit 322 of the TA control process unit 32 for the monitored person Ob, which is accommodated in the second monitoring information communication signal received from the management server device SV in the process S21. The monitoring information related to the above is stored (recorded) in the TA monitoring information storage unit 331.

この処理S23の次に、TA監視処理部322は、表示処理部3221によって、処理S21で受信した第2監視情報通信信号に収容された各情報に応じた画面を、例えば図12に示す監視情報画面52をTA表示部36に表示する(S24)。 Next to the processing S23, the TA monitoring processing unit 322 displays a screen corresponding to each information accommodated in the second monitoring information communication signal received in the processing S21 by the display processing unit 3221, for example, the monitoring information shown in FIG. The screen 52 is displayed on the TA display unit 36 (S24).

この監視情報画面52は、被監視者Obの監視に関する前記監視情報を表示するための画面である。前記監視情報画面52は、例えば、図12に示すように、メニューバー領域511と、処理S21で受信した第2監視情報通信信号に収容されたセンサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前を表示する被監視者名領域521と、処理S21で受信した第2監視情報通信信号の受信時刻(または前記所定の行動の検知時刻)からの経過時間、および、処理S21で受信した第2監視情報通信信号に収容された前記検知結果を表示する検知情報表示領域522と、処理S21で受信した第2監視情報通信信号に収容された画像(すなわち、前記センサIDを持つ前記センサ装置SUによって撮像された対象画像)(ここでは静止画)、および、処理S21で受信した第2監視情報通信信号に収容された前記人物位置データ(この例では矩形の人物領域データ)に基づく人物位置標識HP2を表示する画像領域523と、「対応する」ボタン524と、「話す」ボタン525と、「LIVEを見る」ボタン526とを備える。 The monitoring information screen 52 is a screen for displaying the monitoring information regarding the monitoring of the monitored person Ob. On the monitoring information screen 52, for example, as shown in FIG. 12, the menu bar area 511, the arrangement location of the sensor device SU having the sensor ID accommodated in the second monitoring information communication signal received in the process S21, and the above. The monitored person name area 521 displaying the name of the monitored person Ob monitored by the sensor device SU having the sensor ID, and the reception time of the second monitoring information communication signal received in the process S21 (or the predetermined action). The elapsed time from the detection time), the detection information display area 522 that displays the detection result accommodated in the second monitoring information communication signal received in the process S21, and the second monitoring information communication signal received in the process S21. The accommodated image (that is, the target image captured by the sensor device SU having the sensor ID) (here, a still image) and the position of the person accommodated in the second monitoring information communication signal received in the process S21. It includes an image area 523 that displays a person position indicator HP2 based on data (rectangular person area data in this example), a "corresponding" button 524, a "speak" button 525, and a "view LIVE" button 526. ..

被監視者名領域521に、センサ装置SUの配設場所および被監視者Obの名前を表示するために、TA記憶部33には、センサID、前記センサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前が互いに対応付けられて予め記憶される。 In order to display the location of the sensor device SU and the name of the monitored person Ob in the monitored person name area 521, the TA storage unit 33 has a sensor ID and a location of the sensor device SU having the sensor ID. And the names of the monitored persons Ob monitored by the sensor device SU having the sensor ID are associated with each other and stored in advance.

検知情報表示領域522には、処理S21で受信した第2監視情報通信信号に収容された検知結果(本実施形態では、起床、離床、転落および転倒の各名称)がそのまま表示されても良いが、本実施形態では、前記検知結果を象徴的に表すアイコンで表示されている。このアイコンで表示するために、TA記憶部33には、各行動およびその行動を象徴的に表すアイコンが互いに対応付けられて予め記憶される。図12に示す例では、検知情報表示領域522には、起床を象徴的に表す起床アイコンが表示されている。 In the detection information display area 522, the detection result (in this embodiment, each name of getting up, getting out of bed, falling, and falling) stored in the second monitoring information communication signal received in the process S21 may be displayed as it is. , In the present embodiment, it is displayed by an icon symbolically representing the detection result. In order to display with this icon, each action and an icon symbolically representing the action are associated with each other and stored in advance in the TA storage unit 33. In the example shown in FIG. 12, a wake-up icon symbolically representing wake-up is displayed in the detection information display area 522.

画像領域523には、表示中の対象画像中に、人物位置データに基づく人物位置標識HP2が表示される。この図12に示す例では、対象画像には、寝具BDおよび被監視者Obが写っている。本実施形態では、処理S21で受信した第2監視情報通信信号に収容された人物位置データは、矩形の人物領域データであり、表示処理部3221は、表示中の対象画像における正面視にて左上頂点を座標原点として、人物領域データ(ここでは対角線の両端点の各座標データ(x0、y0)、(x1、y1))で表される矩形の画像HP2を人物位置標識HP2として表示中の対象画像に重畳して表示する。そして、本実施形態では、人物位置標識HP2で囲まれた領域は、表示中の対象画像に写る人物を拡大して表示する指示である前記拡大表示指示を、当該携帯端末装置TAに入力するためのボタンになっている。 In the image area 523, the person position sign HP2 based on the person position data is displayed in the target image being displayed. In the example shown in FIG. 12, the bedding BD and the monitored person Ob are shown in the target image. In the present embodiment, the person position data accommodated in the second monitoring information communication signal received in the process S21 is rectangular person area data, and the display processing unit 3221 is viewed from the upper left in the front view of the target image being displayed. A target displaying a rectangular image HP2 represented by person area data (here, each coordinate data (x0, y0), (x1, y1) of both ends of a diagonal line) with a vertex as a coordinate origin as a person position indicator HP2. Display by superimposing on the image. Then, in the present embodiment, in the area surrounded by the person position sign HP2, the enlarged display instruction, which is an instruction to enlarge and display the person appearing in the target image being displayed, is input to the mobile terminal device TA. It is a button of.

なお、表示処理部3221は、前記対象画像の表示方法(第1表示方法)と異なる第2表示方法で人物の領域内の画像を表示しても良い。前記人物の領域内外を互いに異なる表示方法で表示することで、携帯端末装置TAのユーザ(監視者)は、画像中の人物の領域、言い換えれば、画像中の被監視者Obを見つけ易くなる。例えば、第1表示方法は、通常の表示であり、第2表示方法は、モザイク表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像を通常の通りに表示し、矩形の人物位置標識HP内の画像をモザイク化して表示する。また例えば、第1表示方法は、カラー表示であり、第2表示方法は、モノクロ表示(単色化表示)であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をカラーで表示し、矩形の人物位置標識HP内の画像をモノクロで表示する。また例えば、第1表示方法は、モノクロ表示であり、第2表示方法は、カラー表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をモノクロで表示し、矩形の人物位置標識HP内の画像をカラーで表示する。また例えば、第1表示方法は、ポジ表示であり、第2表示方法は、ネガ表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をポジで表示し、矩形の人物位置標識HP内の画像をネガで表示する。また例えば、第1表示方法は、ネガ表示であり、第2表示方法は、ポジ表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をネガで表示し、矩形の人物位置標識HP内の画像をポジで表示する。 The display processing unit 3221 may display an image in the area of a person by a second display method different from the display method of the target image (first display method). By displaying the inside and outside of the area of the person in different display methods, the user (monitorer) of the mobile terminal device TA can easily find the area of the person in the image, in other words, the monitored person Ob in the image. For example, the first display method is a normal display, the second display method is a mosaic display, and the display processing unit 3221 sets the image in the rectangular person position sign HP as an image in the area of the person. The image outside the rectangular person position sign HP is displayed as usual, and the image inside the rectangular person position sign HP is displayed as a mosaic. Further, for example, the first display method is color display, the second display method is monochrome display (monochromatic display), and the display processing unit 3221 displays the image in the rectangular person position marker HP in the area of the person. As the image inside, the image outside the rectangular person position indicator HP is displayed in color, and the image inside the rectangular person position indicator HP is displayed in monochrome. Further, for example, the first display method is monochrome display, the second display method is color display, and the display processing unit 3221 sets the image in the rectangular person position marker HP as an image in the area of the person. The image outside the rectangular person position indicator HP is displayed in monochrome, and the image inside the rectangular person position indicator HP is displayed in color. Further, for example, the first display method is a positive display, the second display method is a negative display, and the display processing unit 3221 sets the image in the rectangular person position sign HP as an image in the area of the person. The image outside the rectangular person position sign HP is displayed as positive, and the image inside the rectangular person position sign HP is displayed as negative. Further, for example, the first display method is a negative display, the second display method is a positive display, and the display processing unit 3221 sets the image in the rectangular person position sign HP as an image in the area of the person. The image outside the rectangular person position sign HP is displayed as a negative, and the image inside the rectangular person position sign HP is displayed as a positive.

「対応する」ボタン524は、監視情報画面52では、この監視情報画面52に表示された検知結果に対し例えば救命、看護、介護および介助等の所定の対応(応対、対処)を実施する意思が当該携帯端末装置TAのユーザにある旨を表す実施意思情報を、当該携帯端末装置TAに入力するためのボタンである。「話す」ボタン525は、音声通話を要求するためのボタンであって、前記センサIDの前記センサ装置SUと当該携帯端末装置TAとをネットワークNWを介して通話可能に接続する指示を入力するためのボタンである。「LIVEを見る」ボタン526は、ライブでの動画を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画を表示させる指示を入力するためのボタンである。 On the monitoring information screen 52, the "correspondence" button 524 intends to take a predetermined response (response, response) such as lifesaving, nursing, nursing care, and assistance to the detection result displayed on the monitoring information screen 52. This is a button for inputting implementation intention information indicating that the user of the mobile terminal device TA exists into the mobile terminal device TA. The "speak" button 525 is a button for requesting a voice call, and is for inputting an instruction for connecting the sensor device SU of the sensor ID and the mobile terminal device TA so as to be able to make a call via the network NW. Button. The "view LIVE" button 526 is a button for requesting a live moving image, and is a button for inputting an instruction to display a moving image captured by the sensor device SU of the sensor ID.

図10に戻って、一方、処理S25では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S21で管理サーバ装置SVから受信した第2ナースコール通知通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。 Returning to FIG. 10, on the other hand, in the process S25, the mobile terminal device TA is accommodated in the second nurse call notification communication signal received from the management server device SV in the process S21 by the TA monitoring process unit 322 of the TA control process unit 32. The monitoring information regarding the monitoring of the monitored person Ob is stored (recorded) in the TA monitoring information storage unit 331.

この処理S25の次に、TA監視処理部322は、処理S21で受信した第2ナースコール通知通信信号に収容されたナースコール受付情報に応じて、TA記憶部33に予め記憶されたナースコールを受け付けた旨を表す図略のナースコール受付画面をTA表示部36に表示する(S26)。 Next to this process S25, the TA monitoring processing unit 322 transmits the nurse call stored in advance in the TA storage unit 33 according to the nurse call reception information stored in the second nurse call notification communication signal received in the processing S21. A schematic nurse call reception screen indicating that the reception has been received is displayed on the TA display unit 36 (S26).

そして、これら処理S24および処理S26それぞれの後に実行される前記処理S27では、携帯端末装置TAは、TA制御処理部32によって、TA入力部35およびTA表示部36を備えて成るタッチパネルで入力操作を受け付けたか否かを判定する。この判定の結果、入力操作を受け付けていない場合(No)には、携帯端末装置TAは、処理を処理S27に戻し、一方、前記判定の結果、入力操作を受け付けている場合には、携帯端末装置TAは、次の処理S28を実行する。 Then, in the process S27 executed after each of the processes S24 and S26, the mobile terminal device TA uses the TA control processing unit 32 to perform an input operation on the touch panel including the TA input unit 35 and the TA display unit 36. Determine if it has been accepted. As a result of this determination, if the input operation is not accepted (No), the mobile terminal device TA returns the process to the process S27, while if the result of the determination is that the input operation is accepted, the mobile terminal device TA returns the process to the process S27. The device TA executes the next process S28.

この処理S28では、携帯端末装置TAは、TA制御処理部32によって、入力操作の内容に応じた適宜な処理を実行し、本処理を終了する。 In this process S28, the mobile terminal device TA executes an appropriate process according to the content of the input operation by the TA control processing unit 32, and ends this process.

例えば、携帯端末装置TAは、TA制御処理部32によって、拡大表示指示を入力するためのボタンとしても機能している、人物位置標識HP2で囲まれた領域の入力操作(例えばタップ操作等)を受け付けると、表示処理部3221によって、TA表示部36に表示中の人物の領域の大きさよりも拡大して前記人物の領域を表示する。例えば、図12に示す人物位置標識HP2で囲まれた領域は、約4倍に拡大され(縦方向および横方向それぞれ2倍ずつ拡大され)、図13に示す人物位置標識HPEで囲まれた領域で表示される。なお、拡大によって生じる画素の画素値は、例えば、これに隣接する画素の画素値から補間されて生成される。このように人物の領域が拡大表示されるので、携帯端末装置TAのユーザ(監視者)は、画像中の被監視者Obを見つけ易くなり、被監視者Obの様子を画像で認識し易くなる。 For example, the mobile terminal device TA allows the TA control processing unit 32 to perform an input operation (for example, a tap operation) of an area surrounded by the person position sign HP2, which also functions as a button for inputting an enlarged display instruction. Upon receipt, the display processing unit 3221 displays the area of the person on the TA display unit 36 in an enlarged manner larger than the size of the area of the person being displayed. For example, the area surrounded by the person position sign HP2 shown in FIG. 12 is enlarged about 4 times (enlarged by 2 times each in the vertical direction and the horizontal direction), and the area surrounded by the person position sign HPE shown in FIG. 13 is enlarged. Is displayed. The pixel value of the pixel generated by the enlargement is generated by interpolating from the pixel value of the pixel adjacent to the pixel value, for example. Since the area of the person is enlarged and displayed in this way, the user (monitorer) of the mobile terminal device TA can easily find the monitored person Ob in the image, and can easily recognize the state of the monitored person Ob in the image. ..

また例えば、携帯端末装置TAは、TA制御処理部32によって、「対応する」ボタン524の入力操作を受け付けると(すなわち、前記対応意思を受け付けると)、現在、TA表示部36に表示している被監視者Obの監視情報に、「対応する」を受け付けた旨を付してTA監視情報記憶部331に記憶し、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDおよび「対応する」を受け付けた旨を表す情報(対応受付情報)を収容した通信信号(対応受付通知通信信号)を管理サーバ装置SVへ送信する。この対応受付通知通信信号を受信した管理サーバ装置SVは、この受信した対応受付通知通信信号に収容されたセンサIDおよび対応受付情報を収容した通信信号(対応受付周知通信信号)を同報通信で端末装置SP、TAへ送信する。これによって、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDに関し、「対応する」を受け付けた旨が各端末装置SP、TA間で同期される。 Further, for example, when the TA control processing unit 32 receives the input operation of the "corresponding" button 524 (that is, when the corresponding intention is received), the portable terminal device TA is currently displayed on the TA display unit 36. The monitoring information of the monitored person Ob is stored in the TA monitoring information storage unit 331 with the fact that "corresponding" has been accepted, and corresponds to the monitoring information of the monitored person Ob displayed on the TA display unit 36. A communication signal (correspondence reception notification communication signal) accommodating the sensor ID and information indicating that "correspondence" is accepted (correspondence reception information) is transmitted to the management server device SV. The management server device SV that has received the correspondence reception notification communication signal transmits the sensor ID contained in the received correspondence reception notification communication signal and the communication signal containing the correspondence reception information (correspondence reception well-known communication signal) by broadcast communication. It is transmitted to the terminal devices SP and TA. As a result, regarding the sensor ID corresponding to the monitoring information of the monitored person Ob displayed on the TA display unit 36, the fact that "corresponding" is accepted is synchronized between the terminal devices SP and TA.

また例えば、携帯端末装置TAは、TA制御処理部32によって、「話す」ボタン525の入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話を要求する旨等の情報を収容した通信信号(通話要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して音声通話可能に接続する。これによって携帯端末装置TAとセンサ装置SUとの間で音声通話が可能となる。なお、携帯端末装置TAは、TA制御処理部32によって、音声通話の終了の指示を入力するためのボタンである図略の「終了」ボタンの入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話の終了を要求する旨等の情報を収容した通信信号(通話終了通信信号)を送信する。これによって携帯端末装置TAとセンサ装置SUとの間での音声通話が終了される。 Further, for example, when the TA control processing unit 32 receives the input operation of the "speaking" button 525, the mobile terminal device TA monitors the monitored person Ob displayed on the TA display unit 36 by the call processing unit 323. A communication signal (call request communication signal) containing information such as requesting a voice call is transmitted to the sensor device SU, and the sensor device SU corresponding to the communication signal is connected to the sensor device SU via the network NW so that a voice call can be made. As a result, a voice call can be made between the mobile terminal device TA and the sensor device SU. When the TA control processing unit 32 receives an input operation of the "end" button shown in the figure, which is a button for inputting an instruction to end the voice call, the mobile terminal device TA receives the TA by the call processing unit 323. A communication signal (call end communication signal) containing information such as requesting the end of the voice call is transmitted to the sensor device SU that monitors the monitored person Ob displayed on the display unit 36. As a result, the voice call between the mobile terminal device TA and the sensor device SU is terminated.

また例えば、携帯端末装置TAは、TA制御処理部32によって、「LIVEを見る」ボタン526の入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、ライブでの動画の配信を要求する旨等の情報を収容した通信信号(動画配信要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して動画のダウンロード可能に接続し、前記センサ装置SUからライブでの動画の配信を受け、この配信を受けた動画をストリーミング再生でTA表示部36に表示する。このライブでの動画を表示する監視情報画面52では、画像領域523に静止画に代え動画が表示され、そして、「LIVEを見る」ボタン526に代え図略の「LIVE終了」ボタンが表示される。これによって携帯端末装置TAには、ライブでの動画が表示される。前記図略の「LIVE終了」ボタンは、動画の終了を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画の配信を終了(停止)させ表示を終了(停止)させる指示を入力するためのボタンである。携帯端末装置TAは、TA制御処理部32によって、「LIVE終了」ボタンの入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、動画配信の終了を要求する旨等の情報を収容した通信信号(動画配信終了通信信号)を送信し、静止画をTA表示部36に表示する。これによって携帯端末装置TAは、ライブでの動画の表示を終了する。 Further, for example, when the TA control processing unit 32 receives the input operation of the "view LIVE" button 526, the mobile terminal device TA is monitored by the TA streaming processing unit 324 and is currently displayed on the TA display unit 36. A communication signal (video distribution request communication signal) containing information such as requesting live video distribution is transmitted to the sensor device SU that monitors the person Ob, and the sensor device SU and network NW corresponding to the communication signal are transmitted. It is connected so that the moving image can be downloaded via the sensor device SU, and the moving image is delivered live from the sensor device SU, and the delivered moving image is displayed on the TA display unit 36 by streaming reproduction. In the monitoring information screen 52 that displays the live moving image, the moving image is displayed in the image area 523 instead of the still image, and the "Live end" button is displayed instead of the "Watch LIVE" button 526. .. As a result, a live moving image is displayed on the mobile terminal device TA. The "Live end" button in the illustration is a button for requesting the end of the moving image, and ends (stops) the distribution of the moving image captured by the sensor device SU of the sensor ID and ends (stops) the display. ) Is a button for inputting an instruction to be made. When the TA control processing unit 32 receives the input operation of the "Live end" button, the mobile terminal device TA monitors the monitored person Ob currently displayed on the TA display unit 36 by the TA streaming processing unit 324. A communication signal (video distribution end communication signal) containing information such as requesting the end of video distribution is transmitted to the sensor device SU, and a still image is displayed on the TA display unit 36. As a result, the mobile terminal device TA ends the display of the live moving image.

センサ装置SUから管理サーバ装置SVを介して報知を受けた検知結果やナースコール受付の各報知(各再報知)に関し、携帯端末装置TAは、以上のように動作している。 The mobile terminal device TA operates as described above with respect to the detection result received from the sensor device SU via the management server device SV and each notification (each re-notification) of the nurse call reception.

以上説明したように、本実施形態における被監視者監視システムMS、端末装置SP、TAおよびこれに実装された表示方法は、TA通信IF部31で受信した、第1監視情報通信信号に基づく第2監視情報通信信号に収容された画像データの画像をTA表示部36に表示し、前記第2監視情報通信信号に収容された人物位置データに基づく人物位置標識HP2を、TA表示部に表示した画像中に表示する表示処理部3221を備える。したがって、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法では、表示中の画像に人物位置標識HP2が表示されるので、そのユーザ(監視者)は、人物位置標識HP2を手がかりに、画像中の被監視者Obを見つけことができ、画像中の被監視者Obを見つけ易くなる。本実施形態におけるセンサ装置SUは、画像だけでなく人物位置データ(本実施形態では人物領域データ)も第1監視情報通信信号に収容するので、前記第2監視情報通信信号を受信した端末装置SP、TAは、表示中の画像に人物位置標識HP2を表示できる。したがって、上記端末装置SP、TAのユーザは、上述のように、人物位置標識HP2を手がかりに、画像中の被監視者Obを見つけことができ、画像中の被監視者Obを見つけ易くなる。 As described above, the monitored person monitoring system MS, the terminal device SP, TA and the display method implemented therein in the present embodiment are based on the first monitoring information communication signal received by the TA communication IF unit 31. 2 The image of the image data accommodated in the monitoring information communication signal is displayed on the TA display unit 36, and the person position indicator HP2 based on the person position data accommodated in the second monitoring information communication signal is displayed on the TA display unit. A display processing unit 3221 for displaying in an image is provided. Therefore, in the monitored person monitoring system MS, the terminal device SP, TA, and the display method, the person position indicator HP2 is displayed on the displayed image, so that the user (monitorer) can display the person position indicator HP2. As a clue, the monitored person Ob in the image can be found, and the monitored person Ob in the image can be easily found. Since the sensor device SU in the present embodiment accommodates not only the image but also the person position data (person area data in the present embodiment) in the first monitoring information communication signal, the terminal device SP that has received the second monitoring information communication signal. , TA can display the person position indicator HP2 on the displayed image. Therefore, as described above, the users of the terminal devices SP and TA can find the monitored person Ob in the image by using the person position sign HP2 as a clue, and can easily find the monitored person Ob in the image.

なお、上述の実施形態では、対象画像に写る人物の前記対象画像上での位置によっては、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部しか、TA表示部36に表示されない場合がある。あるいは、「対応する」ボタン524、「話す」ボタン525および「LIVEを見る」ボタン526等の、所定の操作を行う指示である操作指示を当該携帯端末装置TAに入力するためのボタンが画像領域523内に表示される場合、対象画像に写る人物の前記対象画像上での位置によっては、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部または全部と前記ボタンと重なって、前記人物の領域の一部または全部がTA表示部36に表示される場合がある。このような場合を解消するために、表示処理部3221は、次の第1および第2変形形態のように構成されても良い。図14は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、人物の領域と「対応する」ボタンとが重なった監視情報画面の一例を示す図である。図15は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、画像表示領域の中央位置に人物の領域を表示する監視情報画面の一例を示す図である。図16は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、互いに重ならないように人物の領域と「対応する」ボタンを表示する監視情報画面の一例を示す図である。 In the above-described embodiment, depending on the position of the person in the target image on the target image, for example, as shown in FIG. 14, the area of the person (in the example shown in FIG. 14, the area in the person position marker HP2). In some cases, only a part of the above is displayed on the TA display unit 36. Alternatively, a button for inputting an operation instruction, such as a "corresponding" button 524, a "speaking" button 525, and a "view LIVE" button 526, into the mobile terminal device TA is an image area. When displayed in 523, depending on the position of the person in the target image on the target image, for example, as shown in FIG. 14, the area of the person (in the example shown in FIG. 14, the area in the person position marker HP2). A part or all of the above may overlap with the button, and a part or all of the area of the person may be displayed on the TA display unit 36. In order to eliminate such a case, the display processing unit 3221 may be configured as in the following first and second modified forms. FIG. 14 is a diagram showing an example of a monitoring information screen in which a person's area and a “corresponding” button are overlapped, which is displayed on a mobile terminal device in the monitored person monitoring system of the embodiment. FIG. 15 is a diagram showing an example of a monitoring information screen that displays a person's area at a central position of an image display area displayed on a mobile terminal device in the monitored person monitoring system of the embodiment. FIG. 16 is a diagram showing an example of a monitoring information screen displayed on a mobile terminal device in the monitored person monitoring system of the embodiment, which displays a person's area and a “corresponding” button so as not to overlap each other.

第1変形形態では、表示処理部3221は、TA表示部36における対象画像を表示するための画像領域523の中央位置SCと、前記対象画像に写る人物の前記対象画像上での位置HPCとが互いに一致するように(SC=HPC)、前記対象画像および前記人物位置標識HPをTA表示部36に表示する。前記位置HPCは、例えば、動体領域MBにおける重心位置P1である。また例えば、人物位置データが矩形の人物領域データである場合、前記位置HPCは、前記矩形における対角線の交点の位置である。また例えば、人物位置データが円形の人物領域データである場合、前記位置HPCは、前記円形における中心点である。また例えば、人物位置データが楕円形の人物領域データである場合、前記位置HPCは、前記楕円形における長軸と短軸との交点の位置である。より具体的には、前記中央位置SCの画素位置(座標データ)がTA記憶部33に予め記憶されており、表示処理部3221は、例えば図15に示すように、このTA記憶部33に記憶された前記中央位置SCの画素位置に、前記位置HPC(この例では矩形における対角線の交点の位置)が位置するように、前記対象画像および前記人物位置標識HPそれぞれの表示位置を調整してこれらをTA表示部36に表示する。これによれば、上記携帯端末装置TAのユーザ(監視者)は、画像領域523の中央位置を注視すれば良いので、画像中の被監視者Obを見つけ易くなる。 In the first modification, the display processing unit 3221 has the center position SC of the image area 523 for displaying the target image on the TA display unit 36 and the position HPC of the person appearing in the target image on the target image. The target image and the person position indicator HP are displayed on the TA display unit 36 so as to coincide with each other (SC = HPC). The position HPC is, for example, the center of gravity position P1 in the moving body region MB. Further, for example, when the person position data is rectangular person area data, the position HPC is the position of the intersection of diagonal lines in the rectangle. Further, for example, when the person position data is circular person area data, the position HPC is a center point in the circle. Further, for example, when the person position data is elliptical person area data, the position HPC is the position of the intersection of the major axis and the minor axis in the ellipse. More specifically, the pixel position (coordinate data) of the central position SC is stored in advance in the TA storage unit 33, and the display processing unit 3221 stores the pixel position (coordinate data) in the TA storage unit 33, for example, as shown in FIG. The display positions of the target image and the person position marker HP are adjusted so that the position HPC (the position of the intersection of the diagonal lines in the rectangle in this example) is located at the pixel position of the center position SC. Is displayed on the TA display unit 36. According to this, since the user (monitorer) of the mobile terminal device TA only needs to gaze at the central position of the image area 523, it becomes easy to find the monitored person Ob in the image.

第2変形形態では、表示処理部3221は、TA表示部36の表示領域における人物の領域を除いた残余の領域に、所定の操作を行う指示である操作指示を当該携帯端末装置TAに入力するための前記ボタンを表示する。好ましくは、表示処理部3221は、TA表示部36の前記対象画像を表示するための画像領域523における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。例えば、前記ボタンが画像領域523内に表示される場合、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部が「対応する」ボタン524と重なっている場合、表示処理部3221は、図16に示すように、人物の領域(この例では人物位置標識HP2内の領域)を除いた残余の領域、例えば画像領域523の上端部の領域に、「対応する」ボタン524を表示する。「対応する」ボタン524、「話す」ボタン525および「LIVEを見る」ボタン526等の、前記ボタンの表示位置は、予め既定されているので、前記人物の領域と前記ボタンとの重なる領域は、予め既知である。このため、前記人物の領域を除いた前記残余の領域は、予測でき、予めTA記憶部33に記憶される。表示処理部3221は、前記人物の領域の全部または一部が前記ボタンと重なった場合、TA記憶部33に予め記憶された前記残余の領域に、前記ボタンを表示すればよい。これによれば、前記ボタンによって前記人物の領域が隠れることが無く、携帯端末装置TAのユーザ(監視者)は、画像中の被監視者Obを見つけ易くなる。 In the second modification, the display processing unit 3221 inputs an operation instruction, which is an instruction to perform a predetermined operation, to the mobile terminal device TA in the remaining area excluding the area of the person in the display area of the TA display unit 36. Display the button for Preferably, the display processing unit 3221 displays the button in the remaining area of the TA display unit 36 for displaying the target image, excluding the area of the person. For example, when the button is displayed in the image area 523, for example, as shown in FIG. 14, a part of the person area (the area in the person position indicator HP2 in the example shown in FIG. 14) is a "corresponding" button. When overlapping with 524, as shown in FIG. 16, the display processing unit 3221 is a residual area excluding the person's area (in this example, the area in the person's position indicator HP2), for example, the upper end of the image area 523. A "corresponding" button 524 is displayed in the area. Since the display positions of the buttons such as the "corresponding" button 524, the "speaking" button 525, and the "view LIVE" button 526 are preset, the area where the person's area and the button overlap is determined. It is known in advance. Therefore, the remaining area excluding the area of the person can be predicted and is stored in the TA storage unit 33 in advance. When all or a part of the area of the person overlaps with the button, the display processing unit 3221 may display the button in the remaining area stored in advance in the TA storage unit 33. According to this, the area of the person is not hidden by the button, and the user (monitorer) of the mobile terminal device TA can easily find the monitored person Ob in the image.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。 The present specification discloses various aspects of the technology as described above, of which the main technologies are summarized below.

一態様にかかる端末装置は、監視対象である被監視者の画像の画像データ、および、前記画像に写る人物の前記画像上での位置に関する人物位置データを収容する監視情報通信信号を受信する通信部と、表示を行う表示部と、前記通信部で受信した監視情報通信信号に収容された画像データの画像を前記表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を、前記表示部に表示した画像中に表示する表示処理部とを備える。好ましくは、上述の端末装置において、前記人物位置データは、前記画像データのメタデータとして前記監視情報通信信号に収容される。好ましくは、上述の端末装置において、前記画像データおよび前記人物位置データは、Exif(Exchangeable image file format)ファイルに収容される。好ましくは、上述の端末装置において、前記画像データおよび前記人物位置データは、HTTP(Hypertext Transfer Protocol)におけるマルチパート形式のファイルにフォームデータとして収容される。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域の人物領域データである。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む矩形、円形および楕円のうちのいずれか1つを表す座標データであり、前記人物位置標識は、前記人物領域データで表される画像である。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の輪郭線を表す座標データであり、前記人物位置標識は、前記人物領域データで表される画像である。 The terminal device according to one aspect receives the image data of the image of the monitored person to be monitored and the monitoring information communication signal accommodating the person position data regarding the position of the person in the image on the image. A unit, a display unit for displaying, and an image of image data accommodated in the monitoring information communication signal received by the communication unit are displayed on the display unit, and are based on the person position data accommodated in the monitoring information communication signal. It is provided with a display processing unit that displays a person position indicator indicating the position of the person in the image displayed on the display unit. Preferably, in the terminal device described above, the person position data is accommodated in the monitoring information communication signal as metadata of the image data. Preferably, in the terminal device described above, the image data and the person position data are housed in an Exif (Exif image file format) file. Preferably, in the terminal device described above, the image data and the person position data are stored as form data in a multipart format file in HTTP (Hypertext Transfer Protocol). Preferably, in the terminal device described above, the person position data is the person area data of the area of the person including the position of the person in the image on the image. Preferably, in the terminal device described above, the person position data is person area data relating to the person's area including the position of the person in the image on the image, and the person area data is the person's area. It is coordinate data representing any one of a rectangle, a circle and an ellipse including all or a part of, and the person position indicator is an image represented by the person area data. Preferably, in the terminal device described above, the person position data is person area data relating to the person's area including the position of the person in the image on the image, and the person area data is the person's area. It is coordinate data representing the contour line of, and the person position indicator is an image represented by the person area data.

このような端末装置は、通信部で受信した監視情報通信信号に収容された画像データの画像を表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を、前記表示部に表示した画像中に表示する表示処理部を備える。したがって、上記端末装置では、表示中の画像に人物位置標識が表示されるので、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。 Such a terminal device displays an image of image data accommodated in the monitoring information communication signal received by the communication unit on the display unit, and determines the position of the person based on the person position data accommodated in the monitoring information communication signal. A display processing unit for displaying a person position indicator to be represented in the image displayed on the display unit is provided. Therefore, in the terminal device, the person position sign is displayed on the image being displayed, so that the user of the terminal device can find the monitored person in the image by using the person position sign as a clue, and in the image. It becomes easier to find the person to be monitored.

他の一態様では、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記画像の表示方法と異なる第2表示方法で前記人物の領域内の画像を表示する。好ましくは、上述の端末装置において、前記第2表示方法は、前記人物の領域内の画像をモザイクで表示する方法である。好ましくは、上述の端末装置において、前記画像の表示方法は、前記画像をカラーでまたはモノクロで表示する方法であり、前記第2表示方法は、前記人物の領域内の画像をモノクロでまたはカラーで表示する方法である。好ましくは、上述の端末装置において、前記画像の表示方法は、前記画像をポジでまたはネガで表示する方法であり、前記第2表示方法は、前記人物の領域内の画像をネガでまたはポジで表示する方法である。 In another aspect, in the terminal device described above, the person position data is person area data relating to the area of the person including the position of the person in the image on the image, and the person position indicator is said. It is an image represented by the person area data, and the display processing unit displays the image in the person's area by a second display method different from the image display method. Preferably, in the terminal device described above, the second display method is a method of displaying an image in the area of the person in a mosaic. Preferably, in the terminal device described above, the image display method is a method of displaying the image in color or monochrome, and the second display method is a method of displaying an image in the area of the person in monochrome or color. How to display. Preferably, in the terminal device described above, the method of displaying the image is a method of displaying the image positively or negatively, and the second display method is a method of displaying the image in the area of the person negatively or positively. How to display.

このような端末装置は、表示処理部によって、画像の表示方法(第1表示方法)と異なる第2表示方法で人物の領域内の画像を表示する。このため、上記端末装置のユーザは、画像中の人物の領域、言い換えれば、画像中の被監視者を見つけ易くなる。 In such a terminal device, the display processing unit displays an image in the area of a person by a second display method different from the image display method (first display method). Therefore, the user of the terminal device can easily find the area of the person in the image, in other words, the monitored person in the image.

他の一態様では、これら上述の端末装置において、前記表示処理部は、前記表示部における前記画像を表示するための画像表示領域の中央位置と、前記画像に写る人物の前記画像上での位置とが互いに一致するように、前記画像および前記人物位置標識を前記表示部に表示する。 In another aspect, in these terminal devices, the display processing unit has a central position of an image display area for displaying the image in the display unit and a position on the image of a person appearing in the image. The image and the person position sign are displayed on the display unit so that the images and the person position signs match each other.

このような端末装置は、表示処理部によって、画像表示領域の中央位置に人物位置標識を表示する。このため、上記端末装置のユーザは、画像表示領域の中央位置を注視すれば良いので、画像中の被監視者を見つけ易くなる。 In such a terminal device, the display processing unit displays a person position sign at the center position of the image display area. Therefore, the user of the terminal device only needs to pay attention to the central position of the image display area, so that it becomes easy to find the monitored person in the image.

他の一態様では、これら上述の端末装置において、前記画像に写る人物を拡大して表示する指示である拡大表示指示を受け付ける指示入力部をさらに備え、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記指示入力部で前記拡大表示指示を受け付けた場合に、前記表示部に表示中の前記人物の領域の大きさよりも拡大して前記人物の領域を表示する。 In another aspect, the terminal device described above further includes an instruction input unit that receives an enlarged display instruction that is an instruction to enlarge and display a person appearing in the image, and the person position data is the person appearing in the image. The person area data relating to the area of the person including the position on the image, the person position indicator is an image represented by the person area data, and the display processing unit is the instruction input unit. When the enlarged display instruction is received, the area of the person is displayed in an enlarged size larger than the area of the person displayed on the display unit.

このような端末装置は、指示入力部をさらに備え、表示処理部によって、前記指示入力部で拡大表示指示を受け付けた場合に、表示部に表示中の人物の領域の大きさよりも拡大して前記人物の領域を表示する。したがって、人物の領域が拡大表示されるので、上記端末装置のユーザは、画像中の被監視者を見つけ易くなる。 Such a terminal device further includes an instruction input unit, and when the display processing unit receives an enlarged display instruction at the instruction input unit, the terminal device is enlarged beyond the size of the area of the person displayed on the display unit. Display the area of the person. Therefore, since the area of the person is enlarged and displayed, the user of the terminal device can easily find the monitored person in the image.

他の一態様では、これら上述の端末装置において、所定の操作を行う指示である操作指示を受け付ける第2指示入力部をさらに備え、前記第2指示入力部は、前記表示部とでタッチパネルを構成し、前記表示部にボタンで表示され、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記表示部の表示領域における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。好ましくは、上述の端末装置において、前記表示処理部は、前記表示部の前記画像を表示するための画像表示領域における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。 In another aspect, the terminal device described above further includes a second instruction input unit that receives an operation instruction that is an instruction to perform a predetermined operation, and the second instruction input unit constitutes a touch panel together with the display unit. The person position data displayed by a button on the display unit is the person area data relating to the area of the person including the position of the person in the image on the image, and the person position indicator is the person. It is an image represented by area data, and the display processing unit displays the button in the remaining area excluding the area of the person in the display area of the display unit. Preferably, in the terminal device described above, the display processing unit displays the button in the remaining area excluding the area of the person in the image display area for displaying the image of the display unit.

このような端末装置は、表示処理部によって、人物の領域を除いた残余の領域に操作指示を受け付けるボタンを表示する。このため、前記ボタンによって前記人物の領域が隠れることが無く、上記端末装置のユーザは、画像中の被監視者を見つけ易くなる。 In such a terminal device, the display processing unit displays a button for receiving an operation instruction in the remaining area excluding the area of the person. Therefore, the area of the person is not hidden by the button, and the user of the terminal device can easily find the person to be monitored in the image.

他の一態様にかかる端末装置の表示方法は、監視対象である被監視者の画像の画像データ、および、前記画像に写る人物の前記画像上での位置に関する人物位置データを収容する監視情報通信信号を受信する受信工程と、前記受信工程で受信した監視情報通信信号に収容された画像データの画像を、表示を行う表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示処理工程とを備える。 The display method of the terminal device according to the other aspect is the monitoring information communication that accommodates the image data of the image of the monitored person to be monitored and the person position data regarding the position of the person in the image on the image. The receiving process of receiving the signal and the image of the image data accommodated in the monitoring information communication signal received in the receiving process are displayed on the display unit to be displayed, and the person position data accommodated in the monitoring information communication signal is displayed. The present invention includes a display processing step of displaying a person position indicator indicating the position of the person based on the image in the image displayed on the display unit.

このような端末装置の表示方法は、受信工程で受信した監視情報通信信号に収容された画像データの画像を表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示制御工程を備える。したがって、上記端末装置の表示方法では、表示中の画像に人物位置標識が表示されるので、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。 In such a display method of the terminal device, the image of the image data accommodated in the monitoring information communication signal received in the receiving process is displayed on the display unit, and the person based on the person position data accommodated in the monitoring information communication signal. The present invention includes a display control step of displaying a person position indicator indicating the position of the above in the image displayed on the display unit. Therefore, in the display method of the terminal device, the person position sign is displayed on the displayed image, so that the user of the terminal device can find the monitored person in the image by using the person position sign as a clue. , It becomes easier to find the monitored person in the image.

他の一態様にかかるセンサ装置は、通信を行う通信部と、撮像を行う撮像部と、前記撮像部で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理部と、前記撮像部で撮像した画像の画像データ、および、前記人物位置処理部で生成した人物位置データを収容する監視情報通信信号を前記通信部で送信する監視処理部とを備える。 The sensor device according to the other aspect is a person position processing that generates person position data relating to a communication unit that performs communication, an image pickup unit that performs imaging, and a position of a person in the image captured by the image pickup unit. The communication unit includes an image data of an image captured by the imaging unit, and a monitoring processing unit that transmits a monitoring information communication signal accommodating the person position data generated by the person position processing unit.

このようなセンサ装置は、画像だけでなく人物位置データも監視情報通信信号に収容するので、前記監視情報通信信号を受信した端末装置は、表示中の画像に人物位置標識を表示できる。したがって、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。 Since such a sensor device accommodates not only the image but also the person position data in the monitoring information communication signal, the terminal device that has received the monitoring information communication signal can display the person position indicator on the image being displayed. Therefore, the user of the terminal device can find the monitored person in the image by using the person position sign as a clue, and it becomes easy to find the monitored person in the image.

他の一態様にかかる被監視者監視システムは、上述のセンサ装置と、これら上述のいずれかの端末装置とを備える。 The monitored person monitoring system according to the other aspect includes the above-mentioned sensor device and any of the above-mentioned terminal devices.

このような被監視者監視システムは、上述のセンサ装置と、これら上述のいずれかの端末装置とを備えるので、画像中の被監視者を見つけ易くできる。 Since such a monitored person monitoring system includes the above-mentioned sensor device and any of the above-mentioned terminal devices, it is possible to easily find the monitored person in the image.

この出願は、2016年2月15日に出願された日本国特許出願特願2016−25856を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2016-25856 filed on February 15, 2016, the contents of which are included in the present application.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been appropriately and sufficiently described through the embodiments with reference to the drawings above, but those skilled in the art can easily change and / or improve the above embodiments. It should be recognized that it can be done. Therefore, unless the modified or improved form implemented by a person skilled in the art is at a level that deviates from the scope of rights of the claims stated in the claims, the modified form or the improved form is the scope of rights of the claims. It is interpreted as being comprehensively included in.

MS 被監視者監視システム
SU、SU−1〜SU−4 センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA、TA−1、TA−2 携帯端末装置
11 撮像部
12 センサ側音入出力部(SU音入出力部)
13 ナースコール受付操作部
14 センサ側制御処理部(SU制御処理部)
15 センサ側通信インターフェース部(SU通信IF部)
16 センサ側記憶部(SU記憶部)
141 センサ側制御部(SU制御部)
142 センサ側監視処理部(SU監視処理部)
143 人物位置処理部
144 ナースコール処理部
145 センサ側ストリーミング処理部(SUストリーミング処理部)
31 端末側通信インターフェース部(TA通信IF部)
32 端末側制御処理部(TA制御処理部)
33 端末側記憶部(TA記憶部)
34 端末側音入出力部(TA音入出力部)
35 端末側入力部(TA入力部)
36 端末側表示部(TA表示部)
37 端末側インターフェース部(TAIF部)
321 端末側制御部(TA制御部)
322 端末側監視処理部(TA監視処理部)
323 通話処理部
324 端末側ストリーミング処理部(TAストリーミング処理部)
3221 表示処理部
MS Monitored person monitoring system SU, SU-1 to SU-4 Sensor device SV Management server device SP Fixed terminal device TA, TA-1, TA-2 Mobile terminal device 11 Imaging unit 12 Sensor side sound input / output unit (SU sound) Input / output section)
13 Nurse call reception operation unit 14 Sensor side control processing unit (SU control processing unit)
15 Sensor side communication interface unit (SU communication IF unit)
16 Sensor side storage unit (SU storage unit)
141 Sensor side control unit (SU control unit)
142 Sensor side monitoring processing unit (SU monitoring processing unit)
143 Person position processing unit 144 Nurse call processing unit 145 Sensor side streaming processing unit (SU streaming processing unit)
31 Terminal-side communication interface section (TA communication IF section)
32 Terminal side control processing unit (TA control processing unit)
33 Terminal side storage unit (TA storage unit)
34 Terminal side sound input / output unit (TA sound input / output unit)
35 Terminal side input section (TA input section)
36 Terminal side display (TA display)
37 Terminal side interface section (TAIF section)
321 Terminal side control unit (TA control unit)
322 Terminal side monitoring processing unit (TA monitoring processing unit)
323 Call processing unit 324 Terminal side streaming processing unit (TA streaming processing unit)
3221 Display processing unit

Claims (8)

監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおいて、
監視対象である被監視者を撮影した画像データを取得する取得部と、
取得した画像データに基づいて、前記被監視者における所定の行動を検知する検知部と、
前記検知部により所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成する生成部と、
前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示する表示部と、
前記表示部を制御する表示処理部とを備え、
前記表示部は、所定の操作を行う入力領域を有し
前記表示処理部は、前記入力領域と前記被監視者位置標識とを重ならないように表示位置を変更する
検知システム。
In a detection system that detects a predetermined behavior of a monitored person based on image data of the monitored person to be monitored.
An acquisition unit that acquires image data of the monitored person to be monitored, and
Based on the acquired image data, a detection unit that detects a predetermined action in the monitored person, and a detection unit.
With respect to the monitored person whose predetermined action is detected by the detection unit, a generation unit that generates position data indicating a position corresponding to the monitored person based on the image data, and a generation unit.
A display unit that displays the image data and a monitored person position sign based on the position data, and
A display processing unit that controls the display unit is provided.
The display unit has an input area for performing a predetermined operation .
The display processing unit changes the display position so that the input area and the monitored person position sign do not overlap .
Detection system.
前記生成部は、前記検知部により所定の行動が検知されたことに対応して、前記位置データを生成する、
請求項1に記載の検知システム。
The generation unit generates the position data in response to the detection of a predetermined action by the detection unit.
The detection system according to claim 1.
前記検知部によって検知される所定の行動には、被監視者における、寝具からの起床、寝具からの離床、寝具からの転落、及び、被監視者の転倒の少なくともいずれかを含む、
請求項1または請求項2に記載の検知システム。
The predetermined behavior detected by the detection unit includes at least one of getting up from the bedding, getting out of the bedding, falling from the bedding, and falling of the monitored person in the monitored person.
The detection system according to claim 1 or 2.
前記表示部は、前記検知部により検知された所定の行動を識別するための識別情報をさらに表示する、
請求項1ないし請求項3のいずれかに記載の検知システム。
The display unit further displays identification information for identifying a predetermined action detected by the detection unit.
The detection system according to any one of claims 1 to 3.
前記表示部は、前記被監視者位置標識として、前記画像データにおける被監視者を含む領域を示す画像データを表示する、
請求項1ないし請求項4のいずれかに記載の検知システム。
The display unit displays image data indicating an area including the monitored person in the image data as the monitored person position indicator.
The detection system according to any one of claims 1 to 4.
前記表示部は、前記画像データにおける被監視者を含む領域を示す画像データとして、前記被監視者を含む領域を示す矩形の画像データを表示する、
請求項5に記載の検知システム。
The display unit displays rectangular image data indicating an area including the monitored person as image data indicating the area including the monitored person in the image data.
The detection system according to claim 5.
前記表示部は、前記検知システムに含まれる携帯端末装置が備える、
請求項1ないし請求項6のいずれかに記載の検知システム。
The display unit includes a mobile terminal device included in the detection system.
The detection system according to any one of claims 1 to 6.
監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおける表示処理方法であって、
監視対象である被監視者を撮影した画像データを取得部において取得するステップと、
取得した画像データに基づいて、前記被監視者における所定の行動を検知部において検知するステップと、
前記所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成部において生成するステップと、
前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示部に表示するステップと、
前記表示部を制御するステップとを備え、
前記表示部は、所定の操作を行う入力領域を有し
前記表示部を制御するステップは、前記入力領域と前記被監視者位置標識とを重ならないように表示位置を変更する
検知システムにおける表示処理方法。
It is a display processing method in a detection system that detects a predetermined behavior of a monitored person based on image data obtained by photographing the monitored person to be monitored.
The step of acquiring the image data of the monitored person to be monitored in the acquisition unit, and
A step of detecting a predetermined action of the monitored person in the detection unit based on the acquired image data, and
With respect to the monitored person in which the predetermined behavior is detected, a step of generating position data indicating a position corresponding to the monitored person in the generation unit based on the image data, and a step of generating.
A step of displaying the image data and a monitored person position sign based on the position data on the display unit, and
A step for controlling the display unit is provided.
The display unit has an input area for performing a predetermined operation .
The step of controlling the display unit changes the display position so that the input area and the monitored person position sign do not overlap .
Display processing method in the detection system.
JP2019052766A 2016-02-15 2019-03-20 Detection system and display processing method of detection system Active JP6895090B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016025856 2016-02-15
JP2016025856 2016-02-15
JP2018500001A JP6804510B2 (en) 2016-02-15 2017-01-23 Detection system and display method of detection system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018500001A Division JP6804510B2 (en) 2016-02-15 2017-01-23 Detection system and display method of detection system

Publications (2)

Publication Number Publication Date
JP2019149172A JP2019149172A (en) 2019-09-05
JP6895090B2 true JP6895090B2 (en) 2021-06-30

Family

ID=59624976

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018500001A Active JP6804510B2 (en) 2016-02-15 2017-01-23 Detection system and display method of detection system
JP2019052766A Active JP6895090B2 (en) 2016-02-15 2019-03-20 Detection system and display processing method of detection system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018500001A Active JP6804510B2 (en) 2016-02-15 2017-01-23 Detection system and display method of detection system

Country Status (2)

Country Link
JP (2) JP6804510B2 (en)
WO (1) WO2017141629A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102484784B1 (en) * 2022-04-19 2023-01-04 김종환 Breath detection emergency alarm system

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145101A (en) * 1999-11-12 2001-05-25 Mega Chips Corp Human image compressing device
JP3979902B2 (en) * 2001-08-30 2007-09-19 株式会社日立国際電気 Surveillance video delivery system and surveillance video delivery method
JP4718950B2 (en) * 2005-09-26 2011-07-06 Necカシオモバイルコミュニケーションズ株式会社 Image output apparatus and program
JP2007150702A (en) * 2005-11-28 2007-06-14 Keakomu:Kk Nurse call system
JP5270962B2 (en) * 2008-05-29 2013-08-21 京セラ株式会社 Motion detection system
JP2010157119A (en) * 2008-12-26 2010-07-15 Fujitsu Ltd Monitoring device, monitoring method, and monitoring program
JP2010237873A (en) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd Device, method, and program for detecting attitude change
JP2011138178A (en) * 2009-12-25 2011-07-14 Takenaka Komuten Co Ltd Light emitting device, suspicious person detection system and program
JP5672183B2 (en) * 2011-07-15 2015-02-18 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP5953673B2 (en) * 2011-08-11 2016-07-20 日本電気株式会社 Action identification device, action identification method, and program
JP5909126B2 (en) * 2012-03-28 2016-04-26 西日本電信電話株式会社 Monitoring system and monitoring method
JP5812948B2 (en) * 2012-07-13 2015-11-17 アイホン株式会社 Patient recognition device
JP5858940B2 (en) * 2013-02-01 2016-02-10 キング通信工業株式会社 Bed leaving monitoring system
JP6167563B2 (en) * 2013-02-28 2017-07-26 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JP6557226B2 (en) * 2013-07-22 2019-08-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Monitoring system and monitoring method
JP2015032125A (en) * 2013-08-02 2015-02-16 アズビル株式会社 Watching device and watching system
JP6281249B2 (en) * 2013-11-09 2018-02-21 富士通株式会社 Information processing apparatus, information processing system, program, and information processing method
JP6417670B2 (en) * 2014-02-21 2018-11-07 オムロン株式会社 Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program
JP6336309B2 (en) * 2014-03-26 2018-06-06 株式会社ドワンゴ Terminal device, video distribution device, program
JP6413310B2 (en) * 2014-04-10 2018-10-31 富士通株式会社 Monitoring device, display method and program
JP6282923B2 (en) * 2014-05-12 2018-02-21 株式会社ケアコム Portable terminal device for nurse call system and nurse call system

Also Published As

Publication number Publication date
WO2017141629A1 (en) 2017-08-24
JP6804510B2 (en) 2020-12-23
JPWO2017141629A1 (en) 2018-10-25
JP2019149172A (en) 2019-09-05

Similar Documents

Publication Publication Date Title
JP6888618B2 (en) Watching system and management server
JP6680352B2 (en) Monitored person monitoring apparatus, method and system
JP7021634B2 (en) Central processing unit and central processing method of the monitored person monitoring system and the monitored person monitoring system
JP6895090B2 (en) Detection system and display processing method of detection system
JP6226110B1 (en) Monitored person monitoring apparatus, method and system
JP6696606B2 (en) Care support system, care support method and program
JP6885398B2 (en) Watching system and management server
JP6740633B2 (en) Central processing unit and central processing method of monitored person monitoring system, and monitored person monitoring system
JP6686523B2 (en) Monitored person monitoring apparatus, method and system
JP6292363B2 (en) Terminal device, terminal device display method, and monitored person monitoring system
JP6187732B1 (en) Terminal device, terminal device operation control method, and monitored person monitoring system
JP7047762B2 (en) Central processing unit and central processing method of the monitored person monitoring system and the monitored person monitoring system
JP6123961B1 (en) Terminal device of monitored person monitoring system, terminal side monitoring processing method of the terminal device, and monitored person monitoring system
JP7234931B2 (en) Sensor Device of Monitored Person Monitoring Support System, Processing Method of Sensor Device, and Monitored Person Monitoring Support System
JP6245415B1 (en) Terminal device, operation control method of terminal device, and monitored person monitoring system
JPWO2019073735A1 (en) Monitored person monitoring support system and monitored person monitoring support method
JP2020188487A (en) Central processing device, monitored person monitoring method, and monitored person monitoring system
WO2017130684A1 (en) Monitored-person monitoring device, method thereof, and system thereof
JP6150026B1 (en) Central processing unit and method of monitored person monitoring system, and monitored person monitoring system
JPWO2019235068A1 (en) Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system and monitored person monitoring support server device
JPWO2020031531A1 (en) Movement behavior abnormality determination device and its method, and monitored person monitoring support system
JPWO2018230103A1 (en) Monitored person monitoring apparatus and method, and monitored person monitoring support system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210506

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210519

R150 Certificate of patent or registration of utility model

Ref document number: 6895090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150