JP2019149172A - Detection system and detection method - Google Patents
Detection system and detection method Download PDFInfo
- Publication number
- JP2019149172A JP2019149172A JP2019052766A JP2019052766A JP2019149172A JP 2019149172 A JP2019149172 A JP 2019149172A JP 2019052766 A JP2019052766 A JP 2019052766A JP 2019052766 A JP2019052766 A JP 2019052766A JP 2019149172 A JP2019149172 A JP 2019149172A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- unit
- monitored person
- monitored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 82
- 238000012544 monitoring process Methods 0.000 claims abstract description 240
- 238000012545 processing Methods 0.000 claims abstract description 214
- 230000009471 action Effects 0.000 claims abstract description 37
- 239000003550 marker Substances 0.000 claims abstract description 10
- 230000004044 response Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 184
- 238000000034 method Methods 0.000 description 95
- 230000008569 process Effects 0.000 description 47
- 238000003384 imaging method Methods 0.000 description 39
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000000474 nursing effect Effects 0.000 description 14
- 230000006399 behavior Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 210000000746 body region Anatomy 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000032683 aging Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000035558 fertility Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61G—TRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
- A61G7/00—Beds specially adapted for nursing; Devices for lifting patients or disabled persons
- A61G7/05—Parts, details or accessories of beds
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
Landscapes
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Nursing (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Alarm Systems (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、監視すべき監視対象である被監視者を監視する被監視者監視システムに好適に用いられる技術に関する。 The present invention relates to a technique suitably used for a monitored person monitoring system for monitoring a monitored person to be monitored.
我が国(日本)は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、病気や怪我や高齢等による看護や介護を必要とする要看護者や要介護者(要看護者等)は、高齢化社会ではない通常の社会で生じる要看護者等よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、高齢な要看護者等を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。 Japan (Japan) is an aging society, more specifically the ratio of population over 65 years old to the total population due to the improvement of living standards accompanying the post-war high economic growth, improvement of sanitary environment and improvement of medical standards, etc. It is a super-aging society with an aging rate exceeding 21%. In 2005, the elderly population aged 65 and over was about 25.56 million compared to the total population of 127.65 million, whereas in 2020, the elderly population was about 124.11 million. The population is predicted to be about 34.56 million. In such an aging society, nurses who need nursing or nursing care due to illness, injury, elderly age, etc., or those who need nursing care (such as those who require nursing care) are those who need nursing in a normal society that is not an aging society. This is expected to increase more than Japan, for example, is a society with a declining birthrate with a total fertility rate of 1.43 in 2013. For this reason, elderly care has been taking place in which elderly nurses, etc., are cared for by an elderly family (spouse, child, brother).
要看護者等は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの事態が生じ得る。このような事態に対し、可及的速やかに対応する必要がある。このような事態を放置しておくとさらに重大な事態に発展してしまう可能性もある。このため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。 Nurses and the like enter a facility such as a hospital or a welfare facility for the elderly (such as a short-term welfare facility for the elderly, a nursing home for the elderly and a nursing home for the elderly in Japanese law) and receive nursing and care. In such a facility, a situation in which a nurse or the like needs to be injured or fallen out of the bed, for example, by falling from the bed or falling while walking can occur. It is necessary to respond to such a situation as quickly as possible. If such a situation is left unattended, it may develop into a more serious situation. For this reason, in the facility, nurses and caregivers regularly check their safety and state by patrol.
しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。 However, the increase in the number of nurses and the like cannot keep up with the increase in the number of nurses and the like, and the nursing industry and the care industry are chronically short of manpower. Furthermore, since the number of nurses, caregivers, and the like is reduced in the semi-night work and night work hours compared to the day work hours, the work load per person increases, and thus the work load is required to be reduced. In addition, the situation of the elderly care is not an exception in the facility, and it is often seen that elderly nurses and the like care for elderly nurses and the like. In general, physical strength declines when older, so the burden of nursing etc. becomes heavier than young nurses etc. even if they are healthy, and their movements and judgments are also delayed.
このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視技術が研究、開発されている。 In order to reduce such a labor shortage and a burden on nurses, a technology that complements nursing work and care work is required. For this reason, in recent years, monitored person monitoring techniques for monitoring a monitored person to be monitored, such as a care recipient, have been researched and developed.
このような技術の一つとして、例えば特許文献1に開示されたナースコールシステムがある。この特許文献1に開示されたナースコールシステムは、ベッドに設置されて患者が看護師を呼び出すためのナースコール子機と、ナースステーションに設置されて前記ナースコール子機による呼び出しに応答するためのナースコール親機とを有するナースコールシステムであって、ベッド上の患者をベッド上方から撮像するカメラと、前記カメラの撮像映像から、患者が上半身を起こした状態及び患者がベッド上から離れた状態のうち少なくとも一方の発生を判断して注意状態発生信号を出力する状態判断手段とを有し、前記ナースコール親機は、前記注意状態発生信号を受けて報知動作する報知手段を有する。そして、このナースコールシステムは、前記ナースコール子機からの呼び出しに応答するために看護師が携行する携帯端末と、前記注意状態発生信号を受けて、前記カメラの撮像映像を前記携帯端末に送信する通信制御手段とを有する。
As one of such techniques, there is a nurse call system disclosed in
一方、安否確認の点では、一人暮らしの独居者も前記要介護者等と同様であり、被監視対象者となる。 On the other hand, in terms of safety confirmation, a single person living alone is the same as the care recipient and the like and is a person to be monitored.
ところで、前記特許文献1に開示されたナースコールシステムのように、カメラの映像が端末装置に表示されると、看護師等の監視者は、要看護者等の被監視者の状況を視覚で把握できるため、便利である。しかしながら、被監視者が小さく写っていたり、表示が低解像度であったり等すると、監視者は、画像中の被監視者を見つけ難い。特に、端末装置が例えばタブレットやスマートフォン等の携帯端末装置である場合、表示画面が比較的小さいため、監視者は、画像中の被監視者を見つけ難い。
By the way, when the video of the camera is displayed on the terminal device as in the nurse call system disclosed in
本発明は、上述の事情に鑑みて為された発明であり、その目的は、画像中の被監視者を見つけ易くできる検知システムおよび検知方法を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a detection system and a detection method capable of easily finding a monitored person in an image.
本発明にかかる検知システムは、監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおいて、監視対象である被監視者を撮影した画像データを取得する取得部と、取得した画像データに基づいて、前記被監視者における所定の行動を検知する検知部と、前記検知部により所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成する生成部と、前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示する表示部と、前記被監視者位置標識が前記表示部において予め設定された領域に表示されるよう制御する表示処理部と、を備える。 The detection system according to the present invention is a detection system that detects a predetermined behavior of a monitored person based on image data of the monitored person that is the monitoring target, and image data that captures the monitored person that is the monitoring target. An acquisition unit that acquires the image data, a detection unit that detects a predetermined action of the monitored person based on the acquired image data, and a monitored person whose predetermined action is detected by the detection unit. A generation unit that generates position data indicating a position corresponding to the monitored person, a display unit that displays the image data and a monitored person position indicator based on the position data, and the monitored person position A display processing unit that controls to display a sign in a predetermined area on the display unit.
本発明にかかる検知方法は、監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおける検知方法であって、監視対象である被監視者を撮影した画像データを取得部において取得するステップと、取得した画像データに基づいて、前記被監視者における所定の行動を検知部において検知するステップと、前記所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成部において生成するステップと、前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示部に表示するステップと、前記被監視者位置標識が前記表示部において予め設定された領域に表示されるよう制御するステップと、を備える。 A detection method according to the present invention is a detection method in a detection system for detecting a predetermined behavior of a monitored person based on image data obtained by photographing the monitored person as a monitoring target, and the monitored person as a monitoring target The acquisition unit acquires image data obtained by capturing the image, the detection unit detects a predetermined action in the monitored person based on the acquired image data, and the monitored person in which the predetermined action is detected A step of generating position data indicating a position corresponding to the monitored person based on the image data in the generating unit; and the image data and the position mark of the monitored person based on the position data are displayed on the display unit. And a step of controlling the monitored person position marker to be displayed in a preset area on the display unit.
本発明にかかる検知システムおよび検知方法は、画像中の被監視者を見つけ易くできる。 The detection system and the detection method according to the present invention can easily find a person to be monitored in an image.
上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。 The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and the accompanying drawings.
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. In this specification, when referring generically, it shows with the reference symbol which abbreviate | omitted the suffix, and when referring to an individual structure, it shows with the reference symbol which attached the suffix.
実施形態における被監視者監視システムは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Obを監視するシステムである。この被監視者監視システムは、センサ装置と、前記センサ装置と通信可能に接続される端末装置とを備え、前記撮像部で撮像された画像に基づいて監視対象である被監視者における所定の行動を検知して検知結果を前記端末装置に報知する。このような被監視者監視システムにおける前記センサ装置は、通信を行う第1通信部と、撮像を行う撮像部と、前記撮像部で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理部と、前記撮像部で撮像された前記画像に基づいて監視対象である被監視者における所定の行動を検知し、検知結果、前記撮像部で撮像した画像の画像データ、および、前記人物位置処理部で生成した人物位置データを収容する監視情報通信信号を前記第1通信部で送信する第1監視処理部とを備える。前記被監視者監視システムにおける前記端末装置は、前記監視情報通信信号を受信する第2通信部と、表示を行う表示部と、前記第2通信部で受信した監視情報通信信号に収容された前記検知結果および前記画像データの画像を前記表示部に表示し、前記監視情報通信信号に収容された前記人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示処理部を有する第2監視処理部とを備える。前記監視情報通信信号は、前記センサ装置から前記端末装置へ直接的に送信されて良く、また、前記センサ装置から他の装置(例えば以下の管理サーバ装置)を介して前記端末装置へ間接的に送信されて良い。なお、前記端末装置は、1種類の装置であって良いが、以下の説明では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用される一方、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点であり、これら固定端末装置と携帯端末装置とは、略同様であるので、以下、携帯端末装置を主に説明する。 The monitored person monitoring system in the embodiment is a system that monitors a monitored person (watched person) Ob that is a monitored object (watched object) to be monitored (watched). The monitored person monitoring system includes a sensor device and a terminal device connected to the sensor device so as to be communicable, and performs predetermined behavior in a monitored person based on an image captured by the imaging unit. And the detection result is notified to the terminal device. The sensor device in such a monitored person monitoring system includes: a first communication unit that performs communication; an imaging unit that performs imaging; and person position data related to a position in the image of a person captured in an image captured by the imaging unit A person position processing unit for generating a predetermined action in the monitored person to be monitored based on the image captured by the imaging unit, and detection results, image data of the image captured by the imaging unit, And the 1st monitoring process part which transmits the monitoring information communication signal which accommodates the person position data produced | generated by the said person position processing part by the said 1st communication part is provided. The terminal device in the monitored person monitoring system includes a second communication unit that receives the monitoring information communication signal, a display unit that performs display, and the monitoring information communication signal received by the second communication unit. A detection result and an image of the image data are displayed on the display unit, and a person position indicator indicating the position of the person based on the person position data stored in the monitoring information communication signal is displayed on the display unit. And a second monitoring processing unit having a display processing unit for displaying. The monitoring information communication signal may be transmitted directly from the sensor device to the terminal device, or indirectly from the sensor device to the terminal device via another device (for example, the following management server device). May be sent. In addition, although the said terminal device may be one type of apparatus, in the following description, the said terminal device is two types of apparatuses, a fixed terminal device and a portable terminal device. The main difference between these fixed terminal devices and portable terminal devices is that the fixed terminal device is fixedly operated, while the portable terminal device is operated by being carried by a supervisor (user) such as a nurse or a caregiver. Since the fixed terminal device and the mobile terminal device are substantially the same, the mobile terminal device will be mainly described below.
図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、第1態様の人物位置データおよび人物位置標識を説明するための図である。図4は、第2態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図5は、第3態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図6は、第4態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図7は、第5態様の人物位置データ(人物領域データ)および人物位置標識を説明するための図である。図8は、実施形態の被監視者監視システムにおける携帯端末装置の構成を示す図である。 FIG. 1 is a diagram illustrating a configuration of a monitored person monitoring system according to the embodiment. FIG. 2 is a diagram illustrating a configuration of a sensor device in the monitored person monitoring system according to the embodiment. FIG. 3 is a diagram for explaining person position data and person position signs in the first mode. FIG. 4 is a diagram for explaining person position data (person area data) and person position signs in the second mode. FIG. 5 is a diagram for explaining person position data (person area data) and person position signs in the third mode. FIG. 6 is a diagram for explaining person position data (person area data) and person position signs in the fourth mode. FIG. 7 is a diagram for explaining person position data (person area data) and person position signs of the fifth aspect. FIG. 8 is a diagram illustrating a configuration of the mobile terminal device in the monitored person monitoring system according to the embodiment.
より具体的には、被監視者監視システムMSは、例えば、図1に示すように、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWは、通信信号を中継する例えばリピーター、ブリッジおよびルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA−1、TA−2および構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LSおよびアクセスポイントAPを含む有線および無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SPおよび構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。 More specifically, the monitored person monitoring system MS includes, for example, as shown in FIG. 1, one or more sensor devices SU (SU-1 to SU-4), a management server device SV, and a fixed terminal device. SP, one or a plurality of portable terminal devices TA (TA-1, TA-2), and private branch exchange (PBX) CX, which are wired or wireless, LAN (Local Area Network) Or the like via a network (network, communication line) NW. The network NW may be provided with repeaters such as repeaters, bridges, and routers that relay communication signals. In the example shown in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, the plurality of portable terminal devices TA-1, TA-2, and the private branch exchange CX are L2 switches. Are connected to each other by a wired / wireless LAN (for example, a LAN in accordance with the IEEE 802.11 standard) NW including the LS and the access point AP. More specifically, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, and the private branch exchange CX are connected to the line concentrator LS, and the plurality of portable terminal devices TA-1 and TA-2. Is connected to the line concentrator LS via the access point AP. The network NW constitutes a so-called intranet by using Internet protocol groups such as TCP (Transmission control protocol) and IP (Internet protocol).
被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob. The monitored person (watched person) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs care due to a decrease in physical ability, a single person living alone, or the like. In particular, from the viewpoint of enabling early detection and early action, the monitored person Ob may be a person who needs the detection when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable. For this reason, the monitored person monitoring system MS is suitably arranged in a building such as a hospital, a welfare facility for the elderly, and a dwelling unit according to the type of the monitored person Ob. In the example illustrated in FIG. 1, the monitored person monitoring system MS is disposed in a building of a care facility that includes a plurality of rooms RM in which a plurality of monitored persons Ob live and a plurality of rooms such as a nurse station.
構内交換機(回線切換機)CXは、ネットワークNWに接続され、携帯端末装置TA同士における発信、着信および通話等の内線電話の制御を行って前記携帯端末装置TA同士の内線電話を実施し、そして、例えば固定電話網や携帯電話網等の公衆電話網PNを介して例えば固定電話機や携帯電話機等の外線電話機TLに接続され、外線電話機TLと携帯端末装置TAとの間における発信、着信および通話等の外線電話の制御を行って外線電話機TLと携帯端末装置TAとの間における外線電話を実施する装置である。構内交換機CXは、例えば、デジタル交換機や、IP−PBX(Internet Protocol Private Branch eXchange)等である。 A private branch exchange (line switching unit) CX is connected to the network NW, controls extension calls such as outgoing calls, incoming calls, and calls between the portable terminal devices TA, and performs extension calls between the portable terminal devices TA, and For example, outgoing calls, incoming calls, and calls between the external telephone TL and the mobile terminal device TA are connected to an external telephone TL such as a fixed telephone or a mobile telephone via a public telephone network PN such as a fixed telephone network or a mobile telephone network. This is a device that performs an outside line telephone call between the outside line telephone TL and the portable terminal device TA by controlling the outside line telephone. The private branch exchange CX is, for example, a digital exchange or an IP-PBX (Internet Protocol Private Branch eXchange).
センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obにおける所定の行動を検知してその検知結果を管理サーバ装置SVへ報知し、ナースコールを受付けてその旨を管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。そして、本実施形態では、画像を端末装置SP、TAへ送信する際に、センサ装置SUは、端末装置SP、TAへ送信するために、前記画像に写る人物の前記画像上での位置に関する人物位置データを生成して前記画像と共に管理サーバ装置SVへ送信する。このようなセンサ装置SUは、例えば、図2に示すように、撮像部11と、センサ側音入出力部(SU音入出力部)12と、ナースコール受付操作部13と、センサ側制御処理部(SU制御処理部)14と、センサ側通信インターフェース部(SU通信IF部)15と、センサ側記憶部(SU記憶部)16とを備える。
The sensor device SU has a communication function that communicates with other devices SV, SP, TA via the network NW, detects a predetermined action in the monitored person Ob, and notifies the management server device SV of the detection result. An apparatus that accepts a nurse call, notifies the management server SV of that fact, makes a voice call with the terminal devices SP and TA, generates an image including a moving image, and distributes the moving image to the terminal devices SP and TA It is. In this embodiment, when transmitting an image to the terminal devices SP and TA, the sensor device SU transmits the person to the terminal devices SP and TA, and the person related to the position of the person in the image on the image. Position data is generated and transmitted to the management server device SV together with the image. For example, as shown in FIG. 2, such a sensor device SU includes an
撮像部11は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、撮像を行い、画像(画像データ)を生成する装置である。前記画像には、静止画(静止画データ)および動画(動画データ)が含まれる。撮像部11は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像(対象画像)をSU制御処理部14へ出力する。好ましくは、被監視者Ob全体を撮像できる蓋然性が高いことから、撮像部11は、被監視者Obが横臥する寝具(例えばベッド等)における、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設される。センサ装置SUは、この撮像部11によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。
The
このような撮像部11は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外線の画像を生成する装置である。このような撮像部11は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。撮像部11の前記結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。
Such an
SU音入出力部12は、音を入出力する回路である。すなわち、SU音入出力部12は、SU制御処理部14に接続され、SU制御処理部14の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得してセンサ装置SUに入力するための回路である。SU音入出力部12は、例えば、音の電気信号(音データ)を音の機械振動信号(音響信号)に変換するスピーカ等と、可聴領域の音の機械振動信号を電気信号に変換するマイクロフォン等とを備えて構成される。SU音入出力部12は、外部の音を表す電気信号をSU制御処理部14へ出力し、また、SU制御処理部14から入力された電気信号を音の機械振動信号に変換して出力する。
The SU sound input /
ナースコール受付操作部13は、SU制御処理部14に接続され、ナースコールを当該センサ装置SUに入力するための例えば押しボタン式スイッチ等のスイッチ回路である。なお、ナースコール受付操作部13は、有線でSU制御処理部14に接続されて良く、また、例えばBluetooth(登録商標)規格等の近距離無線通信でSU制御処理部14に接続されて良い。
The nurse call
SU通信IF部15は、SU制御処理部14に接続され、SU制御処理部14の制御に従って通信を行うための通信回路である。SU通信IF部15は、SU制御処理部14から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部15は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部14が処理可能な形式のデータに変換してSU制御処理部14へ出力する。SU通信IF部15は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
The SU communication IF
SU記憶部16は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御するSU制御プログラムや、撮像部11で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理プログラムや、被監視者Obにおける所定の行動を検知して検知結果を、撮像部11で撮像した画像(画像データ)および前記人物位置処理プログラムで生成した人物位置データと共に、管理サーバ装置SVを介して所定の端末装置SP、TAへ通知するSU監視処理プログラムや、ナースコール受付操作部13でナースコールを受付けた場合にその旨を管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うナースコール処理プログラムや、撮像部11で生成した動画を、その動画を要求した端末装置SP、TAへストリーミングで配信するSUストリーミング処理プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、自機の、センサ装置SUを特定し識別するための識別子であるセンサ装置識別子(センサID)、および、管理サーバ装置SVの通信アドレス等の、各プログラムを実行する上で必要なデータ等が含まれる。SU記憶部16は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、SU記憶部16は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるSU制御処理部14のワーキングメモリとなるRAM(Random Access Memory)等を含む。
The
SU制御処理部14は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obにおける所定の行動を検知してその検知結果を前記画像(画像データ)および人物位置データと共に管理サーバ装置SVへ報知し、ナースコールを受付けてその旨を管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信するための回路である。SU制御処理部14は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。SU制御処理部14は、前記制御処理プログラムが実行されることによって、センサ側制御部(SU制御部)141、センサ側監視処理部(SU監視処理部)142、人物位置処理部143、ナースコール処理部(ナースコール処理部)144およびセンサ側ストリーミング処理部(SUストリーミング処理部)145を機能的に備える。
The SU
SU制御部141は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。
The
SU監視処理部142は、被監視者Obにおける、予め設定された所定の行動(状態、状況)を画像に基づいて検知して、前記画像および後述のように人物位置処理部143で生成した人物位置データと共に、管理サーバ装置SVへ報知(通知、送信)するものである。
The SU
より具体的には、本実施形態では、前記所定の行動は、例えば、被監視者Obが起きた起床、被監視者Obが寝具から離れた離床、被監視者Obが寝具から落ちた転落、および、被監視者Obが倒れた転倒の4つの行動である。SU監視処理部142は、例えば、撮像部11で撮像した対象画像に基づいて被監視者Obの頭部を検出し、この検出した被監視者Obの頭部における大きさの時間変化に基づいて被監視者Obの起床、離床、転倒および転落を検知する。より詳しくは、まず、寝具の所在領域、および、第1ないし第3閾値Th1〜Th3が前記各種の所定のデータの1つとして予めSU記憶部16に記憶される。前記第1閾値Th1は、寝具の所在領域内における横臥姿勢の頭部の大きさと座位姿勢の頭部の大きさとを識別するための値である。前記第2閾値Th2は、寝具の所在領域を除く居室RM内における立位姿勢の頭部の大きさであるか否かを識別するための値である。前記第3閾値Th3は、寝具の所在領域を除く居室RM内における横臥姿勢の頭部の大きさであるか否かを識別するための値である。そして、SU監視処理部142は、対象画像から例えば背景差分法やフレーム差分法によって被監視者Obの人物の領域として動体領域を抽出する。次に、SU監視処理部142は、この抽出した動体領域から、例えば円形や楕円形のハフ変換によって、また例えば予め用意された頭部のモデルを用いたパターンマッチングによって、また例えば頭部検出用に学習したニューラルネットワークによって、被監視者Obの頭部領域を抽出する。次に、SU監視処理部142は、この抽出した頭部の位置および大きさから起床、離床、転倒および転落を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内であって、前記抽出した頭部の大きさが前記第1閾値Th1を用いることによって横臥姿勢の大きさから座位姿勢の大きさへ時間変化した場合には、起床と判定し、前記起床を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第2閾値Th2を用いることによって或る大きさから立位姿勢の大きさへ時間変化した場合には、離床と判定し、前記離床を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転落と判定し、前記転落を検知する。例えば、SU監視処理部142は、この抽出した頭部の位置が寝具の所在領域を除く居室RM内であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転倒と判定し、前記転倒を検知する。
More specifically, in the present embodiment, the predetermined action includes, for example, wake-up when the monitored person Ob occurred, leaving the monitored person Ob away from the bedding, falling down when the monitored person Ob fell from the bedding, And four actions of the fall where the monitored person Ob fell. For example, the SU
なお、画像上での人物の領域は、所定の大きさ(広さ、サイズ)の範囲内となるので、人物の領域として抽出する動体領域も所定の大きさ(広さ、サイズ)の範囲内となる。このため、動体領域として抽出する範囲が予め設定され、動体領域を抽出する際に、前記対象画像から例えば背景差分法やフレーム差分法によって抽出された動体領域が前記範囲外である場合には、この対象画像から例えば背景差分法やフレーム差分法によって抽出された動体領域は、人物の領域として抽出する動体領域から除外されてよい。 Since the person area on the image is within a predetermined size (width, size), the moving object area to be extracted as the person area is also within the predetermined size (width, size). It becomes. For this reason, a range to be extracted as a moving body region is preset, and when a moving body region is extracted from the target image, for example, by a background difference method or a frame difference method, The moving object region extracted from the target image by, for example, the background difference method or the frame difference method may be excluded from the moving object region extracted as the person region.
このように前記所定の行動を検知すると、SU監視処理部142は、この検知結果とこの検知結果を得る際に用いられた前記対象画像と、前記対象画像に対する人物位置データとを、SU通信IF部15で管理サーバ装置SVへ報知する。より詳しくは、SU監視処理部142は、自機のセンサID、検知結果(本実施形態では、起床、離床、転落および転倒のうちの1または複数)、前記所定の行動の検知に用いられた対象画像、および、この対象画像に対する人物位置データを収容した通信信号(第1監視情報通信信号)を、SU通信IF部15を介して管理サーバ装置SVへ送信する。前記画像は、静止画および動画のうちの少なくとも一方であって良く、本実施形態では、後述するように、まず、静止画が報知され、ユーザの要求に応じて動画が配信される。なお、まず、動画が配信されても良く、また、静止画および動画が送信され、画面分割で静止画および動画が端末装置SP、TAに表示されても良い。
When the predetermined action is detected in this way, the SU
前記人物位置データは、後述のように人物位置処理部143で生成され、前記対象画像の画像データにおけるメタデータとして前記第1監視情報通信信号に収容される。例えば、前記画像データおよび前記人物位置データは、Exif(Exchangeable image file format)ファイルに収容される。より具体的には、Exifファイルは、JPEG(Joint Photographic Experts Group)ファイルフォーマットに準拠したファイルであり、アプリケーションマーカセグメントに、撮影条件等のいわゆるExif情報が格納される。前記人物位置データは、このアプリケーションマーカセグメントに格納される。また例えば、前記画像データおよび前記人物位置データは、HTTP(Hypertext Transfer Protocol)におけるマルチパート形式のファイルにフォームデータとして収容される。より具体的には、前記画像データは、マルチパート形式のファイルにおける1つのフォームデータとして収容され、前記人物位置データは、マルチパート形式の前記ファイルにおける他の1つのフォームデータとして収容される。
The person position data is generated by the person
人物位置処理部143は、撮像部11で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成するものである。本実施形態では、前記画像は、被監視者における所定の行動を検知するために用いられた前記対象画像である。前記人物位置データとして、例えば、次の第1ないし第5態様のデータを用いることができる。
The person
第1態様の人物位置データは、前記画像に写る人物の前記画像上での位置そのものの座標データである。この第1態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、まず、SU監視処理部142と同様に、撮像部11で撮像した対象画像から例えば背景差分法やフレーム差分法によって人物の領域として動体領域MBを抽出する。そして、人物位置処理部143は、図3に示すように、この抽出した動体領域MBにおける重心位置P1を求め、この求めた重心位置P1の座標データ(x、y)を第1態様の人物位置データとして求める(前記画像に写る人物の前記画像上での位置=重心位置P1)。前記座標データ(x、y)は、以下の第2ないし第5態様の人物位置データも同様に、例えば、対象画像の左上頂点を座標原点とする画素位置で与えられる。なお、第1態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、重心位置P1の座標データ(x、y)で表される点の画像HP1となる。
The person position data of the first aspect is the coordinate data of the position on the image of the person shown in the image. In the case where the person position data of the first aspect is used, more specifically, the person
第2態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む矩形を表す座標データである。この第2態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図4に示すように、この動体領域MBの全部または一部を含む矩形(例えば動体領域MBに対する外接矩形等)を求め、この求めた矩形を表す座標データを第2態様の人物位置データ(人物領域データ)として求める。この矩形を表す座標データは、例えば、矩形における1つの対角線の両端点P20、P21の各座標データ(x0、y0)、(x1、y1)から成る。また例えば、前記矩形を表す座標データは、矩形における4頂点の各座標データから成る(図略)。なお、第2態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)で表される画像、すなわち、矩形の画像(矩形の輪郭線の画像)HP2となる。
The person position data of the second aspect is person area data relating to the person area including a position of the person in the image (for example, the center of gravity position P1), and the person area data is the person area data. This is coordinate data representing a rectangle including all or part of the area. In the case where the person position data of the second mode is used, more specifically, the person
第3態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の輪郭線を表す座標データである。この第3態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図5に示すように、この動体領域MBの輪郭線を求め、この求めた輪郭線を表す座標データを第3態様の人物位置データ(人物領域データ)として求める。この動体領域MBの輪郭線を表す座標データは、動体領域MBの輪郭線における各頂点P30、P31、P32、・・・、P3Cの各座標データ(x0、y0)、(x1、y1)、(x2、y2)、・・・、(xpc、ypc)から成る。より詳しくは、動体領域MBが比較的複雑な形状である場合には、動体領域MBの輪郭線における各頂点の個数が多数となり、第1監視情報通信信号における人物位置データに与えられているデータ容量(例えば数個〜十数個分の座標データのデータ容量)を超える場合が有り得る。このため、人物位置処理部143は、人物の領域としての動体領域MBを構成する画素を、隣接する複数の画素で纏めてモザイクを形成することで、動体領域MBを複数のモザイクで構成する(動体領域MBをモザイク化する)。このモザイクを大きくすることで、動体領域MBを構成するモザイクの個数が低減し、この結果、この複数のモザイクで構成される動体領域MBの輪郭線における頂点の個数も低減する。したがって、人物位置処理部143は、第1監視情報通信信号における人物位置データに与えられているデータ容量以下となるまで、モザイクの大きさを順次に大きくし、モザイクの大きさを調整する。なお、第3態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)、(x2、y2)、・・・、(xpc、ypc)で表される画像、すなわち、人物の領域における輪郭線の画像HP3となる。
The person position data of the third aspect is person area data relating to the person area including a position of the person in the image (for example, the center of gravity position P1), and the person area data is the person area data. This is coordinate data representing the outline of the area. In the case where the person position data of the third aspect is used, more specifically, the person
第4態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む円形を表す座標データである。この第4態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図6に示すように、この動体領域MBの全部または一部を含む円形(例えば動体領域MBに対する外接円等)を求め、この求めた円形を表す座標データを第4態様の人物位置データ(人物領域データ)として求める。この円形を表す座標データは、例えば、円形における中心点P4の座標データ(x、y)および半径rから成る。また例えば、前記円形を表す座標データは、動体領域MBにおける重心位置P4の座標データ(x、y)および予め設定された固定値の半径rから成る。なお、第4態様の人物位置データが用いられる場合では、後述するように携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x、y)、rで表される画像、すなわち、円形の画像(円形の輪郭線の画像)HP4となる。
The person position data of the fourth aspect is person area data relating to the person area including a position (for example, the barycentric position P1) of the person in the image, and the person area data is the person area data. This is coordinate data representing a circle including all or part of the area. In the case where the person position data of the fourth aspect is used, more specifically, the person
第5態様の人物位置データは、前記画像に写る人物の前記画像上での位置(例えば前記重心位置P1等)を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む楕円形を表す座標データである。この第5態様の人物位置データが用いられる場合では、より具体的には、人物位置処理部143は、上述と同様に、人物の領域として動体領域MBを抽出し、図7に示すように、この動体領域MBの全部または一部を含む楕円形を求め、この求めた楕円形を表す座標データを第5態様の人物位置データ(人物領域データ)として求める。より詳しくは、人物位置処理部143は、人物の領域としての動体領域MBにおける輪郭線上に適当な1個の第1設定点P51を設け、この第1設定点P51から最も離れた前記輪郭線上の点を第2設定点P53として求め、これら第1設定点P51と第2設定点P53とを結ぶ線分P51P53を楕円形の長軸とする。次に、人物位置処理部143は、前記長軸とした第1設定点P51と第2設定点P53とを結ぶ線分P51P53の中央点P50を通り、前記線分P51P53と直交する直線と前記輪郭線との2交点を求め、これら求めた2交点それぞれと中央点P50との長さを求め、前記2交点のうちから、より長い長さを与える交点を、短軸と楕円との交点P52とする。これによって長軸、短軸および長軸と短軸との交点が求められ、楕円が求められる。この楕円形を表す座標データは、例えば、長軸と短軸との交点P50、楕円上の長軸との1交点(第1設定点)P51、および、楕円上の短軸との1交点P52の各座標データ(x0、y0)、(x1、y1)、(x2、y2)から成る。また例えば、前記楕円形を表す座標データは、長軸と短軸との交点P50の座標データ(x0、y0)、長軸(または短軸)とx軸(またはy軸)とのなす角度、長軸の長さおよび短軸の長さから成る。なお、第5態様の人物位置データが用いられる場合では、携帯端末装置TAに表示される人物位置標識は、前記人物領域データ(x0、y0)、(x1、y1)、(x2、y2)で表される画像、すなわち、楕円形の画像(楕円形の輪郭線の画像)HP5となる。
The person position data of the fifth aspect is person area data relating to the person area including a position (for example, the barycentric position P1) of the person shown in the image, and the person area data is the person area data. Coordinate data representing an ellipse including all or part of the region. In the case where the person position data of the fifth aspect is used, more specifically, the person
そして、人物位置処理部143は、このように生成した人物位置データをSU監視処理部142へ通知する。例えば、本実施形態では、第2態様の人物位置データが用いられ、人物位置処理部143は、この第2態様の人物位置データをSU監視処理部142へ通知する。以下、第2態様の人物位置データが用いられる場合について説明するが、他の態様の人物位置データが用いられる場合も同様に説明できる。
Then, the person
ナースコール処理部144は、ナースコール受付操作部13でナースコールを受付けた場合にその旨を管理サーバ装置SVへ通報し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うものである。より具体的には、ナースコール処理部144は、ナースコール受付操作部13が入力操作されると、自機のセンサID、および、ナースコールを受付けた旨を表すナースコール受付情報を収容した第1ナースコール通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。そして、ナースコール処理部144は、SU音入出力部12等を用い、端末装置SP、TAとの間で例えばVoIP(Voice over Internet Protocol)によって音声通話を行う。
When the nurse call accepting
SUストリーミング処理部145は、SU通信IF部15を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、撮像部11で生成した動画(例えばライブの動画)をストリーミング再生でSU通信IF部15を介して配信するものである。
When there is a video distribution request from the fixed terminal device SP or the portable terminal device TA via the SU communication IF
図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置SU−4は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。 FIG. 1 shows four first to fourth sensor devices SU-1 to SU-4 as an example, and the first sensor device SU-1 is one of the monitored persons Ob. The second sensor device SU-2 is arranged in a room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor device SU-3 is arranged in a room RM-3 (not shown) of Mr. C Ob-3 who is one of the monitored subjects Ob, and the fourth sensor device SU-4 It is arranged in the room RM-4 (not shown) of Mr. D Ob-4, one of the monitored persons Ob.
管理サーバ装置SVは、ネットワークNWを介して他の装置SU、TA、SPと通信する通信機能を備え、センサ装置SUから被監視者Obに関する前記検知結果、前記対象画像および前記人物位置データを受信して被監視者Obに対する監視に関する情報(監視情報)を管理し、これら受信した被監視者Obに関する前記検知結果、前記対象画像および前記人物位置データを所定の端末装置SP、TAへ報知(再報知、送信)する機器である。より具体的には、管理サーバ装置SVは、報知元のセンサ装置SU(センサID)と報知先(再報知先)の端末装置SP、TA(端末ID)との対応関係(報知先対応関係)、および、各装置SU、SP、TA(各ID)とその通信アドレスとの対応関係(通信アドレス対応関係)を予め記憶している。端末IDは、端末装置SP、TAを特定し識別するための識別子である。まず、管理サーバ装置SVは、第1監視情報通信信号を受信すると、この受信した第1監視情報通信信号における報知元(送信元)のセンサ装置と前記受信した第1監視情報通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1監視情報通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2監視情報通信信号を送信する。この第2監視情報通信信号には、前記受信した第1監視情報通信信号に収容されたセンサID、前記検知結果、前記対象画像および前記人物位置データ、ならびに、動画のダウンロード先として、前記受信した第1監視情報通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容される。通信アドレスは、前記通信アドレス対応関係から取得される。また、管理サーバ装置SVは、第1ナースコール通知通信信号を受信すると、この受信した第1ナースコール通知通信信号における報知元のセンサ装置と前記受信した第1ナースコール通知通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1ナースコール通知通信信号における報知元のセンサ装置に対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2ナースコール通知通信信号を送信する。この第2ナースコール通知通信信号には、前記受信した第1ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報が収容される。なお、第2ナースコール通知通信信号に動画のダウンロード先として、前記受信した第1ナースコール通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容されても良い。管理サーバ装置SVは、クライアント(本実施形態では端末装置SP、TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function for communicating with other devices SU, TA, SP via the network NW, and receives the detection result, the target image, and the person position data regarding the monitored person Ob from the sensor device SU. Thus, information (monitoring information) related to monitoring of the monitored person Ob is managed, and the detection result, the target image and the person position data regarding the received monitored person Ob are notified (re-executed) Notification and transmission). More specifically, the management server device SV is a correspondence relationship between the notification source sensor device SU (sensor ID) and the notification destination (re-notification destination) terminal device SP, TA (terminal ID) (notification destination correspondence relationship). , And the correspondence relationship (communication address correspondence relationship) between each device SU, SP, TA (each ID) and its communication address is stored in advance. The terminal ID is an identifier for identifying and identifying the terminal devices SP and TA. First, when the management server device SV receives the first monitoring information communication signal, the management server device SV is accommodated in the notification device (transmission source) sensor device and the received first monitoring information communication signal in the received first monitoring information communication signal. Are stored (recorded) as monitoring information of the monitored person Ob in association with each other. Then, the management server device SV identifies the notification destination terminal devices SP and TA corresponding to the notification source sensor device SU in the received first monitoring information communication signal from the notification destination correspondence relationship, and The second monitoring information communication signal is transmitted to the terminal devices SP and TA. In the second monitoring information communication signal, the sensor ID contained in the received first monitoring information communication signal, the detection result, the target image and the person position data, and the received as the download destination of the moving image. A communication address corresponding to the sensor device SU having the sensor ID accommodated in the first monitoring information communication signal is accommodated. The communication address is obtained from the communication address correspondence relationship. In addition, when the management server device SV receives the first nurse call notification communication signal, the management server device SV is accommodated in the notification source sensor device in the received first nurse call notification communication signal and the received first nurse call notification communication signal. The data is associated with each other and stored (recorded) as monitoring information of the monitored person Ob. Then, the management server device SV identifies the notification destination terminal devices SP and TA corresponding to the notification source sensor device in the received first nurse call notification communication signal from the notification destination correspondence relationship, and A second nurse call notification communication signal is transmitted to the terminal devices SP and TA. The second nurse call notification communication signal includes the sensor ID and nurse call reception information stored in the received first nurse call notification communication signal. The second nurse call notification communication signal may include a communication address corresponding to the sensor device SU having the sensor ID stored in the received first nurse call notification communication signal as a download destination of the moving image. The management server device SV provides the client with data corresponding to the request of the client (terminal device SP, TA, etc. in this embodiment). Such a management server device SV can be configured by, for example, a computer with a communication function.
固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた監視情報を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。なお、前記端末装置の一例としての固定端末装置SPは、携帯端末装置TAと同様に動作するが、本明細書では、前記端末装置の他の一例である携帯端末装置TAについて説明される。 The fixed terminal device SP includes a communication function for communicating with other devices SU, SV, TA via the network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and the like. The user interface (UI) of the monitored person monitoring system MS is input by inputting predetermined instructions and data to be given to the management server device SV and the portable terminal device TA, or displaying the monitoring information obtained by the sensor device SU. ). Such a fixed terminal device SP can be configured by, for example, a computer with a communication function. The fixed terminal device SP as an example of the terminal device operates in the same manner as the mobile terminal device TA. However, in this specification, a mobile terminal device TA that is another example of the terminal device will be described.
携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通報によってセンサ装置SUで得られた監視情報(動画を含む)を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等するための機器である。 The mobile terminal device TA has a communication function for communicating with other devices SV, SP, SU via the network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and a voice call. A monitoring function (including moving images) obtained from the sensor device SU by inputting a predetermined instruction or data to be provided to the management server device SV or the sensor device SU, or by a report from the management server device SV. It is a device for displaying or making a nurse call response or calling out by voice call with the sensor device SU.
このような携帯端末装置TAは、本実施形態では、例えば、図8に示すように、端末側通信インターフェース部(TA通信IF部)31と、端末側制御処理部(TA制御処理部)32と、端末側記憶部(TA記憶部)33と、端末側音入出力部(TA音入出力部)34と、端末側入力部(TA入力部)35と、端末側表示部(TA表示部)36と、端末側インターフェース部(TAIF部)37とを備える。 In the present embodiment, for example, as shown in FIG. 8, such a portable terminal device TA includes a terminal-side communication interface unit (TA communication IF unit) 31, a terminal-side control processing unit (TA control processing unit) 32, and A terminal side storage unit (TA storage unit) 33, a terminal side sound input / output unit (TA sound input / output unit) 34, a terminal side input unit (TA input unit) 35, and a terminal side display unit (TA display unit). 36 and a terminal-side interface unit (TAIF unit) 37.
TA通信IF部31は、SU通信IF部15と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って通信を行うための通信回路である。TA通信IF部31は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
Similar to the SU communication IF
TA音入出力部34は、SU音入出力部12と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得して携帯端末装置TAに入力するための回路である。
Similar to the SU sound input /
TA入力部35は、TA制御処理部32に接続され、例えば、所定の操作を受け付け、携帯端末装置TAに入力する回路であり、例えば、所定の機能を割り付けられた複数の入力スイッチ等である。前記所定の操作には、例えば、ログインするためのIDの入力操作や、音声通話の要求操作およびその終了操作や、ライブでの動画の要求操作およびその終了操作や、前記報知された被監視者Obに対する例えば救命、看護、介護および介助等の対応(対処、応対)を実行する意思がある旨(“対応する”)の入力操作や、画像に写る人物を拡大して表示する指示(命令、コマンド)である拡大表示指示の入力操作等の、監視する上で必要な各種操作等が含まれる。TA表示部36は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、TA入力部35から入力された所定の操作内容や、被監視者監視システムMSによって監視されている被監視者Obに対する監視に関する前記監視情報(例えばセンサ装置SUで検知した所定の行動の種類や、被監視者Obの画像(静止画および動画)や、人物位置データに基づく人物の位置を表す人物位置標識や、ナースコールの受付等)等を表示する回路であり、例えばLCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置である。そして、本実施形態では、TA入力部35およびTA表示部36からタッチパネルが構成されている。この場合において、TA入力部35は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力デバイスである。このタッチパネルでは、TA表示部36の表示面上に位置入力デバイスが設けられ、TA表示部36に入力可能な1または複数の入力内容の候補が表示され、例えば看護師や介護士等のユーザ(監視者)が、入力したい入力内容を表示した表示位置を触れると、位置入力デバイスによってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として携帯端末装置TAに入力される。
The
TAIF部37は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA規格等の赤外線通信を行うインターフェース回路、および、USB規格を用いたインターフェース回路等である。
The
TA記憶部33は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御するTA制御プログラムや、センサ装置SUから管理サーバ装置SVを介して受信した前記検知結果や前記ナースコール等の被監視者Obに対する監視に関する監視情報を記憶(記録)し、前記検知結果や前記ナースコールを表示するTA監視処理プログラムや、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うTA通話処理プログラムや、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するストリーミング処理プログラム等の制御処理プログラムが含まれる。TA監視処理プログラムには、第2監視情報通信信号に収容された検知結果および画像データの画像をTA表示部36に表示し、前記第2監視情報通信信号に収容された人物位置データに基づく人物位置標識をTA表示部36に表示した画像中に表示する表示処理プログラムが含まれる。前記各種の所定のデータでは、自機の端末ID、TA表示部36に表示される画面情報、および、被監視者Obに対する監視に関する前記監視情報等の各プログラムを実行する上で必要なデータ等が含まれる。TA記憶部33は、例えばROMやEEPROM等を備える。TA記憶部33は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるTA制御処理部32のワーキングメモリとなるRAM等を含む。そして、TA記憶部33は、前記監視情報を記憶するための端末側監視情報記憶部(TA監視情報記憶部)331を機能的に備える。
The
TA監視情報記憶部331は、各装置SV、SP、SUそれぞれとの間で送受信した被監視者Obの監視情報を記憶するものである。より具体的には、TA監視情報記憶部331は、本実施形態では、前記監視情報として、管理サーバ装置SVから受信した第2監視情報通信信号に収容されたセンサID、検知結果、対象画像、人物位置データおよび動画のダウンロード先のセンサ装置SUの通信アドレス、ならびに、当該第2監視情報通信信号の受信時刻等を互いに対応付けて記憶し、管理サーバ装置SVから受信した第2ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報、ならびに、当該第2ナースコール通知通信信号の受信時刻等を互いに対応付けて記憶する。
The TA monitoring
TA制御処理部32は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obに対する前記監視情報を受け付けて表示し、ナースコールの応答や声かけするための回路である。TA制御処理部32は、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32は、制御処理プログラムが実行されることによって、端末側制御部(TA制御部)321、端末側監視処理部(TA監視処理部)322、通話処理部323および端末側ストリーミング処理部(TAストリーミング処理部)324を機能的に備える。TA監視処理部322は、表示処理部3221を機能的に備える。
The TA
TA制御部321は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、携帯端末装置TAの全体制御を司るものである。
The
TA監視処理部322は、センサ装置SUから管理サーバ装置SVを介して受信した前記検知結果や前記ナースコール等の被監視者Obに対する監視に関する監視情報を記憶(記録)し、前記検知結果や前記ナースコールを表示するものである。より具体的には、TA監視処理部322は、管理サーバ装置SVから第2監視情報通信信号を受信すると、この受信した第2監視情報通信信号に収容された、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、表示処理部3221によって、前記受信した第2監視情報通信信号に収容された各情報に応じた画面をTA表示部36に表示する。より詳しくは、表示処理部3221は、前記受信した第2監視情報通信信号に収容された前記検知結果および前記対象画像をTA表示部36に表示し、前記受信した第2監視情報通信信号に収容された前記人物位置データに基づく人物位置標識を、TA表示部36に表示した前記対象画像中に表示する。そして、本実施形態では、表示処理部3221は、TA入力部35で前記拡大表示指示を受け付けた場合に、TA表示部36に表示中の前記人物の領域の大きさよりも拡大して前記人物の領域を表示する。TA監視処理部322は、管理サーバ装置SVから第2ナースコール通知通信信号を受信すると、この受信した第2ナースコール通知通信信号に収容された、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、前記受信した第2ナースコール通知通信信号に収容されたナースコール受付情報に応じて、TA記憶部33に予め記憶されたナースコール受付画面をTA表示部36に表示する。そして、TA監視処理部322は、TA入力部35から所定の入力操作を受け付けると、その入力操作に応じた所定の処理を実行する。
The TA
通話処理部323は、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うものである。より具体的には、通話処理部323は、TA音入出力部34等を用い、第1監視情報通信信号や第1ナースコール通報通信信号を管理サーバ装置SVへ送信した報知元のセンサ装置SUや、携帯端末装置TAのユーザ(監視者)によって選択され指定されたセンサ装置SU等との間で例えばVoIPによって音声通話を行う。
The
TAストリーミング処理部324は、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するものである。
The TA
このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。 Such a portable terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.
なお、本実施形態では、タッチパネルを構成するTA入力部35およびTA表示部36が、前記画像に写る人物を拡大して表示する指示である拡大表示指示を受け付ける指示入力部(第1指示入力部)の一例に相当し、そして、所定の操作を行う指示である操作指示を受け付ける第2指示入力部の一例にも相当する。
In the present embodiment, the
次に、本実施形態の動作について説明する。図9は、実施形態の被監視者監視システムにおけるセンサ装置の監視情報に関する動作を示すフローチャートである。図10は、実施形態の被監視者監視システムにおける携帯端末装置の監視情報に関する動作を示すフローチャートである。図11は、実施形態の被監視者監視システムにおける携帯端末装置に表示される待受け画面の一例を示す図である。図12は、実施形態の被監視者監視システムにおける携帯端末装置に表示される監視情報画面の一例を示す図である。図13は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、人物の領域を拡大した監視情報画面の一例を示す図である。 Next, the operation of this embodiment will be described. FIG. 9 is a flowchart illustrating an operation related to monitoring information of the sensor device in the monitored person monitoring system according to the embodiment. FIG. 10 is a flowchart illustrating an operation related to monitoring information of the mobile terminal device in the monitored person monitoring system according to the embodiment. FIG. 11 is a diagram illustrating an example of a standby screen displayed on the mobile terminal device in the monitored person monitoring system according to the embodiment. FIG. 12 is a diagram illustrating an example of a monitoring information screen displayed on the mobile terminal device in the monitored person monitoring system according to the embodiment. FIG. 13 is a diagram illustrating an example of a monitoring information screen in which a person area is enlarged, which is displayed on the mobile terminal device in the monitored person monitoring system according to the embodiment.
このような被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。センサ装置SUでは、その制御処理プログラムの実行によって、SU制御処理部14には、SU制御部141、SU監視処理部142、人物位置処理部143、ナースコール処理部144およびSUストリーミング処理部145が機能的に構成される。携帯端末装置TAでは、その制御処理プログラムの実行によって、TA制御処理部32には、TA制御部321、TA監視処理部322、通話処理部323およびTAストリーミング処理部324が機能的に構成され、TA監視処理部322には、表示処理部3221が機能的に構成される。
In such a monitored person monitoring system MS, each of the devices SU, SV, SP, TA performs initialization of each necessary unit and starts its operation when the power is turned on. In the sensor device SU, by executing the control processing program, the SU
センサ装置SUの動作について説明する。センサ装置SUは、各フレームごとに、あるいは、数フレームおきに、次のように動作することで、被監視者Obにおける所定の動作を検知し、ナースコールの受付の有無を判定している。 The operation of the sensor device SU will be described. The sensor device SU operates as follows for each frame or every several frames, thereby detecting a predetermined operation in the monitored person Ob and determining whether or not a nurse call is accepted.
図9において、まず、センサ装置SUは、SU制御処理部14のSU制御部141によって、撮像部11から1フレーム分の画像(画像データ)を前記対象画像として取得する(S11)。
In FIG. 9, first, the sensor device SU acquires an image (image data) for one frame from the
次に、センサ装置SUは、SU制御処理部14のSU監視処理部142によって、被監視者Obにおける所定の行動を検知する行動検知処理を前記取得した対象画像に基づいて実行する(S12)。
Next, the sensor device SU performs a behavior detection process for detecting a predetermined behavior in the monitored person Ob by the SU
次に、センサ装置SUは、SU監視処理部142によって、前記行動検知処理S12で被監視者Obにおける所定の行動が検知されたか否かを判定する。この判定の結果、前記行動が検知されていない場合(No)には、センサ装置SUは、次に、処理S16を実行し、一方、前記行動が検知されている場合(Yes)には、センサ装置SUは、次の処理S14および処理S15を順次に実行した後に、処理S16を実行する。
Next, the sensor device SU determines whether or not a predetermined behavior in the monitored person Ob is detected by the SU
この処理S14では、センサ装置SUは、SU制御処理部14の人物位置処理部143によって、前記取得した対象画像に写る人物の前記画像での位置に関する人物位置データを生成する。人物位置データは、上述の第1ないし第5態様の人物位置データのうちのいずれであって良いが、本実施形態では、例えば、第2態様の人物位置データが採用されている。この場合では、人物位置処理部143は、まず、前記取得した対象画像から例えば背景差分法やフレーム差分法によって人物の領域として動体領域MBを抽出する。あるいは、人物位置処理部143は、処理S12でSU監視処理部142によって抽出された動体領域MBをSU監視処理部142から取得する。次に、人物位置処理部143は、この動体領域MBの全部または一部を含む矩形を求め、この求めた矩形を表す座標データを人物位置データ(人物領域データ)として求める。前記矩形を表す座標データは、例えば、矩形における1つの対角線の両端点の各座標データから成る(図4に示す例ではP20(x0、y0)、P21(x1、y1))。そして、人物位置処理部143は、この求めた人物位置データ(人物領域データ)をSU監視処理部142へ通知する。なお、動体領域MBが複数である場合には、人物位置データは、前記複数の動体領域MBそれぞれに対応する複数であって良い。
In this process S14, the sensor device SU generates person position data related to the position of the person in the acquired target image in the image by the person
前記処理S14の次の処理S15では、処理S12および処理S13で検知した所定の行動を管理サーバ装置SVを介して所定の端末装置SP、TAへ報知するために、センサ装置SUは、SU監視処理部142によって、第1監視情報通信信号を管理サーバ装置SVへ送信する。より具体的には、SU監視処理部142は、自機のセンサID、前記検知結果、前記対象画像および前記人物位置データ(この例では矩形の人物領域データ)を収容した第1監視情報通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。したがって、検知結果を報知するための第1監視情報通信信号には、被監視者Obの画像として対象画像が前記検知結果と共に含まれ、前記対象画像に写る人物の位置に関する人物位置データが前記対象画像と共に含まれる。
In the process S15 following the process S14, the sensor apparatus SU performs the SU monitoring process in order to notify the predetermined behavior detected in the processes S12 and S13 to the predetermined terminal apparatuses SP and TA via the management server apparatus SV. The
前記処理S16では、センサ装置SUは、SU制御処理部14のナースコール処理部144によって、ナースコールを受け付けているか否かを判定する。すなわち、図9に示す処理S11ないし処理S17は、各フレームごとに、あるいは、数フレームおきに、繰り返し実行されるが、前回における処理S16の実行から今般における処理S16の実行までの間に、ナースコール受付操作部13が操作されたか否かが判定される。この判定の結果、ナースコール受付操作部13が操作されず、ナースコールを受け付けていない場合(No)には、センサ装置SUは、今回の本処理を終了し、一方、ナースコール受付操作部13が操作され、ナースコールを受け付けている場合(Yes)には、センサ装置SUは、次の処理S17を実行した後に、今回の本処理を終了する。
In the process S <b> 16, the sensor device SU determines whether the nurse call is accepted by the nurse
この処理S17では、処理S16でその受付が判明したナースコールを管理サーバ装置SVを介して所定の端末装置SP、TAへ報知するために、センサ装置SUは、ナースコール処理部144によって、第1ナースコール通知通信信号を管理サーバ装置SVへ送信する。より具体的には、ナースコール処理部144は、自機のセンサIDおよびナースコール受付情報を収容した第1ナースコール通知通信信号を、SU通信IF部15を介して管理サーバ装置SVへ送信する。
In this process S17, in order to notify the nurse call that has been accepted in process S16 to the predetermined terminal devices SP and TA via the management server device SV, the sensor device SU performs the first call by the nurse
被監視者Obにおける所定の行動の検知やナースコールの受け付けに関し、センサ装置SUは、以上のように動作している。 The sensor device SU operates as described above with respect to detection of a predetermined action and reception of a nurse call in the monitored person Ob.
管理サーバ装置SVは、第1監視情報通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1監視情報通信信号に収容されたセンサID、判定結果、対象画像および人物位置データ(本実施形態では矩形の人物領域データ)等を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1監視情報通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2監視情報通信信号を送信する。また、管理サーバ装置SVは、第1ナースコール通知通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1ナースコール通知通信信号に収容されたセンサIDおよびナースコール受付情報等を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1ナースコール通知通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2ナースコール通知通信信号を送信する。 When receiving the first monitoring information communication signal from the sensor device SU via the network NW, the management server device SV receives the sensor ID, the determination result, the target image, and the person position data (this book) contained in the first monitoring information communication signal. In the embodiment, rectangular person area data) is stored (recorded) as monitoring information of the monitored person Ob monitored by the sensor device SU having this sensor ID. Then, the management server device SV identifies the notification destination terminal devices SP and TA corresponding to the notification source sensor device SU in the received first monitoring information communication signal from the notification destination correspondence relationship, and The second monitoring information communication signal is transmitted to the terminal devices SP and TA. Also, when the management server device SV receives the first nurse call notification communication signal from the sensor device SU via the network NW, the management server device SV obtains the sensor ID, nurse call reception information, etc. accommodated in the first nurse call notification communication signal, The information is stored (recorded) as monitoring information of the monitored person Ob monitored by the sensor device SU having the sensor ID. Then, the management server device SV identifies the notification destination terminal devices SP and TA corresponding to the notification source sensor device SU in the received first nurse call notification communication signal from the notification destination correspondence relationship, and this notification destination The second nurse call notification communication signal is transmitted to the terminal devices SP and TA.
固定端末装置SPおよび携帯端末装置TAは、前記第2監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2監視情報通信信号に収容された被監視者Obの監視に関する前記監視情報を表示する。携帯端末装置TAによるこの監視情報を表示する動作については、以下で詳述する。また、固定端末装置SPおよび携帯端末装置TAは、前記第2ナースコール通知通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2ナースコール通知通信信号に収容されたセンサIDを持つセンサ装置SUで監視されている被監視者Obからナースコールを受け付けたことを表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obにおける所定の行動を検知して各被監視者Obを監視している。 When the fixed terminal device SP and the mobile terminal device TA receive the second monitoring information communication signal from the management server device SV via the network NW, the fixed terminal device SP and the portable terminal device TA relate to monitoring the monitored person Ob accommodated in the second monitoring information communication signal. The monitoring information is displayed. The operation of displaying the monitoring information by the mobile terminal device TA will be described in detail below. Further, when the fixed terminal device SP and the portable terminal device TA receive the second nurse call notification communication signal from the management server device SV via the network NW, the sensor ID contained in the second nurse call notification communication signal is received. It is displayed that a nurse call has been received from the monitored person Ob monitored by the sensor device SU. By such an operation, the monitored person monitoring system MS detects a predetermined action in each monitored person Ob roughly by each sensor device SU, management server device SV, fixed terminal device SP, and portable terminal device TA. Each monitored person Ob is monitored.
次に、端末装置SP、TAにおける、被監視者Obの監視に関する前記監視情報を表示する動作およびそれに関連する動作について、説明する。ここでは、代表的に、携帯端末装置TAの動作について説明する。 Next, the operation of displaying the monitoring information related to the monitoring of the monitored person Ob in the terminal devices SP and TA and the operation related thereto will be described. Here, as an example, the operation of the mobile terminal device TA will be described.
上述したように、電源が投入され、その稼働を始めると、携帯端末装置TAでは、例えば看護師や介護士等の監視者(ユーザ)によるログイン操作が受け付けられ、TA監視処理部322の表示処理部3221によって、自機宛の通信信号を待ち受ける待受け画面がTA表示部36に表示される。この待受け画面51は、例えば、図11に示すように、メニューバーを表示するメニューバー領域511と、待ち受け中であることを表すメッセージ(例えば「通知はありません」)およびアイコンを表示する待受けメイン領域512と、現在時刻を表示する時刻領域513と、今日の年月日曜日を表示する年月日曜日領域514と、今、当該携帯端末装置TAにログインしているユーザ名を表示するユーザ名領域515とを備える。メニューバー領域511には、他の携帯端末装置TAとの内線通話や外線電話機TLとの外線電話の発信の指示を入力するためのオフフックボタン5111が備えられている。
As described above, when the power is turned on and the operation thereof is started, the portable terminal device TA accepts a login operation by a monitor (user) such as a nurse or a caregiver, and the display process of the TA
そして、図10において、携帯端末装置TAは、TA制御処理部32のTA制御部321によって、TA通信IF部31で通信信号を受信したか否かを判定する(S21)。この判定の結果、通信信号を受信していない場合(No)には、携帯端末装置TAは、処理をS21に戻し、前記判定の結果、通信信号を受信している場合(Yes)には、携帯端末装置TAは、次の処理S22を実行する。すなわち、携帯端末装置TAは、通信信号の受信を待ち受けている。
In FIG. 10, the portable terminal device TA determines whether the TA communication IF
処理S22では、携帯端末装置TAは、TA制御部321によって、この受信した通信信号の種類を判定する。この判定の結果、携帯端末装置TAは、前記受信した通信信号が第2監視情報通信信号である場合(第2監視情報)には、次の処理S23および処理S24を順次に実行した後に処理S27を実行し、前記受信した通信信号が第2ナースコール通知通信信号である場合(第2NC通知)には、次の処理S25および処理S26を順次に実行した後に処理S27を実行し、前記受信した通信信号が第2監視情報通信信号および第2ナースコール通知通信信号ではない場合(その他)には、処理S21で受信した通信信号に応じた適宜な処理を行う処理S29を実行した後に本処理を終了する。
In the process S22, the portable terminal device TA determines the type of the received communication signal by the
処理S23では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S21で管理サーバ装置SVから受信した第2監視情報通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。
In the process S23, the portable terminal device TA monitors the monitored person Ob contained in the second monitoring information communication signal received from the management server apparatus SV in the process S21 by the TA
この処理S23の次に、TA監視処理部322は、表示処理部3221によって、処理S21で受信した第2監視情報通信信号に収容された各情報に応じた画面を、例えば図12に示す監視情報画面52をTA表示部36に表示する(S24)。
After this processing S23, the TA
この監視情報画面52は、被監視者Obの監視に関する前記監視情報を表示するための画面である。前記監視情報画面52は、例えば、図12に示すように、メニューバー領域511と、処理S21で受信した第2監視情報通信信号に収容されたセンサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前を表示する被監視者名領域521と、処理S21で受信した第2監視情報通信信号の受信時刻(または前記所定の行動の検知時刻)からの経過時間、および、処理S21で受信した第2監視情報通信信号に収容された前記検知結果を表示する検知情報表示領域522と、処理S21で受信した第2監視情報通信信号に収容された画像(すなわち、前記センサIDを持つ前記センサ装置SUによって撮像された対象画像)(ここでは静止画)、および、処理S21で受信した第2監視情報通信信号に収容された前記人物位置データ(この例では矩形の人物領域データ)に基づく人物位置標識HP2を表示する画像領域523と、「対応する」ボタン524と、「話す」ボタン525と、「LIVEを見る」ボタン526とを備える。
The
被監視者名領域521に、センサ装置SUの配設場所および被監視者Obの名前を表示するために、TA記憶部33には、センサID、前記センサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前が互いに対応付けられて予め記憶される。
In order to display the installation location of the sensor device SU and the name of the monitored subject Ob in the monitored
検知情報表示領域522には、処理S21で受信した第2監視情報通信信号に収容された検知結果(本実施形態では、起床、離床、転落および転倒の各名称)がそのまま表示されても良いが、本実施形態では、前記検知結果を象徴的に表すアイコンで表示されている。このアイコンで表示するために、TA記憶部33には、各行動およびその行動を象徴的に表すアイコンが互いに対応付けられて予め記憶される。図12に示す例では、検知情報表示領域522には、起床を象徴的に表す起床アイコンが表示されている。
In the detection
画像領域523には、表示中の対象画像中に、人物位置データに基づく人物位置標識HP2が表示される。この図12に示す例では、対象画像には、寝具BDおよび被監視者Obが写っている。本実施形態では、処理S21で受信した第2監視情報通信信号に収容された人物位置データは、矩形の人物領域データであり、表示処理部3221は、表示中の対象画像における正面視にて左上頂点を座標原点として、人物領域データ(ここでは対角線の両端点の各座標データ(x0、y0)、(x1、y1))で表される矩形の画像HP2を人物位置標識HP2として表示中の対象画像に重畳して表示する。そして、本実施形態では、人物位置標識HP2で囲まれた領域は、表示中の対象画像に写る人物を拡大して表示する指示である前記拡大表示指示を、当該携帯端末装置TAに入力するためのボタンになっている。
In the
なお、表示処理部3221は、前記対象画像の表示方法(第1表示方法)と異なる第2表示方法で人物の領域内の画像を表示しても良い。前記人物の領域内外を互いに異なる表示方法で表示することで、携帯端末装置TAのユーザ(監視者)は、画像中の人物の領域、言い換えれば、画像中の被監視者Obを見つけ易くなる。例えば、第1表示方法は、通常の表示であり、第2表示方法は、モザイク表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像を通常の通りに表示し、矩形の人物位置標識HP内の画像をモザイク化して表示する。また例えば、第1表示方法は、カラー表示であり、第2表示方法は、モノクロ表示(単色化表示)であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をカラーで表示し、矩形の人物位置標識HP内の画像をモノクロで表示する。また例えば、第1表示方法は、モノクロ表示であり、第2表示方法は、カラー表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をモノクロで表示し、矩形の人物位置標識HP内の画像をカラーで表示する。また例えば、第1表示方法は、ポジ表示であり、第2表示方法は、ネガ表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をポジで表示し、矩形の人物位置標識HP内の画像をネガで表示する。また例えば、第1表示方法は、ネガ表示であり、第2表示方法は、ポジ表示であり、表示処理部3221は、矩形の人物位置標識HP内の画像を前記人物の領域内の画像として、矩形の人物位置標識HP外の画像をネガで表示し、矩形の人物位置標識HP内の画像をポジで表示する。
Note that the
「対応する」ボタン524は、監視情報画面52では、この監視情報画面52に表示された検知結果に対し例えば救命、看護、介護および介助等の所定の対応(応対、対処)を実施する意思が当該携帯端末装置TAのユーザにある旨を表す実施意思情報を、当該携帯端末装置TAに入力するためのボタンである。「話す」ボタン525は、音声通話を要求するためのボタンであって、前記センサIDの前記センサ装置SUと当該携帯端末装置TAとをネットワークNWを介して通話可能に接続する指示を入力するためのボタンである。「LIVEを見る」ボタン526は、ライブでの動画を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画を表示させる指示を入力するためのボタンである。
In the
図10に戻って、一方、処理S25では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S21で管理サーバ装置SVから受信した第2ナースコール通知通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。
Returning to FIG. 10, on the other hand, in the process S25, the portable terminal device TA is accommodated in the second nurse call notification communication signal received from the management server apparatus SV in the process S21 by the
この処理S25の次に、TA監視処理部322は、処理S21で受信した第2ナースコール通知通信信号に収容されたナースコール受付情報に応じて、TA記憶部33に予め記憶されたナースコールを受け付けた旨を表す図略のナースコール受付画面をTA表示部36に表示する(S26)。
Following this processing S25, the TA
そして、これら処理S24および処理S26それぞれの後に実行される前記処理S27では、携帯端末装置TAは、TA制御処理部32によって、TA入力部35およびTA表示部36を備えて成るタッチパネルで入力操作を受け付けたか否かを判定する。この判定の結果、入力操作を受け付けていない場合(No)には、携帯端末装置TAは、処理を処理S27に戻し、一方、前記判定の結果、入力操作を受け付けている場合には、携帯端末装置TAは、次の処理S28を実行する。
And in said process S27 performed after each of these process S24 and process S26, portable terminal device TA performs input operation with the touch panel which comprises
この処理S28では、携帯端末装置TAは、TA制御処理部32によって、入力操作の内容に応じた適宜な処理を実行し、本処理を終了する。
In this process S28, the portable terminal apparatus TA performs an appropriate process according to the content of the input operation by the TA
例えば、携帯端末装置TAは、TA制御処理部32によって、拡大表示指示を入力するためのボタンとしても機能している、人物位置標識HP2で囲まれた領域の入力操作(例えばタップ操作等)を受け付けると、表示処理部3221によって、TA表示部36に表示中の人物の領域の大きさよりも拡大して前記人物の領域を表示する。例えば、図12に示す人物位置標識HP2で囲まれた領域は、約4倍に拡大され(縦方向および横方向それぞれ2倍ずつ拡大され)、図13に示す人物位置標識HPEで囲まれた領域で表示される。なお、拡大によって生じる画素の画素値は、例えば、これに隣接する画素の画素値から補間されて生成される。このように人物の領域が拡大表示されるので、携帯端末装置TAのユーザ(監視者)は、画像中の被監視者Obを見つけ易くなり、被監視者Obの様子を画像で認識し易くなる。
For example, the portable terminal device TA performs an input operation (for example, a tap operation) of an area surrounded by the person position marker HP2 that also functions as a button for inputting an enlarged display instruction by the TA
また例えば、携帯端末装置TAは、TA制御処理部32によって、「対応する」ボタン524の入力操作を受け付けると(すなわち、前記対応意思を受け付けると)、現在、TA表示部36に表示している被監視者Obの監視情報に、「対応する」を受け付けた旨を付してTA監視情報記憶部331に記憶し、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDおよび「対応する」を受け付けた旨を表す情報(対応受付情報)を収容した通信信号(対応受付通知通信信号)を管理サーバ装置SVへ送信する。この対応受付通知通信信号を受信した管理サーバ装置SVは、この受信した対応受付通知通信信号に収容されたセンサIDおよび対応受付情報を収容した通信信号(対応受付周知通信信号)を同報通信で端末装置SP、TAへ送信する。これによって、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDに関し、「対応する」を受け付けた旨が各端末装置SP、TA間で同期される。
Also, for example, when the TA
また例えば、携帯端末装置TAは、TA制御処理部32によって、「話す」ボタン525の入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話を要求する旨等の情報を収容した通信信号(通話要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して音声通話可能に接続する。これによって携帯端末装置TAとセンサ装置SUとの間で音声通話が可能となる。なお、携帯端末装置TAは、TA制御処理部32によって、音声通話の終了の指示を入力するためのボタンである図略の「終了」ボタンの入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話の終了を要求する旨等の情報を収容した通信信号(通話終了通信信号)を送信する。これによって携帯端末装置TAとセンサ装置SUとの間での音声通話が終了される。
Further, for example, when the mobile terminal device TA receives an input operation of the “speak”
また例えば、携帯端末装置TAは、TA制御処理部32によって、「LIVEを見る」ボタン526の入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、ライブでの動画の配信を要求する旨等の情報を収容した通信信号(動画配信要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して動画のダウンロード可能に接続し、前記センサ装置SUからライブでの動画の配信を受け、この配信を受けた動画をストリーミング再生でTA表示部36に表示する。このライブでの動画を表示する監視情報画面52では、画像領域523に静止画に代え動画が表示され、そして、「LIVEを見る」ボタン526に代え図略の「LIVE終了」ボタンが表示される。これによって携帯端末装置TAには、ライブでの動画が表示される。前記図略の「LIVE終了」ボタンは、動画の終了を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画の配信を終了(停止)させ表示を終了(停止)させる指示を入力するためのボタンである。携帯端末装置TAは、TA制御処理部32によって、「LIVE終了」ボタンの入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、動画配信の終了を要求する旨等の情報を収容した通信信号(動画配信終了通信信号)を送信し、静止画をTA表示部36に表示する。これによって携帯端末装置TAは、ライブでの動画の表示を終了する。
Further, for example, when the mobile terminal device TA receives an input operation of the “watch live”
センサ装置SUから管理サーバ装置SVを介して報知を受けた検知結果やナースコール受付の各報知(各再報知)に関し、携帯端末装置TAは、以上のように動作している。 The portable terminal device TA operates as described above regarding the detection results received from the sensor device SU via the management server device SV and each notification (re-notification of each nurse call reception).
以上説明したように、本実施形態における被監視者監視システムMS、端末装置SP、TAおよびこれに実装された表示方法は、TA通信IF部31で受信した、第1監視情報通信信号に基づく第2監視情報通信信号に収容された画像データの画像をTA表示部36に表示し、前記第2監視情報通信信号に収容された人物位置データに基づく人物位置標識HP2を、TA表示部に表示した画像中に表示する表示処理部3221を備える。したがって、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法では、表示中の画像に人物位置標識HP2が表示されるので、そのユーザ(監視者)は、人物位置標識HP2を手がかりに、画像中の被監視者Obを見つけことができ、画像中の被監視者Obを見つけ易くなる。本実施形態におけるセンサ装置SUは、画像だけでなく人物位置データ(本実施形態では人物領域データ)も第1監視情報通信信号に収容するので、前記第2監視情報通信信号を受信した端末装置SP、TAは、表示中の画像に人物位置標識HP2を表示できる。したがって、上記端末装置SP、TAのユーザは、上述のように、人物位置標識HP2を手がかりに、画像中の被監視者Obを見つけことができ、画像中の被監視者Obを見つけ易くなる。
As described above, the monitored person monitoring system MS, the terminal device SP, TA, and the display method implemented therein according to the present embodiment are based on the first monitoring information communication signal received by the TA communication IF
なお、上述の実施形態では、対象画像に写る人物の前記対象画像上での位置によっては、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部しか、TA表示部36に表示されない場合がある。あるいは、「対応する」ボタン524、「話す」ボタン525および「LIVEを見る」ボタン526等の、所定の操作を行う指示である操作指示を当該携帯端末装置TAに入力するためのボタンが画像領域523内に表示される場合、対象画像に写る人物の前記対象画像上での位置によっては、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部または全部と前記ボタンと重なって、前記人物の領域の一部または全部がTA表示部36に表示される場合がある。このような場合を解消するために、表示処理部3221は、次の第1および第2変形形態のように構成されても良い。図14は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、人物の領域と「対応する」ボタンとが重なった監視情報画面の一例を示す図である。図15は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、画像表示領域の中央位置に人物の領域を表示する監視情報画面の一例を示す図である。図16は、実施形態の被監視者監視システムにおける携帯端末装置に表示される、互いに重ならないように人物の領域と「対応する」ボタンを表示する監視情報画面の一例を示す図である。
In the above-described embodiment, depending on the position of the person shown in the target image on the target image, for example, as shown in FIG. 14, a person area (in the example shown in FIG. 14, the area in the person position indicator HP2). May be displayed on the
第1変形形態では、表示処理部3221は、TA表示部36における対象画像を表示するための画像領域523の中央位置SCと、前記対象画像に写る人物の前記対象画像上での位置HPCとが互いに一致するように(SC=HPC)、前記対象画像および前記人物位置標識HPをTA表示部36に表示する。前記位置HPCは、例えば、動体領域MBにおける重心位置P1である。また例えば、人物位置データが矩形の人物領域データである場合、前記位置HPCは、前記矩形における対角線の交点の位置である。また例えば、人物位置データが円形の人物領域データである場合、前記位置HPCは、前記円形における中心点である。また例えば、人物位置データが楕円形の人物領域データである場合、前記位置HPCは、前記楕円形における長軸と短軸との交点の位置である。より具体的には、前記中央位置SCの画素位置(座標データ)がTA記憶部33に予め記憶されており、表示処理部3221は、例えば図15に示すように、このTA記憶部33に記憶された前記中央位置SCの画素位置に、前記位置HPC(この例では矩形における対角線の交点の位置)が位置するように、前記対象画像および前記人物位置標識HPそれぞれの表示位置を調整してこれらをTA表示部36に表示する。これによれば、上記携帯端末装置TAのユーザ(監視者)は、画像領域523の中央位置を注視すれば良いので、画像中の被監視者Obを見つけ易くなる。
In the first modification, the
第2変形形態では、表示処理部3221は、TA表示部36の表示領域における人物の領域を除いた残余の領域に、所定の操作を行う指示である操作指示を当該携帯端末装置TAに入力するための前記ボタンを表示する。好ましくは、表示処理部3221は、TA表示部36の前記対象画像を表示するための画像領域523における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。例えば、前記ボタンが画像領域523内に表示される場合、例えば図14に示すように、人物の領域(図14に示す例では人物位置標識HP2内の領域)の一部が「対応する」ボタン524と重なっている場合、表示処理部3221は、図16に示すように、人物の領域(この例では人物位置標識HP2内の領域)を除いた残余の領域、例えば画像領域523の上端部の領域に、「対応する」ボタン524を表示する。「対応する」ボタン524、「話す」ボタン525および「LIVEを見る」ボタン526等の、前記ボタンの表示位置は、予め既定されているので、前記人物の領域と前記ボタンとの重なる領域は、予め既知である。このため、前記人物の領域を除いた前記残余の領域は、予測でき、予めTA記憶部33に記憶される。表示処理部3221は、前記人物の領域の全部または一部が前記ボタンと重なった場合、TA記憶部33に予め記憶された前記残余の領域に、前記ボタンを表示すればよい。これによれば、前記ボタンによって前記人物の領域が隠れることが無く、携帯端末装置TAのユーザ(監視者)は、画像中の被監視者Obを見つけ易くなる。
In the second modification, the
本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。 The present specification discloses various aspects of the technology as described above, and the main technologies are summarized below.
一態様にかかる端末装置は、監視対象である被監視者の画像の画像データ、および、前記画像に写る人物の前記画像上での位置に関する人物位置データを収容する監視情報通信信号を受信する通信部と、表示を行う表示部と、前記通信部で受信した監視情報通信信号に収容された画像データの画像を前記表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を、前記表示部に表示した画像中に表示する表示処理部とを備える。好ましくは、上述の端末装置において、前記人物位置データは、前記画像データのメタデータとして前記監視情報通信信号に収容される。好ましくは、上述の端末装置において、前記画像データおよび前記人物位置データは、Exif(Exchangeable image file format)ファイルに収容される。好ましくは、上述の端末装置において、前記画像データおよび前記人物位置データは、HTTP(Hypertext Transfer Protocol)におけるマルチパート形式のファイルにフォームデータとして収容される。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域の人物領域データである。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の全部または一部を含む矩形、円形および楕円のうちのいずれか1つを表す座標データであり、前記人物位置標識は、前記人物領域データで表される画像である。好ましくは、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物領域データは、前記人物の領域の輪郭線を表す座標データであり、前記人物位置標識は、前記人物領域データで表される画像である。 The terminal device according to one aspect receives a monitoring information communication signal containing image data of an image of a monitored person to be monitored and person position data relating to a position of the person shown in the image on the image. An image of the image data accommodated in the monitoring information communication signal received by the communication unit is displayed on the display unit, and based on the person position data accommodated in the monitoring information communication signal A display processing unit for displaying a person position indicator representing the position of the person in an image displayed on the display unit. Preferably, in the above terminal device, the person position data is accommodated in the monitoring information communication signal as metadata of the image data. Preferably, in the above-described terminal device, the image data and the person position data are accommodated in an Exif (Exchangeable image file format) file. Preferably, in the above-described terminal device, the image data and the person position data are accommodated as form data in a multipart file in HTTP (Hypertext Transfer Protocol). Preferably, in the above-described terminal device, the person position data is person area data of the person area including a position on the image of the person shown in the image. Preferably, in the above-described terminal device, the person position data is person area data relating to the person area including a position of the person in the image on the image, and the person area data is the person area data. Are coordinate data representing any one of a rectangle, a circle, and an ellipse including all or a part thereof, and the person position indicator is an image represented by the person region data. Preferably, in the above-described terminal device, the person position data is person area data relating to the person area including a position of the person in the image on the image, and the person area data is the person area data. The person position marker is an image represented by the person area data.
このような端末装置は、通信部で受信した監視情報通信信号に収容された画像データの画像を表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を、前記表示部に表示した画像中に表示する表示処理部を備える。したがって、上記端末装置では、表示中の画像に人物位置標識が表示されるので、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。 Such a terminal device displays an image of the image data contained in the monitoring information communication signal received by the communication unit on the display unit, and determines the position of the person based on the person position data contained in the monitoring information communication signal. A display processing unit is provided for displaying the person position sign to be displayed in the image displayed on the display unit. Therefore, since the person position sign is displayed in the displayed image in the terminal device, the user of the terminal device can find the person to be monitored in the image using the person position sign as a clue. Makes it easier to find the person being monitored.
他の一態様では、上述の端末装置において、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記画像の表示方法と異なる第2表示方法で前記人物の領域内の画像を表示する。好ましくは、上述の端末装置において、前記第2表示方法は、前記人物の領域内の画像をモザイクで表示する方法である。好ましくは、上述の端末装置において、前記画像の表示方法は、前記画像をカラーでまたはモノクロで表示する方法であり、前記第2表示方法は、前記人物の領域内の画像をモノクロでまたはカラーで表示する方法である。好ましくは、上述の端末装置において、前記画像の表示方法は、前記画像をポジでまたはネガで表示する方法であり、前記第2表示方法は、前記人物の領域内の画像をネガでまたはポジで表示する方法である。 In another aspect, in the above-described terminal device, the person position data is person area data related to the person area including a position of the person in the image on the image, and the person position indicator is It is an image represented by person area data, and the display processing unit displays an image in the person area by a second display method different from the image display method. Preferably, in the terminal device described above, the second display method is a method of displaying an image in the area of the person in a mosaic. Preferably, in the terminal device described above, the image display method is a method of displaying the image in color or monochrome, and the second display method is an image in the person's area in monochrome or color. How to display. Preferably, in the above-described terminal device, the display method of the image is a method of displaying the image positively or negatively, and the second display method is a method of displaying the image in the person area negatively or positively. How to display.
このような端末装置は、表示処理部によって、画像の表示方法(第1表示方法)と異なる第2表示方法で人物の領域内の画像を表示する。このため、上記端末装置のユーザは、画像中の人物の領域、言い換えれば、画像中の被監視者を見つけ易くなる。 In such a terminal device, the display processing unit displays an image in the person's area by a second display method different from the image display method (first display method). For this reason, the user of the terminal device can easily find the person's area in the image, in other words, the monitored person in the image.
他の一態様では、これら上述の端末装置において、前記表示処理部は、前記表示部における前記画像を表示するための画像表示領域の中央位置と、前記画像に写る人物の前記画像上での位置とが互いに一致するように、前記画像および前記人物位置標識を前記表示部に表示する。 In another aspect, in the above-described terminal devices, the display processing unit includes a center position of an image display area for displaying the image on the display unit, and a position on the image of a person appearing in the image. The image and the person position indicator are displayed on the display unit so that they coincide with each other.
このような端末装置は、表示処理部によって、画像表示領域の中央位置に人物位置標識を表示する。このため、上記端末装置のユーザは、画像表示領域の中央位置を注視すれば良いので、画像中の被監視者を見つけ易くなる。 Such a terminal device displays a person position indicator at the center position of the image display area by the display processing unit. For this reason, since the user of the said terminal device should just watch the center position of an image display area, it becomes easy to find the to-be-monitored person in an image.
他の一態様では、これら上述の端末装置において、前記画像に写る人物を拡大して表示する指示である拡大表示指示を受け付ける指示入力部をさらに備え、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記指示入力部で前記拡大表示指示を受け付けた場合に、前記表示部に表示中の前記人物の領域の大きさよりも拡大して前記人物の領域を表示する。 In another aspect, the above-described terminal device further includes an instruction input unit that receives an enlarged display instruction that is an instruction for enlarging and displaying the person shown in the image, and the person position data is the person shown in the image The person area data relating to the person area including the position on the image, the person position indicator is an image represented by the person area data, and the display processing unit is the instruction input unit When an enlarged display instruction is received, the person area is displayed in a larger size than the person area being displayed on the display unit.
このような端末装置は、指示入力部をさらに備え、表示処理部によって、前記指示入力部で拡大表示指示を受け付けた場合に、表示部に表示中の人物の領域の大きさよりも拡大して前記人物の領域を表示する。したがって、人物の領域が拡大表示されるので、上記端末装置のユーザは、画像中の被監視者を見つけ易くなる。 Such a terminal device further includes an instruction input unit, and when the display processing unit accepts an enlarged display instruction by the instruction input unit, the terminal device expands more than the size of the area of the person being displayed on the display unit. Display the person area. Therefore, since the area of the person is enlarged and displayed, the user of the terminal device can easily find the person to be monitored in the image.
他の一態様では、これら上述の端末装置において、所定の操作を行う指示である操作指示を受け付ける第2指示入力部をさらに備え、前記第2指示入力部は、前記表示部とでタッチパネルを構成し、前記表示部にボタンで表示され、前記人物位置データは、前記画像に写る人物の前記画像上での位置を含む前記人物の領域に関する人物領域データであり、前記人物位置標識は、前記人物領域データで表される画像であり、前記表示処理部は、前記表示部の表示領域における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。好ましくは、上述の端末装置において、前記表示処理部は、前記表示部の前記画像を表示するための画像表示領域における前記人物の領域を除いた残余の領域に、前記ボタンを表示する。 In another aspect, the above-described terminal device further includes a second instruction input unit that receives an operation instruction that is an instruction to perform a predetermined operation, and the second instruction input unit forms a touch panel with the display unit And the person position data is person area data relating to the person area including the position of the person in the image on the image, and the person position indicator is the person position indicator. The display processing unit displays the button in a remaining area excluding the person area in the display area of the display unit. Preferably, in the terminal device described above, the display processing unit displays the button in a remaining area excluding the person area in the image display area for displaying the image on the display unit.
このような端末装置は、表示処理部によって、人物の領域を除いた残余の領域に操作指示を受け付けるボタンを表示する。このため、前記ボタンによって前記人物の領域が隠れることが無く、上記端末装置のユーザは、画像中の被監視者を見つけ易くなる。 In such a terminal device, the display processing unit displays a button for receiving an operation instruction in the remaining area excluding the person area. For this reason, the region of the person is not hidden by the button, and the user of the terminal device can easily find the monitored person in the image.
他の一態様にかかる端末装置の表示方法は、監視対象である被監視者の画像の画像データ、および、前記画像に写る人物の前記画像上での位置に関する人物位置データを収容する監視情報通信信号を受信する受信工程と、前記受信工程で受信した監視情報通信信号に収容された画像データの画像を、表示を行う表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示処理工程とを備える。 According to another aspect of the present invention, there is provided a display method for a terminal device, in which monitoring data communication that stores image data of an image of a monitored person to be monitored and person position data relating to a position of a person appearing in the image on the image A reception step of receiving a signal, and an image of the image data accommodated in the monitoring information communication signal received in the reception step is displayed on a display unit for displaying, and the person position data accommodated in the monitoring information communication signal is displayed. And a display processing step of displaying a person position sign indicating the position of the person based on the image displayed on the display unit.
このような端末装置の表示方法は、受信工程で受信した監視情報通信信号に収容された画像データの画像を表示部に表示し、前記監視情報通信信号に収容された人物位置データに基づく前記人物の位置を表す人物位置標識を前記表示部に表示した画像中に表示する表示制御工程を備える。したがって、上記端末装置の表示方法では、表示中の画像に人物位置標識が表示されるので、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。 Such a display method of the terminal device displays an image of the image data accommodated in the monitoring information communication signal received in the receiving step on the display unit, and the person based on the person position data accommodated in the monitoring information communication signal A display control step of displaying a person position sign representing the position of the person in the image displayed on the display unit. Therefore, in the display method of the terminal device, since the person position sign is displayed on the image being displayed, the user of the terminal device can find the monitored person in the image using the person position sign as a clue. This makes it easier to find the person being monitored in the image.
他の一態様にかかるセンサ装置は、通信を行う通信部と、撮像を行う撮像部と、前記撮像部で撮像した画像に写る人物の前記画像での位置に関する人物位置データを生成する人物位置処理部と、前記撮像部で撮像した画像の画像データ、および、前記人物位置処理部で生成した人物位置データを収容する監視情報通信信号を前記通信部で送信する監視処理部とを備える。 A sensor device according to another aspect includes a communication unit that performs communication, an imaging unit that performs imaging, and a person position process that generates person position data related to the position of the person in the image captured by the imaging unit in the image And a monitoring processing unit that transmits the image data of the image captured by the imaging unit and the monitoring information communication signal that stores the person position data generated by the person position processing unit by the communication unit.
このようなセンサ装置は、画像だけでなく人物位置データも監視情報通信信号に収容するので、前記監視情報通信信号を受信した端末装置は、表示中の画像に人物位置標識を表示できる。したがって、上記端末装置のユーザは、前記人物位置標識を手がかりに、画像中の被監視者を見つけことができ、画像中の被監視者を見つけ易くなる。 Such a sensor device accommodates not only the image but also the person position data in the monitoring information communication signal, so that the terminal device that has received the monitoring information communication signal can display the person position indicator on the displayed image. Therefore, the user of the terminal device can find the monitored person in the image using the person position sign as a clue, and can easily find the monitored person in the image.
他の一態様にかかる被監視者監視システムは、上述のセンサ装置と、これら上述のいずれかの端末装置とを備える。 A monitored person monitoring system according to another aspect includes the above-described sensor device and any one of the above-described terminal devices.
このような被監視者監視システムは、上述のセンサ装置と、これら上述のいずれかの端末装置とを備えるので、画像中の被監視者を見つけ易くできる。 Since such a monitored person monitoring system includes the above-described sensor device and any one of the above-described terminal devices, it is easy to find the monitored person in the image.
この出願は、2016年2月15日に出願された日本国特許出願特願2016−25856を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2016-25856 filed on Feb. 15, 2016, the contents of which are included in the present application.
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.
MS 被監視者監視システム
SU、SU−1〜SU−4 センサ装置
SV 管理サーバ装置
SP 固定端末装置
TA、TA−1、TA−2 携帯端末装置
11 撮像部
12 センサ側音入出力部(SU音入出力部)
13 ナースコール受付操作部
14 センサ側制御処理部(SU制御処理部)
15 センサ側通信インターフェース部(SU通信IF部)
16 センサ側記憶部(SU記憶部)
141 センサ側制御部(SU制御部)
142 センサ側監視処理部(SU監視処理部)
143 人物位置処理部
144 ナースコール処理部
145 センサ側ストリーミング処理部(SUストリーミング処理部)
31 端末側通信インターフェース部(TA通信IF部)
32 端末側制御処理部(TA制御処理部)
33 端末側記憶部(TA記憶部)
34 端末側音入出力部(TA音入出力部)
35 端末側入力部(TA入力部)
36 端末側表示部(TA表示部)
37 端末側インターフェース部(TAIF部)
321 端末側制御部(TA制御部)
322 端末側監視処理部(TA監視処理部)
323 通話処理部
324 端末側ストリーミング処理部(TAストリーミング処理部)
3221 表示処理部
MS Monitored Person Monitoring System SU, SU-1 to SU-4 Sensor Device SV Management Server Device SP Fixed Terminal Device TA, TA-1, TA-2
13 Nurse call
15 Sensor side communication interface part (SU communication IF part)
16 Sensor side storage unit (SU storage unit)
141 Sensor side control unit (SU control unit)
142 Sensor-side monitoring processing unit (SU monitoring processing unit)
143 Person
31 Terminal side communication interface part (TA communication IF part)
32 Terminal-side control processing unit (TA control processing unit)
33 Terminal side storage unit (TA storage unit)
34 Terminal sound input / output unit (TA sound input / output unit)
35 Terminal side input section (TA input section)
36 Terminal side display section (TA display section)
37 Terminal side interface section (TAIF section)
321 Terminal side control unit (TA control unit)
322 Terminal side monitoring processing unit (TA monitoring processing unit)
323
3221 Display processing unit
本発明にかかる検知システムは、監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおいて、監視対象である被監視者を撮影した画像データを取得する取得部と、取得した画像データに基づいて、前記被監視者における所定の行動を検知する検知部と、前記検知部により所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成する生成部と、前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示する表示部と、前記被監視者位置標識が、前記位置データに基づいて、前記表示部における予め設定された領域に表示されるよう制御する表示処理部と、を備える。 The detection system according to the present invention is a detection system that detects a predetermined behavior of a monitored person based on image data of the monitored person that is the monitoring target, and image data that captures the monitored person that is the monitoring target. An acquisition unit that acquires the image data, a detection unit that detects a predetermined action of the monitored person based on the acquired image data, and a monitored person whose predetermined action is detected by the detection unit. A generation unit that generates position data indicating a position corresponding to the monitored person, a display unit that displays the image data and a monitored person position indicator based on the position data, and the monitored person position label, on the basis of the position data, and a display processing unit that controls to be displayed on the are Contact Keru preset in the display area.
本発明にかかる検知方法は、監視対象である被監視者を撮影した画像データに基づいて、被監視者の所定の行動を検知する検知システムにおける検知方法であって、監視対象である被監視者を撮影した画像データを取得部において取得するステップと、取得した画像データに基づいて、前記被監視者における所定の行動を検知部において検知するステップと、前記所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成部において生成するステップと、前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示部に表示するステップと、前記被監視者位置標識が、前記位置データに基づいて、前記表示部における予め設定された領域に表示されるよう制御するステップと、を備える。 A detection method according to the present invention is a detection method in a detection system for detecting a predetermined behavior of a monitored person based on image data obtained by photographing the monitored person as a monitoring target, and the monitored person as a monitoring target The acquisition unit acquires image data obtained by capturing the image, the detection unit detects a predetermined action in the monitored person based on the acquired image data, and the monitored person in which the predetermined action is detected A step of generating position data indicating a position corresponding to the monitored person based on the image data in the generating unit; and the image data and the position mark of the monitored person based on the position data are displayed on the display unit. controlled so that the steps of displaying, the monitored person's position label, on the basis of the position data is displayed on the are Contact Keru preset in the display region Includes a step that, a.
Claims (8)
監視対象である被監視者を撮影した画像データを取得する取得部と、
取得した画像データに基づいて、前記被監視者における所定の行動を検知する検知部と、
前記検知部により所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成する生成部と、
前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示する表示部と、
前記被監視者位置標識が前記表示部において予め設定された領域に表示されるよう制御する表示処理部と、
を備える検知システム。 In a detection system for detecting a predetermined action of a monitored person based on image data obtained by photographing the monitored person as a monitoring target,
An acquisition unit for acquiring image data obtained by photographing a monitored person to be monitored;
Based on the acquired image data, a detection unit that detects a predetermined action in the monitored person,
A generation unit that generates position data indicating a position corresponding to the monitored person based on the image data for the monitored person whose predetermined action is detected by the detecting unit;
A display unit for displaying the image data, and a monitored person position indicator based on the position data;
A display processing unit for controlling the monitored person position indicator to be displayed in a preset area on the display unit;
A detection system comprising:
請求項1に記載の検知システム。 The generation unit generates the position data in response to a predetermined action detected by the detection unit.
The detection system according to claim 1.
請求項1または請求項2に記載の検知システム。 The predetermined behavior detected by the detection unit includes at least one of getting up from the bedding, getting out of the bedding, falling from the bedding, and falling of the monitored person in the monitored person.
The detection system according to claim 1 or 2.
請求項1ないし請求項3のいずれかに記載の検知システム。 The display unit further displays identification information for identifying the predetermined action detected by the detection unit;
The detection system according to any one of claims 1 to 3.
請求項1ないし請求項4のいずれかに記載の検知システム。 The display unit displays image data indicating a region including the monitored person in the image data as the monitored person position indicator.
The detection system according to any one of claims 1 to 4.
請求項5に記載の検知システム。 The display unit displays rectangular image data indicating an area including the monitored person as image data indicating an area including the monitored person in the image data.
The detection system according to claim 5.
請求項1ないし請求項6のいずれかに記載の検知システム。 The display unit includes a mobile terminal device included in the detection system.
The detection system according to any one of claims 1 to 6.
監視対象である被監視者を撮影した画像データを取得部において取得するステップと、
取得した画像データに基づいて、前記被監視者における所定の行動を検知部において検知するステップと、
前記所定の行動が検知された被監視者について、前記画像データに基づいて、前記被監視者に対応する位置を示す位置データを生成部において生成するステップと、
前記画像データ、及び、前記位置データに基づく被監視者位置標識を表示部に表示するステップと、
前記被監視者位置標識が前記表示部において予め設定された領域に表示されるよう制御するステップと、
を備える検知システムにおける検知方法。 A detection method in a detection system for detecting a predetermined action of a monitored person based on image data obtained by photographing the monitored person as a monitoring target,
A step of acquiring image data obtained by photographing a monitored person to be monitored in an acquisition unit;
Based on the acquired image data, detecting a predetermined action in the monitored person in a detection unit;
Generating, in a generation unit, position data indicating a position corresponding to the monitored person based on the image data for the monitored person in which the predetermined behavior is detected;
Displaying the image data and the monitored person position indicator based on the position data on a display unit;
Controlling the monitored person position marker to be displayed in a preset area on the display unit;
A detection method in a detection system comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016025856 | 2016-02-15 | ||
JP2016025856 | 2016-02-15 | ||
JP2018500001A JP6804510B2 (en) | 2016-02-15 | 2017-01-23 | Detection system and display method of detection system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500001A Division JP6804510B2 (en) | 2016-02-15 | 2017-01-23 | Detection system and display method of detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019149172A true JP2019149172A (en) | 2019-09-05 |
JP6895090B2 JP6895090B2 (en) | 2021-06-30 |
Family
ID=59624976
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500001A Active JP6804510B2 (en) | 2016-02-15 | 2017-01-23 | Detection system and display method of detection system |
JP2019052766A Active JP6895090B2 (en) | 2016-02-15 | 2019-03-20 | Detection system and display processing method of detection system |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500001A Active JP6804510B2 (en) | 2016-02-15 | 2017-01-23 | Detection system and display method of detection system |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6804510B2 (en) |
WO (1) | WO2017141629A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102484784B1 (en) * | 2022-04-19 | 2023-01-04 | 김종환 | Breath detection emergency alarm system |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001145101A (en) * | 1999-11-12 | 2001-05-25 | Mega Chips Corp | Human image compressing device |
JP2003179912A (en) * | 2001-08-30 | 2003-06-27 | Hitachi Kokusai Electric Inc | Surveillance video distribution system and surveillance video distribution method |
JP2007088965A (en) * | 2005-09-26 | 2007-04-05 | Casio Hitachi Mobile Communications Co Ltd | Image output device and program |
JP2007150702A (en) * | 2005-11-28 | 2007-06-14 | Keakomu:Kk | Nurse call system |
JP2010237873A (en) * | 2009-03-30 | 2010-10-21 | Sogo Keibi Hosho Co Ltd | Device, method, and program for detecting attitude change |
JP2013025352A (en) * | 2011-07-15 | 2013-02-04 | Fujitsu Ltd | Information processor, information processing method, and information processing program |
JP2014021619A (en) * | 2012-07-13 | 2014-02-03 | Aiphone Co Ltd | Patient recognition device |
JP2014149731A (en) * | 2013-02-01 | 2014-08-21 | King Tsushin Kogyo Kk | Bed-leaving monitoring system |
JP2014166197A (en) * | 2013-02-28 | 2014-09-11 | Nk Works Co Ltd | Information processing equipment, information processing method, and program |
JP2015186250A (en) * | 2014-03-26 | 2015-10-22 | 株式会社ドワンゴ | Terminal device, moving image distribution device, and program |
JP2015213637A (en) * | 2014-05-12 | 2015-12-03 | 株式会社ケアコム | Portable terminal device for nurse call system and nurse call system |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5270962B2 (en) * | 2008-05-29 | 2013-08-21 | 京セラ株式会社 | Motion detection system |
JP2010157119A (en) * | 2008-12-26 | 2010-07-15 | Fujitsu Ltd | Monitoring device, monitoring method, and monitoring program |
JP2011138178A (en) * | 2009-12-25 | 2011-07-14 | Takenaka Komuten Co Ltd | Light emitting device, suspicious person detection system and program |
JP5953673B2 (en) * | 2011-08-11 | 2016-07-20 | 日本電気株式会社 | Action identification device, action identification method, and program |
JP5909126B2 (en) * | 2012-03-28 | 2016-04-26 | 西日本電信電話株式会社 | Monitoring system and monitoring method |
CN105451643B (en) * | 2013-07-22 | 2019-10-01 | 皇家飞利浦有限公司 | Automatic continuous patient's mobile monitoring |
JP2015032125A (en) * | 2013-08-02 | 2015-02-16 | アズビル株式会社 | Watch device and watch system |
JP6281249B2 (en) * | 2013-11-09 | 2018-02-21 | 富士通株式会社 | Information processing apparatus, information processing system, program, and information processing method |
JP6417670B2 (en) * | 2014-02-21 | 2018-11-07 | オムロン株式会社 | Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program |
JP6413310B2 (en) * | 2014-04-10 | 2018-10-31 | 富士通株式会社 | Monitoring device, display method and program |
-
2017
- 2017-01-23 JP JP2018500001A patent/JP6804510B2/en active Active
- 2017-01-23 WO PCT/JP2017/002079 patent/WO2017141629A1/en active Application Filing
-
2019
- 2019-03-20 JP JP2019052766A patent/JP6895090B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001145101A (en) * | 1999-11-12 | 2001-05-25 | Mega Chips Corp | Human image compressing device |
JP2003179912A (en) * | 2001-08-30 | 2003-06-27 | Hitachi Kokusai Electric Inc | Surveillance video distribution system and surveillance video distribution method |
JP2007088965A (en) * | 2005-09-26 | 2007-04-05 | Casio Hitachi Mobile Communications Co Ltd | Image output device and program |
JP2007150702A (en) * | 2005-11-28 | 2007-06-14 | Keakomu:Kk | Nurse call system |
JP2010237873A (en) * | 2009-03-30 | 2010-10-21 | Sogo Keibi Hosho Co Ltd | Device, method, and program for detecting attitude change |
JP2013025352A (en) * | 2011-07-15 | 2013-02-04 | Fujitsu Ltd | Information processor, information processing method, and information processing program |
JP2014021619A (en) * | 2012-07-13 | 2014-02-03 | Aiphone Co Ltd | Patient recognition device |
JP2014149731A (en) * | 2013-02-01 | 2014-08-21 | King Tsushin Kogyo Kk | Bed-leaving monitoring system |
JP2014166197A (en) * | 2013-02-28 | 2014-09-11 | Nk Works Co Ltd | Information processing equipment, information processing method, and program |
JP2015186250A (en) * | 2014-03-26 | 2015-10-22 | 株式会社ドワンゴ | Terminal device, moving image distribution device, and program |
JP2015213637A (en) * | 2014-05-12 | 2015-12-03 | 株式会社ケアコム | Portable terminal device for nurse call system and nurse call system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102484784B1 (en) * | 2022-04-19 | 2023-01-04 | 김종환 | Breath detection emergency alarm system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017141629A1 (en) | 2018-10-25 |
JP6895090B2 (en) | 2021-06-30 |
JP6804510B2 (en) | 2020-12-23 |
WO2017141629A1 (en) | 2017-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017146012A1 (en) | Monitored-person monitoring device, method and system | |
WO2017082037A1 (en) | Central processing device and method for person monitoring system, and person monitoring system | |
JP6226110B1 (en) | Monitored person monitoring apparatus, method and system | |
JP6696606B2 (en) | Care support system, care support method and program | |
JP6895090B2 (en) | Detection system and display processing method of detection system | |
JP2017148504A (en) | Device for monitoring person to be monitored, method and system thereof | |
JP6493450B2 (en) | Display device and display method of monitored person monitoring system, and monitored person monitoring system | |
JP6740633B2 (en) | Central processing unit and central processing method of monitored person monitoring system, and monitored person monitoring system | |
JP6292363B2 (en) | Terminal device, terminal device display method, and monitored person monitoring system | |
JP6686523B2 (en) | Monitored person monitoring apparatus, method and system | |
JP6245415B1 (en) | Terminal device, operation control method of terminal device, and monitored person monitoring system | |
JP6187732B1 (en) | Terminal device, terminal device operation control method, and monitored person monitoring system | |
WO2020100461A1 (en) | Sensor device for to-be-monitored person monitoring assistance system, monitoring image storage method, and to-be-monitored person monitoring assistance system | |
JP6172424B1 (en) | Terminal device, terminal device control method, and monitored person monitoring system | |
JP6213699B1 (en) | Central processing unit and central processing method for monitored person monitoring system, and monitored person monitoring system | |
JP6150026B1 (en) | Central processing unit and method of monitored person monitoring system, and monitored person monitoring system | |
JPWO2019235068A1 (en) | Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system and monitored person monitoring support server device | |
JP7234931B2 (en) | Sensor Device of Monitored Person Monitoring Support System, Processing Method of Sensor Device, and Monitored Person Monitoring Support System | |
WO2017145832A1 (en) | Device, method, and system for monitoring persons to be monitored | |
WO2017130684A1 (en) | Monitored-person monitoring device, method thereof, and system thereof | |
JP2020188487A (en) | Central processing device, monitored person monitoring method, and monitored person monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190418 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210506 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6895090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |