WO2017145679A1 - 端末装置および端末装置の表示方法ならびに被監視者監視システム - Google Patents

端末装置および端末装置の表示方法ならびに被監視者監視システム Download PDF

Info

Publication number
WO2017145679A1
WO2017145679A1 PCT/JP2017/003569 JP2017003569W WO2017145679A1 WO 2017145679 A1 WO2017145679 A1 WO 2017145679A1 JP 2017003569 W JP2017003569 W JP 2017003569W WO 2017145679 A1 WO2017145679 A1 WO 2017145679A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
event
terminal device
unit
Prior art date
Application number
PCT/JP2017/003569
Other languages
English (en)
French (fr)
Inventor
雅史 西角
篤広 野田
琢哉 村田
山下 雅宣
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2017554097A priority Critical patent/JP6292363B2/ja
Publication of WO2017145679A1 publication Critical patent/WO2017145679A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching
    • H04M9/08Two-way loud-speaking telephone systems with means for conditioning the signal, e.g. for suppressing echoes for one or both directions of traffic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching

Definitions

  • the present invention relates to a terminal device suitably used for a monitored person monitoring system for monitoring a monitored person to be monitored, a display method for the terminal apparatus, and the monitored person monitoring system.
  • Japan is an aging society, more specifically the ratio of population over 65 years old to the total population due to the improvement of living standards accompanying the post-war high economic growth, improvement of sanitary environment and improvement of medical standards, etc. It is a super-aging society with an aging rate exceeding 21%.
  • the elderly population aged 65 and over was about 25.56 million compared to the total population of 127.65 million, whereas in 2020, the elderly population was about 124.11 million.
  • the population is predicted to be about 34.56 million.
  • nurses who need nursing or nursing care due to illness, injury, elderly age, etc., or those who need nursing care are those who need nursing in a normal society that is not an aging society.
  • monitored person monitoring techniques for monitoring a monitored person to be monitored, such as a care recipient, have been researched and developed.
  • the nurse call system disclosed in Patent Document 1 is a nurse call slave set that is installed in a bed and a patient calls a nurse, and a nurse call set that is installed in a nurse station and responds to a call by the nurse call slave set.
  • a nurse call system having a nurse call parent device, a camera for imaging a patient on a bed from above the bed, and a state in which the patient wakes up from a captured image of the camera and a state in which the patient is separated from the bed State judging means for judging the occurrence of at least one of them and outputting a caution state occurrence signal, and the nurse call master unit has a notifying means for performing a notification operation upon receiving the caution state occurrence signal.
  • the nurse call system transmits a captured image of the camera to the portable terminal upon receiving the attention state generation signal and a portable terminal carried by a nurse to respond to a call from the nurse call slave. Communication control means.
  • a camera area image sensor an image sensor such as a CCD or CMOS
  • an image including a still image and a moving image
  • the image has an XY Cartesian coordinate system in which the directed line segment from left to right along the horizontal direction is set as the X axis, and the directed line segment from top to bottom along the vertical direction is set as the Y axis.
  • the observer who has seen the image of the camera has a lower side of the display surface such as the floor surface, the near position, the arrangement position of the entrance, etc. in front view.
  • the image is viewed with a preconception that the upper side of the display surface is a ceiling surface, a back position, a window arrangement position, or the like.
  • the lower side of the area image sensor of the camera is the entrance side of the room.
  • the image of the camera arranged in this way is displayed on the display surface of the display device so as to match the preconception.
  • the lower side of the area image sensor of the camera is the right wall side when viewed from the entrance position of the room.
  • the lower side of the area image sensor of the camera is arranged so that it is the opposite side (for example, the window side) wall side when viewed from the entrance position of the room, etc.
  • the image displayed on the display surface of the display device is contrary to the preconception, the lower side of the display surface is the right wall side of the room or the opposite side (for example, the window side) It becomes the wall side and so on. Since it is necessary for the monitoring person to quickly grasp the state of the monitored person by looking at the image, the monitoring person tends to judge the image under the above-mentioned preconception. For this reason, even though the monitored person has not fallen, the monitored person's head is positioned below the display surface and the monitored person's leg is positioned above the display surface. A supervisor who sees an image showing the person's recumbent posture may misunderstand that the person being monitored falls.
  • the monitored person if the monitored person has fallen on the near side of the room, but the watched person sees the image of the monitored person falling on the upper side of the display surface, the monitored person falls on the far side of the room If you rush to think that there is a risk, the monitored person may have fallen immediately after entering the room from the entrance, and the monitored person may come into contact with the monitored person. On the other hand, even if the monitor knows the display direction of the image on the display surface for each room, if the display direction is different for each room, the monitor determines the situation from the image. It takes time to complete.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a terminal device and a display method for the terminal device that can be appropriately displayed on a display surface regardless of the arrangement direction of an imaging unit that generates an image.
  • An object of the present invention is to provide a monitored person monitoring system.
  • the terminal device and the display method thereof When the terminal device and the display method thereof according to the present invention receive event information indicating the contents of a predetermined event related to the monitored person and an event notification communication signal containing the image of the monitored person related to the event In addition, an event screen for displaying the contents of the event and the image in the received event notification communication signal is displayed on the display unit. At this time, in the terminal device and the display method thereof, the image is displayed on the display unit such that the display direction of the display surface of the display unit and the image direction of the image have a predetermined specific relationship. indicate.
  • the monitored person monitoring system according to the present invention includes this terminal device.
  • FIG. 1 It is a figure which shows the structure of the monitoring person monitoring system in embodiment. It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system shown in FIG. It is a figure for demonstrating the installation condition of the sensor apparatus shown in FIG. It is a figure which shows the structure of the portable terminal device in the to-be-monitored person monitoring system shown in FIG. It is a figure which shows the structure of the monitoring information table memorize
  • the monitored person monitoring system in the embodiment monitors a monitored person (watched person) Ob that is a monitored object (watched object) to be monitored (watched), and communicates with the terminal device and the terminal device. And a monitored person monitoring device connected to each other.
  • the monitored person monitoring apparatus in this monitored person monitoring system includes event information indicating the contents of a predetermined event (event) related to the monitored person Ob, and an image of the monitored person Ob related to the event.
  • the terminal device is notified of an event notification communication signal for notifying the event.
  • a monitored person monitoring device may be integrally configured by a single device, but in this embodiment, the monitored person monitoring device can communicate with the sensor device, and each of the sensor device and the terminal device.
  • This sensor device detects the predetermined event related to the monitored person Ob and notifies (reports or transmits) the management server device.
  • the management server device re-notifies (re-notifies and re-transmits) the notification to a predetermined terminal device associated with the sensor device.
  • the terminal device in the monitored person monitoring system receives a communication unit that performs communication, a display unit that performs display on a display surface, and the event notification communication signal, the received event notification communication signal
  • a display processing unit for displaying an event screen for displaying the contents of the event represented by the event information stored in the image and the image stored in the received event notification communication signal.
  • the display processing unit defines a direction from the bottom to the top as the display direction of the display surface when the display surface of the display unit is viewed from the front, and when the area image sensor that generates the image is viewed from the front
  • the direction from the bottom to the top is defined as the image direction of the image
  • the image is displayed on the display unit so that the display direction and the image direction have a predetermined specific relationship.
  • the said terminal device may be one type of apparatus, in this embodiment, the said terminal device is two types of apparatuses, a fixed terminal device and a portable terminal device.
  • the fixed terminal device is fixedly operated, while the portable terminal device is operated by being carried by a supervisor (user) such as a nurse or a caregiver. Since the fixed terminal device and the mobile terminal device are substantially the same, in the following embodiments, the mobile terminal device will be mainly described.
  • FIG. 1 is a diagram illustrating a configuration of a monitored person monitoring system according to the embodiment.
  • FIG. 2 is a diagram showing a configuration of a sensor device in the monitored person monitoring system shown in FIG.
  • FIG. 3 is a diagram for explaining an installation state of the sensor device shown in FIG. 2.
  • FIG. 3A is a view of the room from the side
  • FIG. 3B is a view of the room from the top.
  • FIG. 4 is a diagram illustrating a configuration of the mobile terminal device in the monitored person monitoring system according to the embodiment.
  • the monitored person monitoring system MS in the embodiment includes, for example, as shown in FIG. 1, one or a plurality of sensor devices SU (SU-1 to SU-4), a management server device SV, A fixed terminal device SP, one or a plurality of portable terminal devices TA (TA-1, TA-2), and a private branch exchange (PBX) CX, which are wired or wireless, LAN (Local) It is connected to be communicable via a network (network, communication line) NW such as Area Network.
  • NW network, communication line
  • the network NW may be provided with repeaters such as repeaters, bridges, and routers that relay communication signals.
  • FIG. 1 one or a plurality of sensor devices SU (SU-1 to SU-4), a management server device SV, A fixed terminal device SP, one or a plurality of portable terminal devices TA (TA-1, TA-2), and a private branch exchange (PBX) CX, which are wired or wireless, LAN (Local) It is connected to be communicable via
  • the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, the plurality of portable terminal devices TA-1, TA-2, and the private branch exchange CX include an L2 switch.
  • a wired / wireless LAN for example, a LAN in accordance with the IEEE 802.11 standard
  • NW including the LS and the access point AP.
  • the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, and the private branch exchange CX are connected to the line concentrator LS, and the plurality of portable terminal devices TA-1, TA-2. Is connected to the line concentrator LS via the access point AP.
  • the network NW constitutes a so-called intranet by using Internet protocol groups such as TCP (Transmission control protocol) and IP (Internet protocol).
  • the monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob.
  • the monitored person (person to be watched) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs care due to a decrease in physical ability, a single person living alone, or the like.
  • the monitored person Ob may be a person who needs the detection when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable.
  • the monitored person monitoring system MS is suitably arranged in a building such as a hospital, a welfare facility for the elderly, and a dwelling unit according to the type of the monitored person Ob.
  • the monitored person monitoring system MS is disposed in a building of a care facility that includes a plurality of rooms RM in which a plurality of monitored persons Ob live and a plurality of rooms such as a nurse station.
  • the sensor device SU has a communication function that communicates with other devices SV, SP, TA via the network NW, and sends a predetermined event (event) related to the monitored person Ob to the management server device SV. It is a device to notify.
  • the predetermined event that needs to be dealt with is, for example, a predetermined action and a nurse call set in advance in the monitored person Ob in the present embodiment. For this reason, in this embodiment, the sensor device SU detects a predetermined action in the monitored person Ob, notifies (transmits) the detection result to the management server device SV as an example of the predetermined event, and accepts a nurse call.
  • a device that distributes moving images to TA includes an imaging unit 11, a sensor side sound input / output unit (SU sound input / output unit) 12, a nurse call reception operation unit 13, and a sensor side control process.
  • Unit (SU control processing unit) 14 sensor-side communication interface unit (SU communication IF unit) 15, and sensor-side storage unit (SU storage unit) 16.
  • the imaging unit 11 is an apparatus that is connected to the SU control processing unit 14 and generates an image (image data) under the control of the SU control processing unit 14.
  • the image includes a still image (still image data) and a moving image (moving image data).
  • the imaging unit 11 is arranged so as to be able to monitor a space (location space, in the example shown in FIG. 1, a room (room) RM) where the monitored person Ob to be monitored is planned to be located. Then, the location space is imaged from above, an image (image data) overlooking the imaging target is generated, and the image (target image) of the imaging target is output to the SU control processing unit 14.
  • the sensor device SU is perpendicular to the ceiling CE in the room RM where the monitored person Ob to be monitored is located, as shown in FIG.
  • the photographing direction (the optical axis direction of the imaging optical system) is aligned with the direction (the normal direction on the horizontal ceiling surface of the ceiling).
  • FIG. 3B the position of the sensor device SU when the sensor device SU is projected onto the floor surface of the room RM is indicated by a broken-line rectangle.
  • the sensor device SU is disposed at the center position of the ceiling CE.
  • FIG. 3 the position of the sensor device SU when the sensor device SU is projected onto the floor surface of the room RM is indicated by a broken-line rectangle.
  • the room RM has a rectangular shape in plan view, and has an entrance on one of its short sides, and has a window on the opposite side (the other of the short sides) facing this entrance.
  • a rectangular bedding BD such as a bed is arranged, and a wash basin WS is provided.
  • the bedding BD is arranged so that its longitudinal direction is along the direction of the long side of the room RM, and one of the long sides LL1 of the bedding BD is along the one wall surface of the long side of the room RM. Therefore, the other long side LL2 is a long side that the monitored person Ob crosses when leaving the bed.
  • a pillow PI is placed from the upper end thereof.
  • the wash basin WS is provided on the short-side wall having the entrance of the room RM.
  • the sensor device SU has a preset planned head position (usually a pillow) in which a head of the monitored person Ob is located in a bedding (for example, a bed) BD on which the monitored person Ob lies. You may arrange
  • the sensor device SU uses the imaging unit 11 to acquire an image of the monitored person Ob taken from above the monitored person Ob, preferably an image taken from directly above the planned head position.
  • Such an imaging unit 11 may be a device that generates an image of visible light, but in the present embodiment, it is a device that generates an infrared image so that the monitored person Ob can be monitored even in a relatively dark place.
  • the imaging unit 11 has an imaging optical system that forms an infrared optical image of an imaging target on a predetermined imaging surface, and a light receiving surface that matches the imaging surface.
  • An area image sensor that is arranged and converts an infrared optical image in the imaging target into an electrical signal, and data representing an infrared image in the imaging target by performing image processing on the output of the area image sensor It is a digital infrared camera including an image processing unit that generates image data.
  • the imaging optical system of the imaging unit 11 is preferably a wide-angle optical system (so-called wide-angle lens (including a fisheye lens)) having an angle of view that can image the entire living room RM in which the imaging unit 11 is disposed. .
  • the SU sound input / output unit 12 is a circuit that inputs and outputs sound. That is, the SU sound input / output unit 12 is a circuit that is connected to the SU control processing unit 14 and generates and outputs a sound corresponding to an electrical signal representing sound according to the control of the SU control processing unit 14. It is a circuit for acquiring the sound of and inputting it into the sensor device SU.
  • the SU sound input / output unit 12 includes, for example, a speaker that converts a sound electrical signal (sound data) into a sound mechanical vibration signal (acoustic signal), and a microphone that converts a sound mechanical vibration signal in the audible region into an electrical signal. And so on.
  • the SU sound input / output unit 12 outputs an electric signal representing an external sound to the SU control processing unit 14, converts the electric signal input from the SU control processing unit 14 into a mechanical vibration signal of sound, and outputs the sound.
  • the nurse call reception operation unit 13 is connected to the SU control processing unit 14 and is a switch circuit such as a push button switch for inputting the nurse call to the sensor device SU.
  • the nurse call reception operation unit 13 may be connected to the SU control processing unit 14 by wire, or may be connected to the SU control processing unit 14 by short-range wireless communication such as Bluetooth (registered trademark) standard.
  • the SU communication IF unit 15 is a communication circuit that is connected to the SU control processing unit 14 and performs communication according to the control of the SU control processing unit 14.
  • the SU communication IF unit 15 generates a communication signal containing data to be transferred input from the SU control processing unit 14 in accordance with a communication protocol used in the network NW of the monitored person monitoring system MS, and the generated communication The signal is transmitted to other devices SV, SP, TA via the network NW.
  • the SU communication IF unit 15 receives communication signals from other devices SV, SP, and TA via the network NW, extracts data from the received communication signals, and the SU control processing unit 14 can process the extracted data.
  • the data is converted into data in a proper format and output to the SU control processing unit 14.
  • the SU communication IF unit 15 includes, for example, a communication interface circuit that complies with the IEEE 802.11 standard or the like.
  • the SU storage unit 16 is a circuit that is connected to the SU control processing unit 14 and stores various predetermined programs and various predetermined data under the control of the SU control processing unit 14.
  • Examples of the various predetermined programs include a SU control program that controls each unit of the sensor device SU according to the function of each unit, and a SU monitoring processing program that executes predetermined information processing related to monitoring of the monitored person Ob. And the like.
  • a predetermined action in the monitored person Ob is detected, and a detection result is notified to the predetermined terminal devices SP and TA via the management server device SV as an example of the predetermined event.
  • a nurse call processing program for making a voice call with the terminal devices SP and TA a SU streaming processing program for streaming the moving image generated by the imaging unit 11 to the terminal devices SP and TA that requested the moving image, and the like. included.
  • each program such as a sensor device identifier (sensor ID) that is an identifier for identifying and identifying the sensor device SU of the own device and a communication address of the management server device SV is executed. Data necessary for doing this is included.
  • the SU storage unit 16 includes, for example, a ROM (Read Only Memory) that is a nonvolatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable nonvolatile storage element, and the like.
  • the SU storage unit 16 includes a RAM (Random Access Memory) that serves as a working memory of the so-called SU control processing unit 14 that stores data generated during the execution of the predetermined program.
  • the SU control processing unit 14 controls each unit of the sensor device SU according to the function of each unit, and notifies the management server device SV of predetermined events (events) related to the monitored person Ob. It is a circuit for. More specifically, in the present embodiment, the SU control processing unit 14 detects a predetermined action in the monitored person Ob and notifies the management server device SV of the detection result as an example of the predetermined event (notification, The nurse call is received, the nurse call is notified (notified and transmitted) to the management server device SV as another example of the predetermined event, a voice call is performed between the terminal devices SP and TA, and a moving image is transmitted. Is generated and a moving image is distributed to the terminal devices SP and TA.
  • the SU control processing unit 14 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits.
  • the SU control processing unit 14 executes a sensor processing unit (SU control unit) 141, a behavior detection processing unit 142, a nurse call processing unit 143, and a sensor side streaming processing unit (SU streaming processing) by executing the control processing program.
  • Part) 144 is functionally provided.
  • the SU control unit 141 controls each part of the sensor device SU according to the function of each part, and governs overall control of the sensor device SU.
  • the behavior detection processing unit 142 detects a predetermined behavior set in advance in the monitored person Ob and notifies the management server device SV of a detection result as an example of the predetermined event. More specifically, in the present embodiment, the predetermined action includes, for example, wake-up when the monitored person Ob occurred, leaving the monitored person Ob away from the bedding, falling down when the monitored person Ob fell from the bedding, And four actions of the fall where the monitored person Ob fell.
  • the behavior detection processing unit 142 detects the head of the monitored person Ob based on the target image captured by the imaging unit 11, and based on the temporal change in the size of the detected head of the monitored person Ob. Detects the monitored person's getting up, getting out of bed, falling and falling.
  • the location area of the bedding BD and the first to third threshold values Th1 to Th3 are stored in advance in the SU storage unit 16 as one of the various predetermined data.
  • the first threshold value Th1 is a value for identifying the size of the head in the lying posture and the size of the head in the sitting posture in the region where the bedding BD is located.
  • the second threshold Th2 is a value for identifying whether or not the head is in the standing posture in the living room RM excluding the region where the bedding BD is located.
  • the third threshold Th3 is a value for identifying whether or not the head is in the lying position in the living room RM excluding the area where the bedding BD is located.
  • the behavior detection processing unit 142 first extracts a moving object region from the target image as a person region of the monitored person Ob, for example, by a background difference method or a frame difference method. Next, the behavior detection processing unit 142 uses, for example, a circular or elliptical Hough transform from the extracted moving object region, for example, by pattern matching using a head model prepared in advance, or for example, for head detection.
  • the head region of the monitored person Ob is extracted by the neural network learned in step (b). And the action detection process part 142 detects awakening, getting out of bed, falling, and falling from the position and magnitude
  • the behavior detection processing unit determines that the position of the extracted head is within the region where the bedding BD is located, and the size of the extracted head is determined from the size of the lying posture by using the first threshold Th1.
  • the time changes to the size of the sitting posture it is determined that the user gets up and the rising is detected.
  • the behavior detection processing unit 142 is a case where the position of the extracted head changes over time from the location of the bedding BD to the outside of the location of the bedding, and the size of the extracted head is the second size.
  • Th is changed from a certain size to the size of the standing posture by using the threshold Th2
  • the behavior detection processing unit 142 is a case where the position of the extracted head changes over time from the location where the bedding BD is located to the outside of the location where the bedding BD is located, and the size of the extracted head is the first size.
  • the behavior detection processing unit 142 uses the third threshold value Th3 when the extracted head position is in the room RM excluding the location area of the bedding BD and the extracted head size is the third threshold Th3.
  • the time changes from the size to the size of the recumbent posture it is determined that the vehicle has fallen, and the fall is detected.
  • the behavior detection processing unit 142 When the predetermined behavior is detected in this way, the behavior detection processing unit 142 notifies the event containing event information (event information) representing the content of the predetermined event (phenomenon) related to the monitored person Ob.
  • the first event notification communication signal is notified to the management server device SV by the SU communication IF unit 15. More specifically, the behavior detection processing unit 142 is a communication signal (first event notification communication signal) containing a sensor ID of the own device, event information indicating the content of the event, and a target image used for detection of the predetermined behavior. ) Is transmitted to the management server device SV via the SU communication IF unit 15.
  • the event information is one or more of getting up, getting out of bed, falling, falling, and nurse call (NC).
  • the image may be at least one of a still image and a moving image.
  • a still image is notified, and the moving image is distributed in response to a user request.
  • a moving image may be distributed, a still image and a moving image may be transmitted, and the still image and the moving image may be displayed on the terminal devices SP and TA by screen division.
  • the nurse call processing unit 143 notifies the management server device SV of a first event notification communication signal accommodated as another example of the predetermined event when the nurse call reception operation unit 13 receives a nurse call.
  • a voice call is performed with the terminal devices SP and TA by using the SU sound input / output unit 12 or the like. More specifically, when the nurse call reception operation unit 13 is input and operated, the nurse call processing unit 143 transmits the first event notification communication signal containing the nurse call as the sensor ID of the own device and the event information as the SU communication.
  • the data is transmitted to the management server device SV via the IF unit 15.
  • the nurse call processing unit 143 uses the SU sound input / output unit 12 and the like to perform a voice call with the terminal devices SP and TA by, for example, VoIP (Voice over Internet Protocol).
  • VoIP Voice over Internet Protocol
  • the SU streaming processing unit 144 sends the request to the fixed terminal device SP or the portable terminal device TA that has made the request.
  • the moving image generated by the imaging unit 11 (for example, a live moving image) is distributed via the SU communication IF unit 15 by streaming reproduction.
  • FIG. 1 shows four first to fourth sensor devices SU-1 to SU-4 as an example, and the first sensor device SU-1 is one of the monitored persons Ob.
  • the second sensor device SU-2 is arranged in a room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob.
  • the third sensor device SU-3 is disposed in the room RM-3 (not shown) of Mr. C Ob-3, one of the monitored subjects Ob, and the fourth sensor device SU-4 It is arranged in the room RM-4 (not shown) of Mr. D Ob-4, one of the monitored persons Ob.
  • the management server device SV has a communication function for communicating with other devices SU, TA, and SP via the network NW.
  • the management server device SV Monitoring information (in the present embodiment, for example, the predetermined event (the type of the predetermined action detected by the sensor device SU or the nurse call received by the sensor device SU), the image (still image and moving image) of the monitored person Ob, and The time when the notification is received is managed, the predetermined event is notified (re-notification, re-notification, transmission) to the predetermined terminal device SP, TA, and the client (the terminal device SP, TA, etc. in this embodiment) Is a device that provides data corresponding to the request to the client and manages the monitored person monitoring system MS as a whole.
  • the management server device SV is a correspondence relationship between the notification source sensor device SU (sensor ID) and the notification destination (re-notification destination) terminal device SP, TA (terminal ID) (notification destination correspondence relationship). ), And the correspondence relationship (communication address correspondence relationship) between each device SU, SP, TA (each ID) and its communication address is stored in advance.
  • the terminal ID is an identifier for identifying and identifying the terminal devices SP and TA.
  • the recorded data is stored (recorded) as monitoring information of the monitored person Ob in association with each other.
  • the management server device SV identifies the notification destination terminal device SP, TA corresponding to the notification source sensor device SU in the received first event notification communication signal from the notification destination correspondence relationship, and the notification destination A second event notification communication signal is transmitted to the terminal devices SP and TA.
  • the second event notification communication signal if the event information accommodated in the received first event notification communication signal is the predetermined action, the sensor accommodated in the received first event notification communication signal.
  • a communication address is accommodated.
  • the communication address is obtained from the communication address correspondence relationship.
  • the management server device SV includes the sensor ID and the event information accommodated in the received first event notification communication signal. (Nurse call reception) is accommodated. Even if the second event notification communication signal related to the nurse call contains a communication address corresponding to the sensor device SU having the sensor ID stored in the received first event notification communication signal as the download destination of the moving image. good.
  • the management server device SV provides the client with data corresponding to the request of the client (terminal device SP, TA, etc. in this embodiment).
  • Such a management server device SV can be configured by, for example, a computer with a communication function.
  • the fixed terminal device SP includes a communication function for communicating with other devices SU, SV, TA via the network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and the like.
  • the user interface (UI) of the monitored person monitoring system MS is input by inputting predetermined instructions and data to be given to the management server device SV and the portable terminal device TA, or displaying the monitoring information obtained by the sensor device SU. ).
  • Such a fixed terminal device SP can be configured by, for example, a computer with a communication function.
  • the fixed terminal device SP as an example of the terminal device operates in the same manner as the mobile terminal device TA. However, in this specification, a mobile terminal device TA that is another example of the terminal device will be described.
  • the mobile terminal device TA has a communication function for communicating with other devices SV, SP, SU via the network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and a voice call. Including a call function to perform, inputting a predetermined instruction or data to be given to the management server device SV or the sensor device SU, displaying the monitoring information obtained by the sensor device SU by a notification from the management server device SV, This is a device for making a nurse call response or calling a voice call with the sensor device SU. In the present embodiment, for example, as shown in FIG.
  • such a portable terminal device TA includes a terminal-side communication interface unit (TA communication IF unit) 31, a terminal-side control processing unit (TA control processing unit) 32, and A terminal side storage unit (TA storage unit) 33, a terminal side sound input / output unit (TA sound input / output unit) 34, a terminal side input unit (TA input unit) 35, and a terminal side display unit (TA display unit). 36 and a terminal-side interface unit (TAIF unit) 37.
  • the TA sound input / output unit 34 is connected to the TA control processing unit 32, and is a circuit for acquiring external sound and inputting it to the portable terminal device TA. It is a circuit for generating and outputting a sound corresponding to an electrical signal representing a sound according to the control of the processing unit 32.
  • the TA input unit 35 is connected to the TA control processing unit 32 and is, for example, a circuit that accepts a predetermined operation and inputs it to the mobile terminal device TA, for example, a plurality of input switches assigned with a predetermined function.
  • a predetermined operation for example, an ID input operation for logging in or a specific relationship between the display direction of the TA display unit 36 and the image direction of the image is set with respect to the arrangement mode of the sensor device SU. For example, life-saving, nursing, nursing care, assistance, etc.
  • the TA display unit 36 is connected to the TA control processing unit 32, and under the control of the TA control processing unit 32, the predetermined operation content input from the TA input unit 35 and the monitored target MS monitored by the monitored person monitoring system MS.
  • the monitoring information related to the monitoring of the observer Ob for example, the predetermined event (the type of the predetermined action detected by the sensor device SU or the nurse call received by the sensor device SU), the image of the monitored person Ob (still image and moving image)) , And the time when the notification is received), and the like, for example, display devices such as an LCD (Liquid Crystal Display) and an organic EL display.
  • display devices such as an LCD (Liquid Crystal Display) and an organic EL display.
  • the TA input unit 35 and the TA display unit 36 constitute a touch panel.
  • the TA input unit 35 is a position input device that detects and inputs an operation position such as a resistance film method or a capacitance method.
  • a position input device is provided on the display surface of the TA display unit 36, and one or more input content candidates that can be input are displayed on the TA display unit 36.
  • a user such as a nurse or a caregiver ( When the monitor) touches the display position where the input content to be input is displayed, the position is detected by the position input device, and the display content displayed at the detected position is input to the portable terminal device TA as the operation input content of the user. Entered.
  • the TAIF unit 37 is a circuit that is connected to the TA control processing unit 32 and inputs / outputs data to / from an external device according to the control of the TA control processing unit 32.
  • the TAIF unit 37 uses the Bluetooth (registered trademark) standard.
  • An interface circuit, an interface circuit that performs infrared communication such as the IrDA standard, and an interface circuit that uses the USB standard are examples of the Bluetooth (registered trademark) standard.
  • the TA communication IF unit 31 is a communication circuit that is connected to the TA control processing unit 32 and performs communication according to the control of the TA control processing unit 32, similarly to the SU communication IF unit 15.
  • the TA communication IF unit 31 includes, for example, a communication interface circuit that conforms to the IEEE 802.11 standard or the like.
  • the TA storage unit 33 is a circuit that is connected to the TA control processing unit 32 and stores various predetermined programs and various predetermined data under the control of the TA control processing unit 32.
  • the various predetermined programs include a TA control program for controlling each part of the mobile terminal device TA according to the function of each part, and a TA monitoring process for executing predetermined information processing related to monitoring of the monitored person Ob.
  • a control processing program such as a TA streaming processing program displayed on the TA display unit 36 is included.
  • the TA monitoring processing program when the second event notification communication signal transmitted from the management server device SV due to the first event notification communication signal transmitted from the sensor device SU is received by the TA communication IF unit 31, An event screen for displaying the contents of the event represented by the event information accommodated in the received second event notification communication signal and an image accommodated in the received second event notification communication signal (for example, monitoring described later) A display processing program for displaying the information screen 52, nurse call reception screen 53, etc.) on the TA display unit 36. In the various predetermined data, it is necessary to execute each program such as the terminal ID of the own device, the screen information displayed on the TA display unit 36, the monitoring information of the monitored person Ob, and the sensor information related to the sensor device SU. Data.
  • the TA storage unit 33 includes, for example, a ROM and an EEPROM.
  • the TA storage unit 33 includes a RAM serving as a working memory for the so-called TA control processing unit 32 that stores data generated during execution of the predetermined program.
  • the TA storage unit 33 functions as a terminal side monitoring information storage unit (TA monitoring information storage unit) 331 and a terminal side sensor information storage unit (TA sensor information storage unit) 332. Be prepared.
  • the TA monitoring information storage unit 331 stores the monitoring information.
  • the TA monitoring information storage unit 331 uses the sensor ID and event information (event information, wake-up in this embodiment,
  • the communication address of the sensor device SU to which images and moving images are downloaded, the reception time of the second event notification communication signal, the presence or absence of countermeasures, and the like are stored in association with each other.
  • this monitoring information is stored in the TA monitoring information storage unit 331 in a table format.
  • the terminal-side monitoring information table (TA monitoring information table) MT for registering the monitoring information includes, for example, a sensor ID field 3311 for registering a sensor ID accommodated in a communication signal and the received communication as shown in FIG.
  • An event field (event field) 3312 for registering event information accommodated in the signal, a reception time field 3313 for registering the reception time of the received communication signal, and the still image accommodated in the received communication signal are registered.
  • a still image field 3314 to be registered a moving image field 3315 for registering a communication address (for example, an IP address) of the sensor device SU corresponding to the sensor ID accommodated in the received communication signal, as the acquisition destination of the live video, and the reception Registration of whether or not to accept event information contained in the received communication signal That a corresponding field 3316 includes a record for each communication signal thus received (for each event).
  • a corresponding field 3316 includes a record for each communication signal thus received (for each event).
  • still image field 3314 for example, still image data may be registered, and for example, a file name of still image data may be registered.
  • the terminal devices SP and TA accept that there is an intention (“corresponding”) to handle (corresponding, treating, or taking measures) the event information accommodated in the received communication signal.
  • the correspondence field 3316 indicates that there is an intention to deal with event information (event information registered in the event field 3312) contained in the received communication signal (“corresponding”).
  • the terminal device SP or TA indicates that the corresponding flag “1” means that it has been received by the devices SP and TA, or the intention to deal with the event information contained in the received communication signal (“corresponding”).
  • Corresponding flag “0” meaning that it is not accepted is registered.
  • the correspondence field “3316” is registered with a correspondence flag “0” meaning “not accepted”.
  • the TA sensor information storage unit 332 stores the sensor information.
  • the sensor information is information related to the sensor device SU, and the sensor ID of the sensor device SU, the location of the sensor device SU, the monitored subject name of the monitored subject Ob monitored by the sensor device SU, and direction alignment information Is information associated with each other.
  • the direction alignment information displays an image on the TA display unit 36 such that the display direction of the display surface in the TA display unit 36 and the image direction of the image generated by the area image sensor have a predetermined specific relationship. It is information to do.
  • rotation angle information representing the rotation angle of the rotation when the image is rotated and displayed on the TA display unit 36 is used as the direction alignment information.
  • the display direction of the display surface is a direction from bottom to top when the display surface of the TA display unit 36 is viewed from the front.
  • the image direction of the image is a direction from bottom to top when the area image sensor that generates the image is viewed from the front.
  • the terminal-side sensor information table (TA sensor information table) ST for registering sensor information includes, for example, a sensor ID field 3321 for registering a sensor ID and the sensor ID field 3321 as shown in FIG.
  • An installation location field 3322 for registering an installation location of the sensor device SU having the sensor ID registered in the sensor ID and a monitored person monitored by the sensor device SU having the sensor ID registered in the sensor ID field 3321
  • a monitored person name field 3323 for registering a monitored person name of Ob (that is, a monitored person Ob at the location of the sensor device SU having the sensor ID registered in the sensor ID field 3321), and the sensor The sensor device SU having the sensor ID registered in the ID field 3321 will be described later.
  • an orienting information field 3324 for registering the orienting information set to have a record for each sensor ID (i.e., sensor devices SU).
  • the TA sensor information storage unit 332 displays the image on the TA display unit 36 so that the display direction of the display surface and the image direction of the image have the specific relationship.
  • This corresponds to an example of a direction alignment information storage unit that stores direction alignment information that is information.
  • the TA control processing unit 32 is a circuit for controlling each unit of the mobile terminal device TA according to the function of each unit, receiving and displaying the monitoring information of the monitored person Ob, and answering or calling a nurse call. It is.
  • the TA control processing unit 32 includes, for example, a CPU and its peripheral circuits.
  • the TA control processing unit 32 executes a terminal processing unit (TA control unit) 321, a terminal side monitoring processing unit (TA monitoring processing unit) 322, a call processing unit 323, and a terminal side streaming process by executing a control processing program.
  • Unit (TA streaming processing unit) 324 functionally, and the TA monitoring processing unit 322 functionally includes a display processing unit 3221.
  • the TA control unit 321 controls each part of the mobile terminal apparatus TA according to the function of each part, and controls the entire mobile terminal apparatus TA.
  • the TA monitoring processing unit 322 executes predetermined information processing related to monitoring of the monitored person Ob. More specifically, when the TA monitoring processor 322 receives the second event notification communication signal transmitted by the management server device SV due to the first event notification communication signal transmitted by the sensor device SU. The monitoring information of the monitored person Ob is stored (recorded) in the TA monitoring information storage unit 331 based on each information (each data) accommodated in the received second event notification communication signal. The TA monitoring processing unit 322 causes the display processing unit 3221 to display a screen corresponding to each piece of information contained in the received second event notification communication signal on the TA display unit 36.
  • the display processing unit 3221 notifies the event containing the event information indicating the content of the predetermined event related to the monitored person Ob and the target image of the monitored person Ob related to the event.
  • the second event notification communication signal is received by the TA communication IF unit 31
  • An event screen for displaying the target image contained in the signal is displayed on the TA display unit 36.
  • the event screen is a monitoring information screen 52, a nurse call reception screen, or the like, which will be described later.
  • the display processing unit 3221 displays the image on the TA display unit 36 so that the display direction of the display surface and the image direction of the image have a predetermined specific relationship. More specifically, the display processing unit 3221 corresponds to the sensor device SU related to the second event notification communication signal containing the image when displaying the image (that is, the received second event notification communication signal is received). Based on the direction alignment information stored in the TA sensor information storage unit 332), the display direction of the display surface and the image direction of the image are determined based on the orientation information stored in the TA sensor information storage unit 332). The image is displayed on the TA display unit 36 so that the relationship is established.
  • rotation angle information is used as the direction alignment information, so the display processing unit 3221 has a sensor having a sensor ID accommodated in the received second event notification communication signal.
  • the display direction of the display surface is rotated by rotating the image displayed on the TA display unit 36 based on the rotation angle information stored in the TA sensor information storage unit 332 as the direction alignment information corresponding to the device SU.
  • the image direction of the image are displayed on the TA display unit 36 such that the specific relationship is established.
  • the specific relationship may be an arbitrary relationship.
  • the specific relationship of the first aspect is a first relationship in which the bedding direction matches the display direction when a direction from the lower end to the upper end of the bedding BT shown in the image is defined as the bedding direction.
  • the specific relationship of the second aspect is that, when the direction from the entrance side to the facing side facing the entrance is defined as the room direction in the room RM shown in the image, the room direction is the display. A second relationship that matches the direction.
  • the specific relationship of the third aspect is a third relationship in which the long side LL2 in the bedding BD that appears in the image and the long side LL2 that the monitored person Ob exceeds when leaving the bed is along the display direction, Or, the long side LL2 is a fourth relationship orthogonal to the display direction.
  • the specific relationship of the first aspect is also the specific relationship of the second aspect, and further, the long side LL2 is a fourth relationship orthogonal to the display direction. Except for the specific relationship of the third aspect.
  • the TA monitoring processing unit 322 executes a predetermined process corresponding to the input operation.
  • the call processing unit 323 performs a voice call with the sensor device SU by using the TA sound input / output unit 34 or the like. More specifically, the call processing unit 323 uses the TA sound input / output unit 34 or the like to transmit the first event notification communication signal that has caused the transmission of the second event notification communication signal to the management server device SV. For example, a voice call is performed with the original sensor device SU by VoIP.
  • the TA streaming processing unit 324 receives the distribution of the moving image from the sensor device SU, and displays the distributed moving image on the TA display unit 36 by streaming reproduction.
  • Such a portable terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.
  • each device SU, SV, SP, TA performs initialization of each necessary unit and starts its operation when the power is turned on.
  • the SU control processing unit 14 is functionally configured with a SU control unit 141, a behavior detection processing unit 142, a nurse call processing unit 143, and a SU streaming processing unit 144.
  • the TA control processing unit 32 is functionally configured with a TA control unit 321, a TA monitoring processing unit 322, a call processing unit 323, and a TA streaming processing unit 324 by executing the control processing program.
  • a display processing unit 3221 is functionally configured in the TA monitoring control unit 322.
  • the monitored person monitoring system MS having the above configuration generally monitors each monitored person Ob by the following operation.
  • the sensor device SU operates in the following manner for each frame or every several frames, thereby detecting a predetermined operation in the monitored person Ob and determining whether or not a nurse call is accepted.
  • the sensor device SU acquires an image (image data) for one frame from the imaging unit 11 as a target image by the SU control unit 141 of the SU control processing unit 14, and the behavior detection processing unit 142 acquires the acquired image.
  • the predetermined action detected as the event information in order to detect a predetermined action in the monitored person Ob based on the target image and to notify the predetermined terminal device SP, TA when the predetermined action is detected.
  • the first event notification communication signal for the detection of the predetermined action that contains the action is transmitted to the management server device SV.
  • the sensor device SU determines whether or not the nurse call accepting operation unit 13 accepts the nurse call by the nurse call processing unit 143. When the nurse call is accepted, the nurse call is received. Sensor device SU manages the first event notification communication signal related to the reception of the nurse call, which accommodates the received nurse call as the event information. Transmit to server device SV.
  • each information such as the sensor ID and the event information accommodated in the first event notification communication signal is stored in the sensor ID. Is stored (recorded) as monitoring information of the monitored person Ob monitored by the sensor device SU having Then, the management server device SV identifies the notification destination terminal devices SP and TA corresponding to the notification source sensor device SU in the received first event notification communication signal from the notification destination correspondence relationship, and A second event notification communication signal is transmitted to the terminal devices SP and TA.
  • the fixed terminal device SP and the portable terminal device TAa When the fixed terminal device SP and the portable terminal device TAa receive the second event notification communication signal from the management server device SV via the network NW, the fixed terminal device SP and the portable terminal device TAa relate to monitoring the monitored subject Ob accommodated in the second event notification communication signal.
  • the monitoring information is displayed.
  • the operation of displaying the monitoring information by the mobile terminal device TA will be described in detail below.
  • the monitored person monitoring system MS roughly detects a predetermined action in each monitored person Ob by each sensor device SU, management server device SV, fixed terminal device SP, and portable terminal device TA, A nurse call is accepted and each monitored person Ob is monitored.
  • the operation of the terminal devices SP and TA in the monitored person monitoring system MS will be described.
  • the operation of the mobile terminal device TA will be described.
  • FIG. 7 is a flowchart showing the operation of the setting process in the mobile terminal device shown in FIG.
  • FIG. 8 is a flowchart showing the operation of the monitoring process in the mobile terminal device shown in FIG.
  • FIG. 9 is a diagram showing an example of a sensor device selection screen for setting processing displayed on the mobile terminal device shown in FIG.
  • FIG. 10 is a diagram illustrating an example of an alignment information setting screen (angle information setting screen) for setting processing displayed on the mobile terminal device illustrated in FIG.
  • FIG. 11 is a diagram illustrating an example of a standby screen displayed on the mobile terminal device illustrated in FIG. 4.
  • FIG. 12 is a diagram illustrating an example of a monitoring information screen displayed on the mobile terminal device illustrated in FIG. 4.
  • FIG. 13 is a diagram illustrating an example of a nurse call reception screen displayed on the mobile terminal device illustrated in FIG. 4.
  • the portable terminal device TA accepts a login operation by a monitor (user) such as a nurse or a caregiver, and the display process of the TA monitor processing unit 322 is performed.
  • a standby screen waiting for a communication signal addressed to the own device is displayed on the TA display unit 36.
  • the standby screen 51 includes a menu bar area 511 for displaying a menu bar, and a standby main area for displaying a message indicating that the user is waiting (for example, “no notification”) and an icon.
  • the menu bar area 511 is provided with a setting button 5111 for setting direction alignment information (rotation angle information in the present embodiment).
  • This setting processing is performed, for example, at the timing before the monitored person monitoring system MS is in operation, the timing after the replacement of the sensor device SU after the operation, the timing after the addition of the sensor device SU after the operation, etc. Is done.
  • the mobile terminal device TA is set on the above-described standby screen 51, the monitoring information screen 52 described later, the nurse call reception screen 53, and the like by the TA control unit 321 of the TA control processing unit 32.
  • the TA monitoring processing unit 322 of the TA control processing unit 32 executes a selection process for selecting (specifying) the sensor device SU that is the setting target of the direction alignment information (S12). .
  • the TA monitoring processing unit 322 first displays a sensor device selection screen for selecting (specifying) the sensor device SU that is the setting target of the direction alignment information by the display processing unit 3221.
  • the sensor device selection screen 54 includes a menu bar region 511 and a sensor device selection region 541 for selecting (specifying) and inputting a sensor device SU that is a setting target of direction alignment information.
  • the sensor device selection area 541 displays a list of sensor devices SU of the monitored person monitoring system MS.
  • the sensor device SU may be represented by the sensor ID, in the example illustrated in FIG. 9, the sensor device SU is represented by the installation location so that the sensor device SU to be set can be easily understood.
  • the display processing unit 3221 refers to the TA sensor information table ST stored in the TA sensor information storage unit 332, and in order from the first row record to the last row record, the sensor ID field 3221 and the arrangement location.
  • Each piece of information registered in each field 3322 is extracted, and the arrangement location is displayed in order from the first line 5411-1 in the sensor device selection area 541 while associating the sensor ID with the corresponding line.
  • the first line 5411-1 of the sensor device selection area 541 is associated with the sensor ID “SU-1”, “Room 101” is displayed, and for example, the sensor device selection In the second line 5411-2 of the area 541, the sensor ID “SU-2” is associated and “Room 102” is displayed.
  • Each row 5411-1 to 5411-4 of the sensor device selection area 541 is a selection button 5411 for selecting and inputting the sensor device SU of the row 5411.
  • the portable terminal device TA uses the TA monitoring processing unit 322 to set direction alignment information for setting the direction alignment information for the sensor device SU corresponding to the selection button that has accepted the input operation. Processing is executed (S13).
  • the TA monitoring processing unit 322 first outputs direction alignment information to the sensor device SU corresponding to the selection button 5411 that has received an input operation by the display processing unit 3221.
  • the direction alignment information setting screen 55 is configured to display a menu bar area 511 and an image generated by the imaging unit 11 of the sensor device SU corresponding to the selection button that has accepted the input operation.
  • a target image display area 551 and a direction alignment information input button 552 for inputting direction alignment information are provided.
  • the TA monitoring processing unit 322 corresponds to the selection button 5411 that has accepted the input operation.
  • a communication signal (first setting target image request communication signal) for requesting an image from the sensor device SU is transmitted to the management server device SV.
  • the first setting target image request communication signal contains the terminal ID of the own device, the sensor ID corresponding to the selection button 5411 that has accepted the input operation, and a command (image request command) for requesting an image.
  • the management server device SV that has received the first setting target image request communication signal from the mobile terminal device TA requests an image from the sensor device SU having the sensor ID contained in the received first setting target image request communication signal.
  • the Communication signal (second setting target image request communication signal) is transmitted to the sensor device SU.
  • the second setting target image request communication signal contains the terminal ID, sensor ID, and image request command contained in the received first setting target image request communication signal.
  • the sensor device SU that has received the second setting target image request communication signal from the management server device SV generates an image (setting target image) in the imaging unit 11 and returns the requested image (first signal).
  • 1 setting target image reply communication signal is transmitted to the monitoring server device.
  • the first setting target image reply communication signal contains the sensor ID of the own device, and the terminal ID and setting target image contained in the received second setting target image request communication signal.
  • the management server device SV that has received the first setting target image reply communication signal from the sensor device SU sets the setting target image to the terminal devices SP and TA having the terminal ID accommodated in the received first setting target image reply communication signal. Is transmitted to the terminal devices SP and TA.
  • the second setting target image reply communication signal contains the sensor ID, terminal ID, and setting target image contained in the received first setting target image reply communication signal.
  • the mobile terminal apparatus TA acquires the setting target image to be displayed in the setting target image display area 551 by receiving the second setting target image reply communication signal from the management server apparatus SV. Then, the display processing unit 3221 displays the direction alignment information setting screen 55.
  • the direction alignment information input button 552 includes a “0 °” button 552-1 that rotates the image clockwise by 0 degrees (ie, a “0 °” button 552-1 that does not rotate the image), and an image that is rotated 90 degrees clockwise.
  • a “90 °” button 552-2 that rotates the image by a degree
  • a “180 °” button 552-3 that rotates the image by 180 degrees clockwise
  • a “270 °” button 552 that rotates the image by 270 degrees clockwise. -4.
  • the direction alignment information setting screen 55 may be configured to directly input the numerical value of the rotation angle.
  • the TA monitoring processing unit 322 determines the rotation angle of the direction alignment information input button 552 that has received this input operation as direction alignment information (in the present embodiment, the rotation angle is aligned).
  • direction alignment information in the present embodiment, the rotation angle is aligned.
  • Rotation angle information which is an example of information
  • the TA monitoring processing unit 322 displays the sensor ID corresponding to the selection button 5411 that has received the input operation from the TA sensor information table ST stored in the TA sensor information storage unit 332, in the sensor ID field 3221.
  • the rotation angle of the direction alignment information input button 552 that has accepted the input operation is registered in the direction alignment information field 3324 of the retrieved record, and stored in the TA sensor information storage unit 332.
  • the existing TA sensor information table ST is updated.
  • the sensor device SU is arranged by construction so that the lower side of the area image sensor of the imaging unit 11 is the left wall side when viewed from the arrangement position of the entrance of the room RM.
  • the setting target image display area 551 of the direction alignment information setting screen 55 in the mobile terminal device TA arranged in a regular arrangement mode, as shown in FIG.
  • the setting target image positioned below the display surface is displayed.
  • the display direction and the image direction have a specific relationship of the first aspect, that is, the first relationship in which the bedding direction matches the display direction.
  • the user inputs a “90 °” button 552-2 to rotate the setting target image by 90 degrees clockwise.
  • the TA monitoring processing unit 322 is an example of the direction alignment information on the rotation angle 90 degrees of the “90 °” button 552-2 that has received the input operation.
  • the rotation angle information is stored in the TA sensor information storage unit 332 in association with the sensor device SU (sensor ID) corresponding to the selection button 5411 that has accepted the input operation. Accordingly, in the monitoring process described later, an image is displayed in the image area 523 of the monitoring information screen 52 so that the bedding direction matches the display direction as shown in FIG.
  • the sensor device SU when the sensor device SU is installed by construction so that the lower side of the area image sensor of the imaging unit 11 is the opposite side when viewed from the position of the entrance of the room RM.
  • the setting target image display area 551 of the direction alignment information setting screen 55 in the mobile terminal device TA arranged in a regular arrangement mode, as shown in FIG.
  • the setting target image positioned below is displayed.
  • the TA monitoring processing unit 322 uses the rotation angle 180 degrees of the “180 °” button 552-3 that has received the input operation as rotation angle information. Is stored in the TA sensor information storage unit 332 in association with the sensor device SU (sensor ID) corresponding to the selection button 5411. Accordingly, in the monitoring process described later, an image is displayed in the image area 523 of the monitoring information screen 52 so that the bedding direction matches the display direction as shown in FIG.
  • the specific relationship is the first relationship.
  • the specific relationship is also the second and third relationships. Is a description when the relationship is the second relationship, and also when the specific relationship is the third relationship. Further, the direction alignment information may be set so that the specific relationship is the fourth relationship.
  • the portable terminal device TA determines whether or not the TA control processing unit 32 has received an instruction to return to the selection process of the sensor device SU during a preset predetermined time. If, as a result of this determination, an instruction to return to the selection process of the sensor device SU is received (Yes), the process returns to the process S12, while an instruction to return to the selection process of the sensor device SU is received during the predetermined time. If not (No), the process S15 is executed next. For example, when receiving an input operation of the return button 553 for inputting an instruction to return to the previous screen shown in FIG. 10, the TA control processing unit 32 determines that an instruction to return to the selection process of the sensor device SU has been received. .
  • the mobile terminal apparatus TA determines whether or not the TA control processing unit 32 has received an instruction to end the setting process during a predetermined time set in advance, and as a result of this determination, the setting process ends. If an instruction to do so has been received (Yes), the present process is terminated. On the other hand, if an instruction to end the setting process has not been received during the predetermined time (No), the process returns to S14. For example, when receiving an input operation of the home button 554 for inputting an instruction to return to the home screen illustrated in FIG. 10, the TA control processing unit 32 determines that the setting process is ended, ends the present process, and sets the setting button 5111. A screen that accepts the input operation, for example, a standby screen 51 is displayed.
  • the direction alignment information is set in the mobile terminal device TA in association with the sensor device SU.
  • the mobile terminal device TA returns the process to S31, and as a result of the determination, when the communication signal is received (Yes), The portable terminal device TA executes the following process S32. That is, the mobile terminal device TA is waiting for reception of a communication signal.
  • the portable terminal device TA determines the type of the received communication signal by the TA control unit 321. As a result of this determination, when the communication signal received in the process S31 is the second event notification communication signal (second event notification), the portable terminal device TA executes the next process S33, and in the process S31. When the received communication signal is not the second event notification communication signal (others), the process ends after executing the process S37 for performing an appropriate process according to the communication signal received in the process S31.
  • the communication signal received in the process S31 is the second event notification communication signal (second event notification)
  • the portable terminal device TA executes the next process S33, and in the process S31.
  • the process ends after executing the process S37 for performing an appropriate process according to the communication signal received in the process S31.
  • the mobile terminal device TA monitors the monitored person Ob contained in the second event notification communication signal received from the management server apparatus SV in the process S31 by the TA monitoring processing unit 322 of the TA control processing unit 32. Is stored (recorded) in the TA monitoring information storage unit 331.
  • the TA monitoring processing unit 322 causes the display processing unit 3221 to display a screen corresponding to each piece of information contained in the second event notification communication signal received in processing S31 on the TA display unit 36. More specifically, when the event information contained in the second event notification communication signal received in step S31 is the predetermined action, the display processing unit 3221, for example, the monitoring information screen 52 illustrated in FIG. Is displayed on the TA display unit 36. On the other hand, when the event information accommodated in the second event notification communication signal received in the process S31 is the nurse call, a nurse call reception screen 53 shown in FIG. The information is displayed on the TA display unit 36.
  • the monitoring information screen 52 is a screen for displaying the monitoring information related to the monitoring of the monitored person Ob.
  • the monitoring information screen 52 includes a menu bar area 511, an arrangement location of the sensor device SU having a sensor ID accommodated in the second event notification communication signal received in the process S ⁇ b> 31, and the The monitored person name area 521 for displaying the name of the monitored person Ob monitored by the sensor device SU having the sensor ID, and the reception time of the second event notification communication signal received in the process S31 (or the predetermined action)
  • a detection information display area 522 for displaying the elapsed time from the (detection time) and the event information (the detection result of the predetermined action) contained in the second event notification communication signal received in the process S31, and the process S31.
  • the second event notification communication signal (that is, the target image captured by the sensor device SU having the sensor ID) ) (Here includes an image area 523 for displaying a still image), "corresponding” button 524, a “talk” button 525, a “See LIVE” button 526, a "Temporary OFF” button 527.
  • the TA storage unit 33 In order to display the installation location of the sensor device SU and the name of the monitored subject Ob in the monitored person name area 521, the TA storage unit 33 displays the installation location of the sensor device SU having the sensor ID and the sensor ID. And the name of the monitored person Ob monitored by the sensor device SU having the sensor ID is stored in advance in association with each other.
  • the detection results in this embodiment, names of getting up, getting out of bed, falling down, and falling down
  • the second event notification communication signal received in step S31 may be displayed as they are. However, in this embodiment, it is displayed with an icon that symbolically represents the detection result.
  • the TA storage unit 33 stores each action and an icon representative of the action in association with each other in advance. In the example shown in FIG. 12, the detection information display area 522 displays a wake-up icon that symbolizes wake-up.
  • the display processing unit 3221 When displaying the image accommodated in the second event notification communication signal received in process S31 in the image area 523, the display processing unit 3221 has the sensor ID accommodated in the second event notification communication signal received in process S31.
  • the display surface is displayed by rotating the image displayed on the TA display unit 36 based on the rotation angle information stored in the TA sensor information storage unit 332 as the direction alignment information corresponding to the sensor device SU.
  • the image is displayed on the TA display unit 36 such that the direction and the image direction of the image have the specific relationship. More specifically, the display processing unit 3221 first determines the sensor ID accommodated in the second event notification communication signal received in step S31 from the TA sensor information table ST stored in the TA sensor information storage unit 332.
  • the record registered in the sensor ID field 3321 is retrieved, and the rotation angle information registered in the direction alignment information field 3324 of the retrieved record is acquired.
  • the display processing unit 3221 rotates the image stored in the second event notification communication signal received in step S31 clockwise by the rotation angle of the acquired rotation angle information, and displays it on the TA display unit 36.
  • the display direction of the display surface and the image direction of the image have the specific relationship, and the image is displayed on the TA display unit 36. For example, as described above, even when the setting target image is displayed on the display surface of the TA display unit 36 as shown in FIGS. 10A and 10B, the image is rotated clockwise by the rotation angle of the rotation angle information. As shown in FIG. 12, it is displayed on the display surface of the TA display unit 36.
  • the “corresponding” button 524 has an intention to perform a predetermined response (response, response) such as lifesaving, nursing, care, and assistance for the detection result displayed on the monitoring information screen 52. It is a button for inputting execution intention information indicating that the user of the mobile terminal device TA is present to the mobile terminal device TA.
  • the “speak” button 525 is a button for requesting a voice call, and is used to input an instruction to connect the sensor device SU of the sensor ID and the mobile terminal device TA via the network NW. It is a button.
  • the “LIVE” button 526 is a button for requesting a live video, and is a button for inputting an instruction to display a video captured by the sensor device SU of the sensor ID.
  • the “temporary OFF” button 527 is a button for inputting to the mobile terminal device TA a stop of the monitoring function related to the sensor device SU of the sensor ID, and the monitoring server device monitors the monitoring function related to the sensor device SU of the sensor ID. This is a button for inputting an instruction to stop the SV.
  • the nurse call reception screen 53 is a screen for displaying reception of a nurse call.
  • the nurse call reception screen 53 includes a menu bar area 511, a monitored person name area 521, a detection information display area 522, and a message (for example, “ A nurse call reception notification display area 531 for displaying "Nurse call"), a "corresponding" button 524, a "speak” button 525, and a "temporary OFF" button 527.
  • the detection information display area 522 displays only the elapsed time from the reception time of the second event notification communication signal received in step S31 (or the reception time of reception of the nurse call). .
  • nurse call reception screen 53 may further include a “view LIVE” button 526.
  • the portable terminal device TA determines whether or not an input operation is accepted by the TA control processing unit 32 using a touch panel including the TA input unit 35 and the TA display unit 36 (S35). If the input operation is not accepted as a result of this determination (No), the portable terminal device TA returns the process to step S35. On the other hand, if the input operation is accepted as a result of the determination, the portable terminal device TA returns The apparatus TA performs the following process S36.
  • the portable terminal device TA performs an appropriate process according to the content of the input operation by the TA control processing unit 32, and ends this process.
  • the portable terminal device TA when the mobile terminal device TA accepts an input operation of the “corresponding” button 524 by the TA control processing unit 32 (that is, when accepting the correspondence intention), the portable terminal device TA is currently displayed on the TA display unit 36.
  • a sensor corresponding to the monitoring information of the monitored person Ob displayed on the TA display unit 36 with the fact that “corresponding” has been received is added to the monitoring information of the monitoring person Ob and stored in the TA monitoring information storage unit 331.
  • a communication signal (correspondence acceptance notification communication signal) containing information indicating that the ID and “corresponding” are accepted (correspondence acceptance information) is transmitted to the management server device SV.
  • the management server device SV that has received the correspondence reception notification communication signal broadcasts the communication signal (correspondence reception well-known communication signal) containing the sensor ID and the correspondence reception information contained in the received correspondence reception notification communication signal. Transmit to the terminal devices SP and TA. As a result, regarding the sensor ID corresponding to the monitoring information of the monitored person Ob displayed on the TA display unit 36, the fact that “corresponding” has been received is synchronized between the terminal devices SP and TA.
  • the call processing unit 323 monitors the monitored person Ob displayed on the TA display unit 36.
  • a communication signal (call request communication signal) containing information such as requesting a voice call is transmitted to the sensor device SU, and the sensor device SU is connected to the sensor device SU via the network NW so as to be able to make a voice call.
  • a voice call can be made between the mobile terminal device TA and the sensor device SU.
  • the portable terminal device TA When the TA control processing unit 32 receives an input operation of an “end” button (not shown) that is a button for inputting an instruction to end a voice call, the portable terminal device TA causes the TA processing unit 323 to A communication signal (call end communication signal) containing information such as a request to end the voice call is transmitted to the sensor device SU that monitors the monitored person Ob displayed on the display unit 36. Thereby, the voice call between the mobile terminal device TA and the sensor device SU is terminated.
  • an “end” button not shown
  • a communication signal call end communication signal
  • the TA streaming processing unit 324 displays the monitored object currently displayed on the TA display unit 36.
  • a communication signal video distribution request communication signal
  • the video is connected to be downloadable via the sensor device SU, receives live video distribution from the sensor device SU, and displays the distributed video on the TA display unit 36 by streaming playback.
  • the “live end” button is a button for requesting the end of the moving image, and ends (stops) the distribution of the moving image picked up by the sensor device SU of the sensor ID and ends (stops) the display. This is a button for inputting an instruction to be performed.
  • the TA control processing unit 32 receives an input operation of the “live end” button, the portable terminal device TA monitors the monitored person Ob currently displayed on the TA display unit 36 by the TA streaming processing unit 324.
  • a communication signal (moving image distribution end communication signal) containing information such as requesting the end of moving image distribution is transmitted to the sensor device SU, and a still image is displayed on the TA display unit 36. Accordingly, the mobile terminal device TA ends the live video display.
  • the mobile terminal device TA stops the monitoring function related to the sensor device SU of the sensor ID.
  • a communication signal (monitoring function stop command communication signal) that causes the management server device SV to stop transmission of the second event notification communication related to the device SU is transmitted to the management server device SV.
  • the management server device SV receives the monitoring function stop command communication signal
  • the management server device SV receives the second event notification communication signal received from the sensor device SU having the sensor ID accommodated in the monitoring function stop command communication signal. Stop sending event notification communication signals.
  • the suspension of the monitoring function by the input operation of the “temporary OFF” button 527 is automatically canceled after a predetermined time has elapsed.
  • the mobile terminal device TA operates as described above.
  • the monitored person monitoring system MS, the terminal devices SP, TA, and the display method implemented therein according to the present embodiment display images so that the display direction and the image direction have the specific relationship. Since the display processing unit 3221 for displaying on the TA display unit 36 is provided, the image has the specific relationship regardless of the arrangement direction of the imaging unit 11 that generates the image (in this embodiment, the arrangement direction of the sensor device SU). Can be displayed on the TA display unit 36. Therefore, the monitored person monitoring system MS, the terminal devices SP and TA, and the display method can be appropriately displayed on the display surface of the TA display unit 36 regardless of the arrangement direction of the imaging unit 11.
  • the monitored person monitoring system MS and the terminal in front view in the terminal devices SP and TA arranged in a regular arrangement mode
  • the devices SP, TA, and the display method described above are such that when the monitored person Ob is lying on the bedding BD, the monitored person Ob is normally positioned so that the head is positioned above the display surface of the TA display unit 36. Display the copied image.
  • the supervisor (user) who has seen the image displayed on the TA display unit 36 can easily determine the situation of the monitored person Ob depending on whether or not the monitored person Ob shown in the image is in the normal lying position. Can grasp. Therefore, the monitored person monitoring system MS, the terminal devices SP and TA, and the display method can improve the convenience in grasping the situation of the monitored person Ob.
  • the monitored person monitoring system MS and the terminal in front view in the terminal devices SP and TA arranged in a regular arrangement mode The devices SP and TA and the above display method always display the image so that the entrance of the room RM is positioned below the image displayed on the TA display unit 36. For this reason, when the supervisor who has seen the image displayed on the TA display unit 36 enters the room RM shown in the image from the entrance, it enters the room from the lower side of the image. Can be imagined (image) easily, and you can enter the room while imagining the situation after entering the room.
  • the terminal device SP, TA when the specific relationship is the third relationship or the fourth relationship, the terminal device SP, TA that is arranged in a regular arrangement mode, the monitored object is viewed from the front.
  • the person monitoring system MS, the terminal devices SP, TA, and the display method are such that when the person Ob is sitting on a bedding BD such as a bed, the person being monitored is always at substantially the same position relative to the entire image. Ob can be displayed, and the face of the monitored person Ob can be displayed in substantially the same direction.
  • a fall accident (fall accident) is relatively likely to occur when getting out of bed, but since the situation at the time of the fall is displayed in a unified orientation, the supervisor can easily grasp the situation of the monitored person Ob. This is effective in preventing an accident when the supervisor rushes to the monitored person Ob.
  • the monitored person monitoring system MS, the terminal device SP, TA, and the display method include the direction alignment information storage unit 332, so that the specific relationship can be easily set.
  • the terminal devices SP and TA store the direction alignment information.
  • the direction alignment information is stored in the sensor device SU, and the first event notification communication signal and the second event notification communication resulting therefrom. This direction alignment information may be accommodated in the signal.
  • the direction alignment information is input from, for example, the terminal devices SP and TA, transmitted from the terminal devices SP and TA to the sensor device SU via the management server device SV, and stored.
  • the sensor device SU further includes a setting switch such as a rotary switch or a dip switch for inputting the direction alignment information, and the direction alignment information is input and stored in the sensor device SU via the setting switch.
  • the direction alignment information may be incorporated into image information of an image accommodated in the first event notification communication signal and the second event notification communication signal resulting therefrom.
  • the direction alignment information is incorporated as shooting direction information (camera rotation position information) of the metadata.
  • the Exif file is a file conforming to a JPEG (Joint Photographic Experts Group) file format, and so-called Exif information such as shooting conditions is stored in an application marker segment.
  • the direction alignment information is stored in this application marker segment as shooting direction information (camera rotation position information).
  • the terminal devices SP and TA that have received the second event notification communication signal are displayed by the display processing unit 3221 on the basis of the direction alignment information stored in the second event notification communication signal and the image direction. And the image are displayed on the TA display unit 36 so that the above-mentioned relationship is established.
  • the direction alignment information may be stored in the management server device SV, and the direction alignment information may be accommodated in the second event notification communication signal by the management server device SV.
  • the direction alignment information is input from, for example, the terminal devices SP and TA, transmitted from the terminal devices SP and TA to the management server device SV, and stored.
  • the management server device SV executes the setting process described with reference to FIG. 7 and stores the direction alignment information.
  • the management server device SV stores this direction alignment information in the same table as the TA sensor information table ST shown in FIG. 6, for example, similarly to the terminal devices SP and TA.
  • the management server device SV When the management server device SV transmits the second event notification communication signal due to the first event notification communication signal, the management server device SV displays the direction alignment information corresponding to the sensor ID accommodated in the first event notification communication signal in the table. Is stored in the second event notification communication signal. Then, the terminal devices SP and TA that have received the second event notification communication signal are displayed by the display processing unit 3221 on the basis of the direction alignment information stored in the second event notification communication signal and the image direction. And the image are displayed on the TA display unit 36 so that the above-mentioned relationship is established.
  • These terminal devices SP and TA do not need to store the direction alignment information in advance, and the display direction and the image direction have a specific relationship by using the direction alignment information accommodated in the second event notification communication signal. Thus, the image can be easily displayed on the TA display unit 36.
  • a terminal device includes a communication unit that performs communication, a display unit that performs display on a display surface, event information that represents content of a predetermined event related to a monitored person who is a monitoring target, and the event The event represented by the event information accommodated in the received event notification communication signal when the communication unit receives an event notification communication signal for notifying the event containing the image of the monitored person And a display processing unit that displays an event screen for displaying an image contained in the received event notification communication signal on the display unit.
  • the direction from the bottom to the top is defined as the display direction of the display surface, and when the area image sensor that generates the image is viewed from the front,
  • the direction from the bottom to the top is defined as the image direction of the image
  • the image is displayed on the display unit so that the display direction and the image direction have a predetermined specific relationship.
  • the display processing unit rotates the image displayed on the display unit so that the display direction and the image direction have the specific relationship. Display on the display unit.
  • Such a terminal device includes a display processing unit that displays an image on the display unit so that the display direction and the image direction have a predetermined relationship, the arrangement direction of the imaging unit that generates the image Regardless, the image can be displayed on the display unit with the specific relationship. Therefore, the terminal device can appropriately display on the display surface of the display unit regardless of the arrangement direction of the imaging unit.
  • the specific relationship is that the bedding direction matches the display direction. It is a relationship.
  • the terminal device In the terminal device arranged in a regular arrangement mode, the terminal device is normally arranged such that the head is positioned above the display surface when the person being monitored is lying on the bedding in front view. Display an image of the person being monitored. For this reason, the supervisor (user) who has seen the image displayed on the display unit can easily grasp the situation of the monitored person based on whether or not the monitored person shown in the image is in the normal lying posture. Therefore, the terminal device can improve the convenience in grasping the situation of the monitored person.
  • the specific relationship is that the room direction is defined when a direction from an entrance side to a facing side facing the entrance is defined as a room direction in the room shown in the image. Is a second relationship that matches the display direction.
  • the terminal device In the terminal device arranged in the regular arrangement mode, the terminal device always displays the image so that the entrance of the room is located below the image displayed on the display unit in front view. For this reason, when the supervisor who has seen the image displayed on the display unit enters the room shown in the image from the entrance, it enters the room from the lower side of the image. I can imagine (image) and enter the room while imagining the situation after entering the room.
  • the specific relationship is a third relationship in which a long side of the bedding shown in the image and a long side that the monitored person goes over when leaving the bed follows the display direction.
  • the fourth relationship is such that the long side is orthogonal to the display direction.
  • the terminal device In a terminal device arranged in a regular arrangement mode, the terminal device is always at substantially the same position relative to the entire image when the person being monitored is sitting on a bedding such as a bed in front view.
  • the monitored person can be displayed, and the monitored person can be displayed with the face direction of the monitored person substantially the same. Fall accidents (fall accidents) are more likely to occur when getting out of bed, but because the situation at the time of the fall is displayed in a unified orientation, the supervisor can easily grasp the situation of the monitored person, It is effective in preventing accidents when the observer rushes to the monitored person.
  • direction alignment information that is information for displaying the image on the display unit is stored so that the display direction and the image direction have the specific relationship.
  • a direction alignment information storage unit is further provided, and the display processing unit is configured so that the display direction and the image direction have the specific relationship based on the direction alignment information stored in the direction alignment information storage unit.
  • the image is displayed on the display unit.
  • the event notification communication signal is transmitted due to each of a plurality of monitored person monitoring devices that monitor the monitored person, and the direction alignment information storage unit stores the direction alignment information.
  • the display information is stored in association with the monitored person monitoring device, and the display processing unit stores the direction alignment information corresponding to the monitored person monitoring device of the event notification communication signal containing the image when displaying the image. Based on the direction alignment information stored in the unit, the image is displayed on the display unit such that the display direction and the image direction have the specific relationship.
  • the direction alignment information is rotation angle information representing a rotation angle of the rotation when an image is rotated and displayed on the display unit, and the display processing unit By rotating the image displayed on the display unit based on the rotation angle information stored in the direction alignment information storage unit as alignment information, the display direction and the image direction have the specific relationship. As described above, the image is displayed on the display unit.
  • Such a terminal device can easily set the specific relationship by including a direction alignment information storage unit.
  • the event notification communication signal is information for displaying the image on the display unit so that the display direction and the image direction have the specific relationship. Further accommodating certain direction alignment information, the display processing unit based on the direction alignment information accommodated in the event notification communication signal, so that the display direction and the image direction are in the specific relationship, The image is displayed on the display unit.
  • Such a terminal device does not need to store direction alignment information in advance, and uses the direction alignment information contained in the event notification communication signal so that the display direction and the image direction have a specific relationship.
  • the image can be easily displayed on the display unit.
  • a display method for a terminal apparatus comprising: event information representing content of a predetermined event related to a monitored person who is a monitoring target; and an image of the monitored person related to the event Receiving the event notification communication signal for notifying the event, the event content represented by the event information contained in the event notification communication signal received in the receiving step, and the received event notification communication signal A display processing step of displaying an event screen for displaying the displayed image on a display unit for displaying on the display surface.
  • the display processing step when the display surface of the display unit is viewed from the front, the direction from the bottom to the top is defined as the display direction of the display surface, and when the area image sensor that generates the image is viewed from the front, When the direction from the bottom to the top is defined as the image direction of the image, the image is displayed on the display unit so that the display direction and the image direction have a predetermined specific relationship.
  • the display method of such a terminal device includes a display processing step of displaying an image on the display unit so that the display direction and the image direction have a predetermined relationship
  • the imaging unit that generates the image Regardless of the arrangement direction the image can be displayed on the display unit with the specific relationship. Therefore, the display method of the terminal device can be appropriately displayed on the display surface of the display unit regardless of the arrangement direction of the imaging unit.
  • a monitored person monitoring system includes a terminal device, event information that is connected to the terminal device so as to be communicable and represents a content of a predetermined event related to a monitored person that is a monitoring target, and the event A monitored person monitoring system comprising: a monitored person monitoring device for notifying the terminal device of an event notification communication signal for notifying the event, which contains an image of the monitored person related to the terminal; The device is any one of these terminal devices.
  • the monitored person monitoring device includes a sensor device and a management server device connected to be communicable with the sensor device, and the sensor device is a monitored object.
  • the management server device re-notifies the notification to a terminal device connected so as to be communicable.
  • Such a monitored person monitoring system includes any one of these terminal devices, it can be appropriately displayed on the display surface regardless of the arrangement direction of the imaging unit that generates the image.
  • a terminal device a display method of the terminal device, and a monitored person monitoring system can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nursing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Alarm Systems (AREA)
  • Interconnected Communication Systems, Intercoms, And Interphones (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Processing (AREA)

Abstract

本発明にかかる端末装置およびその表示方法は、被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容したイベント通知通信信号を受信した場合に、この受信したイベント通知通信信号における前記イベントの内容および前記画像を表示するためのイベント画面を表示部に表示する。この際に、前記端末装置およびその表示方法は、前記表示部の表示面の表示方向と前記画像の画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する。本発明にかかる被監視者監視システムは、この端末装置を備える。

Description

端末装置および端末装置の表示方法ならびに被監視者監視システム
 本発明は、監視すべき監視対象である被監視者を監視する被監視者監視システムに好適に用いられる端末装置および前記端末装置の表示方法、ならびに、前記被監視者監視システムに関する。
 我が国(日本)は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、病気や怪我や高齢等による看護や介護を必要とする要看護者や要介護者(要看護者等)は、高齢化社会ではない通常の社会で生じる要看護者等よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、高齢な要看護者等を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。
 要看護者等は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの事態が生じ得る。このような事態に対し、可及的速やかに対応する必要がある。また、このような事態を放置しておくとさらに重大な事態に発展してしまう可能性もある。このため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。
 しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。
 このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視技術が研究、開発されている。
 このような技術の一つとして、例えば特許文献1に開示されたナースコールシステムがある。この特許文献1に開示されたナースコールシステムは、ベッドに設置されて患者が看護師を呼び出すためのナースコール子機と、ナースステーションに設置されて前記ナースコール子機による呼び出しに応答するためのナースコール親機とを有するナースコールシステムであって、ベッド上の患者をベッド上方から撮像するカメラと、前記カメラの撮像映像から、患者が上半身を起こした状態及び患者がベッド上から離れた状態のうち少なくとも一方の発生を判断して注意状態発生信号を出力する状態判断手段とを有し、前記ナースコール親機は、前記注意状態発生信号を受けて報知動作する報知手段を有する。そして、このナースコールシステムは、前記ナースコール子機からの呼び出しに応答するために看護師が携行する携帯端末と、前記注意状態発生信号を受けて、前記カメラの撮像映像を前記携帯端末に送信する通信制御手段とを有する。
 一方、安否確認の点では、一人暮らしの独居者も前記要介護者等と同様であり、被監視対象者となる。
 ところで、前記特許文献1に開示されたナースコールシステムのように、カメラの映像が端末装置に表示されると、看護師等の監視者は、要看護者等の被監視者の状況を視覚で把握できるため、便利である。カメラのエリアイメージセンサ(CCDやCMOS等の撮像素子)およびそれによって撮像された画像(静止画および動画を含む)ならびに表示装置の表示面は、通常、正面視にて、左上頂点を座標原点に、水平方向に沿った左から右へ向かう有向線分をX軸に、垂直方向に沿った上から下へ向かう有向線分をY軸にそれぞれ設定したXY直交座標系を持ち、画像は、互いの座標系を一致させて表示装置の表示面に表示される。このため、正規の配置態様で配置された端末装置において、カメラの画像を見た監視者は、正面視にて、表示面の下側が床面や手前位置や入り口の配設位置等である一方、前記表示面の上側が天井面や奥位置や窓の配設位置等であるとの先入観で前記画像を見ている。このため、カメラが、被監視者の所在する部屋の上方に、例えば天井面に、撮像方向を鉛直下向きにして配設される場合、前記カメラのエリアイメージセンサの下側がその部屋の入り口の側になるように、配設されていれば、このようなに配設されたカメラの画像は、上述の先入観に合致するように、表示装置の表示面に表示される。しかしながら、複数の被監視者それぞれの各部屋に配設される複数のカメラが、例えば、或る部屋では前記カメラのエリアイメージセンサの下側がその部屋の入り口位置から見て右側の壁側になるように配設されたり、他の部屋では前記カメラのエリアイメージセンサの下側がその部屋の入り口位置から見て対向側(例えば窓側)の壁側になるように配設されたり等のように、区々に配設されると、表示装置の表示面に表示される画像は、前記先入観に反し、前記表示面の下側が前記部屋の右側の壁側であったり、対向側(例えば窓側)の壁側であったり等になってしまう。監視者は、画像を見て被監視者の状況を速やかに把握する必要があるため、つい上述の先入観の下で画像を判断してしまいがちである。このため、被監視者が転倒していないのに、表示面の下側に被監視者の頭部が位置するとともに前記表示面の上側に前記被監視者の脚部が位置するような被監視者の横臥姿勢を写した画像を見た監視者は、被監視者が転倒していると、誤認してしまう可能性がある。あるいは、被監視者が部屋の手前側で転倒しているのに、表示面の上側で被監視者が転倒している画像を見た監視者は、被監視者が部屋の奥側で転倒していると思って駆けつけると、入り口から部屋に入った直後に、被監視者が転倒しており、監視者が被監視者に接触してしまう可能性がある。一方、表示面での画像の表示方向を部屋ごとに監視者が把握していたとしても、前記表示方向が部屋ごとに区々であると、そのために、監視者が画像から状況を判断するために要する時間が掛かってしまう。
特開2014-90913号公報
 本発明は、上述の事情に鑑みて為された発明であり、その目的は、画像を生成する撮像部の配設方向にかかわらず、適切に表示面に表示できる端末装置および端末装置の表示方法ならびに被監視者監視システムを提供することを目的とする。
 本発明にかかる端末装置およびその表示方法は、被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容したイベント通知通信信号を受信した場合に、この受信したイベント通知通信信号における前記イベントの内容および前記画像を表示するためのイベント画面を表示部に表示する。この際に、前記端末装置およびその表示方法は、前記表示部の表示面の表示方向と前記画像の画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する。本発明にかかる被監視者監視システムは、この端末装置を備える。
 上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。
実施形態における被監視者監視システムの構成を示す図である。 図1に示す被監視者監視システムにおけるセンサ装置の構成を示す図である。 図2に示すセンサ装置の設置状況を説明するための図である。 図1に示す被監視者監視システムにおける携帯端末装置の構成を示す図である。 図4に示す携帯端末装置に記憶される監視情報テーブルの構成を示す図である。 図4に示す携帯端末装置に記憶されるセンサ情報テーブルの構成を示す図である。 図4に示す携帯端末装置における設定処理の動作を示すフローチャートである。 図4に示す携帯端末装置における監視処理の動作を示すフローチャートである。 図4に示す携帯端末装置に表示される、設定処理のセンサ装置選択画面の一例を示す図である。 図4に示す携帯端末装置に表示される、設定処理の位置合わせ情報設定画面(角度情報設定画面)の一例を示す図である。 図4に示す携帯端末装置に表示される待受け画面の一例を示す図である。 図4に示す携帯端末装置に表示される監視情報画面の一例を示す図である。 図4に示す携帯端末装置に表示されるナースコール受付画面の一例を示す図である。
 以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
 実施形態における被監視者監視システムは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Obを監視するものであり、端末装置と、前記端末装置と通信可能に接続される被監視者監視装置とを備える。この被監視者監視システムにおける被監視者監視装置は、被監視者Obに関わる、対処が必要な所定のイベント(事象)の内容を表すイベント情報、および、前記イベントに関わる被監視者Obの画像を収容した、前記イベントを通知するためのイベント通知通信信号を、前記端末装置へ通知する。このような被監視者監視装置は、1個の装置で一体に構成されて良いが、本実施形態では、被監視者監視装置は、センサ装置と、前記センサ装置および前記端末装置それぞれと通信可能に接続される管理サーバ装置とを備えることで、2種類の各装置で別体に構成される。このセンサ装置は、被監視者Obに関わる前記所定のイベントを検知して前記管理サーバ装置へ通知(報知、送信)する。前記管理サーバ装置は、前記センサ装置から前記通知を受けると前記通知を前記センサ装置に対応付けられた所定の端末装置へ再通知(再報知、再送信)する。前記被監視者監視システムにおける端末装置は、通信を行う通信部と、表示面に表示を行う表示部と、前記イベント通知通信信号を前記通信部で受信した場合に、前記受信したイベント通知通信信号に収容されたイベント情報で表される前記イベントの内容および前記受信したイベント通知通信信号に収容された画像を表示するためのイベント画面を前記表示部に表示する表示処理部とを備える。そして、前記表示処理部は、前記表示部の表示面を正面視した場合に、下から上に向かう方向を表示面の表示方向と定義し、前記画像を生成するエリアイメージセンサを正面視した場合に、下から上に向かう方向を画像の画像方向と定義した場合に、前記表示方向と前記画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する。なお、前記端末装置は、1種類の装置であって良いが、本実施形態態では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用される一方、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点であり、これら固定端末装置と携帯端末装置とは、略同様であるので、以下の実施形態では、携帯端末装置を主に説明する。
 図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、図1に示す被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、図2に示すセンサ装置の設置状況を説明するための図である。図3Aは、部屋を横から見た図であり、図3Bは、部屋を上から見た図である。図4は、実施形態の被監視者監視システムにおける携帯端末装置の構成を示す図である。図5は、図4に示す携帯端末装置に記憶される監視情報テーブルの構成を示す図である。図6は、図4に示す携帯端末装置に記憶されるセンサ情報テーブルの構成を示す図である。
 実施形態における被監視者監視システムMSは、より具体的には、例えば、図1に示すように、1または複数のセンサ装置SU(SU-1~SU-4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA-1、TA-2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWは、通信信号を中継する例えばリピーター、ブリッジおよびルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU-1~SU-4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA-1、TA-2および構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LSおよびアクセスポイントAPを含む有線および無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU-1~SU-4、管理サーバ装置SV、固定端末装置SPおよび構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA-1、TA-2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。
 被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。
 センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obに関わる、対処が必要な所定の事象(イベント)を、管理サーバ装置SVへ通知する装置である。対処が必要な前記所定の事象は、例えば、本実施形態では、被監視者Obにおける予め設定された所定の行動およびナースコールである。このため、本実施形態では、センサ装置SUは、被監視者Obにおける所定の行動を検知して検知結果を前記所定の事象の一例として管理サーバ装置SVへ通知(送信)し、ナースコールを受け付けて前記ナースコールを前記所定の事象の他の一例として管理サーバ装置SVへ通知(送信)し、端末装置SP、TAとの間で音声通話を行い、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。このようなセンサ装置SUは、例えば、図2に示すように、撮像部11と、センサ側音入出力部(SU音入出力部)12と、ナースコール受付操作部13と、センサ側制御処理部(SU制御処理部)14と、センサ側通信インターフェース部(SU通信IF部)15と、センサ側記憶部(SU記憶部)16とを備える。
 撮像部11は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、画像(画像データ)を生成する装置である。前記画像には、静止画(静止画データ)および動画(動画データ)が含まれる。撮像部11は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室(部屋)RM)を監視可能に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像(対象画像)をSU制御処理部14へ出力する。好ましくは、監視対象の被監視者Ob全体を撮像できる蓋然性が高いことから、図3に示すように、センサ装置SUは、監視対象の被監視者Obが所在する部屋RMにおける天井CEに、垂直方向(天井の水平な天井面における法線方向)にその撮影方向(結像光学系の光軸方向)を一致させて配設される。なお、図3Bには、センサ装置SUを部屋RMの床面に投影した場合におけるセンサ装置SUの位置が破線の四角形で示されている。図3に示す例では、センサ装置SUは、天井CEの中央位置に配設される。図3に示す例では、部屋RMは、平面視にて矩形形状であり、その短辺の一方に入り口を有し、この入り口に対向する対向側(短辺の他方)に窓を有している。部屋RMには、例えばベッド等の矩形形状の寝具BDが配置され、洗面台WSが備え付けられている。寝具BDは、その長尺方向が部屋RMの長辺の方向に沿うように、そして、寝具BDの長辺の一方LL1が部屋RMの長辺の一方壁面に沿うように配置されている。したがって、その長辺の他方LL2が、被監視者Obが離床の際に越える長辺となっている。寝具BD上には、その上端よりに、枕PIが載置されている。洗面台WSは、部屋RMの入り口を有する短辺の壁面に備え付けられている。なお、センサ装置SUは、被監視者Obが横臥する寝具(例えばベッド等)BDにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設されても良い。センサ装置SUは、この撮像部11によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。
 このような撮像部11は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外線の画像を生成する装置である。このような撮像部11は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するエリアイメージセンサ、および、エリアイメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。撮像部11の前記結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。
 SU音入出力部12は、音を入出力する回路である。すなわち、SU音入出力部12は、SU制御処理部14に接続され、SU制御処理部14の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得してセンサ装置SUに入力するための回路である。SU音入出力部12は、例えば、音の電気信号(音データ)を音の機械振動信号(音響信号)に変換するスピーカ等と、可聴領域の音の機械振動信号を電気信号に変換するマイクロフォン等とを備えて構成される。SU音入出力部12は、外部の音を表す電気信号をSU制御処理部14へ出力し、SU制御処理部14から入力された電気信号を音の機械振動信号に変換して出力する。
 ナースコール受付操作部13は、SU制御処理部14に接続され、ナースコールを当該センサ装置SUに入力するための例えば押しボタン式スイッチ等のスイッチ回路である。なお、ナースコール受付操作部13は、有線でSU制御処理部14に接続されて良く、また、例えばBluetooth(登録商標)規格等の近距離無線通信でSU制御処理部14に接続されて良い。
 SU通信IF部15は、SU制御処理部14に接続され、SU制御処理部14の制御に従って通信を行うための通信回路である。SU通信IF部15は、SU制御処理部14から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部15は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部14が処理可能な形式のデータに変換してSU制御処理部14へ出力する。SU通信IF部15は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
 SU記憶部16は、SU制御処理部14に接続され、SU制御処理部14の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御するSU制御プログラムや、被監視者Obに対する監視に関する所定の情報処理を実行するSU監視処理プログラム等の制御処理プログラムが含まれる。前記SU監視処理プログラムには、被監視者Obにおける所定の行動を検知して検知結果を前記所定のイベント(事象)の一例として管理サーバ装置SVを介して所定の端末装置SP、TAへ通知する行動検知処理プログラムや、ナースコール受付操作部13でナースコールを受け付けた場合にその旨を前記所定のイベントの他の一例として管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うナースコール処理プログラムや、撮像部11で生成した動画を、その動画を要求した端末装置SP、TAへストリーミングで配信するSUストリーミング処理プログラム等が含まれる。前記各種の所定のデータには、自機の、センサ装置SUを特定し識別するための識別子であるセンサ装置識別子(センサID)、および、管理サーバ装置SVの通信アドレス等の、各プログラムを実行する上で必要なデータ等が含まれる。SU記憶部16は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、SU記憶部16は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるSU制御処理部14のワーキングメモリとなるRAM(Random Access Memory)等を含む。
 SU制御処理部14は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obに関わる、対処が必要な所定のイベント(事象)を、管理サーバ装置SVへ通知するための回路である。より具体的には、本実施形態では、SU制御処理部14は、被監視者Obにおける所定の行動を検知してその検知結果を前記所定のイベントの一例として管理サーバ装置SVへ通知(報知、送信)し、ナースコールを受け付けてそのナースコールを前記所定のイベントの他の一例として管理サーバ装置SVへ通知(報知、送信)し、端末装置SP、TAとの間で音声通話を行い、動画を含む画像を生成して端末装置SP、TAへ動画を配信する。SU制御処理部14は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。SU制御処理部14は、前記制御処理プログラムが実行されることによって、センサ側制御部(SU制御部)141、行動検知処理部142、ナースコール処理部143およびセンサ側ストリーミング処理部(SUストリーミング処理部)144を機能的に備える。
 SU制御部141は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。
 行動検知処理部142は、被監視者Obにおける、予め設定された所定の行動を検知して検知結果を前記所定のイベントの一例として管理サーバ装置SVへ通知するものである。より具体的には、本実施形態では、前記所定の行動は、例えば、被監視者Obが起きた起床、被監視者Obが寝具から離れた離床、被監視者Obが寝具から落ちた転落、および、被監視者Obが倒れた転倒の4つの行動である。行動検知処理部142は、例えば、撮像部11で撮像した対象画像に基づいて被監視者Obの頭部を検出し、この検出した被監視者Obの頭部における大きさの時間変化に基づいて被監視者Obの起床、離床、転倒および転落を検知する。より詳しくは、寝具BDの所在領域、および、第1ないし第3閾値Th1~Th3が前記各種の所定のデータの1つとして予めSU記憶部16に記憶される。前記第1閾値Th1は、寝具BDの所在領域内における横臥姿勢の頭部の大きさと座位姿勢の頭部の大きさとを識別するための値である。前記第2閾値Th2は、寝具BDの所在領域を除く居室RM内における立位姿勢の頭部の大きさであるか否かを識別するための値である。前記第3閾値Th3は、寝具BDの所在領域を除く居室RM内における横臥姿勢の頭部の大きさであるか否かを識別するための値である。行動検知処理部142は、まず、対象画像から例えば背景差分法やフレーム差分法によって被監視者Obの人物の領域として動体領域を抽出する。次に、行動検知処理部142は、この抽出した動体領域から、例えば円形や楕円形のハフ変換によって、また例えば予め用意された頭部のモデルを用いたパターンマッチングによって、また例えば頭部検出用に学習したニューラルネットワークによって、被監視者Obの頭部領域を抽出する。そして、行動検知処理部142は、この抽出した頭部の位置および大きさから起床、離床、転倒および転落を検知する。例えば、行動検知処理部は、この抽出した頭部の位置が寝具BDの所在領域内であって、前記抽出した頭部の大きさが前記第1閾値Th1を用いることによって横臥姿勢の大きさから座位姿勢の大きさへ時間変化した場合には、起床と判定し、前記起床を検知する。例えば、行動検知処理部142は、この抽出した頭部の位置が寝具BDの所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第2閾値Th2を用いることによって或る大きさから立位姿勢の大きさへ時間変化した場合には、離床と判定し、前記離床を検知する。例えば、行動検知処理部142は、この抽出した頭部の位置が寝具BDの所在領域内から寝具BDの所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転落と判定し、前記転落を検知する。例えば、行動検知処理部142は、この抽出した頭部の位置が寝具BDの所在領域を除く居室RM内であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転倒と判定し、前記転倒を検知する。
 このように前記所定の行動を検知すると、行動検知処理部142は、被監視者Obに関わる所定のイベント(事象)の内容を表すイベント情報(事象情報)を収容した、前記イベントを通知するための第1イベント通知通信信号をSU通信IF部15で管理サーバ装置SVへ通知する。より詳しくは、行動検知処理部142は、自機のセンサID、前記イベントの内容を表すイベント情報、前記所定の行動の検知に用いられた対象画像を収容した通信信号(第1イベント通知通信信号)を、SU通信IF部15を介して管理サーバ装置SVへ送信する。前記イベント情報は、本実施形態では、起床、離床、転落、転倒およびナースコール(NC)のうちの1または複数であり、ここでは、行動検知処理部142は、検知した起床、離床、転落および転倒のうちの1または複数を前記イベント情報として第1イベント通知通信信号に収容する。前記画像は、静止画および動画のうちの少なくとも一方であって良く、本実施形態では、後述するように、まず、静止画が報知され、ユーザの要求に応じて動画が配信される。なお、まず、動画が配信されても良く、また、静止画および動画が送信され、画面分割で静止画および動画が端末装置SP、TAに表示されても良い。
 ナースコール処理部143は、ナースコール受付操作部13でナースコールを受け付けた場合にその旨を前記所定のイベントの他の一例として収容した第1イベント通知通信信号を管理サーバ装置SVへ通知し、SU音入出力部12等を用いることで端末装置SP、TAとの間で音声通話を行うものである。より具体的には、ナースコール処理部143は、ナースコール受付操作部13が入力操作されると、自機のセンサIDおよび前記イベント情報としてナースコールを収容した第1イベント通知通信信号をSU通信IF部15を介して管理サーバ装置SVへ送信する。そして、ナースコール処理部143は、SU音入出力部12等を用い、端末装置SP、TAとの間で例えばVoIP(Voice over Internet Protocol)によって音声通話を行う。
 SUストリーミング処理部144は、通信IF部3を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、撮像部11で生成した動画(例えばライブの動画)をストリーミング再生でSU通信IF部15を介して配信するものである。
 図1には、一例として、4個の第1ないし第4センサ装置SU-1~SU-4が示されており、第1センサ装置SU-1は、被監視者Obの一人であるAさんOb-1の居室RM-1(不図示)に配設され、第2センサ装置SU-2は、被監視者Obの一人であるBさんOb-2の居室RM-2(不図示)に配設され、第3センサ装置SU-3は、被監視者Obの一人であるCさんOb-3の居室RM-3(不図示)に配設され、そして、第4センサ装置SU-4は、被監視者Obの一人であるDさんOb-4の居室RM-4(不図示)に配設されている。
 管理サーバ装置SVは、ネットワークNWを介して他の装置SU、TA、SPと通信する通信機能を備え、センサ装置SUから前記所定の事象の通知を受けると、被監視者Obに対する監視に関する情報(監視情報(本実施形態では例えば前記所定の事象(センサ装置SUで検知した所定の行動の種類やセンサ装置SUで受け付けたナースコール)、被監視者Obの画像(静止画および動画)、および、前記通知を受けた時刻等)を管理し、前記所定の事象を所定の端末装置SP、TAへ通知(再通知、再報知、送信)し、クライアント(本実施形態では端末装置SP、TA等)の要求に応じたデータを前記クライアントに提供し、被監視者監視システムMS全体を管理する装置である。
 より具体的には、管理サーバ装置SVは、通知元のセンサ装置SU(センサID)と報通知先(再通知先)の端末装置SP、TA(端末ID)との対応関係(報知先対応関係)、および、各装置SU、SP、TA(各ID)とその通信アドレスとの対応関係(通信アドレス対応関係)を予め記憶している。端末IDは、端末装置SP、TAを特定し識別するための識別子である。まず、管理サーバ装置SVは、第1イベント通知通信信号を受信すると、この受信した第1イベント通知通信信号における通知元(送信元)のセンサ装置SUと前記受信した第1イベント通知通信信号に収容されたデータとを互いに対応付けて被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1イベント通知通信信号における通知元のセンサ装置SUに対応する通知先の端末装置SP、TAを特定し、この通知先の端末装置SP、TAへ第2イベント通知通信信号を送信する。この第2イベント通知通信信号には、前記受信した第1イベント通知通信信号に収容されたイベント情報が前記所定の行動である場合には、前記受信した第1イベント通知通信信号に収容されたセンサID、前記イベント情報(前記所定の行動の検知結果)および前記対象画像、ならびに、動画のダウンロード先として、前記受信した第1イベント通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容される。通信アドレスは、前記通信アドレス対応関係から取得される。管理サーバ装置SVは、前記受信した第1イベント通知通信信号に収容されたイベント情報が前記ナースコールである場合には、前記受信した第1イベント通知通信信号に収容されたセンサIDおよび前記イベント情報(ナースコールの受付)が収容される。なお、このナースコールにかかる第2イベント通知通信信号に動画のダウンロード先として、前記受信した第1イベント通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応する通信アドレスが収容されても良い。管理サーバ装置SVは、クライアント(本実施形態では端末装置SP、TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。
 固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた監視情報を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。なお、前記端末装置の一例としての固定端末装置SPは、携帯端末装置TAと同様に動作するが、本明細書では、前記端末装置の他の一例である携帯端末装置TAについて説明される。
 携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた前記監視情報を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等するための機器である。このような携帯端末装置TAは、本実施形態では、例えば、図4に示すように、端末側通信インターフェース部(TA通信IF部)31と、端末側制御処理部(TA制御処理部)32と、端末側記憶部(TA記憶部)33と、端末側音入出力部(TA音入出力部)34と、端末側入力部(TA入力部)35と、端末側表示部(TA表示部)36と、端末側インターフェース部(TAIF部)37とを備える。
 TA音入出力部34は、SU音入出力部12と同様に、TA制御処理部32に接続され、外部の音を取得して携帯端末装置TAに入力するための回路であって、TA制御処理部32の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。
 TA入力部35は、TA制御処理部32に接続され、例えば、所定の操作を受け付け、携帯端末装置TAに入力する回路であり、例えば、所定の機能を割り付けられた複数の入力スイッチ等である。前記所定の操作には、例えば、ログインするためのIDの入力操作や、センサ装置SUの配設態様に対しTA表示部36の表示方向と画像の画像方向との間における特定の関係を設定する設定操作や、音声通話の要求操作およびその終了操作や、ライブでの動画の要求操作およびその終了操作や、前記通知された事象に関わる被監視者Obに対する例えば救命、看護、介護および介助等の対応(対処、応対)を実行する意思がある旨(“対応する”)の入力操作等の、監視する上で必要な各種操作等が含まれる。TA表示部36は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、TA入力部35から入力された所定の操作内容や、被監視者監視システムMSによって監視されている被監視者Obに対する監視に関する前記監視情報(例えば前記所定の事象(センサ装置SUで検知した所定の行動の種類やセンサ装置SUで受け付けたナースコール)、被監視者Obの画像(静止画および動画)、および、前記通知を受けた時刻等)等を表示する回路であり、例えばLCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置である。本実施形態では、TA入力部35およびTA表示部36からタッチパネルが構成されている。この場合において、TA入力部35は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力デバイスである。このタッチパネルでは、TA表示部36の表示面上に位置入力デバイスが設けられ、TA表示部36に入力可能な1または複数の入力内容の候補が表示され、例えば看護師や介護士等のユーザ(監視者)が、入力したい入力内容を表示した表示位置を触れると、位置入力デバイスによってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として携帯端末装置TAに入力される。
 TAIF部37は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、外部機器との間でデータの入出力を行う回路であり、例えば、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA規格等の赤外線通信を行うインターフェース回路、および、USB規格を用いたインターフェース回路等である。
 TA通信IF部31は、SU通信IF部15と同様に、TA制御処理部32に接続され、TA制御処理部32の制御に従って通信を行うための通信回路である。TA通信IF部31は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
 TA記憶部33は、TA制御処理部32に接続され、TA制御処理部32の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御するTA制御プログラムや、被監視者Obに対する監視に関する所定の情報処理を実行するTA監視処理プログラムや、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行う通話処理プログラムや、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するTAストリーミング処理プログラム等の制御処理プログラムが含まれる。前記TA監視処理プログラムには、センサ装置SUの送信した第1イベント通知通信信号に起因して管理サーバ装置SVから送信された第2イベント通知通信信号をTA通信IF部31で受信した場合に、この受信した第2イベント通知通信信号に収容されたイベント情報で表される前記イベントの内容および前記受信した第2イベント通知通信信号に収容された画像を表示するためのイベント画面(例えば後述の監視情報画面52やナースコール受付画面53等)をTA表示部36に表示する表示処理プログラム等が含まれる。前記各種の所定のデータでは、自機の端末ID、TA表示部36に表示される画面情報、被監視者Obの前記監視情報およびセンサ装置SUに関するセンサ情報等の各プログラムを実行する上で必要なデータ等が含まれる。TA記憶部33は、例えばROMやEEPROM等を備える。TA記憶部33は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるTA制御処理部32のワーキングメモリとなるRAM等を含む。これら監視情報およびセンサ情報それぞれを記憶するために、TA記憶部33は、端末側監視情報記憶部(TA監視情報記憶部)331および端末側センサ情報記憶部(TAセンサ情報記憶部)332を機能的に備える。
 TA監視情報記憶部331は、前記監視情報を記憶するものである。本実施形態では、TA監視情報記憶部331は、前記監視情報として、管理サーバ装置SVから受信した第2イベント通知通信信号に収容されたセンサID、イベント情報(事象情報、本実施形態では起床、離床、転落、転倒およびナースコール)、画像および動画のダウンロード先のセンサ装置SUの通信アドレス、ならびに、当該第2イベント通知通信信号の受信時刻および対処の有無等を互いに対応付けて記憶する。
 この監視情報は、本実施形態では、テーブル形式でTA監視情報記憶部331に記憶されている。この監視情報を登録する端末側監視情報テーブル(TA監視情報テーブル)MTは、例えば、図5に示すように、通信信号に収容されたセンサIDを登録するセンサIDフィールド3311と、前記受信した通信信号に収容されたイベント情報を登録する事象フィールド(イベントフィールド)3312と、前記受信した通信信号の受信時刻を登録する受信時刻フィールド3313と、前記受信した通信信号に収容された前記静止画を登録する静止画フィールド3314と、ライブ動画の取得先として、前記受信した通信信号に収容されたセンサIDに対応するセンサ装置SUの通信アドレス(例えばIPアドレス等)を登録する動画フィールド3315と、前記受信した通信信号に収容されたイベント情報に対する対応の受付の有無を登録する対応フィールド3316とを備え、前記受信した通信信号ごと(各イベントごと)にレコードを備える。静止画フィールド3314には、例えば、静止画の画像データが登録されて良く、また例えば、静止画の画像データのファイル名が登録されて良い。対応フィールド3316には、後述するように、前記受信した通信信号に収容されたイベント情報に対する対処(対応、処置、措置)する意思がある旨(“対応する”)を端末装置SP、TAで受け付けたか否かを表すフラグ(対応フラグ)が登録される。例えば、本実施形態では、対応フィールド3316には、前記受信した通信信号に収容されたイベント情報(事象フィールド3312に登録されたイベント情報)に対処する意思がある旨(“対応する”)を端末装置SP、TAで受け付けたことを意味する対応フラグ「1」、あるいは、前記受信した通信信号に収容されたイベント情報に対処する意思がある旨(“対応する”)を端末装置SP、TAで受け付けていないことを意味する対応フラグ「0」が登録される。なお、デフォルトでは、対応フィールド3316には、未受付を意味する対応フラグ「0」が登録される。なお、第1イベント通知通信信号に、前記所定の行動を検知した検知時刻または前記ナースコールを受け付けたナースコール受付時刻が収容されている場合には、受信時刻に代え、前記検知時刻または前記ナースコール受付時刻が登録されても良い。
 TAセンサ情報記憶部332は、前記センサ情報を記憶するものである。本実施形態では、前記センサ情報は、センサ装置SUに関する情報であり、センサ装置SUのセンサID、その配設場所、それによって監視される被監視者Obの被監視者名、および、方向合わせ情報を互いに対応付けた情報である。前記方向合わせ情報は、TA表示部36における表示面の表示方向とエリアイメージセンサで生成された画像の画像方向とを、予め設定された特定の関係となるように画像をTA表示部36に表示するための情報である。本実施形態では、前記方向合わせ情報には、画像を回転してTA表示部36に表示する場合における前記回転の回転角度を表す回転角度情報が用いられている。前記表示面の表示方向は、TA表示部36の表示面を正面視した場合に、下から上に向かう方向である。前記画像の画像方向は、前記画像を生成するエリアイメージセンサを正面視した場合に、下から上に向かう方向である。
 このようなセンサ情報は、本実施形態では、テーブル形式でTAセンサ情報記憶部332に記憶される。より具体的には、センサ情報を登録する端末側センサ情報テーブル(TAセンサ情報テーブル)STは、例えば、図6に示すように、センサIDを登録するセンサIDフィールド3321と、前記センサIDフィールド3321に登録されているセンサIDを持つセンサ装置SUの配設場所を登録する配設場所フィールド3322と、前記センサIDフィールド3321に登録されているセンサIDを持つセンサ装置SUによって監視される被監視者Ob(すなわち、前記センサIDフィールド3321に登録されているセンサIDを持つセンサ装置SUの配設場所に居る被監視者Ob)の被監視者名を登録する被監視者名フィールド3323と、前記センサIDフィールド3321に登録されているセンサIDを持つセンサ装置SUに後述のように設定される方向合わせ情報を登録する方向合わせ情報フィールド3324とを備え、センサID(すなわち、センサ装置SU)ごとにレコードを持つ。
 このようにTAセンサ情報記憶部332は、本実施形態では、前記表示面の表示方向と前記画像の画像方向とを前記特定の関係となるように前記画像をTA表示部36に表示するための情報である方向合わせ情報を記憶する方向合わせ情報記憶部の一例に相当する。
 TA制御処理部32は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、被監視者Obの前記監視情報を受けて表示し、ナースコールの応答や声かけするための回路である。TA制御処理部32は、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32は、制御処理プログラムが実行されることによって、端末側制御部(TA制御部)321、端末側監視処理部(TA監視処理部)322、通話処理部323および端末側ストリーミング処理部(TAストリーミング処理部)324を機能的に備え、TA監視処理部322は、表示処理部3221を機能的に備える。
 TA制御部321は、携帯端末装置TAの各部を当該各部の機能に応じてそれぞれ制御し、携帯端末装置TAの全体制御を司るものである。
 TA監視処理部322は、被監視者Obに対する監視に関する所定の情報処理を実行するものである。より具体的には、TA監視処理部322は、センサ装置SUによって送信された第1イベント通知通信信号、に起因して管理サーバ装置SVによって送信された第2イベント通知通信信号を受信した場合に、この受信した第2イベント通知通信信号に収容された各情報(各データ)に基づき、被監視者Obの監視情報をTA監視情報記憶部331に記憶(記録)する。TA監視処理部322は、表示処理部3221によって、この受信した第2イベント通知通信信号に収容された各情報に応じた画面をTA表示部36に表示する。
 より詳しくは、表示処理部3221は、被監視者Obに関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる被監視者Obの対象画像を収容した、前記イベントを通知するための第2イベント通知通信信号をTA通信IF部31で受信した場合に、この受信した第2イベント通知通信信号に収容されたイベント情報で表される前記イベントの内容およびこの受信した第2イベント通知通信信号に収容された対象画像を表示するためのイベント画面をTA表示部36に表示する。前記イベント画面は、その一例として、本実施形態では、後述の監視情報画面52およびナースコール受付画面等である。この場合に、表示処理部3221は、前記表示面の表示方向と前記画像の画像方向とが、予め設定された特定の関係となるように、前記画像をTA表示部36に表示する。より具体的には、表示処理部3221は、画像を表示する場合に前記画像を収容した第2イベント通知通信信号に関わるセンサ装置SUに対応した(すなわち、前記受信した第2イベント通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応した)、TAセンサ情報記憶部332に記憶されている方向合わせ情報に基づいて、前記表示面の表示方向と前記画像の画像方向とが前記特定の関係となるように、前記画像をTA表示部36に表示する。さらに具体的には、本実施形態では、方向合わせ情報には回転角度情報が用いられているので、表示処理部3221は、前記受信した第2イベント通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応した、前記方向合わせ情報としてTAセンサ情報記憶部332に記憶されている回転角度情報に基づいて、TA表示部36に表示する前記画像を回転することによって、前記表示面の表示方向と前記画像の画像方向とが前記特定の関係となるように、前記画像をTA表示部36に表示する。
 前記特定の関係は、任意の関係であって良い。好ましくは、第1態様の前記特定の関係は、前記画像に写る寝具BTの下端から上端に向かう方向を寝具方向と定義した場合、前記寝具方向が前記表示方向に一致する第1関係である。また好ましくは、第2態様の前記特定の関係は、前記画像に写る部屋RMにおける入り口の側から前記入り口に対向する対向側に向かう方向を部屋方向と定義した場合に、前記部屋方向が前記表示方向に一致する第2関係である。また好ましくは、第3態様の前記特定の関係は、前記画像に写る寝具BDにおける長辺LL2であって被監視者Obが離床の際に越える長辺LL2が前記表示方向に沿う第3関係、または、前記長辺LL2が前記表示方向と直交する第4関係である。図3に示す例では、前記第1態様の前記特定の関係は、前記第2態様の前記特定の関係でもあり、さらに、前記長辺LL2が前記表示方向と直交する第4関係である場合を除き前記第3態様の前記特定の関係でもある。
 そして、TA監視処理部322は、TA入力部35から所定の入力操作を受け付けると、その入力操作に応じた所定の処理を実行する。
 通話処理部323は、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うものである。より具体的には、通話処理部323は、TA音入出力部34等を用い、第2イベント通知通信信号の送信の原因となった第1イベント通知通信信号を管理サーバ装置SVへ送信した送信元のセンサ装置SUとの間で例えばVoIPによって音声通話を行う。
 TAストリーミング処理部324は、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するものである。
 このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。
 次に、本実施形態の動作について説明する。上記構成の被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。センサ装置SUでは、その制御処理プログラムの実行によって、SU制御処理部14には、SU制御部141、行動検知処理部142、ナースコール処理部143およびSUストリーミング処理部144が機能的に構成される。そして、携帯端末装置TAでは、その制御処理プログラムの実行によって、TA制御処理部32には、TA制御部321、TA監視処理部322、通話処理部323およびTAストリーミング処理部324が機能的に構成され、TA監視制御部322には、表示処理部3221が機能的に構成される。
 そして、上記構成の被監視者監視システムMSは、大略、次の動作によって、各被監視者Obそれぞれを監視している。
 センサ装置SUは、各フレームごとに、あるいは、数フレームおきに、次のように動作することで、被監視者Obにおける所定の動作を検知し、ナースコールの受付の有無を判定している。まず、センサ装置SUは、SU制御処理部14のSU制御部141によって、撮像部11から1フレーム分の画像(画像データ)を対象画像として取得し、その行動検知処理部142によって、前記取得した対象画像に基づいて被監視者Obにおける所定の行動を検知し、前記所定の行動を検知すると、その検知結果を所定の端末装置SP、TAへ報知するために、前記イベント情報として検知した前記所定の行動を収容した、前記所定の行動の検知にかかる第1イベント通知通信信号を、管理サーバ装置SVへ送信する。このように動作している間に、センサ装置SUは、ナースコール処理部143によって、ナースコール受付操作部13でナースコールを受け付けているか否かを判定し、ナースコールを受け付けると、そのナースコールの受付を所定の端末装置SP、TAへ報知するために、センサ装置SUは、前記イベント情報として前記受け付けたナースコールを収容した、前記ナースコールの受付にかかる第1イベント通知通信信号を、管理サーバ装置SVへ送信する。
 管理サーバ装置SVは、第1イベント通知通信信号をネットワークNWを介してセンサ装置SUから受信すると、この第1イベント通知通信信号に収容されたセンサIDおよびイベント情報等の各情報を、このセンサIDを持つセンサ装置SUで監視されている被監視者Obの監視情報として記憶(記録)する。そして、管理サーバ装置SVは、前記報知先対応関係から、前記受信した第1イベント通知通信信号における報知元のセンサ装置SUに対応する報知先の端末装置SP、TAを特定し、この報知先の端末装置SP、TAへ第2イベント通知通信信号を送信する。
 固定端末装置SPおよび携帯端末装置TAaは、前記第2イベント通知通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この第2イベント通知通信信号に収容された被監視者Obの監視に関する前記監視情報を表示する。携帯端末装置TAによるこの監視情報を表示する動作については、以下で詳述する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、大略、各被監視者Obにおける所定の行動を検知し、ナースコールを受け付けて、各被監視者Obを監視している。
 次に、被監視者監視システムMSにおける端末装置SP、TAの動作について、説明する。ここでは、代表的に、携帯端末装置TAの動作について説明する。
 図7は、図4に示す携帯端末装置における設定処理の動作を示すフローチャートである。図8は、図4に示す携帯端末装置における監視処理の動作を示すフローチャートである。図9は、図4に示す携帯端末装置に表示される、設定処理のセンサ装置選択画面の一例を示す図である。図10は、図4に示す携帯端末装置に表示される、設定処理の位置合わせ情報設定画面(角度情報設定画面)の一例を示す図である。図11は、図4に示す携帯端末装置に表示される待受け画面の一例を示す図である。図12は、図4に示す携帯端末装置に表示される監視情報画面の一例を示す図である。図13は、図4に示す携帯端末装置に表示されるナースコール受付画面の一例を示す図である。
 上述したように、電源が投入され、その稼働を始めると、携帯端末装置TAでは、例えば看護師や介護士等の監視者(ユーザ)によるログイン操作が受け付けられ、TA監視処理部322の表示処理部3221によって、自機宛の通信信号を待ち受ける待受け画面がTA表示部36に表示される。この待受け画面51は、例えば、図11に示すように、メニューバーを表示するメニューバー領域511と、待ち受け中であることを表すメッセージ(例えば「通知はありません」)およびアイコンを表示する待受けメイン領域512と、現在時刻を表示する時刻領域513と、今日の年月日曜日を表示する年月日曜日領域514と、今、当該携帯端末装置TAにログインしているユーザ名を表示するユーザ名領域515とを備える。メニューバー領域511には、方向合わせ情報(本実施形態では回転角度情報)を設定するための設定ボタン5111が設けられている。
 以下、まず、方向合わせ情報を各センサ装置SUごとに設定する設定処理について、その動作を説明し、次に、被監視者Obの監視に関する監視処理について、その動作を説明する。
 (設定処理)
 この設定処理は、例えば、被監視者監視システムMSを施行してその運用前のタイミングや、運用後にセンサ装置SUの取替後のタイミングや、運用後にセンサ装置SUの増設後のタイミング等で実施される。
 この設定処理では、図7において、まず、携帯端末装置TAは、TA制御処理部32のTA制御部321によって、上述の待受け画面51や後述の監視情報画面52やナースコール受付画面53等における設定ボタン5111の入力操作を受け付けると(S11)、TA制御処理部32のTA監視処理部322によって、方向合わせ情報の設定対象とするセンサ装置SUを選択(指定)する選択処理を実行する(S12)。
 この選択処理では、より具体的には、TA監視処理部322は、まず、表示処理部3221によって、方向合わせ情報の設定対象とするセンサ装置SUを選択(指定)するためのセンサ装置選択画面を表示する。このセンサ装置選択画面54は、例えば、図9に示すように、メニューバー領域511と、方向合わせ情報の設定対象とするセンサ装置SUを選択(指定)して入力するためのセンサ装置選択領域541とを備える。センサ装置選択領域541には、被監視者監視システムMSのセンサ装置SUが一覧で表示される。センサIDでセンサ装置SUが表されても良いが、図9に示す例では、設定対象のセンサ装置SUを理解し易いように、配設場所でセンサ装置SUが表されている。すなわち、表示処理部3221は、TAセンサ情報記憶部332に記憶されているTAセンサ情報テーブルSTを参照し、その1行目のレコードから最終行のレコードまで順に、センサIDフィールド3221および配設場所フィールド3322それぞれに登録されている各情報を取り出し、センサ装置選択領域541の1行目5411-1から順に、当該行にセンサIDを対応付けながら、配設場所を表示して行く。図9に示す例では、例えば、センサ装置選択領域541の1行目5411-1には、センサID「SU-1」が対応付けられ、「101号室」が表示され、また例えば、センサ装置選択領域541の2行目5411-2には、センサID「SU-2」が対応付けられ、「102号室」が表示されている。これらセンサ装置選択領域541の各行それぞれ5411-1~5411-4は、当該行5411のセンサ装置SUを選択して入力するための選択ボタン5411になっている。
 この選択ボタン5411の入力操作を受け付けると、携帯端末装置TAは、TA監視処理部322によって、入力操作を受け付けた選択ボタンに対応するセンサ装置SUに対し、方向合わせ情報を設定する方向合わせ情報設定処理を実行する(S13)。
 この方向合わせ情報設定処理では、より具体的には、TA監視処理部322は、まず、表示処理部3221によって、入力操作を受け付けた選択ボタン5411に対応するセンサ装置SUに対し、方向合わせ情報を設定するための方向合わせ情報設定画面を表示する。この方向合わせ情報設定画面55は、例えば、図10に示すように、メニューバー領域511と、入力操作を受け付けた選択ボタンに対応するセンサ装置SUの撮像部11で生成された画像を表示する設定対象画像表示領域551と、方向合わせ情報を入力するための方向合わせ情報入力ボタン552とを備える。
 設定対象画像表示領域551に画像(設定対象画像)を表示するために、前記方向合わせ情報設定画面55を表示する前に、TA監視処理部322は、入力操作を受け付けた選択ボタン5411に対応するセンサ装置SUに画像を要求するための通信信号(第1設定対象画像要求通信信号)を管理サーバ装置SVへ送信する。この第1設定対象画像要求通信信号には、自機の端末ID、入力操作を受け付けた選択ボタン5411に対応するセンサID、および、画像を要求する命令(画像要求コマンド)が収容される。この第1設定対象画像要求通信信号を携帯端末装置TAから受信した管理サーバ装置SVは、この受信した第1設定対象画像要求通信信号に収容されたセンサIDを持つセンサ装置SUに画像を要求するための通信信号(第2設定対象画像要求通信信号)を前記センサ装置SUへ送信する。この第2設定対象画像要求通信信号には、前記受信した第1設定対象画像要求通信信号に収容された端末ID、センサIDおよび画像要求コマンドが収容される。この第2設定対象画像要求通信信号を管理サーバ装置SVから受信したセンサ装置SUは、その撮像部11で画像(設定対象画像)を生成し、要求された画像を返信するための通信信号(第1設定対象画像返信通信信号)を監視サーバ装置へ送信する。この第1設定対象画像返信通信信号には、自機のセンサID、ならびに、前記受信した第2設定対象画像要求通信信号に収容された端末IDおよび設定対象画像が収容される。この第1設定対象画像返信通信信号をセンサ装置SUから受信した管理サーバ装置SVは、この受信した第1設定対象画像返信通信信号に収容された端末IDを持つ端末装置SP、TAに設定対象画像を返信するための通信信号(第2設定対象画像返信通信信号)を前記端末装置SP、TAへ送信する。この第2設定対象画像返信通信信号には、前記受信した第1設定対象画像返信通信信号に収容されたセンサID、端末IDおよび設定対象画像が収容される。携帯端末装置TAは、この第2設定対象画像返信通信信号を管理サーバ装置SVから受信することによって、設定対象画像表示領域551に表示する設定対象画像を取得する。そして、表示処理部3221は、方向合わせ情報設定画面55を表示する。
 方向合わせ情報入力ボタン552は、画像を時計回りに0度だけ回転させる「0°」ボタン552-1(すなわち、画像を回転しない「0°」ボタン552-1)と、画像を時計回りに90度だけ回転させる「90°」ボタン552-2と、画像を時計回りに180度だけ回転させる「180°」ボタン552-3と、画像を時計回りに270度だけ回転させる「270°」ボタン552-4とを備える。なお、方向合わせ情報入力ボタン552に代え、あるいは追加して、回転角度の数値を直接入力するように、方向合わせ情報設定画面55が構成されても良い。
 TA監視処理部322は、方向合わせ情報入力ボタン552の入力操作を受け付けると、この入力操作を受け付けた方向合わせ情報入力ボタン552の回転角度を方向合わせ情報(本実施形態では前記回転角を方向合わせ情報の一例である回転角度情報)として、入力操作を受け付けた選択ボタン5411に対応するセンサ装置SU(センサID)に対応付けてTAセンサ情報記憶部332に記憶し、次の処理S14を実行する。より具体的には、TA監視処理部322は、TAセンサ情報記憶部332に記憶されているTAセンサ情報テーブルSTから、入力操作を受け付けた選択ボタン5411に対応するセンサIDを、センサIDフィールド3221に登録しているレコードを検索し、この検索したレコードの方向合わせ情報フィールド3324に、入力操作を受け付けた方向合わせ情報入力ボタン552の回転角度を登録し、TAセンサ情報記憶部332に記憶されているTAセンサ情報テーブルSTを更新する。
 例えば、図3に示す部屋RMにおいて、センサ装置SUが撮像部11のエリアイメージセンサの下側が前記部屋RMの入り口の配設位置から見て左側の壁側になるように施工で配設されると、前記方向合わせ情報設定画面55の設定対象画像表示領域551には、正規の配置態様で配置された携帯端末装置TAにおいて、図10Aに示すように、前記左側の壁側をTA表示部36における表示面の下側に位置させた設定対象画像が表示される。この図10Aに示すように表示された設定対象画像を、前記表示方向と前記画像方向とが第1態様の特定の関係、すなわち、寝具方向が表示方向に一致する第1関係となるように、TA表示部36の表示面に表示するために、ユーザは、前記設定対象画像を時計回りに90度だけ回転させるべく、「90°」ボタン552-2を入力操作する。この「90°」ボタン552-2の入力操作を受け付けると、TA監視処理部322は、この入力操作を受け付けた「90°」ボタン552-2の回転角度90度を方向合わせ情報の一例である回転角度情報として、入力操作を受け付けた選択ボタン5411に対応するセンサ装置SU(センサID)に対応付けてTAセンサ情報記憶部332に記憶する。これによって後述の監視処理では、監視情報画面52の画像領域523には、図12に示すように、寝具方向が表示方向に一致するように、画像が表示される。
 また例えば、図3に示す部屋RMにおいて、センサ装置SUが撮像部11のエリアイメージセンサの下側が前記部屋RMの入り口の配設位置から見て対向側になるように施工で配設されると、前記方向合わせ情報設定画面55の設定対象画像表示領域551には、正規の配置態様で配置された携帯端末装置TAにおいて、図10Bに示すように、前記対向側をTA表示部36における表示面の下側に位置させた設定対象画像が表示される。この図10Bに示すように表示された設定対象画像を、前記表示方向と前記画像方向とが第1態様の特定の関係となるように、TA表示部36の表示面に表示するために、ユーザは、前記設定対象画像を時計回りに180度だけ回転させるべく、「180°」ボタン552-3を入力操作する。この「180°」ボタン552-3の入力操作を受け付けると、TA監視処理部322は、この入力操作を受け付けた「180°」ボタン552-3の回転角度180度を回転角度情報として、入力操作を受け付けた選択ボタン5411に対応するセンサ装置SU(センサID)に対応付けてTAセンサ情報記憶部332に記憶する。これによって後述の監視処理では、監視情報画面52の画像領域523には、図12に示すように、寝具方向が表示方向に一致するように、画像が表示される。
 なお、上述では、前記特定の関係が前記第1関係である場合について説明したが、図3に示す例では、前記特定の関係が前記第2および第3関係でもあるので、上述は、前記特定の関係が前記第2関係である場合の説明でもあり、前記特定の関係が前記第3関係である場合の説明でもある。また、前記特定の関係が前記第4関係であるように、方向合わせ情報が設定されてもよい。
 図7に戻って、前記処理S14では、携帯端末装置TAは、TA制御処理部32によって、センサ装置SUの選択処理に戻る指示を予め設定された所定時間の間に受け付けたか否かを判定し、この判定の結果、センサ装置SUの選択処理に戻る指示を受け付けた場合(Yes)には、処理を処理S12に戻す一方、センサ装置SUの選択処理に戻る指示を前記所定時間の間に受け付けていない場合(No)には、次に処理S15を実行する。例えば、図10に示す1つ前の画面に戻る指示を入力するための戻るボタン553の入力操作を受け付けると、TA制御処理部32は、センサ装置SUの選択処理に戻る指示を受け付けたと判定する。
 処理S15では、携帯端末装置TAは、TA制御処理部32によって、設定処理を終了する指示を予め設定された所定時間の間に受け付けたか否かを判定し、この判定の結果、設定処理を終了する指示を受け付けた場合(Yes)には、本処理を終了する一方、設定処理を終了する指示を前記所定時間の間に受け付けていない場合(No)には、処理を処理S14に戻す。例えば、図10に示すホーム画面に戻る指示を入力するためのホームボタン554の入力操作を受け付けると、TA制御処理部32は、設定処理の終了と判定し、本処理を終了し、設定ボタン5111の入力操作を受け付けた画面、例えば、待受け画面51を表示する。
 このような処理によって方向合わせ情報がセンサ装置SUに対応付けて携帯端末装置TAに設定される。
 (監視処理)
 次に監視処理では、このような設定処理の終了後に、図8において、携帯端末装置TAは、TA制御処理部32のTA制御部321によって、TA通信IF部31で通信信号を受信したか否かを判定する(S31)。この判定の結果、通信信号を受信していない場合(No)には、携帯端末装置TAは、処理をS31に戻し、前記判定の結果、通信信号を受信している場合(Yes)には、携帯端末装置TAは、次の処理S32を実行する。すなわち、携帯端末装置TAは、通信信号の受信を待ち受けている。
 処理S32では、携帯端末装置TAは、TA制御部321によって、この受信した通信信号の種類を判定する。この判定の結果、携帯端末装置TAは、前記処理S31で受信した通信信号が第2イベント通知通信信号である場合(第2イベント通知)には、次の処理S33を実行し、前記処理S31で受信した通信信号が第2イベント通知通信信号ではない場合(その他)には、処理S31で受信した通信信号に応じた適宜な処理を行う処理S37を実行した後に本処理を終了する。
 処理S33では、携帯端末装置TAは、TA制御処理部32のTA監視処理部322によって、処理S31で管理サーバ装置SVから受信した第2イベント通知通信信号に収容された、被監視者Obに対する監視に関する監視情報をTA監視情報記憶部331に記憶(記録)する。
 この処理S33の次に、TA監視処理部322は、表示処理部3221によって、処理S31で受信した第2イベント通知通信信号に収容された各情報に応じた画面をTA表示部36に表示する。より具体的には、表示処理部3221は、処理S31で受信した第2イベント通知通信信号に収容された前記イベント情報が前記所定の行動である場合には、例えば図12に示す監視情報画面52をTA表示部36に表示し、一方、処理S31で受信した第2イベント通知通信信号に収容された前記イベント情報が前記ナースコールである場合には、例えば図13に示すナースコール受付画面53をTA表示部36に表示する。
 この監視情報画面52は、被監視者Obの監視に関する前記監視情報を表示するための画面である。前記監視情報画面52は、例えば、図12に示すように、メニューバー領域511と、処理S31で受信した第2イベント通知通信信号に収容されたセンサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前を表示する被監視者名領域521と、処理S31で受信した第2イベント通知通信信号の受信時刻(または前記所定の行動の検知時刻)からの経過時間、および、処理S31で受信した第2イベント通知通信信号に収容された前記事象情報(前記所定の行動の検知結果)を表示する検知情報表示領域522と、処理S31で受信した第2イベント通知通信信号に収容された画像(すなわち、前記センサIDを持つ前記センサ装置SUによって撮像された対象画像)(ここでは静止画)を表示する画像領域523と、「対応する」ボタン524と、「話す」ボタン525と、「LIVEを見る」ボタン526と、「一時OFF」ボタン527とを備える。
 被監視者名領域521に、センサ装置SUの配設場所および被監視者Obの名前を表示するために、TA記憶部33には、センサID、前記センサIDを持つセンサ装置SUの配設場所および前記センサIDを持つ前記センサ装置SUによって監視される被監視者Obの名前が互いに対応付けられて予め記憶される。
 検知情報表示領域522には、処理S31で受信した第2イベント通知通信信号に収容された前記検知結果(本実施形態では、起床、離床、転落および転倒の各名称)がそのまま表示されても良いが、本実施形態では、前記検知結果を象徴的に表すアイコンで表示されている。このアイコンで表示するために、TA記憶部33には、各行動およびその行動を象徴的に表すアイコンが互いに対応付けられて予め記憶される。図12に示す例では、検知情報表示領域522には、起床を象徴的に表す起床アイコンが表示されている。
 処理S31で受信した第2イベント通知通信信号に収容された画像を画像領域523に表示する場合、表示処理部3221は、処理S31で受信した第2イベント通知通信信号に収容されたセンサIDを持つセンサ装置SUに対応した、前記方向合わせ情報としてTAセンサ情報記憶部332に記憶されている回転角度情報に基づいて、TA表示部36に表示する前記画像を回転することによって、前記表示面の表示方向と前記画像の画像方向とが前記特定の関係となるように、前記画像をTA表示部36に表示する。より具体的には、表示処理部3221は、まず、TAセンサ情報記憶部332に記憶されているTAセンサ情報テーブルSTから、処理S31で受信した第2イベント通知通信信号に収容されたセンサIDを、センサIDフィールド3321に登録しているレコートを検索し、この検索したレコードの方向合わせ情報フィールド3324に登録されている回転角度情報を取得する。そして、表示処理部3221は、この取得した回転角度情報の回転角度だけ時計回りに、処理S31で受信した第2イベント通知通信信号に収容された画像を回転して、TA表示部36に表示する。これによって、前記表示面の表示方向と前記画像の画像方向とが前記特定の関係となって、前記画像がTA表示部36に表示される。例えば、上述したように、設定対象画像が図10Aや図10Bに示すようにTA表示部36の表示面に表示される場合でも、画像が回転角度情報の回転角度だけ時計回りに回転されることで図12に示すようにTA表示部36の表示面に表示される。
 「対応する」ボタン524は、監視情報画面52では、この監視情報画面52に表示された検知結果に対し例えば救命、看護、介護および介助等の所定の対応(応対、対処)を実施する意思が当該携帯端末装置TAのユーザにある旨を表す実施意思情報を、当該携帯端末装置TAに入力するためのボタンである。「話す」ボタン525は、音声通話を要求するためのボタンであって、前記センサIDの前記センサ装置SUと当該携帯端末装置TAとをネットワークNWを介して通話可能に接続する指示を入力するためのボタンである。「LIVEを見る」ボタン526は、ライブでの動画を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画を表示させる指示を入力するためのボタンである。「一時OFF」ボタン527は、前記センサIDのセンサ装置SUに関する監視機能の停止を当該携帯端末装置TAに入力するためのボタンであって、前記センサIDのセンサ装置SUに関する監視機能を監視サーバ装置SVに停止させる指示を入力するためのボタンである。
 前記ナースコール受付画面53は、ナースコールの受付を表示するための画面である。このナースコール受付画面53は、例えば、図13に示すように、メニューバー領域511と、被監視者名領域521と、検知情報表示領域522と、ナースコールを受け付けた旨を表すメッセージ(例えば「ナースコールです」)を表示するナースコール受付通知表示領域531と、「対応する」ボタン524と、「話す」ボタン525と、「一時OFF」ボタン527とを備える。このナースコール受付画面53では、検知情報表示領域522には、処理S31で受信した第2イベント通知通信信号の受信時刻(または前記ナースコールを受け付けた受付時刻)からの経過時間のみが表示される。
 なお、ナースコール受付画面53は、「LIVEを見る」ボタン526をさらに備えても良い。
 そして、処理S34の次に、携帯端末装置TAは、TA制御処理部32によって、TA入力部35およびTA表示部36を備えて成るタッチパネルで入力操作を受け付けたか否かを判定する(S35)。この判定の結果、入力操作を受け付けていない場合(No)には、携帯端末装置TAは、処理を処理S35に戻し、一方、前記判定の結果、入力操作を受け付けている場合には、携帯端末装置TAは、次の処理S36を実行する。
 この処理S36では、携帯端末装置TAは、TA制御処理部32によって、入力操作の内容に応じた適宜な処理を実行し、本処理を終了する。
 例えば、携帯端末装置TAは、TA制御処理部32によって、「対応する」ボタン524の入力操作を受け付けると(すなわち、前記対応意思を受け付けると)、現在、TA表示部36に表示している被監視者Obの監視情報に、「対応する」を受け付けた旨を付してTA監視情報記憶部331に記憶し、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDおよび「対応する」を受け付けた旨を表す情報(対応受付情報)を収容した通信信号(対応受付通知通信信号)を管理サーバ装置SVへ送信する。この対応受付通知通信信号を受信した管理サーバ装置SVは、この受信した対応受付通知通信信号に収容されたセンサIDおよび対応受付情報を収容した通信信号(対応受付周知通信信号)を同報通信で端末装置SP、TAへ送信する。これによって、TA表示部36に表示している被監視者Obの監視情報に対応するセンサIDに関し、「対応する」を受け付けた旨が各端末装置SP、TA間で同期される。
 また例えば、携帯端末装置TAは、TA制御処理部32によって、「話す」ボタン525の入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話を要求する旨等の情報を収容した通信信号(通話要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して音声通話可能に接続する。これによって携帯端末装置TAとセンサ装置SUとの間で音声通話が可能となる。なお、携帯端末装置TAは、TA制御処理部32によって、音声通話の終了の指示を入力するためのボタンである図略の「終了」ボタンの入力操作を受け付けると、通話処理部323によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話の終了を要求する旨等の情報を収容した通信信号(通話終了通信信号)を送信する。これによって携帯端末装置TAとセンサ装置SUとの間での音声通話が終了される。
 また例えば、携帯端末装置TAは、TA制御処理部32によって、「LIVEを見る」ボタン526の入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、ライブでの動画の配信を要求する旨等の情報を収容した通信信号(動画配信要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して動画のダウンロード可能に接続し、前記センサ装置SUからライブでの動画の配信を受け、この配信を受けた動画をストリーミング再生でTA表示部36に表示する。このライブでの動画を表示する監視情報画面52では、画像領域523に動画が表示され、そして、「LIVEを見る」ボタン526に代え図略の「LIVE終了」ボタンが表示される。これによって携帯端末装置TAには、ライブでの動画が表示される。前記図略の「LIVE終了」ボタンは、動画の終了を要求するためのボタンであって、前記センサIDの前記センサ装置SUによって撮像される動画の配信を終了(停止)させ表示を終了(停止)させる指示を入力するためのボタンである。携帯端末装置TAは、TA制御処理部32によって、「LIVE終了」ボタンの入力操作を受け付けると、TAストリーミング処理部324によって、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、動画配信の終了を要求する旨等の情報を収容した通信信号(動画配信終了通信信号)を送信し、静止画をTA表示部36に表示する。これによって携帯端末装置TAは、ライブでの動画の表示を終了する。
 また例えば、携帯端末装置TAは、TA制御処理部32によって、「一時OFF」ボタン527の入力操作を受け付けると、前記センサIDのセンサ装置SUに関する監視機能を停止するために、前記センサIDのセンサ装置SUに関する第2イベント通知通信の送信を管理サーバ装置SVに停止させる通信信号(監視機能停止指令通信信号)を管理サーバ装置SVへ送信する。管理サーバ装置SVは、この監視機能停止指令通信信号を受信すると、この監視機能停止指令通信信号に収容されたセンサIDを持つセンサ装置SUから受信された第1イベント通知通信信号に起因する第2イベント通知通信信号の送信を停止する。この「一時OFF」ボタン527の入力操作による監視機能の停止は、所定時間経過後に自動的に解除される。
 管理サーバ装置SVから受信した第2イベント通知通信信号に関し、携帯端末装置TAは、以上のように動作している。
 以上説明したように、本実施形態における被監視者監視システムMS、端末装置SP、TAおよびこれに実装された表示方法は、表示方向と画像方向とが前記特定の関係となるように、画像をTA表示部36に表示する表示処理部3221を備えるので、画像を生成する撮像部11の配設方向(本実施形態ではセンサ装置SUの配設方向)にかかわらず、前記画像を前記特定の関係でTA表示部36に表示できる。したがって、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法は、撮像部11の配設方向にかかわらず、適切にTA表示部36の表示面に表示できる。
 上述の実施形態において、前記特定の関係が前記第1関係である場合に、正規の配置態様で配置された端末装置SP、TAにおいて、正面視にて、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法は、被監視者Obが寝具BD上に横臥姿勢で居る場合に、通常、頭部をTA表示部36の表示面の上側に位置するように被監視者Obを写した画像を表示する。このため、TA表示部36に表示された画像を見た監視者(ユーザ)は、画像に写る被監視者Obが上記通常の横臥姿勢であるか否かによって、被監視者Obの状況を容易に把握できる。したがって、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法は、被監視者Obの状況を把握する場合の利便性を向上できる。
 上述の実施形態において、前記特定の関係が前記第2関係である場合に、正規の配置態様で配置された端末装置SP、TAにおいて、正面視にて、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法は、常に、部屋RMの入り口がTA表示部36に表示された画像の下側に位置するように、前記画像を表示する。このため、TA表示部36に表示された画像を見た監視者は、前記画像に写る部屋RMに前記入り口から入室する場合、前記画像の下側から入室することになるので、入室後の状況を容易に想像(イメージ)でき、入室後の状況をイメージしながら入室できる。
 上述の端末装置において、前記特定の関係が前記第3関係、または、前記第4関係である場合に、正規の配置態様で配置された端末装置SP、TAにおいて、正面視にて、上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法は、被監視者Obが例えばベッド等の寝具BD上に端座している場合に、常に、画像全体に対する略同じ位置で被監視者Obを表示でき、被監視者Obの顔の向きも略同じ向きで被監視者Obを表示できる。転倒事故(転落事故)は、離床の際に比較的生じ易いが、その転倒の際の状況が統一的な向きで表示されるため、監視者は、被監視者Obの状況を容易に把握でき、監視者が被監視者Obに駆けつけた際の事故の防止に効果的である。
 上記被監視者監視システムMS、上記端末装置SP、TAおよび上記表示方法は、方向合わせ情報記憶部332を備えることで、前記特定の関係を容易に設定できる。
 なお、上述の実施形態では、端末装置SP、TAが方向合わせ情報を記憶したが、方向合わせ情報は、センサ装置SUに記憶され、第1イベント通知通信信号およびこれに起因する第2イベント通知通信信号にこの方向合わせ情報が収容されても良い。この場合において、方向合わせ情報は、例えば、端末装置SP、TAから入力され、端末装置SP、TAから管理サーバ装置SVを介してセンサ装置SUに送信されて記憶される。また例えば、センサ装置SUが方向合わせ情報を入力するため例えばロータリスイッチやディップスイッチ等の設定スイッチをさらに備え、方向合わせ情報は、この設定スイッチを介してセンサ装置SUに入力されて記憶される。また、方向合わせ情報は、第1イベント通知通信信号およびこれに起因する第2イベント通知通信信号に収容される画像の画像情報に組み込まれても良い。例えば、画像がEXIF(Exchangeable image file format)のデータである場合、方向合わせ情報は、そのメタデータの撮影方向情報(カメラの回転位置情報)として組み込まれる。より具体的には、Exifファイルは、JPEG(Joint Photographic Experts Group)ファイルフォーマットに準拠したファイルであり、アプリケーションマーカセグメントに、撮影条件等のいわゆるExif情報が格納される。前記方向合わせ情報は、このアプリケーションマーカセグメントに撮影方向情報(カメラの回転位置情報)として格納される。そして、第2イベント通知通信信号を受信した端末装置SP、TAは、表示処理部3221によって、この第2イベント通知通信信号に収容されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像をTA表示部36に表示する。
 また、方向合わせ情報は、管理サーバ装置SVに記憶され、第2イベント通知通信信号にこの方向合わせ情報が管理サーバ装置SVによって収容されても良い。この場合において、方向合わせ情報は、例えば、端末装置SP、TAから入力され、端末装置SP、TAから管理サーバ装置SVに送信されて記憶される。また例えば、管理サーバ装置SVが図7を用いて説明した設定処理を実行し、方向合わせ情報を記憶する。管理サーバ装置SVは、この方向合わせ情報を、端末装置SP、TAと同様に、例えば、図6に示すTAセンサ情報テーブルSTと同様のテーブルで記憶する。管理サーバ装置SVは、第1イベント通知通信信号に起因して第2イベント通知通信信号を送信する場合に、この第1イベント通知通信信号に収容されたセンサIDに対応する方向合わせ情報を前記テーブルから取得し、これを前記第2イベント通知通信信号に収容する。そして、第2イベント通知通信信号を受信した端末装置SP、TAは、表示処理部3221によって、この第2イベント通知通信信号に収容されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像をTA表示部36に表示する。
 これら端末装置SP、TAは、方向合わせ情報を予め記憶しておく必要が無く、第2イベント通知通信信号に収容された方向合わせ情報を用いることで、表示方向と画像方向とが特定の関係となるように、容易に、画像をTA表示部36に表示できる。
 本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。
 一態様にかかる端末装置は、通信を行う通信部と、表示面に表示を行う表示部と、監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を前記通信部で受信した場合に、前記受信したイベント通知通信信号に収容されたイベント情報で表される前記イベントの内容および前記受信したイベント通知通信信号に収容された画像を表示するためのイベント画面を前記表示部に表示する表示処理部とを備える。前記表示処理部は、前記表示部の表示面を正面視した場合に、下から上に向かう方向を表示面の表示方向と定義し、前記画像を生成するエリアイメージセンサを正面視した場合に、下から上に向かう方向を画像の画像方向と定義した場合に、前記表示方向と前記画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する。好ましくは、上述の端末装置において、前記表示処理部は、前記表示部に表示する前記画像を回転することによって、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する。
 このような端末装置は、表示方向と画像方向とが予め設定された特定の関係となるように、画像を表示部に表示する表示処理部を備えるので、画像を生成する撮像部の配設方向にかかわらず、前記画像を前記特定の関係で前記表示部に表示できる。したがって、上記端末装置は、前記撮像部の配設方向にかかわらず、適切に表示部の表示面に表示できる。
 他の一態様では、上述の端末装置において、前記特定の関係は、前記画像に写る寝具の下端から上端に向かう方向を寝具方向と定義した場合、前記寝具方向が前記表示方向に一致する第1関係である。
 正規の配置態様で配置された端末装置において、正面視にて、上記端末装置は、被監視者が寝具上に横臥姿勢で居る場合に、通常、頭部を表示面の上側に位置するように被監視者を写した画像を表示する。このため、表示部に表示された画像を見た監視者(ユーザ)は、画像に写る被監視者が上記通常の横臥姿勢であるか否かによって、被監視者の状況を容易に把握できる。したがって、上記端末装置は、被監視者の状況を把握する場合の利便性を向上できる。
 他の一態様では、上述の端末装置において、前記特定の関係は、前記画像に写る部屋における入り口の側から前記入り口に対向する対向側に向かう方向を部屋方向と定義した場合に、前記部屋方向が前記表示方向に一致する第2関係である。
 正規の配置態様で配置された端末装置において、正面視にて、上記端末装置は、常に、部屋の入り口が表示部に表示された画像の下側に位置するように、前記画像を表示する。このため、表示部に表示された画像を見た監視者は、前記画像に写る部屋に前記入り口から入室する場合、前記画像の下側から入室することになるので、入室後の状況を容易に想像(イメージ)でき、入室後の状況をイメージしながら入室できる。
 他の一態様では、上述の端末装置において、前記特定の関係は、前記画像に写る寝具における長辺であって前記被監視者が離床の際に越える長辺が前記表示方向に沿う第3関係、または、前記長辺が前記表示方向と直交する第4関係である。
 正規の配置態様で配置された端末装置において、正面視にて、上記端末装置は、被監視者が例えばベッド等の寝具上に端座している場合に、常に、画像全体に対する略同じ位置で被監視者を表示でき、被監視者の顔の向きも略同じ向きで被監視者を表示できる。転倒事故(転落事故)は、離床の際に比較的生じ易いが、その転倒の際の状況が統一的な向きで表示されるため、監視者は、被監視者の状況を容易に把握でき、監視者が被監視者に駆けつけた際の事故の防止に効果的である。
 他の一態様では、これら上述の端末装置において、前記表示方向と前記画像方向とを前記特定の関係となるように前記画像を前記表示部に表示するための情報である方向合わせ情報を記憶する方向合わせ情報記憶部をさらに備え、前記表示処理部は、前記方向合わせ情報記憶部に記憶されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する。好ましくは、上述の端末装置において、前記イベント通知通信信号は、被監視者を監視する複数の被監視者監視装置それぞれに起因して送信され、前記方向合わせ情報記憶部は、前記方向合わせ情報を前記被監視者監視装置に対応付けて記憶し、前記表示処理部は、画像を表示する場合に、前記画像を収容したイベント通知通信信号の被監視者監視装置に対応した、前記方向合わせ情報記憶部に記憶されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する。好ましくは、これら上述の端末装置において、前記方向合わせ情報は、画像を回転して前記表示部に表示する場合における前記回転の回転角度を表す回転角度情報であり、前記表示処理部は、前記方向合わせ情報として前記方向合わせ情報記憶部に記憶されている回転角度情報に基づいて、前記表示部に表示する前記画像を回転することによって、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する。
 このような端末装置は、方向合わせ情報記憶部を備えることで、前記特定の関係を容易に設定できる。
 他の一態様では、これら上述の端末装置において、前記イベント通知通信信号は、前記表示方向と前記画像方向とを前記特定の関係となるように前記画像を前記表示部に表示するための情報である方向合わせ情報をさらに収容し、前記表示処理部は、前記イベント通知通信信号に収容されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する。
 このような端末装置は、方向合わせ情報を予め記憶しておく必要が無く、イベント通知通信信号に収容された方向合わせ情報を用いることで、表示方向と画像方向とが特定の関係となるように、容易に、画像を表示部に表示できる。
 他の一態様にかかる端末装置の表示方法は、監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を受信する受信工程と、前記受信工程で受信したイベント通知通信信号に収容されたイベント情報で表される前記イベントの内容および前記受信したイベント通知通信信号に収容された画像を表示するためのイベント画面を、表示面に表示を行う表示部に表示する表示処理工程とを備える。前記表示処理工程は、前記表示部の表示面を正面視した場合に、下から上に向かう方向を表示面の表示方向と定義し、前記画像を生成するエリアイメージセンサを正面視した場合に、下から上に向かう方向を画像の画像方向と定義した場合に、前記表示方向と前記画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する。
 このような端末装置の表示方法は、表示方向と画像方向とが予め設定された特定の関係となるように、画像を表示部に表示する表示処理工程を備えるので、画像を生成する撮像部の配設方向にかかわらず、前記画像を前記特定の関係で前記表示部に表示できる。したがって、上記端末装置の表示方法は、前記撮像部の配設方向にかかわらず、適切に表示部の表示面に表示できる。
 他の一態様にかかる被監視者監視システムは、端末装置と、前記端末装置と通信可能に接続され、監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を、前記端末装置へ通知する被監視者監視装置とを備える被監視者監視システムであって、前記端末装置は、これらいずれかの端末装置である。好ましくは、上述の被監視者監視システムにおいて、前記被監視者監視装置は、センサ装置と前記センサ装置と通信可能に接続された管理サーバ装置とを備え、前記センサ装置は、監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を、前記管理サーバ装置へ通知し、前記管理サーバ装置は、前記センサ装置から前記通知を受けると前記通知を通信可能に接続された端末装置へ再通知する。
 このような被監視者監視システムは、これらいずれかの端末装置を備えるので、画像を生成する撮像部の配設方向にかかわらず、適切に表示面に表示できる。
 この出願は、2016年2月24日に出願された日本国特許出願特願2016-32778を基礎とするものであり、その内容は、本願に含まれるものである。
 本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
 本発明によれば、端末装置および端末装置の表示方法ならびに被監視者監視システムが提供できる。
 

Claims (8)

  1.  通信を行う通信部と、
     表示面に表示を行う表示部と、
     監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を前記通信部で受信した場合に、前記受信したイベント通知通信信号に収容されたイベント情報で表される前記イベントの内容および前記受信したイベント通知通信信号に収容された画像を表示するためのイベント画面を前記表示部に表示する表示処理部とを備え、
     前記表示処理部は、前記表示部の表示面を正面視した場合に、下から上に向かう方向を表示面の表示方向と定義し、前記画像を生成するエリアイメージセンサを正面視した場合に、下から上に向かう方向を画像の画像方向と定義した場合に、前記表示方向と前記画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する、
     端末装置。
  2.  前記特定の関係は、前記画像に写る寝具の下端から上端に向かう方向を寝具方向と定義した場合、前記寝具方向が前記表示方向に一致する第1関係である、
     請求項1に記載の端末装置。
  3.  前記特定の関係は、前記画像に写る部屋における入り口の側から前記入り口に対向する対向側に向かう方向を部屋方向と定義した場合に、前記部屋方向が前記表示方向に一致する第2関係である、
     請求項1に記載の端末装置。
  4.  前記特定の関係は、前記画像に写る寝具における長辺であって前記被監視者が離床の際に越える長辺が前記表示方向に沿う第3関係、または、前記長辺が前記表示方向と直交する第4関係である、
     請求項1に記載の端末装置。
  5.  前記表示方向と前記画像方向とを前記特定の関係となるように前記画像を前記表示部に表示するための情報である方向合わせ情報を記憶する方向合わせ情報記憶部をさらに備え、
     前記表示処理部は、前記方向合わせ情報記憶部に記憶されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する、
     請求項1ないし請求項4のいずれか1項に記載の端末装置。
  6.  前記イベント通知通信信号は、前記表示方向と前記画像方向とを前記特定の関係となるように前記画像を前記表示部に表示するための情報である方向合わせ情報をさらに収容し、
     前記表示処理部は、前記イベント通知通信信号に収容されている方向合わせ情報に基づいて、前記表示方向と前記画像方向とが前記特定の関係となるように、前記画像を前記表示部に表示する、
     請求項1ないし請求項4のいずれか1項に記載の端末装置。
  7.  監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を受信する受信工程と、
     前記受信工程で受信したイベント通知通信信号に収容されたイベント情報で表される前記イベントの内容および前記受信したイベント通知通信信号に収容された画像を表示するためのイベント画面を、表示面に表示を行う表示部に表示する表示処理工程とを備え、
     前記表示処理工程は、前記表示部の表示面を正面視した場合に、下から上に向かう方向を表示面の表示方向と定義し、前記画像を生成するエリアイメージセンサを正面視した場合に、下から上に向かう方向を画像の画像方向と定義した場合に、前記表示方向と前記画像方向とが、予め設定された特定の関係となるように、前記画像を前記表示部に表示する、
     端末装置の表示方法。
  8.  端末装置と、前記端末装置と通信可能に接続され、監視対象である被監視者に関わる所定のイベントの内容を表すイベント情報、および、前記イベントに関わる前記被監視者の画像を収容した、前記イベントを通知するためのイベント通知通信信号を、前記端末装置へ通知する被監視者監視装置とを備える被監視者監視システムであって、
     前記端末装置は、請求項1ないし請求項5のいずれか1項に記載の端末装置である、
     被監視者監視システム。
PCT/JP2017/003569 2016-02-24 2017-02-01 端末装置および端末装置の表示方法ならびに被監視者監視システム WO2017145679A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017554097A JP6292363B2 (ja) 2016-02-24 2017-02-01 端末装置および端末装置の表示方法ならびに被監視者監視システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016032778 2016-02-24
JP2016-032778 2016-02-24

Publications (1)

Publication Number Publication Date
WO2017145679A1 true WO2017145679A1 (ja) 2017-08-31

Family

ID=59685120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/003569 WO2017145679A1 (ja) 2016-02-24 2017-02-01 端末装置および端末装置の表示方法ならびに被監視者監視システム

Country Status (2)

Country Link
JP (2) JP6292363B2 (ja)
WO (1) WO2017145679A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022110634A (ja) * 2021-01-19 2022-07-29 新生電子株式会社 要介護者見守りシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170483A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 状態検知装置および状態検知方法
JP2015027036A (ja) * 2013-07-29 2015-02-05 シャープ株式会社 監視システム、監視方法及びプログラム
WO2015037269A1 (ja) * 2013-09-13 2015-03-19 コニカミノルタ株式会社 被監視者監視装置および該方法ならびに被監視者監視システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277470A (ja) * 2004-03-22 2005-10-06 Toshiba Corp 撮影表示装置および撮影画像表示処理プログラム
JP2005321516A (ja) * 2004-05-07 2005-11-17 Mitsubishi Electric Corp 携帯機器
JP5155279B2 (ja) * 2009-10-29 2013-03-06 株式会社日立製作所 複数監視カメラによる集中監視システムおよび集中監視方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170483A (ja) * 2011-02-17 2012-09-10 Fujitsu Ltd 状態検知装置および状態検知方法
JP2015027036A (ja) * 2013-07-29 2015-02-05 シャープ株式会社 監視システム、監視方法及びプログラム
WO2015037269A1 (ja) * 2013-09-13 2015-03-19 コニカミノルタ株式会社 被監視者監視装置および該方法ならびに被監視者監視システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022110634A (ja) * 2021-01-19 2022-07-29 新生電子株式会社 要介護者見守りシステム
JP7152795B2 (ja) 2021-01-19 2022-10-13 新生電子株式会社 要介護者見守りシステム

Also Published As

Publication number Publication date
JP2018120597A (ja) 2018-08-02
JPWO2017145679A1 (ja) 2018-03-29
JP6292363B2 (ja) 2018-03-14
JP6673382B2 (ja) 2020-03-25

Similar Documents

Publication Publication Date Title
JP6888618B2 (ja) 見守りシステム及び管理サーバ
WO2017146012A1 (ja) 被監視者監視装置、該方法および該システム
JP6988798B2 (ja) 見守りシステム
WO2017099091A1 (ja) 被監視者監視システムの中央処理装置および中央処理方法ならびに被監視者監視システム
JP6226110B1 (ja) 被監視者監視装置、該方法および該システム
JP2017148504A (ja) 被監視者監視装置、該方法および該システム
JP6292363B2 (ja) 端末装置および端末装置の表示方法ならびに被監視者監視システム
JP6504255B2 (ja) 介護支援システム及び介護支援方法
JP6740633B2 (ja) 被監視者監視システムの中央処理装置および中央処理方法、ならびに、前記被監視者監視システム
WO2017179605A1 (ja) 見守りシステム及び管理サーバ
JP6686523B2 (ja) 被監視者監視装置、該方法および該システム
JP6172424B1 (ja) 端末装置および端末装置の制御方法ならびに被監視者監視システム
JP6895090B2 (ja) 検知システムおよび検知システムの表示処理方法
JP6135832B1 (ja) 被監視者監視システム、被監視者監視システムの作動方法および被監視者監視システムの中央処理装置
JP6213699B1 (ja) 被監視者監視システムの中央処理装置および中央処理方法ならびに被監視者監視システム
WO2017145832A1 (ja) 被監視者監視装置、該方法および該システム
JP6187732B1 (ja) 端末装置、端末装置の動作制御方法および被監視者監視システム
WO2017188156A1 (ja) 被監視者監視システムの端末装置および端末装置の制御方法ならびに被監視者監視システム
JP6245415B1 (ja) 端末装置および端末装置の動作制御方法ならびに被監視者監視システム
WO2017145520A1 (ja) 端末装置および端末装置の制御方法ならびに被監視者監視システム
WO2017130684A1 (ja) 被監視者監視装置、該方法および該システム
JP2020188487A (ja) 中央処理装置、被監視者監視方法および被監視者監視システム
WO2017026284A1 (ja) 被監視者監視システムの中央処理装置および該方法ならびに被監視者監視システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017554097

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17756121

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17756121

Country of ref document: EP

Kind code of ref document: A1