WO2019142449A1 - 画像記録システムおよび該方法ならびに被監視者監視支援システム - Google Patents

画像記録システムおよび該方法ならびに被監視者監視支援システム Download PDF

Info

Publication number
WO2019142449A1
WO2019142449A1 PCT/JP2018/041040 JP2018041040W WO2019142449A1 WO 2019142449 A1 WO2019142449 A1 WO 2019142449A1 JP 2018041040 W JP2018041040 W JP 2018041040W WO 2019142449 A1 WO2019142449 A1 WO 2019142449A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
imaging
worker
information
Prior art date
Application number
PCT/JP2018/041040
Other languages
English (en)
French (fr)
Inventor
安紀 辻
保理江 大作
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2019565728A priority Critical patent/JP7167946B2/ja
Publication of WO2019142449A1 publication Critical patent/WO2019142449A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image recording system and an image recording method for recording an image.
  • the present invention relates to a monitored person monitoring support system that includes the image recording system and supports monitoring of a monitored person to be monitored.
  • Patent Document 1 In recent years, with the rush of the super-aging society, techniques for complementing operations such as the nursing industry and the care industry have been researched and developed, and disclosed, for example, in Patent Document 1.
  • the nurse call system disclosed in this patent document 1 is installed in a bed and a nurse call slave machine for a patient to call a nurse, and installed in a nurse station for answering a call by the nurse call slave machine.
  • a nurse call system having a nurse call master, a camera for imaging a patient on a bed from above the bed, and a state in which the patient is in an upper body and a patient is separated from the bed from an imaging image of the camera
  • the nurse call master has notification means for notifying operation upon receiving the attention state occurrence signal.
  • the state determination means determines the occurrence of at least one of the above and outputs an attention state occurrence signal.
  • the above-mentioned badness in order to lower the work efficiency, and the above-mentioned appropriateness and the politeness are appropriate because they are related to the reputation for a hospital, a care facility or the like. For this reason, it is necessary for the superior of the worker to instruct the worker, but for this purpose, it is desirable to accurately grasp the actual condition of the worker on the job.
  • the nurse call system disclosed in the patent document 1 captures a patient on a bed from above the bed with a camera and stores the image.
  • the video is expected to include a nurse as well as the patient, but has not identified a nurse. For this reason, since it is impossible to extract a video file for a desired nurse from a plurality of files as the video file remains, each file of the video is reproduced to search for a video file for the desired nurse. It has to be taken out, and it takes time and effort (man hours).
  • the present invention is an invention made in view of the above-mentioned circumstances, and an object thereof is to provide an image recording system, an image recording method, and the image recording system which can more easily extract an image for a desired (objective) worker.
  • An object of the present invention is to provide a monitored person monitoring support system.
  • an image recording system, an image recording method, and a person-to-be-monitored support system reflecting one aspect of the present invention are characterized by the first and the second when a predetermined worker enters an imaging target area.
  • association information in which the first and second identification informations are associated with each other is generated. Get the second specific information. Then, based on the second identification information from the imaging unit and the generated linking information, an image from the imaging unit is linked to the first identification information and stored in the image storage unit.
  • FIG. 1 It is a figure which shows the structure of the imaging device of 3rd Embodiment in the said image recording system. It is a sequence diagram which shows operation
  • FIG. 1 It is a figure which shows the structure of the image information table with a detection event memorize
  • the image recording system in the embodiment is a device that associates and records (stores) an image generated by imaging a predetermined imaging target with a predetermined worker who has entered the area of the imaging target, , An image storage unit, an image storage processing unit, a reading unit, and a generation unit.
  • the imaging unit is provided corresponding to a predetermined imaging target, and images the imaging target to generate an image.
  • the image storage unit stores an image generated by the imaging unit.
  • the image storage processing unit stores the image generated by the imaging unit in the image storage unit.
  • the reading unit is one of first identification information for identifying the worker and second identification information for identifying an imaging unit corresponding to the imaging target when a predetermined worker enters the imaging target area.
  • the generation unit has the other specific information of the first and second specific information in advance and the reading unit reads the one specific information
  • the other specific information and the reading unit read the specific information
  • the association information in which the one specific information is associated with each other is generated, and the generated association information is output to the image storage processing unit.
  • the imaging unit has the second specific information of the own machine in advance, and outputs the generated image to the image storage processing unit together with the second specific information of the own machine, and the image storage processing
  • the unit associates the image from the imaging unit with the first identification information and stores the image in the image storage unit based on the second identification information from the imaging unit and the tying information from the generation unit. .
  • each of the imaging unit, the image storage unit, the image storage processing unit, the reading unit, and the generation unit may be mounted on any of the plurality of devices.
  • FIG. 1 is a diagram showing a configuration of an image recording system in the embodiment.
  • FIG. 2 is a diagram showing a configuration of an imaging device of the first embodiment in the image recording system.
  • FIG. 3 is a diagram showing a configuration of a management server apparatus of the first embodiment in the image recording system.
  • FIG. 4 is a diagram showing the configuration of an image information table stored in the management server apparatus shown in FIG.
  • FIG. 5 is a diagram showing the configuration of the mobile terminal device of the first embodiment in the image recording system.
  • the image recording system MSa in the first embodiment records (stores) an image generated by imaging a predetermined imaging target in association with a predetermined worker who has entered the area of the imaging target.
  • the reading unit is mounted on an ID device RDa
  • the imaging unit and the generation unit are mounted on an imaging device CUa
  • the image storage unit and the image storage processing unit are management server devices. Implemented in SVa.
  • this image recording system MSa includes one or more imaging devices CUa (CUa-1 to CUa-3) and one or more identification devices (ID devices) RDa (RDa-1 to RDa).
  • RDa-3 a management server SVa, one or more portable terminal TAa (TAa-1, TAa-2), and a private branch exchange (PBX) CX, which may be wired or wired.
  • NW network, communication line
  • the network NW may be provided with relays such as repeaters, bridges and routers for relaying communication signals.
  • the network NW may be provided with relays such as repeaters, bridges and routers for relaying communication signals.
  • the plurality of imaging devices CUa-1 to CUa-3, the management server device SVa, the plurality of mobile terminal devices TAa-1 and TAa-2, and the private branch exchange CX are L2 switch concentrators (hub , HUB)
  • a wired and wireless mixed LAN (for example, a LAN according to the IEEE 802.11 standard) NW including the LS and the access point AP is communicably connected to each other.
  • the plurality of imaging devices CUa-1 to CUa-3, the management server device SVa and the private branch exchange CX are connected to the line concentrator LS, and the plurality of mobile terminal devices TAa-1 and TAa-2 are access points AP.
  • the network NW constructs a so-called intranet by using an internet protocol group such as a transmission control protocol (TCP) and an internet protocol (IP).
  • TCP transmission control protocol
  • IP internet protocol
  • the image recording system MSa is disposed at an appropriate place according to the image to be recorded.
  • the image to be recorded may be of any type, but as an example, in the present embodiment, a person to be monitored (person to be watched) Ob (observation person) to be monitored (to be watched). It is arranged in the building where the person to be monitored Ob is located, with the monitoring area where -1 to Ob-3) is located as the area to be imaged.
  • the monitored person Ob may be of any type.
  • the image recording system MSa is disposed in a building provided with a plurality of living rooms RM in which a plurality of monitored persons Ob reside, and a plurality of living rooms such as a management room and a meeting room.
  • the private branch exchange (line switching unit) CX is connected to the network NW, performs extension telephone control such as call origination, call reception, and telephone call between the portable terminal devices TAa, and implements the extension telephone of the portable terminal devices TAa, For example, it is connected to an outside telephone TL such as a fixed telephone or a mobile telephone through a public telephone network PN such as a fixed telephone network or a mobile telephone network, for example, to make, receive, and make calls between the outside telephone TL and the mobile terminal device TAa. , Etc. to control the outside line telephone and carry out the outside line telephone between the outside line telephone TL and the portable terminal device TAa.
  • the private branch exchange CX is, for example, a digital exchange, an IP-PBX (Internet Protocol Private Branch eXchange), or the like.
  • the ID device RDa is provided corresponding to the area of the imaging target, and corresponds to first identification information for specifying the worker and the imaging target when a predetermined worker enters and leaves the area of the imaging target.
  • This is a device that reads one of the second identification information that identifies the imaging device CUa. More specifically, in the present embodiment, the ID device RDa reads the first identification information by wireless communication from the portable terminal device TAa storing the first identification information as described later, and the read first identification information It is a reader for notifying specific information to the imaging device CUa provided corresponding to the area of the imaging target provided with the ID device RDa by wired communication or wireless communication.
  • the mobile terminal device TAa includes, as described later, a mobile phone device, a smartphone, a tablet terminal device, and the like.
  • a mobile phone device a smartphone, a tablet terminal device, and the like.
  • short distance wireless communication such as Bluetooth (registered trademark) standard is used, for example.
  • the network NW may be used for the wired communication or wireless communication between the ID device RDa and the imaging device CUa, or for the wireless communication between the ID device RDa and the imaging device CUa, for example
  • the near field communication may be used.
  • the imaging target is an appropriate subject corresponding to an image to be recorded, and may be arbitrary.
  • the monitoring area where the monitored person Ob is located is the area to be imaged, and the monitoring area is a room RM in which the monitored person Ob is present.
  • each of the plurality of ID devices RDa-1 to RDa-3 is arranged in each of the plurality of living rooms RM-1 to RM-3.
  • the monitoring area is a room (patient room) of a hospital where the monitored person Ob is present, and as another example, an image path
  • the monitoring area is a room of a dwelling unit in which the monitored person Ob is present.
  • the monitoring area may be a predetermined area including bedding used by the monitored persons Ob.
  • the monitoring area may be a predetermined area including bedding used by the monitored person Ob in a living room of a dwelling unit.
  • the first identification information is information for identifying the worker, and is, for example, a worker identifier (worker ID) which is an identifier for identifying and identifying the worker NS.
  • the worker ID is, for example, a predetermined code string such as a worker name, a staff number, and a serial number.
  • the worker NS is a person who performs a predetermined job, and is an appropriate person according to the place where the image recording system MSa is disposed.
  • the monitored subject Ob is a patient
  • the worker NS is a doctor or a nurse who performs various tasks such as medical care or nursing for the patient
  • the monitored subject Ob is a receiving subject. They are a carer who performs a work of caring for the cared person, a dietitian who performs a work of honor management such as the patient and the cared person, and a cleaner who performs a work such as cleaning.
  • the second identification information is information for identifying the imaging device CUa corresponding to the imaging target, and is, for example, an imaging device identifier (camera ID) which is an identifier for identifying and identifying the imaging device CUa.
  • the imaging device CUa is provided corresponding to the imaging target, and the area of the imaging target is a room where the monitored person Ob is located, so the camera ID is a room name, a room number, It may be a predetermined code string such as the name of the monitored person of the monitored person Ob located in the living room RM and a serial number.
  • the ID apparatus RDa identifies the first identification information for identifying the worker and the imaging unit corresponding to the imaging object when the predetermined worker enters the imaging target area. It corresponds to an example of a reading unit that reads one of the second identification information.
  • the ID device RDa is a reader that reads the first specific information from the mobile terminal device TAa by wireless communication and notifies the imaging device CUa of the read first specific information by wired communication or wireless communication.
  • the present invention is not limited to this, and may be another device.
  • the ID device RDa Or the card reader which reads the first specific information from the magnetic card and notifies the imaging device CUa of the read first specific information by wired communication or wireless communication.
  • the ID device RDa may be a code reader which reads the first specific information from a one-dimensional code (bar code) or the two-dimensional code, and notifies the read first specific information to the imaging device CUa by wired communication or wireless communication.
  • the imaging device CUa is a device that is provided corresponding to the imaging target, includes a communication function and the like that communicates with the management server SVa via the network NW, and images the imaging target to generate an image. Then, in the present embodiment, the imaging device CUa manages the entering / exiting status of the worker NS with respect to the region to be imaged, has the second identification information (camera ID in the present embodiment) of the own device in advance, and generates the image Are output (sent) to the management server SVa together with the second identification information of the own machine. For example, as illustrated in FIG. 2, such an imaging device CUa captures an image, a camera 11, an imaging side control processing unit (CU control processing unit) 12a, an imaging side communication interface unit (CU communication IF unit) 13, and And a side storage unit (CU storage unit) 14a.
  • the camera 11 is a device that is connected to the CU control processing unit 12a and generates an image (image data) under the control of the CU control processing unit 12a.
  • the images include still images (still image data) and moving images (moving image data).
  • the camera 11 is arranged so as to be capable of imaging an imaging target (in the example shown in FIG. 1, a room (room) RM of the arrangement location).
  • the camera 11 is disposed so as to be capable of imaging from above the imaging target so as to be able to capture the entire area of the imaging target, generates an image that overlooks the imaging target, and CU-controls the image of the imaging target (target image) It outputs to the processing unit 12a.
  • the camera 11 is disposed on the ceiling surface of the living room RM in which the person to be monitored Ob is located because the probability of being able to image the entire area of the imaging target is high.
  • a camera 11 may be, for example, a visible camera that generates an image of visible light, or, for example, an infrared camera that generates an infrared image so that an imaging target can be imaged even in a relatively dark environment. .
  • the CU communication IF unit 13 is a communication circuit that is connected to the CU control processing unit 12a and performs communication according to the control of the CU control processing unit 12a.
  • the CU communication IF unit 13 generates a communication signal containing the data to be transferred, which is input from the CU control processing unit 12a, according to the communication protocol used in the network NW of the image recording system MSa, and generates the generated communication signal. It transmits to the management server apparatus SVa via the network NW.
  • the SU communication IF unit 13 receives a communication signal from the management server SVa via the network NW, extracts data from the received communication signal, and data in a format that can be processed by the CU control processing unit 12a.
  • the CU communication IF unit 13 includes, for example, a communication interface circuit conforming to the IEEE 802.11 standard or the like.
  • the CU communication IF unit 13 comprises a communication interface circuit (for example, a communication interface circuit of Bluetooth (registered trademark) standard) corresponding to the short distance wireless communication.
  • a communication interface circuit for example, a communication interface circuit of Bluetooth (registered trademark) standard
  • the CU storage unit 14a is a circuit that is connected to the CU control processing unit 12a and stores various predetermined programs and various predetermined data according to the control of the CU control processing unit 12a.
  • the various predetermined programs include, for example, a predetermined CU control processing program, and the CU control processing program includes, for example, the respective units 11, 13 and 14a of the imaging device CUa according to the functions of the respective units.
  • the first specific information (worker ID in the present embodiment) is controlled by the ID device RDa when the CU control program to be controlled or when the worker NS enters (enters the room RM in the area to be imaged) (in the present embodiment, the living room RM).
  • association information in which the second identification information of the own machine (camera ID in this embodiment) and the first identification information read by the ID device RDa are associated with each other, and the generated association information
  • the management server SVa When there is a generation program that outputs (sends) to the management server SVa, or the first specific information (worker ID in this embodiment) managed as described later
  • a second identification information of the own machine (camera ID in the present embodiment)
  • a communication address of the management server SVa and a CU in / out indicating the in / out status of the worker NS with respect to the imaging target area It includes data necessary to execute each program, such as status information.
  • the CU storage unit 14a includes, for example, a ROM (Read Only Memory), which is a non-volatile memory element, and an Electrically Erasable Programmable Read Only Memory (EEPROM), which is a rewritable non-volatile memory element.
  • ROM Read Only Memory
  • EEPROM Electrically Erasable Programmable Read Only Memory
  • the CU storage unit 14a includes, for example, a RAM (Random Access Memory) serving as a working memory of a so-called CU control processing unit 12a that stores data and the like generated during execution of the predetermined program.
  • the CU storage unit 14a functionally includes an imaging-side entrance / exit status information storage unit (CU entry / exit status information storage unit) 141a that stores the CU entry / exit status information.
  • the CU in / out status information storage unit 141 a stores the CU in / out status information indicating the in / out status of the worker NS with respect to the imaging target area.
  • the CU in / out status information indicates the in / out status of the worker NS with respect to the imaging target area depending on presence / absence of storage of the first specific information, in the present embodiment, the worker ID. More specifically, as shown in FIG. 7 described later, the CU in / out status information storage unit 141a has a worker ID field 1411 for registering a worker ID, and the imaging side in / out status having a record for each worker ID.
  • An information table (CU in / out status information table) MTa is stored.
  • the worker ID When the worker ID is notified from the ID device RDa, a new record is generated if the notified worker ID is not registered in the worker ID field 1411 of the CU entry / exit status information table MTa.
  • the notified worker ID is registered in the worker ID field 1411 of the newly generated record.
  • the CU entry / exit status information storage unit 141a stores the status in which the worker NS having the worker ID enters (enters or is in the room) in the imaging target area.
  • the worker ID when the worker ID is notified from the ID device RDa, the worker ID is notified when the notified worker ID is already registered in the worker ID field 1411 of the CU entry / exit status information table MTa.
  • the record for registering the worker ID is deleted (the worker ID is deleted from the worker ID field 1411).
  • the CU in / out status information storage unit 141a stores the situation in which the worker NS having the worker ID has left the room (withdrawal, absence) from the area to be imaged.
  • the CU control processing unit 12a controls the respective units 11, 13, 14a of the imaging device CUa according to the functions of the respective units, picks up the image pickup target to generate an image, and generates the generated image as a management server device. It is a circuit for notifying SVa. Then, the CU control processing unit 12a manages the entering / exiting status of the worker NS with respect to the imaging target area, and when notifying the generated image to the management server device SVa, the CU control processing unit 12a is stored in advance in the CU storage unit 14a.
  • the generated image is notified to the management server device SVa together with the second identification information (camera ID in the present embodiment) of
  • the CU control processing unit 12a includes, for example, a central processing unit (CPU) and peripheral circuits thereof.
  • the CU control processing unit 12a functionally includes an imaging side control unit (CU control unit) 121, a generation unit 122a, and an imaging control unit 123 by executing the CU control processing program.
  • the CU control unit 121 controls the respective units 11, 13 and 14a of the imaging device CUa in accordance with the functions of the respective units, and controls the entire control of the imaging device CUa.
  • the CU control unit 121 counts date, hour, hour, minute and second.
  • the generation unit 122a reads the first identification information (worker ID in the present embodiment) by the ID device RDa when the worker NS enters (enters the room RM in the present embodiment) the area to be imaged (in the present embodiment, the living room RM). In this case, association information in which the second identification information (camera ID in this embodiment) of the own machine and the first identification information read by the ID device RDa are associated with each other is generated, and the generated association information is managed It outputs (sends) to the server apparatus SVa.
  • the generation unit 122 a generates and transmits association information, and an imaging-side management processing unit (CU management processing unit) 1221 a for managing the in / out state of the worker NS with respect to the imaging target area.
  • the notification processing unit 1222 are functionally provided.
  • the CU management processing unit 1221a manages the first identification information (worker ID in the present embodiment) read by the ID device RDa.
  • the CU management processing unit 1221a in order to control the start and end of imaging by the camera 11 by the imaging control unit 123, the CU management processing unit 1221a further reads the first specific information already managed by the ID device RDa. In this case, the management of the first specific information that has already been managed is cancelled. More specifically, when the CU management processing unit 1221a is read by the ID device RDa and a worker ID is notified from the ID device RDa, the notified worker ID is stored in the CU in / out status information storage unit 141a.
  • the CU management processing unit 1221a when it is not registered in the worker ID field 1411 of the stored CU entry / exit status information table MTa, a new record is generated, and the work notified to the worker ID field 1411 of the newly generated record Person ID is registered.
  • the CU management processing unit 1221a when the CU management processing unit 1221a is read by the ID device RDa and a worker ID is notified from the ID device RDa, the notified worker ID is stored in the CU in / out status information storage unit 141a. If it is registered in the worker ID field 1411 of the CU entry / exit status information table MTa, the record for registering the notified worker ID is deleted.
  • the CU management processing unit 1221a manages the in / out status of the worker NS with respect to the imaging target area depending on the presence / absence of the worker ID storage.
  • the notification processing unit 1222 generates association information in accordance with the management result by the CU management processing unit 1221a, and notifies (sends) the generated association information to the management server SVa. More specifically, when the notification processing unit 1222 generates a new record in the CU in / out status information table MTa and registers the notified worker ID in the worker ID field 1411 as described above, It is determined that the worker NS has entered the area to be imaged, and generates tying information in which the camera ID of the own machine and the worker ID read from the ID device RDa and notified from the ID device RDa are mutually linked, The generated association information and a communication signal (association information notification communication signal) containing the current time as the imaging start time are generated for the management server device SVa, and the generated association information notification communication signal is generated.
  • the CU communication IF 13 transmits the data to the management server SVa.
  • the imaging control unit 123 outputs each instruction of imaging start and imaging end to the camera 11 based on the management result of the in / out status managed by the generation unit 122a as described above. More specifically, when the imaging control unit 123 has the first specific information (the worker ID in the present embodiment) managed by the CU management processing unit 1221a of the generation unit 122a, imaging is started to be started A start instruction is output to the camera 11, and when the managed first specific information disappears, an imaging end instruction to end the imaging is output to the camera 11.
  • the first specific information the worker ID in the present embodiment
  • the camera 11 when the camera 11 receives the instruction to start the imaging from the imaging control unit 123, the camera 11 starts imaging and outputs an image generated by this imaging to the CU control processing unit 12a, and the CU control processing unit 12a This image is temporarily stored in the CU storage unit 14a.
  • the camera 11 receives the instruction to end the imaging from the imaging control unit 123, the camera 11 ends the imaging.
  • the CU control processing unit 12a transmits the image temporarily stored in the CU storage unit 14a to the management server device SVa.
  • the CU control processing unit 12a is a communication in which the image (image data) temporarily stored in the CU storage unit 14a, the camera ID of the own device, and the current time as the imaging end time are stored.
  • a signal (image notification communication signal) is generated for the management server device SVa, and the generated image notification communication signal is transmitted to the management server device SVa by the CU communication IF 13.
  • the CU control processing unit 12a deletes (deletes) the image from the CU storage unit 14a.
  • the imaging device CUa manages the in / out situation of the worker NS with respect to the area of the imaging target by the imaging control unit 123, and based on the management result of the in / out situation 11, the image pickup device CUa does not include the image pickup control unit 123, and when the CU control unit 121 reads the one specific information by the ID device RDa (in the present embodiment, the worker from the ID device RDa When the ID is notified), imaging is started by the camera 11, and the imaging is automatically ended after a predetermined time (for example, 3 minutes, 5 minutes, 10 minutes, etc.) set in advance elapses, The image notification communication signal may be transmitted to the management server SVa.
  • first to third imaging devices CUa-1 to CUa-3 are shown, and the first imaging device CUa-1 together with the first ID device RDa-1 is for the person to be monitored Ob.
  • the second imaging device CUa-2 is disposed in the room RM-1 (not shown) of Mr. A's Ob-1 who is one person, and Mr. B's Ob who is one of the monitored persons Ob together with the second ID device RDa-2.
  • the third imaging device CUa-3, together with the third ID device RDa-3 is a room of Mr. C's Ob-3 who is one of the monitored persons Ob, and is arranged in a room RM-2 (not shown) It is disposed at RM-3 (not shown).
  • the imaging device CUa is provided corresponding to a predetermined imaging target, and corresponds to an example of an imaging unit that images the imaging target and generates an image.
  • the management server device SVa has a communication function of communicating with the other devices CUa and TAa via the network NW, and when receiving an image from the imaging device CUa, stores and manages the image, and the client (in the present embodiment, a mobile phone It is an apparatus for providing data corresponding to the request of the terminal apparatus TAa etc. to the client and managing the entire image recording system MSa. Then, in the present embodiment, when the management server device SVa stores the image, the camera ID as the second identification information received from the imaging device CUa with the image and the association information received from the imaging device CUa , The image is stored in association with the worker ID as the first specific information. For example, as shown in FIG.
  • such a management server device SVa includes a server communication interface (SV communication IF unit) 21, a server control processor (SV control processor) 22a, and a server storage unit.
  • SV storage unit 23 a, server side input unit (SV input unit) 24, server side output unit (SV output unit) 25, and server side interface unit (SVID unit) 26.
  • the SV communication IF unit 21 is a communication circuit which is connected to the SV control processing unit 22a and performs communication in accordance with the control of the SV control processing unit 22a, similarly to the CU communication IF unit 13.
  • the SV communication IF unit 21 includes, for example, a communication interface circuit conforming to the IEEE 802.11 standard or the like.
  • the SV input unit 24 is connected to the SV control processing unit 22a, and for example, various commands such as a search key for searching an image and a command for instructing display of an image corresponding to the search key, and, for example, via the network NW.
  • a device for inputting various data necessary for operating the image recording system MSa such as a camera ID set in the imaging device CUa, to the management server device SVa, for example, a plurality of input switches to which predetermined functions are assigned, Such as a keyboard and a mouse.
  • the SV output unit 25 is connected to the SV control processing unit 22a, and outputs a command or data input from the SV input unit 24 or an image corresponding to the search key under the control of the SV control processing unit 22a.
  • a display device such as a CRT display, an LCD (liquid crystal display device), and an organic EL display.
  • the SVIF unit 26 is, for example, a circuit that inputs / outputs data to / from an external device, and, for example, an RS-232C interface circuit which is a serial communication method, an interface circuit using Bluetooth (registered trademark) standard, IrDA These are an interface circuit that performs infrared communication such as (Infrared Data Association) standard, an interface circuit that uses USB (Universal Serial Bus) standard, and the like.
  • the SV storage unit 23a is connected to the SV control processing unit 22a, and is a circuit that stores various predetermined programs and various predetermined data according to the control of the SV control processing unit 22a.
  • the various predetermined programs include, for example, a predetermined SV control processing program, and the SV control processing program includes, for example, the units 21, 23a, and 24 to 26 of the management server device SVa as the functions of the units.
  • the image processing program includes an SV control program that controls each according to the conditions, and an image storage processing program that causes an image generated by the imaging device CUa to be stored in an image storage unit 231a described later.
  • the various predetermined data includes a server identifier (server ID) for identifying the management server SVa of the own machine and identifying the management server SVa, the image generated and received by the imaging device CUa (image data) And other necessary data to execute each program.
  • the SV storage unit 23a includes, for example, a ROM, an EEPROM, a RAM, and the like.
  • the SV storage unit 23a may further include a relatively large capacity hard disk drive (HDD) as needed. Then, in order to store the image, the SV storage unit 23a functionally includes an image storage unit 231a.
  • the image storage unit 231 a stores an image from the imaging device CUa in association with first identification information (worker ID in the present embodiment). More specifically, in the present embodiment, the image (image data) contained in the image notification communication signal is given an automatically assigned file name (image file name), and is stored in the image storage unit 231a.
  • the image file name of the image and the worker ID are associated with each other, and the image and the worker ID associated with each other are stored in the image storage unit 231a in a table format. For example, as shown in FIG. 4, the image information table PT for registering the images and the worker ID linked to each other is automatically allocated to a set of images and the worker ID linked to each other.
  • the recording time field 2312 includes a start time subfield 23121 for registering a start time, and an end time subfield 23122 for registering an end time.
  • the SV control processing unit 22a controls the respective units 21, 23a, 24 to 26 of the management server device SVa according to the functions of the respective units, and when receiving an image from the imaging device CUa, stores and manages the image. It is a circuit for providing data corresponding to the request of the client (in the present embodiment, the portable terminal device TAa or the like) to the client and managing the entire image recording system MSa. Then, in the present embodiment, when storing the image, the SV control processing unit 22a, together with the image, the camera ID as the second identification information received from the imaging device CUa and the association information received from the imaging device CUa , The image is stored in association with the worker ID as the first specific information.
  • the SV control processing unit 22a includes, for example, a CPU and its peripheral circuits.
  • the SV control processing unit 22a functionally includes a server-side control unit (SV control unit) 221 and an image storage processing unit 222a by executing the SV control processing program.
  • SV control unit server-side control unit
  • the SV control unit 221 controls the respective units 21, 23a, and 24 to 26 of the management server device SVa according to the functions of the respective units, and controls the entire control of the management server device SVa.
  • the SV control unit 221 counts the date, hour, hour, minute and second.
  • the image storage processing unit 222a stores the image generated by the imaging device CUa in the image storage unit 231a.
  • the image storage processing unit 222a is based on the second identification information (camera ID in the present embodiment) received from the imaging device CUa with the image and the association information received from the imaging device CUa.
  • the image is stored in the image storage unit 231a in association with the first identification information (worker ID in the present embodiment). More specifically, when the image storage processing unit 222a first receives the tying information notification communication signal from the imaging device CUa, the tying information contained in the received admission tying information notification communication signal and The imaging start time is temporarily stored temporarily in the SV storage unit 23a.
  • the image storage control unit 222a attaches an image file name to an image (image data) contained in the received image notification communication signal. It stores in the storage unit 231a.
  • the image file name may be arbitrary, but is, for example, a serial number assigned from 00001 in the order of storage in the image storage unit 231a.
  • the image storage processing unit 222a causes the second specification contained in the received image notification communication signal to be selected from the camera IDs of the association information temporarily stored temporarily in the SV storage unit 23a.
  • the camera ID that matches the camera ID as information is selected (searched), and the worker ID as the first specific information and the imaging start time in the association information having the selected camera ID, and the received image notification
  • the image (the image file name) and the imaging end time stored in the communication signal are linked.
  • the image storage processing unit 222a assigns a serial number as an image ID to the linked set of the worker ID, the imaging start time, the image, and the imaging end time.
  • the serial number assigned as the image ID is also used as the serial number assigned as the image file name.
  • the image storage processing unit 222a generates a new record in the image information table PT stored in the image storage unit 231a, and the image ID field 2311, the start time subfield 23121, the end time subfield in the generated record 23122, an image file name field 2313 and a worker ID field 2314 respectively, the image ID, the imaging start time (time accommodated in the correlating information notification communication signal), the imaging end time (the image notification communication signal) The stored time), the image file name and the worker ID are registered. Then, the image storage processing unit 222a erases (deletes) the association information and the imaging start time temporarily stored temporarily in the SV storage unit 23a.
  • Such a management server device SVa can be configured, for example, by a computer with a communication function.
  • the mobile terminal device TAa has a communication function of communicating with the management server SVa via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a call function of performing voice communication. And is a device for displaying data received from the management server SVa, making an extension call, making an outside call, etc. Then, in the present embodiment, the portable terminal device TAa stores the first identification information (worker ID in the present embodiment), and causes the ID device RDa to read the first identification information.
  • a portable terminal device TAa includes a terminal side communication interface unit (TA communication IF unit) 31 and a terminal side control processing unit (TA control processing unit) 32a.
  • Terminal side storage unit (TA storage unit) 33 terminal side sound input / output unit (TA sound input / output unit) 34, terminal side input unit (TA input unit) 35, terminal side display unit (TA display unit) 36 and a terminal side interface unit (TAIF unit) 37.
  • TA storage unit terminal side sound input / output unit
  • TA input unit terminal side input unit
  • TA display unit terminal side display unit
  • TAIF unit terminal side interface unit
  • the TA sound input / output unit 34 is a circuit connected to the TA control processing unit 32a for acquiring an external sound and inputting it to the portable terminal device TAa, and the electricity representing the sound according to the control of the TA control processing unit 32a. It is a circuit for generating and outputting a sound corresponding to a signal.
  • the TA sound input / output unit 34 includes, for example, a speaker that converts an electrical signal (sound data) of sound into a mechanical vibration signal (acoustic signal) of sound, and a microphone that converts a mechanical vibration signal of sound in the audible area into an electrical signal. And so on.
  • the TA sound input / output unit 34 outputs an electric signal representing an external sound to the TA control processing unit 32a, and converts the electric signal input from the TA control processing unit 32a into a mechanical vibration signal of sound and outputs it. .
  • the TA input unit 35 is a circuit that is connected to the TA control processing unit 32a, for example, receives a predetermined operation and inputs the operation to the mobile terminal device TAa, and is, for example, a plurality of input switches to which predetermined functions are assigned. .
  • the TA display unit 36 is connected to the TA control processing unit 32a, and displays predetermined operation content input from the TA input unit 35, data received from the management server SVa, and the like under the control of the TA control processing unit 32a. It is a circuit, for example, a display device such as an LCD (liquid crystal display) and an organic EL display. In the present embodiment, the TA input unit 35 and the TA display unit 36 constitute a touch panel.
  • the TA input unit 35 is a position input device for detecting and inputting an operation position of, for example, a resistance film method or a capacitance method.
  • a position input device is provided on the display surface of the TA display unit 36, and one or more input content candidates that can be input are displayed on the TA display unit 36.
  • workers such as nurses and carers (User)
  • the NS touches the display position displaying the input content to be input the position is detected by the position input device, and the display content displayed at the detected position is the portable terminal as the operation input content of the worker NS It is input to the device TAa.
  • the TAIF unit 37 is a circuit that is connected to the TA control processing unit 32a and performs data input / output with an external device according to the control of the TA control processing unit 32a, similarly to the SVIF unit 26.
  • the TA communication IF unit 31 is a communication circuit which is connected to the TA control processing unit 32a and performs communication in accordance with the control of the TA control processing unit 32a, similarly to the CU communication IF unit 13.
  • the TA communication IF unit 31 includes, for example, a communication interface circuit conforming to the IEEE 802.11 standard or the like.
  • the TA storage unit 33a is connected to the TA control processing unit 32a, and is a circuit that stores various predetermined programs and various predetermined data according to the control of the TA control processing unit 32a.
  • the various predetermined programs include, for example, a predetermined TA control processing program, and the TA control processing program includes, for example, the units 31, 33a and 34 to 37 of the portable terminal device TAa as functions of the units.
  • a control processing program such as a TA control program which controls each in response and a worker ID information output processing program which outputs the first specific information (worker ID in the present embodiment) to the ID device RDa is included.
  • the various predetermined data include data necessary to execute each program such as the first specific information (the worker ID in the present embodiment) of the own machine and the communication address of the management server SVa.
  • the TA storage unit 33a includes, for example, a ROM, an EEPROM, a RAM, and the like.
  • the TA storage unit 33a functionally includes a worker ID information storage unit 331.
  • the worker ID information storage unit 331 stores first identification information for identifying the worker NS, in the present embodiment, a worker ID.
  • the worker ID may be registered in advance in the mobile terminal device TAa and stored in the worker ID information storage unit 331, or, for example, is input from the TA input unit 35 at the time of login and stores the worker ID information It may be stored in the unit 331.
  • the TA control processing unit 32a is a circuit for controlling the respective units 31, 33a, 34 to 37 of the portable terminal device TAa according to the functions of the respective units. Then, in the first embodiment, the TA control processing unit 32a causes the ID device RDa to read the first identification information.
  • the TA control processing unit 32a includes, for example, a CPU and its peripheral circuits.
  • the TA control processing unit 32a functionally includes a terminal side control unit (TA control unit) 321 and a worker ID information output processing unit 322 by executing a TA control processing program.
  • the TA control unit 321 controls the respective units 31, 33a, 34 to 37 of the portable terminal device TAa according to the functions of the respective units, and controls the entire control of the portable terminal device TAa.
  • the TA control unit 321 counts the date, hour, hour, minute, and second.
  • the worker ID information output processing unit 325 outputs the worker ID stored in the worker ID information storage unit 332a to the ID device RDa by the TAIF unit 37 as the first specific information.
  • Such a portable terminal device TAa can be configured by, for example, a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.
  • a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.
  • FIG. 6 is a sequence diagram showing an operation of the first embodiment regarding image recording in the image recording system as an example.
  • FIG. 7 is a diagram for explaining the transition of the CU in / out status information table in the operation shown in FIG.
  • FIG. 7 shows the CU entry / exit status information tables MTa-t11, MTa-t12, and MTa-t13 at time t11, time t12, and time t13 in order from the left side to the right side of the paper surface.
  • FIG. 8 is a view showing an example of an extraction result display screen which is displayed on the management server device and displays an extraction result obtained by extracting an image for a desired worker from among a plurality of image files.
  • the devices CUa, RDa, SVa, and TAa execute initialization of necessary parts and start operation thereof.
  • a CU control unit 121, a generation unit 122a and an imaging control unit 123 are functionally configured in the CU control processing unit 12a by execution of the CU control processing program.
  • an SV control unit 221 and an image storage processing unit 222a are functionally configured in the SV control processing unit 22a by execution of the SV control processing program.
  • a TA control unit 321 and a worker ID information output processing unit 322 are functionally configured in the TA control processing unit 32a.
  • the image recording system MSa collects each image from each of the imaging devices CUa-1 to CUa-3 by the operation of the first embodiment regarding the following image recording, and records (stores) each image.
  • a worker ID; “ID-NA” is input to the portable terminal device TAa-1 carried by the worker NS-1 It is assumed that the worker ID “ID-NA” is stored in advance.
  • the CU entry / exit status information table MTa-t11 stored in the CU entry / exit status information storage unit 141a has no worker NS in the room RM-1. The worker ID is not registered (stored).
  • the worker NS-1 in order to perform predetermined tasks such as nursing, nursing care and cleaning, the worker NS-1 enters (enters) the living room RM-1 (area to be imaged) of the monitored person Ob-1.
  • the portable terminal device TAa-1 carried by the user is brought close to the ID device RDa-1 provided corresponding to the room RM-1, and the operator ID (first identification information) is read Perform the operation (C11).
  • the portable terminal device TAa-1 is controlled by the worker ID information output processing unit 325 of the TA control processing unit 32a in the TA storage unit 33a.
  • the worker ID stored in the worker ID information storage unit 332; "ID-NA” is extracted, and the extracted worker ID; "ID-NA” is transmitted by the TAIF unit 37 (the worker ID; " The communication signal containing "ID-NA” is transmitted by the TAIF unit 37), and the ID device RDa-1 receives the worker ID "ID-NA” transmitted from the portable terminal device TAa-1 by this.
  • the worker ID is read from the portable terminal device TAa-1 (C12).
  • the ID device RDa-1 notifies the imaging device CUa-1 provided in the room RM-1 of the worker ID “ID-NA” read from the portable terminal device TAa-1 (the worker ID: A communication signal containing "ID-NA” is transmitted to the imaging device CUa-1 (C13).
  • the imaging device CUa-1 When receiving the notification of the worker ID; "ID-NA” from the ID device RDa-1, the imaging device CUa-1 controls the CU control processing unit to process the entering / exiting status of the worker NS with respect to the living room RM-1.
  • the CU management processing unit 1221a of the generation unit 122a in 12a manages the worker ID; “ID-NA” notified from the ID device RDa-1 (C14). More specifically, the notified worker ID; "ID-NA” is not registered in the worker ID field 1411 of the CU in / out status information table MTa stored in the CU in / out status information storage unit 141a.
  • the CU management processing unit 1221 a generates a new record, and registers the notified worker ID; “ID-NA” in the worker ID field 1411 of the newly generated record.
  • the notified worker ID; “ID-NA” is registered in the worker ID field 1411 of the CU in / out status information table MTa stored in the CU in / out status information storage unit 141a
  • the CU management processing unit 1221a deletes the record for registering the notified worker ID; “ID-NA” (deletes the worker ID from the worker ID field 1411).
  • the notified worker ID; "ID-NA” is stored in the CU in / out status information storage unit 141a.
  • the CU management processing unit 1221a generates a new record, and the worker ID of the newly generated record, because the CU ID field 1411 of the CU entry / exit status information table MTa-t11 stored in the table is not registered.
  • the notified worker ID; "ID-NA” is registered in the field 1411.
  • the CU in / out status information table MTa-t12 in which the NA is registered is stored.
  • the imaging device CUa-1 starts the imaging,
  • the imaging control unit 123 outputs an instruction to start imaging to start imaging to the camera 11 (C15).
  • the camera 11 receives the imaging start instruction from the imaging control unit 123, the camera 11 starts imaging, and outputs an image generated by this imaging to the CU control processing unit 12a, and the CU control processing unit 12a generates the CU It temporarily stores in the storage unit 14a.
  • an image in the present embodiment, a moving image
  • the moving image may be a normal frame rate such as 24 fps or 30 fps, or may be a frame rate such as 15 fps 10 fps or 5 fps lower than the normal frame rate to reduce data capacity. .
  • the imaging device CUa-1 uses the notification processing unit 1222 of the generation unit 122a of the CU control processing unit 12a to notify the association information.
  • Camera ID The linkage information in which the “CU-1” and the worker ID notified and read by the ID device RDa; “ID-NA” are linked to each other is generated, and the generated linkage information and the imaging start time The current time as the notification is notified to the management server device SVa (the communication information notification communication signal containing the association information and the current time (imaging start time) is transmitted to the management server device SVa) (C16).
  • the management server device SVa When receiving the notification of the association information and the imaging start time from the imaging device CUa-1 (when receiving the association information notification communication signal from the imaging device CUa-1), the management server device SVa receives the association information and the imaging start time. Are temporarily stored temporarily in the SV storage unit 23a (C17).
  • the portable terminal device TAa-1 carried with him is put in the room RM-1 A reading operation is performed to bring the worker ID; “ID-NA” into proximity by bringing it close to the ID device RDa-1 provided correspondingly (C21).
  • the worker ID information output processing unit 325 determines the worker ID in the portable terminal device TAa-1, as in the above-described process C12.
  • the worker ID stored in the information storage unit 332a; “ID-NA” is extracted, and the extracted worker ID; “ID-NA” is transmitted by the TAIF unit 37, and the ID device RDa-1 is a portable terminal Worker ID transmitted from the device TAa-1; "ID-NA” is received, whereby the worker ID; "ID-NA” is read from the portable terminal device TAa-1 (C22).
  • the ID device RDa-1 sets the operator ID read from the portable terminal device TAa-1; “ID-NA” to the imaging device CUa provided in the room RM-1, as in the above-described process C13. Notify to -1 (C23).
  • the imaging device CUa-1 controls the CU management processing unit in order to process the entering / exiting status of the worker NS with respect to the living room RM-1.
  • the worker ID "ID-NA" notified from the ID device RDa-1 is managed by 1221a (C24). More specifically, as shown in the center of the page of FIG. 7, the notified worker ID; “ID-NA” is the CU in / out status information stored in the CU in / out status information storage unit 141 a. Since the worker ID field 1411 of the table MTa-t12 is registered, the CU management processing unit 1221a deletes the record for registering the notified worker ID; "ID-NA".
  • the CU in / out status information table MTa-t12 shown in the center of the page of FIG. 7 becomes the CU in / out status information table MTa-t13 shown on the right of the page, and the worker ID; There is no record in which “NA” is registered, and a CU in / out status information table MTa-t13 in which no worker ID is registered is stored. Since the notification processing unit 1222 does not register the worker ID, the notification processing unit 1222 does not generate the association information and does not transmit the association information notification communication signal.
  • the imaging device CUa-1 causes the imaging control unit 123 to stop imaging.
  • An instruction for ending the imaging to output the imaging is output to the camera 11 (C25).
  • the camera 11 receives the instruction to end the imaging from the imaging control unit 123, the imaging is ended.
  • the imaging device CUa-1 causes the CU control processing unit 12a to transmit the image temporarily stored in the CU storage unit 14a to the management server device SVa (C26). More specifically, the CU control processing unit 12a transmits an image notification communication signal containing the image temporarily stored in the CU storage unit 14a, the camera ID of the own device, and the current time as the imaging end time. It transmits to the management server apparatus SVa.
  • the management server SVa receives the notification from the imaging device CUa by the image storage processor 222a of the SV control processor 22a.
  • the image is associated with the worker ID as the first specific information and stored in the image storage unit 231a (C27). More specifically, the image storage processing unit 222a assigns an image file name and stores the image contained in the received image notification communication signal in the image storage unit 231a. Next, the image storage processing unit 222a matches the camera ID contained in the received image notification communication signal out of each camera ID of each association information temporarily stored temporarily in the SV storage unit 23a.
  • the camera ID to be selected is selected (searched), the worker ID in the linkage information having the selected camera ID, the imaging start time, and the image (the image file name) contained in the received image notification communication signal And associating the imaging end time.
  • the image storage processing unit 222a assigns a serial number as an image ID to the linked set of the worker ID, the imaging start time, the image file name, and the imaging end time.
  • the image storage processing unit 222a generates a new record in the image information table PT stored in the image storage unit 231a, and the image ID field 2311, the start time subfield 23121, the end time subfield in the generated record 23122, an image file name field 2313 and a worker ID field 2314 respectively, the image ID, the imaging start time (time accommodated in the correlating information notification communication signal), the imaging end time (the image notification communication signal) Each stored time), image file name and worker ID are registered. Then, the image storage processing unit 222a erases (deletes) the association information and the imaging start time temporarily stored temporarily in the SV storage unit 23a.
  • the image recording system MSa collects each image from each of the imaging devices CUa-1 to CUa-3 arranged in each of the living rooms RM-1 to RM-3, and attaches a worker ID to each image. And store (record).
  • an operator such as the boss of the worker NS is a worker corresponding to the desired worker NS as a search key from the SV input unit 24 Enter the ID and enter the search start instruction.
  • the SV control processing unit 22a selects the worker ID of the search key from among the images stored in the image storage unit 231. Search for an image having the following equation, and output it to the SV output unit 25.
  • the SV control processing unit 22a causes the worker ID field 2314 of the image information table PT stored in the image storage unit 231a to be: The received worker ID; a record for registering “ID-NA” is extracted, and the image ID registered in each of the fields 2311, 2312 (23121, 23122), 2313 and 2314 in the extracted record, recording time ( The imaging start time, imaging end time), image file name and worker ID are extracted, and the extracted image ID, recording time (imaging start time, imaging end time), image file name and worker ID are shown in FIG. As shown in FIG. 5, the SV output unit 25 is displayed in a list form.
  • the recording time display column 612 includes a start time display column 6121 and an end time display column 6122 for displaying the taken imaging start time and the imaging end time.
  • the SV control processing unit 22a The image having the operated image file name is extracted from the image storage unit 231, and the extracted image is reproduced and displayed on the SV output unit 25.
  • the image is changed to the extraction result display screen 61 and reproduced and displayed on the SV output unit 25.
  • the extraction result display screen 61 is displayed on the SV output unit 25.
  • the image is reproduced and displayed on the SV output unit 25 in a new window. This allows the operator to refer to the image for the desired worker NS.
  • the image recording system MSa and the image recording method implemented in the first embodiment when a predetermined worker NS enters an area to be imaged (the room RM in the present embodiment), One of the first and second identification information (the worker ID as the first identification information in the present embodiment) is read and the other identification information (the second identification information in the present embodiment) camera ID By linking the first and second identification information to each other, thereby generating the linking information while obtaining an image and its second identification information from the imaging device CUa.
  • the image recording system MSa and the image recording method set the image to the first identification information based on the second identification information received from the imaging device CUa together with the image and the tying information received from the imaging device CUa It associates and stores in the image storage unit 231a. That is, in the image recording system MSa and the image recording method, the first specifying information corresponding to the second specifying information accompanying the image is obtained from the association information, and the obtained first specifying information is obtained. The image is linked and stored in the image storage unit 231a. Therefore, the image recording system MSa and the image recording method can more easily extract an image for a desired (target) worker NS by referring to the first specific information linked to the image.
  • the superior of the worker NS can grasp the manner, appropriateness and politeness to the work in the worker NS by referring to the image for the worker NS, and grasp the actual state of the worker NS. Then, the worker NS can be instructed.
  • the image recording system MSa and the image recording method output an instruction to start imaging to the camera 11 when there is the one specific information under management (the worker ID as the first specific information in this embodiment), When the one specific information under management disappears, an instruction to end imaging is output to the camera 11. That is, in the image recording system MSa and the image recording method, when the operator NS enters the area to be imaged, the imaging start is instructed and imaging is performed while at least one worker NS is present. Continue and, when the worker NS leaves, instruct the end of the imaging. Therefore, the image recording system MSa and the image recording method can store an image while the at least one worker NS is present in the area to be imaged in the image storage unit 221a, regardless of the location of the worker NS. The image data volume can be reduced as compared to the case of continuous imaging (for example, imaging for 24 hours). The supervisor of the worker NS can also immediately observe the work of the worker NS.
  • FIG. 9 is a view showing a configuration of an imaging device of the second embodiment in the image recording system.
  • FIG. 10 is a diagram showing the configuration of a management server apparatus of the second embodiment in the image recording system.
  • FIG. 11 is a view showing a configuration of a portable terminal device of the second embodiment in the image recording system.
  • the ID device RDa reads the first identification information (the worker ID in the above example) from the portable terminal device TAa by the reading operation, notifies this to the imaging device CUa, and captures an image.
  • the apparatus CUa associates the first identification information notified from the ID apparatus RDa with the second identification information stored in advance, and notifies the management server apparatus SVa as association information.
  • the portable terminal device TAb reads the second identification information from the ID device RDb by the reading operation, and the read second identification information and the first identification stored in advance. Information is linked and notified to the management server apparatus SVb as linking information.
  • the reading unit and the generation unit are mounted on a portable terminal device TAb
  • the imaging unit is mounted on an imaging device CUb
  • the image storage unit and the image storage processing unit are management server devices.
  • the first and second identification information in the second embodiment are, for example, a worker ID and a camera ID, as in the first embodiment.
  • Such an image recording system MSb in the second embodiment is, for example, as shown in FIG. 1, similarly to the image recording system MSa in the first embodiment, one or more imaging devices CUb (CUb-1 to CUb-3). ), One or more ID devices RDb (RDb-1 to RDb-3), a management server SVb, one or more mobile terminal devices TAb (TAb-1 and TAb-2), a private branch exchange CX, and , which are communicably connected via a network NW. Since the private branch exchange CX in the image recording system MSb of the second embodiment is the same as the private branch exchange CX in the image recording system MSa of the first embodiment, the description thereof will be omitted.
  • the ID device RDb is provided corresponding to the imaging device CUb corresponding to the imaging target, and the portable terminal device TAb can read second identification information (camera ID in the present embodiment) for identifying the imaging device CUb. It is an apparatus.
  • Such an ID device RDb is, for example, a member having a one-dimensional code (bar code) representing the second specific information or a two-dimensional code. More specifically, in one example, the ID device RDb is a plate on which a one-dimensional code or a two-dimensional code representing the second specific information is printed, and an area of an imaging target of the imaging device CUb corresponding to the ID device RDb. Will be placed on
  • the ID device RDb is a member having a one-dimensional code or a two-dimensional code representing the second identification information, but is not limited to this and may be another device.
  • the ID device RDb may be an IC card (RF tag) or a magnetic card that stores the second identification information.
  • the ID device RDb may be a tablet terminal device having a communication function and storing the second identification information.
  • the imaging device CUb is provided corresponding to the imaging object, has a communication function etc. for communicating with the management server SVb via the network NW, and images the imaging object Is an apparatus for generating an image.
  • the imaging device CUb in the second embodiment does not manage the first specific information (worker ID) as in the imaging device CUa in the first embodiment, and accordingly, control of imaging start and imaging end for the camera 11 is also performed. Not performed. In such a point, the imaging device CUb in the second embodiment is different from the imaging device CUa in the first embodiment.
  • such an imaging device CUb includes a camera 11, a CU control processing unit 12b, a CU communication IF unit 13, and a CU storage unit 14b.
  • the camera 11 and the CU communication IF unit 13 in the imaging device CUb according to the second embodiment are the same as the camera 11 and the CU communication IF unit 13 in the imaging device CUa according to the first embodiment, and thus the description thereof is omitted. .
  • the CU storage unit 14 b does not include the CU in / out status information storage unit 141 a because the imaging device CUb does not manage the first specific information as described above in the second embodiment.
  • the CU storage unit 14b of the second embodiment is the same as the CU storage unit 14a of the first embodiment except for this point, and thus the description thereof will be omitted.
  • the CU control processing unit 12b does not manage the first specific information as described above in the imaging device CUb, and does not control the imaging start and the imaging end with respect to the camera 11, and thus does not include the generation unit 122a and the imaging control unit 123. . That is, the CU control processing unit 12b of the second embodiment controls the respective units 11, 13, 14b of the imaging device CUb according to the functions of the respective units, picks up the image pickup target to generate an image, and generates the image. It is a circuit for notifying the management server apparatus SVb of the acquired image.
  • the CU control processing unit 12b when the CU control processing unit 12b notifies the management server SVb of the generated image, the CU control processing unit 12b, together with the second specification information (camera ID in the present embodiment) of its own device stored in advance in the CU storage unit 14b.
  • the management server SVb is notified along with the generated image.
  • the CU control processing unit 12 b is configured to include, for example, a CPU and its peripheral circuits.
  • the control of the imaging start and the imaging end is not performed on the camera 11. Therefore, when the imaging device CUb starts operating, the camera 11 always images the imaging target to generate an image The generated image is output to the CU control processing unit 12b, and the CU control processing unit 12b temporarily stores the image in the CU storage unit 14b. Then, the CU control processing unit 12b sends an image (image data) generated by the camera 11 and temporarily stored in the CU storage unit 14b to the management server SVb as an image notification communication signal at a predetermined notification timing set in advance. Send.
  • the notification timing is arbitrary, and may be, for example, a preset time interval (for example, an 8-hour interval, a 24-hour interval for one day, etc. according to the work system) or, for example, a preset It may be a fixed time (for example, every hour, 0 am, etc.).
  • the management server device SVb has a communication function of communicating with other devices CUb and TAb via the network NW similarly to the management server device SVa of the first embodiment, and when receiving an image from the imaging device CUb, the image is received It is a device that stores and manages, provides data to the client according to the request of the client (in the present embodiment, the portable terminal device TAb or the like), and manages the entire image recording system MSb. Then, in the second embodiment, the management server SVb is the first and second identification information (the worker ID and the camera ID in the present embodiment) as the linking information notified from the portable terminal TAb as described later.
  • the image received from the imaging device CUb at the notification timing is stored as an original image (original image), an image corresponding to the entrance / exit of the worker NS is cut out from the original image, and the cut out image is stored.
  • an original image original image
  • an image corresponding to the entrance / exit of the worker NS is cut out from the original image
  • the cut out image is stored.
  • the SV communication IF unit 21, the SV input unit 24, the SV output unit 25, and the SVIF unit 26 in the management server apparatus SVb according to the second embodiment respectively correspond to the SV communication IF unit 21 in the management server apparatus SVa according to the first embodiment.
  • the SV input unit 24, the SV output unit 25, and the SVIF unit 26 are the same as the SV input unit 24, and the description thereof is omitted.
  • the SV storage unit 23b is connected to the SV control processing unit 22b, and is a circuit that stores various predetermined programs and various predetermined data according to the control of the SV control processing unit 22b.
  • the various predetermined programs include, for example, a predetermined SV control processing program, and the SV control processing program includes, for example, the units 21, 23b, and 24 to 26 of the management server SVb as the functions of the units.
  • the image storage processing program to store the image generated by the imaging device CUb in the image storage unit 231b and the original image storage unit 232 described later, the association notified from the mobile terminal device TAb
  • An SV management processing program or the like that manages first and second identification information (in the present embodiment, a worker ID and a camera ID) as information is included.
  • the various predetermined data include the server ID of the own machine, the image (original image, original image data) generated by the imaging device CUb and received by the image notification communication signal, and the entrance and exit of the worker NS from the original image Data necessary for execution of each program such as an image (image data) cut out according to and SV entry / exit status information indicating the entry / exit status of the worker NS with respect to the imaging target area is included.
  • the SV storage unit 23 b includes, for example, a ROM, an EEPROM, a RAM, and the like, and further includes an HDD as needed.
  • the SV storage unit 23b functionally includes an image storage unit 231b, an original image storage unit 232, and an SV in / out status information storage unit 233.
  • the original image storage unit 232 stores the image received from the imaging device CUb according to the notification timing as an original image (original image) in association with the second identification information (camera ID in the present embodiment) and the imaging end time. It is a thing. More specifically, in the present embodiment, the image (image data) contained in the image notification communication signal is given an automatically assigned file name (original image file name), and the original image storage unit The original image file name of the image, the camera ID stored in the image notification communication signal, and the time stored in the image notification communication signal as the imaging end time are linked to each other. Are stored in the original image storage unit 232.
  • the image storage unit 231 b stores the image extracted from the original image from the imaging device CUa according to the entrance / exit of the worker NS in association with the first identification information (worker ID in the present embodiment). It is a thing.
  • the image storage unit 231a according to the first embodiment stores the image itself from the imaging device CUa, but the image storage unit 231b according to the second embodiment receives the worker NS from the original image from the imaging device CUb.
  • the image extracted in response to the exit is stored. Since the image storage unit 231b of the second embodiment is the same as the image storage unit 231a of the first embodiment except for this point, the description thereof will be omitted.
  • the SV in / out status information storage unit 233 stores the SV in / out status information indicating the in / out status of the worker NS with respect to the imaging target area.
  • the SV in / out status information indicates the in / out status of the worker NS with respect to the imaging target area depending on presence / absence of storage of the first specific information, in the present embodiment, the worker ID.
  • the areas to be imaged are a plurality of living rooms RM, in order to represent the in / out status of the worker NS with respect to the respective areas for each area to be imaged,
  • Each of the second identification information (the camera ID in the present embodiment) is associated with the first identification information, in the present embodiment, the worker ID, and is stored in the SV in / out status information storage unit 233 as the SV in / out status information.
  • the SV in / out status information is stored in the SV in / out status information storage unit 233 in a table format.
  • the SV entry status information table MTb registering the SV entry status information has, for example, a camera ID field 2331 for registering a camera ID, and a camera ID registered in the camera ID field 2331 as shown in FIG. 13 described later. And a worker ID field 2332 for registering the worker ID of the worker NS entering and exiting the area of the imaging target corresponding to the imaging device CUb, and for each camera ID (that is, the imaging target area (living room RM)) Have a record.
  • the camera ID of the imaging device CUb corresponding to each of the plurality of imaging targets is registered in advance in the camera ID field 2331 of each record.
  • the SV control processing unit 22b controls the respective units 21, 23b and 24 to 26 of the management server device SVb according to the functions of the respective units, and when receiving an image from the imaging device CUb, stores and manages the image. It is a circuit for providing data corresponding to the request of the client (in the present embodiment, the portable terminal device TAb or the like) to the client and managing the entire image recording system MSb.
  • the SV control processing unit 22b manages the first and second identification information (the worker ID and the camera ID in the present embodiment) as the linking information notified from the mobile terminal device TAb as described later. Do.
  • the SV control processing unit 22b first stores the image received from the imaging device CUb as an original image (original image) according to the notification timing, and then, from the original image From the camera ID as the second specific information received from the imaging device CUb together with the original image from the camera ID and the portable terminal device TAb when cutting out an image according to the entrance / exit of the worker NS and storing the cut-out image
  • the image is associated with the worker ID as the first specific information and stored based on the received association information.
  • the SV control processing unit 22 b includes, for example, a CPU and its peripheral circuits.
  • the SV control processing unit 22b functionally includes an SV control unit 221, an image storage processing unit 222b, and an SV management processing unit 233 when the SV control processing program is executed.
  • the SV control unit 221 in the management server device SVb of the second embodiment is the same as the SV control unit 221 in the management server device SVa of the first embodiment, and thus the description thereof will be omitted.
  • the SV management processing unit 223 manages the first and second identification information (in the present embodiment, the worker ID and the camera ID) notified from the mobile terminal device TAb. More specifically, when the worker ID and the camera ID are notified from the mobile terminal device TAb as the first and second identification information as the association information by the association information notification communication signal, the SV management processing unit 223 first A record is selected (searched) for registering the notified camera ID in the camera ID field 2331 of the SV entry status information table MTb stored in the SV entry status information storage unit 233. Next, the SV management processing unit 223 checks whether or not the notified worker ID is registered in the worker ID field 2332 of the selected record.
  • the SV management processing unit 223 is notified of the worker ID field 2332 of the selected record.
  • the registered worker ID is registered.
  • the SV entry / exit status information storage unit 233 stores the situation in which the operator NS having the operator ID enters (enters or is in the room) in the area to be imaged corresponding to the imaging device CUb having the camera ID.
  • the SV management processing unit 223 determines from the worker ID field 2332 of the selected record. Delete (delete) the ID.
  • the SV entry / exit information storage unit 233 stores the situation in which the worker NS having the worker ID has left the room (exit, absence) from the area of the imaging target corresponding to the imaging device CUb having the camera ID.
  • the SV management processing unit 223 manages the in / out status of the worker NS with respect to the imaging target area depending on presence / absence of the worker ID storage for each camera ID (each imaging target area).
  • the SV management processing unit 223 registers the worker ID from the state where there is no worker ID in the worker ID field 2332 for each record (for each camera ID, that is, for each area of each imaging target) Then, when the time stored in the association information notification communication signal containing the association information of the registered worker ID is taken as the start time, the worker ID and the association information are tied to the worker ID The attached camera ID and the start time are associated with each other and temporarily stored temporarily in the SV storage unit 23b.
  • the SV management processing unit 223 is a worker registered in the worker ID field 2332 from the start time until there is no worker ID in the worker ID field 2332 for each record.
  • the ID is further temporarily linked to the worker ID, camera ID and start time linked with each other, and temporarily stored in the SV storage unit 23b. Then, when there is no worker ID in the worker ID field 2332 with at least one worker ID in each of the records, the SV management processing unit 223 deletes the worker ID that has been deleted from this registration. Using the time contained in the tying information notification communication signal containing tying information as the ending time, the ending time is further tied to the worker ID, the camera ID, and the start time mutually linked, and the SV storage unit Temporarily store temporarily in 23b. As a result, one set of information in which one camera ID, one or more worker IDs, and a start time and an end time are linked to each other is temporarily stored temporarily in the SV storage unit 23b.
  • the image storage processing unit 222 b stores the image generated by the imaging device CUb in the image storage unit 231 b and the original image storage unit 232.
  • the image storage processing unit 222 b includes an original image storage processing unit 2222 for storing an image generated by the imaging device CUb and received from the imaging device CUb in the original image storage unit 232 as an original image; And an image cutting out storage processing unit 2221 for storing an image cut out according to the entrance / exit position of the worker NS in the image storage unit 231b.
  • the original image storage processing unit 2222 stores an image received from the imaging device CUb in accordance with the notification timing as an original image (original image) in the original image storage unit 232. More specifically, when the image notification communication signal is received from the imaging device CUb, first, the original image storage processing unit 2222 receives the image notification communication signal as an original image (original image data) contained in the received image notification communication signal. The image (image data), the camera ID as the second specific information, and the time as the imaging end time are extracted. Next, the original image storage processing unit 2222 automatically generates an original image file name for the extracted original image, adds the generated original image file name, and stores the extracted original image. It is stored in the unit 232. Then, the original image storage processing unit 2222 associates the original image file name, the extracted camera ID, and the extracted imaging end time with each other, and stores them in the original image storage unit 232.
  • the image cutting out storage processing unit 2221 stores the image obtained by cutting out the image corresponding to the entrance / exit of the worker NS from the original image in the image storage unit 231 b.
  • the image clipping storage processing unit 2221 receives the camera ID as the second identification information received from the imaging device CUb together with the original image, and the mobile terminal device TAb.
  • the image is associated with the worker ID as the first specific information and stored, based on the association information received from the server. More specifically, the image clipping / storage processing unit 2221 first temporarily sets the strings temporarily stored in the SV storage unit 23b by the SV management processing unit 223 at a predetermined clipping timing set in advance.
  • the attached operator ID, camera ID, start time and end time are taken out, and are linked to the taken out camera ID from the original image storage unit 232 and include the taken out start time and end time
  • the original image file name (original image) is selected (searched). Since the imaging end time is linked to the original image file name and the notification timing is known, the start time (imaging start time) of the original image can be calculated, and the original image having the original image file name is extracted from the start It can be determined whether the time and end time are included.
  • the cutting timing is arbitrary, and may be, for example, a preset time interval (for example, an 8-hour interval, a 24-hour interval for one day, etc.
  • the image cutting out storage processing unit 2221 cuts out an image of a portion corresponding to the extracted start time and end time from the original image having the selected original image file name, and creates a new image (image data, original Generate a temporal partial image of the image).
  • the image cut-out storage processing unit 2221 automatically generates an image file name and an image ID for the cut-out image, and adds the generated image file name to the image storage to attach the image cut-out image. It stores in the part 231 b.
  • the image cutting out storage processing unit 2221 generates a new record in the image information table PT stored in the image storage unit 231b, and the image ID field 2311 and the start time subfield “field 23121, end in the generated record In the time sub-field 23122, the image file name field 2313 and the worker ID field 2314, the generated image ID, the extracted start time, the extracted end time, the generated image file name, and the extracted work
  • the image clip storage processing unit 2221 deletes the registered start time, end time, and worker ID from the SV storage unit 23b together with the camera ID linked to them.
  • the image cutting out storage processing unit 2221 The above-described set of worker IDs, camera ID, start time and end time basically are temporarily stored in the SV storage unit 23b temporarily by the SV management processing unit 223. Repeat until lost (all erased).
  • an original image file name including only the extracted start time and an original image file name including only the extracted end time may be extracted.
  • the image clipping storage processing unit 2221 clips from the start time to the end of the original image from the original image having the original image file name including only the start time, and includes the original time including only the end time. From the original image having the image file name, the area from the top to the end time is cut out, and these are connected to generate a new image.
  • an original image having an original image file name including only the extracted end time is stored in the original image storage unit 232 at the time of the cutout timing, depending on the relationship between the notification timing and the cutout timing. There may be no case.
  • the image is not cut out from the original image, and the pair of linked worker ID, camera ID, start time and end time temporarily stored temporarily in the SV storage unit 23b are deleted.
  • the next set of worker IDs, camera IDs, start times, and end times temporarily stored temporarily in the SV storage unit 23b are carried over at the next cutting out timing without moving on (temporary Stored state is maintained).
  • the portable terminal device TAb Similar to the portable terminal device TAa in the first embodiment, the portable terminal device TAb inputs a communication function to communicate with the management server SVb via the network NW, a display function to display predetermined information, and inputs predetermined instructions and data. These devices are provided with an input function to be performed and a call function to make a voice call, and are devices for displaying data received from the management server SVb, making extension calls, making outside calls, and the like.
  • the portable terminal device TAb reads the second identification information (camera ID in the present embodiment) from the ID device RDb and holds in advance the first identification information (the worker ID in the present embodiment). ) Is notified to the management server SVb as tying information together with the read second specification information.
  • Such a mobile terminal device TAb is, for example, as shown in FIG. 11, a TA communication IF unit 31, a TA control processing unit 32b, a TA storage unit 33b, and a TA sound input / output unit 34 in the present embodiment. , TA input unit 35, TA display unit 36, and TAIF unit 37.
  • the TA communication IF unit 31, the TA sound input / output unit 34, the TA input unit 35, the TA display unit 36, and the TAIF unit 37 in the portable terminal device TAb of the second embodiment respectively correspond to the portable terminal device TAa of the first embodiment.
  • the TA communication I / F unit 31, the TA sound input / output unit 34, the TA input unit 35, the TA display unit 36, and the TAIF unit 37 are the same as those in FIG.
  • the TA storage unit 33b according to the second embodiment reads the second specific information (camera ID in the present embodiment) from the ID device RDb as one program included in the TA control processing program and holds the first information in advance.
  • the specific information (the worker ID in the present embodiment) is the same as the TA storage unit 33a of the first embodiment except that it further stores the read notification processing program that notifies the specific information (the worker ID in the present embodiment).
  • the TA control processing unit 32b controls the respective units 31, 33b, 34 to 37 of the portable terminal device TAb in accordance with the functions of the respective units, similarly to the TA control processing unit 32a in the first embodiment. It is a circuit for receiving and displaying the monitoring information of the above, and for responding to a nurse call and for making a voice.
  • the TA control processing unit 32b reads the second identification information (the monitoring area ID (camera ID) in the present embodiment) from the ID device RDb and holds the first identification information (in advance)
  • the worker ID is notified to the management server SVb as tying information together with the read second specification information.
  • the TA control processing unit 32b is configured to include, for example, a CPU and its peripheral circuits.
  • the TA control processing unit 32 b functionally includes a TA control unit 321 and a read notification processing unit 323 by executing a TA control processing program.
  • the TA control unit 321 in the portable terminal device TAb of the second embodiment is the same as the TA control unit 321 in the portable terminal device TAa of the first embodiment, and thus the description thereof will be omitted.
  • the read notification processing unit 323 reads the second identification information (camera ID in the present embodiment) from the ID device RDb and holds the first identification information (work in the present embodiment) in advance in the worker ID information storage unit 332.
  • the person ID is notified to the management server SVb as the association information together with the read second specification information.
  • the mobile terminal device TAb since the ID device RDb is a plate on which a one-dimensional code or a two-dimensional code representing a camera ID is printed as the second specific information, the mobile terminal device TAb further includes, for example, a camera. H.323 identifies and analyzes a one-dimensional code or two-dimensional code by executing predetermined image processing on an image (image data) obtained by imaging the one-dimensional code or two-dimensional code with the camera The second specific information (camera ID) is read from the analysis result.
  • the read notification processing unit 323 links the read second specific information (camera ID) and the worker ID stored in the worker ID information storage unit 331 with each other to generate linking information, and A communication signal (association information notification communication signal) containing the generated association information and the current time is generated for the management server device SVb, and the generated association information notification communication signal is transmitted by the TA communication IF unit 31. .
  • the portable terminal device TAb further includes a card reader of the IC card or the magnetic card, and the read notification processing unit 323 uses the card reader.
  • the second identification information (camera ID) is read from an IC card or a magnetic card, and the association information notification communication signal is transmitted to the management server SVb.
  • the reading notification processing unit 323 causes the TAIF unit 37 to read the second identification information (camera ID) from the tablet terminal device, and the communication information notification communication signal Is sent to the management server SVb.
  • the portable terminal device TAb identifies the first identification information for identifying the worker and the imaging unit corresponding to the imaging object when the predetermined worker enters the imaging target area.
  • This corresponds to another example of a reading unit that reads one of the second identification information items.
  • the portable terminal device TAb further has the other specific information of the first and second specific information in advance, and the reading unit reads the one specific information.
  • An example of a generation unit that generates association information in which the other specific information and the one specific information read by the reading unit are associated with each other, and the generated association information is output to the image storage processing unit Is also equivalent.
  • FIG. 12 is a sequence diagram showing an operation of the second embodiment regarding image recording in the image recording system as an example.
  • FIG. 13 is a diagram for explaining the transition of the SV input / output status information table in the operation shown in FIG.
  • FIG. 13 shows the SV entry / exit status information tables MTb-t21, MTb-t22, and MTb-t23 at time t21, time t22, and time t23, respectively, in order from the left side to the right side of the drawing.
  • the devices CUb, SVb, and TAb execute initialization of necessary parts and start their operation.
  • the SV control processing unit 22b is functionally configured with an SV control unit 221, an image storage processing unit 222b, and an SV management processing unit 223 by execution of the SV control processing program.
  • An image cutout storage processing unit 2221 and an original image storage processing unit 2222 are functionally configured in 222 b.
  • the TA control unit 321 and the read notification processing unit 323 are functionally configured in the TA control processing unit 32b by execution of the TA control processing program.
  • the image recording system MSb collects each image from each imaging device CUb-1 to CUb-3 and records (stores) each image by the operation of the second embodiment related to the following image recording.
  • a worker ID; “ID-NA” is input to the portable terminal device TAa-1 carried by the worker NS-1 It is assumed that the worker ID “ID-NA” is stored in advance.
  • the SV entry / exit status information table MTb-t21 stored in the SV entry / exit status information storage unit 233 has no worker NS in the room RM-1. The worker ID is not registered (stored).
  • the worker NS-1 when entering a room RM-1 of the person to be monitored Ob, the worker NS-1 performs the predetermined work by using the portable terminal device TAb-1 carried along with the room. A reading operation is performed to bring the camera ID (second identification information) into reading proximity with the ID device RDb-1 provided corresponding to the RM-1 (C111).
  • the portable terminal device TAb-1 and the ID device RDb-1 are brought close to each other, the portable terminal device TAb-1 is transmitted from the ID device RDb-1 by the read notification processing unit 323 of the TA control processing unit 32b.
  • Camera ID; "CU-1" is read as specific information (C112).
  • the mobile terminal device TAb-1 causes the read notification processing unit 323 to store the worker ID stored as the first identification information in the worker ID information storage unit 331 of the TA storage unit 33; “ID-NA”.
  • Camera ID read in process C112; “CU-1” and the extracted worker ID; “ID-NA” are linked to each other to generate linking information, and the generated linking information and current time
  • the communication information notification communication signal containing the information is generated for the management server SVb, and the generated communication information notification communication signal is transmitted by the TA communication IF unit 31 (C113).
  • the management server device SVb When receiving the association information notification communication signal from the portable terminal device TAb-1, the management server device SVb processes the SV management processing unit of the SV control processing unit 22b to process the in / out status of the worker NS with respect to the imaging target area.
  • the camera ID “CU-1” and the worker ID transmitted from the portable terminal device TAb-1 are managed by the H.223 (C114). More specifically, the SV management processing unit 223 first sends the camera ID “CU-1” of the tying information contained in the received tying information notification communication signal to the SV entry / exit information storage unit 233. A record to be registered in the camera ID field 2331 of the stored SV entry status information table MTb is selected (searched).
  • the SV management processing unit 223 registers, in the worker ID field 2332 of the selected record, the worker ID of the tying information contained in the received tying information notification communication signal; “ID-NA” Find out if it is. If the received worker ID; “ID-NA” is not registered in the worker ID field 2332 of the selected record, the SV management processing unit 223 selects the worker ID field 2332 of the selected record. And the worker ID of the reception; “ID-NA” is registered. On the other hand, when the reception worker ID; “ID-NA” is registered in the worker ID field 2342 of the selected record, the SV management processing unit 223 selects the worker ID of the selected record. Delete (delete) the worker ID from the field 2342.
  • the SV entry / exit information storage unit 233 In the SV entry / exit status information table MTb-t21 stored in the table, the received camera ID; the received worker ID in the worker ID field 2332 in the record for registering the “CU-1” in the camera ID field 2331; Since “ID-NA” is not registered, the SV management processing unit 223 registers the received worker ID; “ID-NA” in the worker ID field 2332.
  • the SV in / out status information table MTb-t21 shown on the left side of the page of FIG.
  • the SV in / out status information storage unit 233 stores the camera ID; Is stored in the camera ID field 2331.
  • the worker ID field 2332 stores a worker ID; SV input / output status information table MTb-t22 in which "ID-NA" is registered.
  • the SV management processing unit 223 temporarily stores the received association information in the SV storage unit 23b (C115). More specifically, when the worker ID is registered from the state where there is no worker ID in the worker ID field 2332, the SV management processing unit 223 determines the time stored in the received association information notification communication signal. The start time is temporarily stored in the SV storage unit 23b by correlating the registered worker ID, the camera ID linked to the worker ID in the correlating information, and the start time.
  • the SV management processing unit 223 When the worker ID is further registered from the state where the worker ID is present in the worker ID field 2332, the SV management processing unit 223 has already registered the worker ID registered in the worker ID field 2332 in the SV storage unit 23b.
  • the temporarily stored worker ID, camera ID and start time temporarily stored in the SV storage unit 23b are temporarily stored in association with each other. If at least one worker ID is not present in the worker ID field 2332 and the worker ID is lost, the SV management processing unit 223 stores the stringing information of the worker ID deleted from the registration. With the time contained in the attached information notification communication signal as the end time, further associate the end time with the mutually associated worker ID, camera ID and start time temporarily stored in the SV storage unit 23b. It temporarily stores temporarily in the SV storage unit 23b.
  • the worker ID is registered from the state where there is no worker ID in the worker ID field 2332, so the SV management processing unit 223 uses the received association information notification communication signal.
  • the stored worker ID is temporarily stored in the SV storage unit 23b, with the registered worker ID, the camera ID linked to the worker ID in the correlating information, and the start time as the start time. Do.
  • the portable terminal device TAb-1 that is carried along with the room RM-1 is Is made to approach to the ID device RDb-1 provided corresponding to the reading operation for reading the camera ID (C121).
  • the portable terminal device TAb-1 When the portable terminal device TAb-1 and the ID device RDb-1 are brought close to each other, the portable terminal device TAb-1 receives the camera ID as the second identification information from the ID device RDb-1, as in the process C112 described above. Read “CU-1" (C122).
  • the portable terminal device TAb-1 takes out the stored worker ID “ID-NA” as in the above-described process C113, and reads the camera ID read in process C122; “CU-1” and the above
  • the extracted worker ID; “ID-NA” is linked to each other to generate linking information, and the generated linking information and a linking information notification communication signal containing the current time are transmitted to the management server SVb (C123).
  • the management server device SVb When receiving the association information communication signal from the portable terminal device TAb-1, the management server device SVb receives the camera ID transmitted from the portable terminal device TAb-1 by the SV management processing unit 223 in the same manner as the process C114 described above. Manage "CU-1" and worker ID; "ID-NA” (C124).
  • the SV management processing unit 223 deletes (deletes) the received worker ID; “ID-NA” from the worker ID field 2332.
  • the SV in / out status information table MTb-t22 shown in the center of the page of FIG.
  • the SV entry / exit status information table MTb-t23 in which the operator ID is not registered is stored in the operator ID field 2332 of the record in which the camera ID field 2331 is registered.
  • the SV management processing unit 223 temporarily temporarily stores the received association information in the SV storage unit 23b, as in the above-described process C115. (C125).
  • the SV management processing unit 223 deletes the work from the registration because there is no worker ID after the worker ID field 2332 has at least one worker ID.
  • the ending time is the worker ID associated with each other, which is temporarily stored in the SV storage unit 23b, Further, the camera ID and the start time are temporarily stored in the SV storage unit 23b in association with each other.
  • the tying information regarding the worker NS who has entered and left the area to be imaged with such an operation is temporarily temporarily stored in the SV storage unit 23b along with the start time and the end time and accumulated.
  • the imaging device CUb constantly captures an imaging target with the camera 11 to generate an image, temporarily stores the generated image in the CU storage unit 14b, and accumulates the image.
  • the imaging device CUb receives an image (image data) generated by the camera 11 and temporarily stored in the CU storage unit 14b, an image notification communication containing the camera ID of the own device and the current time as the imaging end time. A signal is generated, and the generated image notification communication signal is transmitted to the management server SVb (C131).
  • the management server device SVb causes the original image storage processing unit 2222 of the image storage processing unit 222b to transmit the image (image data) contained in the received image notification communication signal.
  • the original image storage unit 232 stores the automatically assigned original image file name. Then, the original image storage processing unit 2222 determines the original image file name, the camera ID contained in the received image notification communication signal, and the time contained in the received image notification communication signal as the imaging end time. Are linked to each other and stored in the original image storage unit 232 (C132).
  • the management server device SVb causes the image cut-out storage processing unit 2221 of the image storage processing unit 222 b to cut out the image obtained by cutting out the image according to the entry and exit of the worker NS from the original image. It is stored in the image storage unit 231 in association with the worker ID as the first identification information (C141). More specifically, the image clipping storage processing unit 2221 is configured to temporarily store the pair of linked worker ID and camera ID temporarily stored in the SV storage unit 23b by the SV management processing unit 223. The start time and end time are extracted, and an original image file name including the extracted start time and end time is selected from the original image storage unit 232 and is associated with the extracted camera ID.
  • the image cut-out storage processing unit 2221 cuts out an image of a portion corresponding to the extracted start time and end time from the original image having the selected original image file name, and generates a new image.
  • the image cut-out storage processing unit 2221 automatically generates an image file name and an image ID for the cut-out image, and adds the generated image file name to the image storage to attach the image cut-out image. It is stored in the unit 231.
  • the image clipping storage processing unit 2221 generates a new record in the image information table PT stored in the image storage unit 231, and the image ID field 2311 and the start time subfield “field 23121, end in the generated record.
  • the image cut-out storage processing unit 2221 erases the registered start time, end time, and worker ID from the SV storage unit 23b together with the camera ID linked to these.
  • the image clipping storage processing unit 2221 Until the set of worker ID, camera ID, start time and end time temporarily stored in the SV storage unit 23 b temporarily by the SV management processing unit 223 temporarily disappear ( Repeat until everything is erased.
  • the image recording system MSb collects each original image from each imaging device CUb-1 to CUb-3 arranged in each room RM-1 to RM-3, and from each original image to each room Each image cut out is generated according to the entry / exit location of the worker NS with respect to RM-1 to RM-3, and the worker ID is linked to each image and stored (recorded).
  • an operator such as the boss of the worker NS searches from the SV input unit 24 as in the image recording system MSa in the first embodiment.
  • a worker ID corresponding to the desired worker NS is input as a key, a search start instruction is input, and the management server device SVb reproduces and displays an image on the SV output unit 25 according to the input. This allows the operator to refer to the image for the desired worker NS.
  • the image recording system MSb and the image recording method implemented in the second embodiment when a predetermined worker NS enters the area to be imaged (the room RM in the present embodiment), One of the first and second identification information (the camera ID as the second identification information in this embodiment) is read and the other identification information (the worker ID as the first identification information in this embodiment) By linking the first and second identification information to each other, association information is generated, while an image and its second identification information are obtained from the imaging device CUb. Then, the image recording system MSb and the image recording method include the first identification information based on the second identification information received from the imaging device CUb together with the image and the tying information received from the portable terminal device TAb. , And stored in the image storage unit 231.
  • the image recording system MSb and the image recording method can more easily extract an image for a desired (target) worker NS by referring to the first specific information linked to the image. For this reason, the superior of the worker NS can grasp the manner, appropriateness and politeness to the work in the worker NS by referring to the image for the worker NS, and grasp the actual state of the worker NS. Then, the worker NS can be instructed.
  • FIG. 14 is a diagram showing a configuration of an imaging device of the third embodiment in the image recording system.
  • the ID devices RDa and RDb and the portable terminal devices TAa and TAb are brought close to each other to enter and exit the operator NS with respect to the area to be imaged.
  • the sensor determines the entry / exit of the worker NS with respect to the area to be imaged.
  • the image recording system MSc in the third embodiment can be configured based on the image recording systems MSa and MSb in the first and second embodiments described above.
  • an image recording system MSc according to a third embodiment configured based on the image recording system MSa according to the first embodiment will be described below.
  • An image recording system MSc according to the third embodiment can be configured in the same manner as described below based on the image recording system MSb according to the second embodiment.
  • Such an image recording system MSc in the third embodiment is, for example, as shown in FIG. 1, similarly to the image recording system MSa in the first embodiment, one or more imaging devices CUc (CUc-1 to CUc-3). ), One or more ID devices RDc (RDc-1 to RDc-3), a management server SVc, one or more mobile terminal devices TAc (TAc-1 and TAc-2), a private branch exchange CX, and , Which are communicably connected via a network NW.
  • the ID device RDc, the management server SVc, the portable terminal TAc and the private branch exchange CX in the image recording system MSc of the third embodiment respectively correspond to the ID device RDa and the management server SVa in the image recording system MSa of the first embodiment. Since the mobile terminal device TAa and the private branch exchange CX are the same, the description thereof is omitted.
  • the imaging device CUc is provided corresponding to the imaging object, has a communication function and the like for communicating with the management server SVc via the network NW, and images the imaging object Is an apparatus for generating an image. Then, in the present embodiment, the imaging device CUc manages the entering / exiting status of the worker NS with respect to the region to be imaged based further on the detection result of the entry / exit detection unit 15 described later, And (output) the generated image to the management server SVc together with the second identification information of the own machine.
  • Such an imaging device CUc includes, for example, a camera 11, a CU control processing unit 12c, a CU communication IF unit 13, a CU storage unit 14c, and an entrance / exit detection unit 15, as shown in FIG.
  • the camera 11, the CU communication IF unit 13 and the CU storage unit 14c in the imaging device CUc according to the third embodiment respectively correspond to the camera 11, the CU communication IF unit 13 and the CU storage unit 14a in the imaging device CUa according to the first embodiment.
  • the description is omitted because it is similar. Therefore, the CU storage unit 14c is functionally provided with a CU in / out situation information storage unit 141c similar to the CU in / out situation information storage unit 141a.
  • the entry / exit detection unit 15 is connected to the CU control processing unit 12c, and detects the presence / absence of entry / exit to the area of the imaging target according to the control of the CU control processing unit 12c.
  • the entry / exit detection unit 15 outputs the detection result to the CU control processing unit 12c.
  • the entry / exit detection unit 15 is, for example, a plurality of light emissions disposed in parallel along the entry / exit direction at a predetermined height position at the boundary of the area to be imaged (for example, the entrance of the room RM).
  • a plurality of light emitting parts separated by a predetermined width (for example, a length equal to or greater than a person's width or a width of an entrance of the living room RM) in an orthogonal direction orthogonal to the entering / removing direction
  • a predetermined width for example, a length equal to or greater than a person's width or a width of an entrance of the living room RM
  • a plurality of light receiving units arranged to respectively receive each light emitted from each of the light emitting units, and the presence or absence of entry / exit to the area of the imaging target according to each light reception result of each of the plurality of light receiving units And an entry / exit determination unit.
  • the entry / exit determination unit determines that the light reception output is obtained sequentially from the plurality of light receiving units along the entrance direction, and determines as entrance, and sequentially receives light from the plurality of light receiving units along the exit direction. When output is obtained, it is judged as exit.
  • the entry / exit detection unit 15 detects, for example, the boundary of the area of the imaging target According to the detection result of the infrared type human sensor, which is disposed at the entrance of the living room RM (for example, the entrance of the living room RM) and uses the area of the imaging target (for example, the residential room RM) as a detection area
  • the system may be configured to include an entrance determination unit that determines presence or absence of entrance into the monitoring area.
  • the CU control processing unit 12c controls the respective units 11, 13 and 14c of the imaging device CUc according to the functions of the respective units, and picks up the image pickup target It is a circuit for generating an image and notifying the management server SVc of the generated image. Then, the CU control processing unit 12c manages the entering / exiting status of the worker NS with respect to the imaging target area based on the detection result of the entry / exit detection unit 15, and notifies the generated image to the management server SVc. The control unit SVc is notified of the generated image together with the second identification information (camera ID in the present embodiment) of its own device stored in advance in the CU storage unit 14c.
  • the second identification information camera ID in the present embodiment
  • the CU control processing unit 12c is configured to include, for example, a CPU and its peripheral circuits.
  • the CU control processing unit 12c functionally includes the CU control unit 121, the generation unit 122c, and the imaging control unit 123 by executing the CU control processing program.
  • the CU control unit 121 and the imaging control unit 123 in the CU control processing unit 12c of the third embodiment are the same as the CU control unit 121 and the imaging control unit 123 in the CU control processing unit 12a of the first embodiment, respectively. , I omit the explanation.
  • the generation unit 122c uses the ID device RDc to enter the first identification information (the worker ID in the present embodiment) when the worker NS enters / exits the room (in the present embodiment, the living room RM) to be imaged (the room RM in the present embodiment).
  • the entry and exit is detected by the entry and exit detection unit 15, a string in which the second identification information of the own machine (camera ID in this embodiment) and the first identification information read by the ID device RDc are linked to each other
  • the attachment information is generated, and the generated association information is output (sent) to the management server SVc.
  • the generation unit 122 c generates and transmits the association information and an imaging-side management processing unit (CU management processing unit) 1221 c for managing the in / out state of the worker NS with respect to the imaging target area.
  • the notification processing unit 1222 are functionally provided.
  • the notification processing unit 1222 in the generation unit 122c of the third embodiment is the same as the notification processing unit 1222 in the generation unit 122c of the first embodiment, and thus the description thereof will be omitted.
  • the CU management processing unit 1221 c manages the first identification information (worker ID in the present embodiment) read by the ID device RDc based on the detection result of the entry / exit detection unit 15. More specifically, when the CU management processing unit 1221c is read by the ID device RDc and a worker ID is notified from the ID device RDc, and when the entrance / exit detection unit 15 detects entrance, If the notified worker ID is not registered in the worker ID field 1411 (see FIG. 16 described later) of the CU in / out status information table MTc stored in the CU in / out status information storage unit 141c, a new A new record is generated, and the notified worker ID is registered in the worker ID field 1411 of the newly generated record.
  • the CU management processing unit 1221c is notified when the ID device RDc reads and the worker ID is notified from the ID device RDc, and when the entrance / exit detection unit 15 detects an exit, this notification is received. If the worker ID is registered in the worker ID field 1411 of the CU entry / exit status information table MTc stored in the CU entry / exit status information storage unit 141c, a record for registering the notified worker ID is displayed. delete. As described above, the CU management processing unit 1221c manages the in / out status of the worker NS with respect to the imaging target area depending on the presence / absence of the worker ID storage.
  • the entrance / exit detection unit 15 detects only entrance
  • the ID device RDc and the portable terminal device TAc are brought close to each other and the worker ID is notified from the ID device RDc
  • the CU management processing unit 1221c If the notified worker ID is registered in the worker ID field 1411 of the CU entry / exit status information table MTc stored in the CU entry / exit status information storage unit 141c, the notified task It is sufficient to delete the record for registering the person ID.
  • FIG. 15 is a sequence diagram showing an operation of the third embodiment regarding image recording in the image recording system as an example.
  • FIG. 16 is a diagram for explaining transition of the CU in / out status information table in the operation shown in FIG.
  • FIG. 16 shows the CU entry / exit status information tables MTc-t31, MTc-t32, MTc-t33, and MTc-t34 for each of time t31, time t32, time t33, and time t34 in order from the left side to the right side. ing.
  • the devices CUc, RDc, SVc, and TAc execute initialization of necessary parts and start their operation.
  • the CU control processing unit 12c has the CU control unit 121, the generation unit 122c, and the imaging control unit 123 functionally configured by execution of the CU control processing program, and the generation unit 122c performs CU management.
  • the processing unit 1221 c and the notification processing unit 1222 are functionally configured.
  • the management server device SVc and the mobile terminal device TAc are the same as in the first embodiment.
  • the image recording system MSc collects the respective images from the respective imaging devices CUc-1 to CUc-3 by the operation of the third embodiment regarding the following image recording, and records the respective images.
  • a worker ID; "ID-NA” is inputted, for example, at the time of login operation.
  • the worker ID; "ID-NA” is stored in advance, and for example, in the case of login operation, the worker ID; "ID-NB” in the portable terminal device TAc-2 carried by the worker NS-2. Is input, and the worker ID; “ID-NB” is stored in advance.
  • the CU entry / exit status information table MTc-t31 stored in the CU entry / exit status information storage unit 141c has no worker NS present in the room RM-1.
  • the worker ID is not registered (stored).
  • the worker NS-1 in order to perform a predetermined work such as nursing, care or cleaning, the worker NS-1 carries the portable information carried in entering the living room RM-1 of the monitored person Ob-1.
  • the terminal device TAc-1 is brought close to an ID device RDc-1 provided corresponding to the living room RM-1, and a reading operation for reading a worker ID is performed (C211).
  • the portable terminal device TAc-1 stores the worker ID stored therein in the same manner as the process C12 described above; “ID-NA Is transmitted by the TAIF unit 37, and the ID device RDc-1 receives the worker ID “ID-NA” transmitted from the portable terminal device TAc-1, and thereby the worker ID “ID-NA”. Are read from the portable terminal device TAc-1 (C212).
  • the ID device RDc-1 sets the worker ID read from the portable terminal device TAc-1; “ID-NA” to the imaging device CUc provided in the room RM-1. Notify to -1 (C213).
  • the worker NS-1 brings the portable terminal device TAc-1 and the ID device RDc-1 close to each other as described above, but enters the room RM-1 by, for example, a sudden call or the like. If the user leaves the living room RM-1, the entrance / exit detection unit 15 does not detect the entrance of the worker NS-1, and the entrance / exit detection unit 15 outputs an entrance detection result to the CU control processing unit 12c. I will not. Therefore, the imaging device CUc-1 does not perform the subsequent processing. Therefore, in the example shown in FIG. 16, even if the notification of the worker ID; “ID-NA” is received from the ID device RDc-1, the CU in / out status information table MTc-t31 shown on the left side of FIG.
  • the imaging device CUc may enter or leave the entry / exit detection unit 15 within a predetermined time (for example, 5 seconds or 10 seconds) set in advance after the worker ID is notified from the ID device RDc. This process may be ended when the detection result of is not notified.
  • the portable terminal device TAc-2 carried by the worker NS-2 is The reading operation is performed to bring the worker ID into reading by bringing the user ID close to the ID device RDc-1 provided corresponding to the room RM-1 (C221).
  • the portable terminal device TAc-2 When the portable terminal device TAc-2 and the ID device RDc-1 are brought close to each other, the portable terminal device TAc-2 stores the worker ID stored therein in the same manner as the process C12 described above; “ID-NB Is transmitted by the TAIF unit 37, and the ID device RDc-1 receives the worker ID “ID-NB” transmitted from the portable terminal device TAc-2, and thereby the worker ID “ID-NB”. Are read from the portable terminal device TAc-2 (C222).
  • the ID device RDc-1 sets the worker ID read from the portable terminal device TAc-2; “ID-NB” to the imaging device CUc provided in the room RM-1. Notify to -1 (C223).
  • the entry / exit detection unit 15 detects the entrance of the worker NS-2, and outputs the detection result of the entrance to the CU control processing unit 112c (C224).
  • the imaging device CUc-1 When receiving the notification of the worker ID; “ID-NB” from the ID device RDc-1 and the detection result of the entrance from the entry / exit detection unit 15, the imaging device CUc-1 performs the work on the room RM-1
  • the CU management processing unit 1221c of the generating unit 122c in the CU control processing unit 12c manages the worker ID “ID-NB” notified from the ID device RDc-1 ( C 225). More specifically, the notified worker ID; "ID-NB” is not registered in the worker ID field 1411 of the CU in / out status information table MTc stored in the CU in / out status information storage unit 141c.
  • the CU management processing unit 1221 c generates a new record, and registers the notified worker ID; “ID-NB” in the worker ID field 1411 of the newly generated record.
  • the notified worker ID; "ID-NB” is registered in the worker ID field 1411 of the CU in / out status information table MTc stored in the CU in / out status information storage unit 141c,
  • the CU management processing unit 1221 c deletes the record for registering the notified worker ID; “ID-NB”.
  • the imaging device CUc-1 starts the imaging,
  • the imaging control unit 123 outputs an instruction to start imaging to start imaging to the camera 11 (C226).
  • the camera 11 receives the imaging start instruction from the imaging control unit 123, the camera 11 starts imaging and outputs an image generated by this imaging to the CU control processing unit 12c, and the CU control processing unit 12c performs CU control on the image. It temporarily stores in the storage unit 14c.
  • an image in the present embodiment, a moving image obtained by imaging the imaging target is generated and stored in the CU storage unit 14c.
  • the imaging device CUc-1 notifies the generating unit 122c in the CU control processing unit 12c to notify the association information, as in the above-described process C16.
  • the processing unit 1222 generates linkage information in which the camera ID of the own machine; “CU-1” and the worker ID read and notified by the ID device RDc-1; “ID-NB” are mutually linked, The generated association information and the current time as the imaging start time are notified to the management server SVc (C227).
  • the management server device SVc When receiving the notification of the association information and the imaging start time from the imaging device CUc-1, the management server device SVc temporarily stores the association information and the imaging start time in the SV storage unit 23a as in the above-described process C17. Temporarily store (C228).
  • the portable terminal device TAc-2 carried along with the room RM-1 is put in the room RM-1.
  • a reading operation is performed to bring the worker ID; “ID-NB” into proximity with the ID device RDc-1 provided correspondingly, and reading (C231).
  • the portable terminal device TAc-2 When the portable terminal device TAc-2 and the ID device RDc-1 are brought close to each other, the portable terminal device TAc-2 stores the worker ID stored therein in the same manner as the process C12 described above; “ID-NB Is transmitted by the TAIF unit 37, and the ID device RDc-1 receives the worker ID “ID-NB” transmitted from the portable terminal device TAc-2, and thereby the worker ID “ID-NB”. Are read from the portable terminal device TAc-2 (C232).
  • the ID device RDc-1 sets the worker ID read from the portable terminal device TAc-2; “ID-NB” to the imaging device CUc provided in the room RM-1. Notify to -1 (C233).
  • the entry / exit detection unit 15 detects the exit of the worker NS-2, and outputs the detection result of the exit to the CU control processing unit 112c (C234).
  • the imaging device CUc-1 When receiving the notification of the worker ID; “ID-NB” from the ID device RDc-1 and the detection result of the exit from the entry / exit detection unit 15, the imaging device CUc-1 performs the work on the room RM-1
  • the CU management processing unit 1221c of the generating unit 122c in the CU control processing unit 12c manages the worker ID “ID-NB” notified from the ID device RDc-1 ( C235). More specifically, here, as shown second from the right side of the drawing of FIG. 16, the notified worker ID; “ID-NB” is stored in the CU in / out status information storage unit 141 c.
  • the CU management processing unit 1221c deletes the record for registering the notified worker ID; "ID-NB".
  • the CU in / out status information table MTc-t33 shown second from the paper surface right of FIG. 16 becomes the CU in / out status information table MTc-t34 shown on the right side of the paper, and the CU in / out status information storage unit 141c receives the worker ID; There is no record in which "ID-NB" is registered, and a CU in / out status information table MTc-t34 in which no worker ID is registered is stored.
  • the imaging device CUc-1 ends the imaging in the same manner as the process C25 described above. Then, the imaging control unit 123 outputs, to the camera 11, an instruction to end the imaging to end the imaging (C236). When the camera 11 receives the instruction to end the imaging from the imaging control unit 123, the imaging is ended.
  • the imaging device CUc-1 causes the CU control processing unit 12c to transmit the image temporarily stored in the CU storage unit 14c to the management server device SVc (C237). More specifically, the CU control processing unit 12c receives an image notification communication signal containing the image temporarily stored in the CU storage unit 14c, the camera ID of the own device, and the current time as the imaging end time. Transmit to the management server SVc.
  • the management server device SVc When receiving the notification of the image from the imaging device CUc-1, the management server device SVc ties the image from the imaging device CUc-1 to the worker ID as the first specific information as in the above-described process C27. And stored in the image storage unit 231 (C238).
  • the image recording system MSc collects each image from each of the imaging devices CUc-1 to CUc-3 arranged in each of the living rooms RM-1 to RM-3, and attaches a worker ID to each image. And store (record).
  • an operator such as the boss of the worker NS searches from the SV input unit 24 as in the image recording system MSa in the first embodiment.
  • a worker ID corresponding to the desired worker NS is input as a key, a search start instruction is input, and the management server SVc reproduces and displays an image on the SV output unit 25 according to the input. This allows the operator to refer to the image for the desired worker NS.
  • the image recording system MSc in the third embodiment and the image recording method implemented in the same achieve the same effects as those of the first embodiment (when based on the second embodiment, The same effects as those of the second embodiment can be obtained).
  • the image recording system MSc and the image recording method further include an entry / exit detection unit 15, and when the entry / exit detection unit 15 detects presence of entry, the association information is output to the management server device SVc. Therefore, if the worker NS causes the ID device RDc to read the one specific information but does not enter the area to be imaged, the tied information is not output to the management server device SVc. Therefore, in the image recording system MSc and the image recording method, the first specific information (the worker ID in the above description) can be more appropriately associated with the image from the imaging device CUc unit.
  • the image recording system MSc and the image recording method further include an entrance and exit detection unit 15, and when the entrance and exit detection unit 15 detects the presence of entrance, the imaging start instruction is output to the camera 11, and the entrance and exit detection unit When it is detected at 15 that there is an exit, the instruction to end the imaging is output to the camera 11.
  • the image recording system MSc and the image recording method can more appropriately store (record) the image according to the entry / exit location of the worker.
  • FIG. 17 is a diagram showing a configuration of a monitored person monitoring support system in the fourth embodiment.
  • FIG. 18 is a diagram showing a configuration of a sensor device in the monitored person monitoring support system.
  • FIG. 19 is a diagram showing a configuration of a management server device in the monitored person monitoring support system.
  • FIG. 20 is a diagram showing the configuration of a detection event-added image information table stored in the management server device shown in FIG.
  • FIG. 21 is a diagram showing the configuration of a mobile terminal device in the monitored person monitoring support system.
  • a monitoring support target who supports monitoring of the person to be monitored by detecting and notifying a predetermined event related to the person to be monitored in the monitoring area in the image recording system. It is an embodiment incorporated into the system. Any of the image recording systems MSa to MSc in the first to third embodiments described above can be incorporated into the monitored person monitoring support system.
  • a monitored person monitoring support system incorporating the image recording system MSa in the first embodiment will be described below.
  • the monitoree monitoring support system incorporating the image recording system MSb or MSc in the second or third embodiment can also be configured as follows.
  • Such a person-to-be-monitored monitoring support system MSd detects the person-to-be-monitored (person to be watched) Ob (Ob-1 to Ob-3) to be monitored (to be watched).
  • one or more sensor devices SU SU-1 to SU-3) and one or more ID devices RDd (RDd-) are provided to support monitoring of the monitored person Ob. 1 to RDd-3
  • a management server SVd a management server SVd
  • one or more portable terminal TAd TAd-1, TAd-2
  • PBX private branch exchange
  • It is communicably connected via a network (network, communication line) NW such as a LAN (Local Area Network) by wire or wirelessly.
  • NW network, communication line
  • NW Local Area Network
  • the sensor device SU, the management server device SVd and the portable terminal device TAd in the monitored person monitoring support system MSd according to the fourth embodiment respectively include the imaging device CUa and the management server device SVa in the image recording system MSa according to the first embodiment.
  • the respective configurations of the portable terminal device TAa are incorporated as described later.
  • the ID device RDd and the private branch exchange CX in the monitored person monitoring support system MSd according to the fourth embodiment are the same as the ID device RDa and the private branch exchange CX in the image recording system MSa according to the first embodiment. Do.
  • connection relationship regarding communication between the sensor device SU, the ID device RDa, the management server device SVd, the portable terminal TAd, and the private branch exchange CX in the monitored person monitoring support system MSd of the fourth embodiment is the same as that in the first embodiment. Because there is, I omit the explanation.
  • the monitored person monitoring support system MSd is disposed at an appropriate place according to the monitored person Ob.
  • the monitored person (watching target person) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs care due to a decrease in physical ability or the like, or a single person living alone.
  • the person to be monitored Ob is a person who needs the detection when a predetermined adverse event such as an abnormal condition occurs in the person. preferable.
  • the person-to-be-monitored monitoring support system MSd is suitably disposed in buildings such as hospitals, welfare facilities for the elderly and dwelling units according to the type of the person to be monitored Ob.
  • the monitored person monitoring support system MSd is disposed in a building of a care facility provided with a plurality of living rooms RM in which a plurality of monitored persons Ob reside, and a plurality of living rooms such as a nurse station. .
  • the sensor device SU is provided corresponding to the monitoring area in which the monitored person Ob who is the monitoring target is located, has a communication function and the like to communicate with other devices SVd and TAd via the network NW, and is related to the monitored person Ob It is a device that notifies a predetermined event (event) to the management server device SVd.
  • the predetermined event (event) is preferably a predetermined event that needs to be dealt with, for example, in the present embodiment, predetermined actions and nurse calls set in the monitored person Ob. For this reason, in the present embodiment, the sensor device SU detects a predetermined action in the monitored person Ob, notifies (transmits) the detection result to the management server apparatus SV as an example of the predetermined event, and receives a nurse call.
  • the sensor unit SU further has the same function as the imaging unit CUa of the first embodiment, with the monitoring area as the area to be imaged.
  • a sensor device SU includes, for example, a camera 41, a sensor side sound input / output unit (SU sound input / output unit) 42, a nurse call reception operation unit 43, and a sensor side control processing unit as shown in FIG. (SU control processing unit) 44, a sensor side communication interface unit (SU communication IF unit) 45, and a sensor side storage unit (SU storage unit) 46.
  • the camera 41 and the SU communication IF unit 45 are the same as the camera 11 and the CU communication IF unit 13 in the first embodiment, and thus the description thereof will be omitted.
  • the SU sound input / output unit 42 is a circuit that inputs and outputs a sound. That is, the SU sound input / output unit 42 is connected to the SU control processing unit 44 in the same manner as the TA sound input / output unit 34 of the portable terminal device TAa in the first embodiment, and represents sound according to the control of the SU control processing unit 44. It is a circuit for generating and outputting a sound according to an electrical signal, and is a circuit for acquiring an external sound and inputting it to the sensor unit SU.
  • the nurse call reception operation unit 43 is connected to the SU control processing unit 44, and is a switch circuit such as a push button switch for inputting a nurse call to the sensor device SU.
  • the nurse call reception operation unit 13 may be connected to the SU control processing unit 44 by wire, or may be connected to the SU control processing unit 44 by the short distance wireless communication such as Bluetooth (registered trademark) standard, for example. .
  • the SU storage unit 46 is a circuit which is connected to the SU control processing unit 44 and stores various predetermined programs and various predetermined data according to the control of the SU control processing unit 44.
  • the various predetermined programs include, for example, a predetermined SU control processing program, and the SU control processing program includes, for example, the units 41 to 43, 45, and 46 of the sensor unit SU according to the functions of the units.
  • SU control program to control each of them, a generation program similar to that of the first embodiment, an imaging control program similar to that of the first embodiment, and a SU monitoring processing program that executes predetermined information processing related to monitoring of the monitored person Ob Etc. are included.
  • an action of detecting a predetermined action in the monitored person Ob and notifying a detection result to the predetermined portable terminal TAd via the management server apparatus SVd as an example of the predetermined event (event)
  • a detection processing program or a nurse call acceptance operation unit 13 accepts a nurse call, that is notified to a predetermined portable terminal device TAd via the management server device SVd as another example of the predetermined event, and an SU sound is generated.
  • the various predetermined data includes second identification information (camera ID (sensor ID) in the present embodiment), the communication address of the management server SVd, and an operator for the monitoring area (area to be imaged). It includes data necessary for executing each program, such as SU entry status information indicating the entry status of the NS.
  • the SU storage unit 46 includes, for example, a ROM, an EEPROM, a RAM, and the like.
  • the SU storage unit 46 functionally includes a sensor-side entry / exit information storage unit (SU entry / exit information storage unit) 461 that stores the SU entry / exit status information. Since the SU in / out status information storage unit 461 is the same as the CU in / out status information storage unit 141 a of the first embodiment, the description thereof will be omitted.
  • the SU control processing unit 44 controls the respective units 41 to 43, 45, and 46 of the sensor device SU according to the functions of the respective units, and sends a predetermined event (event) related to the monitored person Ob to the management server device SVd. It is a circuit for notifying.
  • the SU control processing unit 44 detects a predetermined action in the monitored person Ob and notifies the management server SVd of the detection result as an example of the predetermined event (notification, Transmit, receive a nurse call, notify (notify, transmit) the nurse call to the management server device SVd as another example of the predetermined event, make a voice call with the portable terminal device TAd, and display a moving image An image including the image is generated and the moving image is distributed to the mobile terminal device TAd.
  • the SU control processing unit 44 further functions in the same manner as the CU control processing unit 12 a of the first embodiment.
  • the SU control processing unit 44 includes, for example, a CPU and its peripheral circuits.
  • the SU control processing unit 44 executes the SU control processing program to execute a sensor-side control unit (SU control unit) 441, a generation unit 442, an imaging control unit 443, an action detection processing unit 444, and a nurse call processing unit 445. And a sensor side streaming processing unit (SU streaming processing unit) 446, and the generating unit 442 functionally includes an SU management processing unit 4421 and a notification processing unit 4422.
  • the generation unit 442 and the imaging control unit 443 are respectively.
  • the SU management processing unit 4421 and the notification processing unit 4422 are the same as the CU management processing unit 1221 a and the notification processing unit 1222 in the first embodiment. , I omit the explanation.
  • the SU control unit 441 controls the respective units 41 to 43, 45, and 46 of the sensor unit SU according to the functions of the respective units, and controls the entire control of the sensor unit SU.
  • the SU control unit 441 counts date, hour, hour, minute and second.
  • the action detection processing unit 444 detects a predetermined action set in advance in the monitored person Ob and notifies the management server SVd of the detection result as an example of the predetermined event. More specifically, in the present embodiment, the predetermined action includes, for example, wakeup by the monitored person Ob, leaving the monitored room Ob away from the bedding, falling down the monitored person Ob from the bedding, And it is four actions of the fall which the to-be-monitored person Ob fell. Then, the action detection processing unit 444 detects, for example, the head of the monitored person Ob based on the image (target image) captured by the camera 11, and the detected time of the size of the detected head of the monitored person Ob. Based on the change, wake up, leaving, falling and falling of the monitored person Ob are detected.
  • the location area of the bedding BD and the first to third threshold values Th1 to Th3 are stored in advance in the SU storage unit 46 as one of the various predetermined data.
  • the first threshold Th1 is a threshold for identifying the size of the head in the lying posture and the size of the head in the sitting posture in the area where the bedding BD is located.
  • the second threshold Th2 is a threshold for identifying whether or not the size of the head of the standing posture in the living room RM excluding the area where the bedding BD is located.
  • the third threshold Th3 is a threshold for identifying whether or not the size of the head of the lying posture in the living room RM excluding the area where the bedding BD is located.
  • the action detection processing unit 444 first extracts a moving subject area as an area of the person of the person to be monitored Ob from the target image by, for example, the background subtraction method or the frame subtraction method. Next, the action detection processing unit 444 performs, for example, for head detection from the extracted moving body region, for example, by circular or elliptic Hough transform, for example, by pattern matching using a head model prepared in advance. The head region of the person to be monitored Ob is extracted by the neural network learned to. Then, the behavior detection processing unit 444 detects getting up, leaving, falling and falling from the position and size of the extracted head.
  • the position of the extracted head is in the area where the bedding BD is located, and the size of the extracted head is the size of the lying posture by using the first threshold Th1.
  • the action detection processing unit 444 may be configured such that the extracted head position is temporally changed from within the area of the bedding BD to outside the area of the bedding, and the size of the extracted head is the second
  • the threshold value Th2 it is determined that the bed has left, and the bed is detected.
  • the extracted head position is temporally changed from within the area of the bedding BD to outside the area of the bedding BD, and the size of the extracted head
  • time is changed from a certain size to the size of the lying posture by using the three threshold value Th3
  • the action detection processing unit 444 is configured such that the position of the extracted head is in the living room RM excluding the area where the bedding BD is located, and the size of the extracted head uses the third threshold Th3.
  • the time has changed from the size to the size of the lying posture, it is determined that a fall has occurred, and the fall is detected.
  • the action detection processing unit 444 notifies the event containing event information (event information) representing the content of a predetermined event (event) related to the monitored person Ob.
  • the SU communication IF unit 45 notifies the management server SVd of the communication signal (first event notification communication signal). More specifically, the action detection processing unit 444 receives a first event notification communication signal containing the camera ID of its own device, event information indicating the content of the event, and the target image used for detecting the predetermined action, as the SU. It transmits to the management server SVd via the communication IF unit 45.
  • the event information is represented by the type of event, and in the present embodiment, is one or more of getting up, leaving, falling, falling, and nurse call (NC).
  • the action detection processing unit 142 detects One or more of wake up, wake up, fall, and fall are accommodated in the first event notification communication signal as the event information.
  • the image may be at least one of a still image and a moving image.
  • the still image is first notified, and the moving image is distributed according to the request of the worker.
  • the nurse call processing unit 445 When the nurse call reception operation unit 43 receives a nurse call, the nurse call processing unit 445 notifies the management server apparatus SVd of a first event notification communication signal that accommodates that as another example of the predetermined event.
  • voice communication is performed with the portable terminal device TAd. More specifically, the nurse call processing unit 445 performs SU communication of the first event notification communication signal containing the nurse call as the camera ID of the own device and the event information when the nurse call reception operation unit 43 is operated. It is transmitted to the management server SVd via the IF unit 45. Then, the nurse call processing unit 445 uses the SU sound input / output unit 42 or the like to perform voice communication with the portable terminal device TAd by, for example, VoIP (Voice over Internet Protocol).
  • VoIP Voice over Internet Protocol
  • the SU streaming processing unit 446 transmits the moving image generated by the camera 11 to the portable terminal device TAd that has made the request (for example, when the portable terminal device TAd receives a distribution request of moving images from the portable terminal device TAd via the SU communication IF unit 46)
  • the live moving image is distributed by streaming reproduction via the SU communication IF unit 45.
  • first to third sensor devices SU-1 to SU-3 are shown, and the first sensor device SU-1 together with the first ID device RDd-1
  • the second sensor device SU-2 is disposed in the room RM-1 (not shown) of Mr. A's Ob-1 who is one person, and Mr. B's Ob who is one of the monitored persons Ob together with the second ID device RDd-2.
  • the third sensor device SU-3 is disposed in a room RM-2 (not shown) of the second embodiment, and the third sensor device SU-3, together with the third ID device RDd-3, is a room of Mr. C's Ob-3 who is one of the monitored persons Ob. It is disposed at RM-3 (not shown).
  • the management server device SVd has a communication function of communicating with the other devices SU and TAd via the network NW, and receives notification of the predetermined event from the sensor device SU, information related to monitoring of the monitored person Ob (monitoring information (In the present embodiment, for example, the predetermined event (a type of predetermined action detected by the sensor device SU or a nurse call received by the sensor device SU), an image of a person Ob (observed image and moving image), and the notification Time, etc.) is notified, the predetermined event is notified (renotified, It is an apparatus which provides the corresponding data to the client and manages the entire monitored person monitoring support system MSd.
  • the predetermined event a type of predetermined action detected by the sensor device SU or a nurse call received by the sensor device SU
  • an image of a person Ob observed image and moving image
  • the notification Time etc.
  • the management server device SVd has the same function as the management server device SVa of the first embodiment except that the image is further closely associated with the event detected by the sensor device SU.
  • a management server device SVd includes an SV communication IF unit 21, an SV control processing unit 22d, an SV storage unit 23c, an SV input unit 24, and an SV output unit 25.
  • a SVIF unit 26 The SV communication IF unit 21, the SV input unit 24, the SV output unit 25, and the SVIF unit 26 in the management server apparatus SVd according to the fourth embodiment respectively correspond to the SV communication IF unit 21 in the management server apparatus SVa according to the first embodiment.
  • the SV input unit 24, the SV output unit 25, and the SVIF unit 26 are the same as the SV input unit 24, and the description thereof is omitted.
  • the SV storage unit 23d is connected to the SV control processing unit 22d, and is a circuit that stores various predetermined programs and various predetermined data according to the control of the SV control processing unit 22d.
  • the various predetermined programs include, for example, predetermined SV control processing programs, and the SV control processing programs include the respective units 21, 23d, and 24 to 26 of the management server device SVd according to the functions of the respective units.
  • SV control program for controlling each, an image storage processing program for storing an image generated by the sensor unit SU in an image storage unit 231d described later, SV monitoring processing program for executing predetermined information processing related to monitoring of the monitored person Ob Etc. are included.
  • the various predetermined data include the server ID of the own device, the image (image data) generated and received by the sensor device SU as the imaging device CUa, the monitoring information of the monitored person Ob, the predetermined It includes inter-apparatus information representing information between the apparatus SU such as an event notification destination and the like and TAd, and data necessary for executing each program such as sensor information on the sensor apparatus SU.
  • the SV storage unit 23d includes, for example, a ROM, an EEPROM, a RAM, and the like, and may further include an HDD as needed.
  • the SV storage unit 23d includes an image storage unit 231, a server-side monitoring information storage unit (SV monitoring information storage unit) 234, The inter-device information storage unit 235 and the sensor information storage unit 236 are functionally provided.
  • the image storage unit 231 d stores the image from the sensor device SU as the imaging device CUa in association with the first identification information (the worker ID in the present embodiment). Furthermore, in the fourth embodiment, the image storage unit 231d associates the image with event information detected by the sensor device SU most recently and stores the associated information. More specifically, the pair of images linked with one another, the worker ID, and the event information are stored in the image storage unit 231d in a table format. As shown in FIG. 20, for example, as shown in FIG. 20, an image ID field 2311 for registering the image ID is a set of the image, the worker ID and the event information linked with each other.
  • the event detection time field 2315 registers the event detection time at which the event was detected
  • the event type field 2316 registers the event information
  • the recording time field 2312 registers the recording time
  • the image file name registers the image file name A field 2313, a room name field 2317 for registering a room name, and a worker ID field 2314 for registering a worker ID, and for each of the images (for each group), a record for each event notification have.
  • the image information table IT with detection event further includes an event detection time field 2315, an event type field 2316, and a room name field 2317 in the image information table PT shown in FIG. 4 described above.
  • the SV monitoring information storage unit 234 stores monitoring information of the monitored person Ob transmitted and received to and from each of the devices SU and TAd. More specifically, in the SV monitoring information storage unit 234, in the present embodiment, as the monitoring information, the camera ID, event information, and the like based on the respective information contained in the communication signal such as the first event notification communication signal. (Event information, getting up, leaving, falling, falling, and nurse call in this embodiment), reception time, target image (still image and moving image), presence or absence of response (presence or absence of correspondence), etc. Ru.
  • the inter-apparatus information storage unit 235 stores notification destination correspondence information, communication address correspondence information, and the like in the present embodiment as the inter-apparatus information.
  • the notification destination correspondence relationship information indicates a notification destination (re-notification destination, re-notification destination, transmission destination) such as a first event notification communication signal or the like transmitted from the sensor device SU, a camera ID as a transmission source and a notification destination ( It is information indicating the correspondence with the terminal ID that is the re-notification destination).
  • the communication address correspondence relationship information is information representing the correspondence relationship between the ID (sensor ID, terminal ID) of each device SU, TAd and the communication address thereof.
  • the terminal ID is a terminal identifier for identifying the mobile terminal device TAd and identifying the mobile terminal device TAd.
  • the sensor information storage unit 236 stores sensor information which is information related to the sensor device SU.
  • the sensor information includes, for example, a camera ID of the sensor device SU, an arrangement place of the sensor device SU (the monitoring area, an area to be imaged), and an arrangement place of the sensor device SU. It is the information which mutually matched the to-be-monitored person's name of the to-be-monitored person Ob who exists.
  • the installation location of the sensor device SU is represented by, for example, a room name (room name).
  • the SV control processing unit 22 d controls the respective units 21, 23 d and 24 to 26 of the management server device SVd according to the functions of the respective units, and receives the notification of the predetermined event from the sensor unit SU. It is a circuit for managing monitoring information related to monitoring for, notifying the predetermined portable terminal device TAd of the predetermined event, and providing the client with data according to the request of the client. Then, in the fourth embodiment, the SV control processing unit 22d functions in the same manner as the SV control processing unit 22a in the first embodiment except that the image is further closely associated with the event detected by the sensor device SU. .
  • the SV control processing unit 22d is configured to include, for example, a CPU and its peripheral circuits.
  • the SV control processing unit 22d functionally includes an SV control unit 221, an image storage processing unit 222d, and a server-side monitoring processing unit (SV monitoring processing unit) 223 when the SV control processing program is executed.
  • the SV control unit 221 controls the respective units 21, 23d, and 24 to 26 of the management server device SVd according to the functions of the respective units, and controls the entire control of the management server device SVd.
  • the SV control unit 221 counts the date, hour, hour, minute and second.
  • the SV monitoring processing unit 224 manages monitoring information related to monitoring of the monitored person Ob when receiving a notification of the predetermined event from the sensor device SU, and notifies the predetermined portable terminal device TAd of the predetermined event. .
  • the SV monitoring processing unit 224 monitors monitoring of the monitored person Ob accommodated in the received first event notification communication signal.
  • the information is stored (recorded) in the SV monitoring information storage unit 234.
  • the SV monitoring processing unit 222 stores the notification destination (renotification destination, transfer destination, transmission destination) corresponding to the sensor device SU that has transmitted the received first event notification communication signal in the inter-device information storage unit 235.
  • the notification destination correspondence information is selected (searched), a second event notification communication signal is generated based on the selection result, and the SV communication IF unit 21 transmits the generated second event notification communication signal.
  • the second event notification communication signal may 1 Communication address corresponding to the sensor device SU having the camera ID contained in the event notification communication signal, the event information and the target image, and the first event notification communication signal as the download destination of the moving image is accommodated. Be done. The communication address is selected (searched) from the communication address correspondence information based on the camera ID corresponding to the sensor device SU that has transmitted the received first event notification communication signal.
  • the event information contained in the first event notification communication signal is the nurse call
  • the second event notification communication signal includes the camera ID and the event information contained in the first event notification communication signal. The nurse call will be accommodated.
  • the image storage processing unit 222 d causes the image storage unit 231 d to store an image generated by the sensor device SU as the imaging device CUa. Similar to the image storage processing unit 222 a of the first embodiment, when storing the image, the image storage processing unit 222 d receives the second identification information (the camera ID in the present embodiment) received from the sensor device SU together with the image. And the association information received from the sensor device SU, the image is associated with the first specific information (the worker ID in the present embodiment) and stored in the image storage unit 231d. Then, in the fourth embodiment, the image storage processing unit 222d links the image to an event detected by the sensor device SU more immediately after the image.
  • the second identification information the camera ID in the present embodiment
  • the image storage processing unit 222d links the image to an event detected by the sensor device SU more immediately after the image.
  • the image storage processing unit 222 d receives the first event notification communication signal from the sensor device SU, first, the current time is regarded as an event detection time, and is stored in the received first event notification communication signal. Retrieve the specified camera ID, event information and target image. When the sensor device SU accommodates the event detection time in the first event notification communication signal, this event detection time may be used. Next, the image storage processing unit 222 d converts the camera ID into a room name based on the sensor information stored in the sensor information storage unit 236. When a room name is used as a camera ID, this process is omitted. Next, the image storage processing unit 222d adds an image file name to the target image and stores the image file in the image storage unit 231d.
  • the image file name may be arbitrary, but may be an image file name and a serial number attached to the image contained in the image notification communication signal.
  • the image storage processing unit 222d generates an image ID with the image ID and the serial number generated at the time of receiving the image notification communication signal.
  • the image storage processing unit 222d generates a new record in the image information table IT with detection event stored in the image storage unit 231d, and generates an image ID field 2311, an event detection time field 2315, and the like in the generated record.
  • the image ID, the event detection time, the image file name and the room name are registered in the event type field 2316, the image file name field 2313 and the room name field 2317 respectively.
  • the SV monitoring processing unit 224 stores the monitoring information notified by the first event notification communication signal in the SV monitoring information storage unit 234, and then the SV monitoring information storage unit 234 stores the monitoring information. From the monitoring information, the image storage processing unit 222d may transfer the detection event added image information table IT. Alternatively, the above process may be executed by the SV monitoring processor 224 instead of the image storage processor 222 d.
  • the image storage processing unit 222d receives the image notification communication signal from the sensor device SU, the image storage process according to the first embodiment except that the image connection processing event is detected in the sensor device SU more immediately after the image. It functions in the same manner as the unit 222a. That is, when the image notification communication signal is received from the sensor device SU, the image storage processing unit 222d detects the image information with a detection event stored in the image storage unit 231d as in the image storage processing unit 222a according to the first embodiment. Each data is registered in each field 2311, 23121, 23122, 2313 and 2314 in the record newly generated in the table IT. At this time, the received image notification is made in the event type field 2316 in the newly generated record.
  • a first event notification communication signal containing a camera ID identical to the camera ID contained in the communication signal, and the first event notification received at a time closest in time to the received image notification communication signal The event information contained in the communication signal is registered.
  • the event type field 2316 in the record of the second line is event information registered in the event type field 2316 in the record of the first line closest thereto; "Fall over" is registered.
  • the portable terminal device TAd has a communication function of communicating with other devices SVd and SU via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a call for voice communication. It has a function etc., inputs predetermined instructions and data given to the management server device SVd and the sensor device SU, displays the monitoring information obtained by the sensor device SU by notification from the management server device SVd, and the sensor device It is a device for answering or calling a nurse call by voice communication with the SU.
  • the mobile terminal device TAd has the same function as the mobile terminal device TAa of the first embodiment.
  • Such a portable terminal device TAd is, for example, as shown in FIG.
  • the TA communication IF unit 31, the TA sound input / output unit 34, the TA input unit 35, the TA display unit 36 and the TAIF unit 37 in the portable terminal device TAd according to the fourth embodiment respectively correspond to the portable terminal device TAa according to the first embodiment.
  • the TA communication I / F unit 31, the TA sound input / output unit 34, the TA input unit 35, the TA display unit 36, and the TAIF unit 37 are the same as those in FIG.
  • the TA storage unit 33 d in the portable terminal device TAd is, as one program included in the TA control processing program, a TA monitoring processing program for executing predetermined information processing related to monitoring of the monitored person Ob.
  • a call processing program for making a voice call with the sensor unit SU by using the output unit 34 or the like, distribution of moving images from the sensor unit SU, and displaying the distributed moving image on the TA display unit 36 by streaming reproduction Similar to the TA storage unit 33a in the portable terminal device TAa of the first embodiment except that the TA streaming processing program and the monitoring information received from the management server SVd as a second event notification communication signal are further stored. So I will omit the explanation.
  • the TA control processing unit 32d controls the respective units 31, 33d, 34 to 37 of the portable terminal device TAd according to the functions of the respective units, receives and displays the monitoring information of the monitored person Ob, and responds to the nurse call. It is a circuit for calling out.
  • the TA control processing unit 32d functions in the same manner as the TA control processing unit 32a of the first embodiment.
  • the TA control processing unit 32 d is configured to include, for example, a CPU and its peripheral circuits.
  • the TA control processing unit 32 d executes a TA control unit 321, a worker ID information output processing unit 322, a terminal side monitoring processing unit (TA monitoring processing unit) 323, and a notification processing unit 324.
  • TA streaming processing unit TA streaming processing unit 325 functionally.
  • the worker ID information output processing unit 322 is the same as that of the first embodiment, and thus the description thereof is omitted.
  • the TA control unit 321 controls the respective units 31, 33d and 34 to 37 of the portable terminal device TAd in accordance with the functions of the respective units, and controls the entire control of the portable terminal device TAd.
  • the TA control unit 321 counts the date, hour, hour, minute, and second.
  • the TA monitoring processing unit 324 executes predetermined information processing related to monitoring of the monitored person Ob. More specifically, when the TA monitoring processor 324 receives the second event notification communication signal transmitted by the management server SVd due to the first event notification communication signal transmitted by the sensor device SU. Based on each information (each data) contained in the received second event notification communication signal, the monitoring information of the person to be monitored Ob is stored (recorded) in the TA storage unit 33 d. The TA monitoring processing unit 324 displays on the TA display unit 36 a screen corresponding to each piece of information contained in the received second event notification communication signal. Then, when the TA monitoring processing unit 324 receives a predetermined input operation from the TA input unit 35, the TA monitoring processing unit 324 executes a predetermined process according to the input operation.
  • the call processing unit 325 performs voice communication with the sensor device SU by using the TA sound input / output unit 34 and the like. More specifically, for example, the call processing unit 325 transmits the first event notification communication signal that caused the transmission of the second event notification communication signal to the management server device SVd using the TA sound input / output unit 34 or the like.
  • a voice call is made, for example, by VoIP with the source sensor device SU.
  • the TA streaming processing unit 326 receives the delivery of the moving image from the sensor unit SU, and displays the delivered moving image on the TA display unit 36 by streaming reproduction.
  • FIG. 22 is a sequence diagram showing an operation related to detection of an event and image recording in the monitored person monitoring support system as an example.
  • FIG. 23 is a diagram showing an example of a standby screen displayed on the mobile terminal device.
  • FIG. 24 is a diagram showing an example of a monitoring information screen displayed on the mobile terminal device.
  • FIG. 25 is a diagram showing an example of a nurse call acceptance screen displayed on the mobile terminal device.
  • FIG. 26 shows an example of an extraction result display screen for displaying an extraction result obtained by extracting an image for a desired worker out of a plurality of image files displayed on the management server device in the monitored person monitoring support system.
  • FIG. FIG. 27 is another extraction result display screen for displaying an extraction result obtained by extracting an image for a desired detection result out of a plurality of image files displayed on the management server device in the monitored person monitoring support system. It is a figure which shows an example.
  • each of the devices SU, RDd, SVd, and TAd performs initialization of necessary parts when power is turned on, and starts its operation.
  • the SU control processing unit 44 includes an SU control unit 441, a generation unit 442, an imaging control unit 443, an action detection processing unit 444, a nurse call processing unit 445, and SU streaming by executing the SU control processing program.
  • the processing unit 446 is functionally configured, and in the generating unit 442, the SU management processing unit 4421 and the notification processing unit 4422 are functionally configured.
  • an SV control unit 221, an image storage processing unit 222d, and an SV monitoring processing unit 224 are functionally configured in the SV control processing unit 22d by execution of the SV control processing program. Then, in the mobile terminal device TAd, the TA control processing unit 32d receives the TA control processing unit 321, the worker ID information output processing unit 322, the TA monitoring processing unit 324, the notification processing unit 324, and the like by executing the TA control processing program.
  • the TA streaming processing unit 326 is functionally configured.
  • the first event notification communication signal is sent to the management server device SVd to notify the predetermined event.
  • Send (C312).
  • the sensor device SU detects a predetermined event in the person to be monitored Ob by operating as follows for each frame or every few frames, and the first event notification communication signal Is sent to the management server SVd.
  • the sensor device SU acquires an image (image data) for one frame from the camera 11 as a target image, detects a predetermined action in the monitored person Ob based on the acquired target image, and performs the predetermined action.
  • the first event notification communication signal according to the detection of the predetermined activity containing the predetermined activity detected as the event information, Transmit to the management server SVd.
  • the sensor device SU determines whether or not a nurse call is received, and when a nurse call is received, to notify acceptance of the nurse call to a predetermined mobile terminal device TAd.
  • the sensor device SU transmits, to the management server device SVd, a first event notification communication signal according to reception of the nurse call, which accommodates the accepted nurse call as the event information.
  • the management server device SVd When the first event notification communication signal is received from the sensor device SU, the management server device SVd is monitored by the SV monitoring processing unit 224 of the SV control processing unit 22d, which is accommodated in the received first event notification communication signal.
  • the monitoring information on the monitoring of Ob is stored (recorded) in the SV monitoring information storage unit 234. Then, the management server device SVd is stored in the image storage unit 231 by the image storage processing unit 222d of the SV control processing unit 22d based on the respective information (each data) contained in the received first event notification communication signal.
  • the image ID field 2311, the event detection time field 2315, the event type field 2316, the image file name field 2313 and the room name field 2317 in the record newly generated in the image information table IT with detection event The event detection time, the image file name and the room name are registered (C313).
  • the management server SVd generates a second event notification communication signal according to the received first event notification communication signal by the SV monitor processing unit 224 of the SV control processing unit 22d, and the generated second event
  • the notification communication signal is transmitted to a predetermined portable terminal device TAd by the SV communication IF unit 21 (C314).
  • the mobile terminal device TAd monitors the monitoring information of the monitored person Ob based on each information (each data) contained in the received second event notification communication signal. Are stored (recorded) in the TA storage unit 33d, and a screen corresponding to each piece of information contained in the received second event notification communication signal is displayed on the TA display unit 36 (C315).
  • the standby screen 51 shown in FIG. 23 is displayed on the TA display unit 36, and the event information contained in the received second event notification communication signal is the predetermined action.
  • the monitoring information screen 52 shown in FIG. 24 is displayed on the TA display unit 36
  • the event information contained in the received second event notification communication signal is the nurse call
  • a nurse call acceptance screen 53 shown in FIG. 25 is displayed on the TA display unit 36.
  • the standby screen 51 in the example shown in FIG. 23 includes a menu bar area 511 for displaying a menu bar, a standby main area 512 for displaying a message (for example, "not notified") indicating that the user is in standby and an icon.
  • the monitoring information screen 52 is a screen for displaying the monitoring information related to the monitoring of the monitored person Ob.
  • the monitoring information screen 52 in the example shown in FIG. 24 has the menu bar area 511, the location of the sensor device SU having the camera ID contained in the received second event notification communication signal, and the camera ID.
  • Monitored person's name area 521 displaying the name of the monitored person Ob monitored by the sensor device SU, the elapsed time from the reception time of the received second event notification communication signal, and the received second event notification
  • a detection information display area 522 for displaying the event information (the detection result of the predetermined action) contained in the communication signal, and an image (that is, having the camera ID) contained in the received second event notification communication signal
  • the detection information display area 522 may display the event information (detection result, names of rising, leaving, falling and falling in this embodiment) contained in the received second event notification communication signal as it is. However, in the present embodiment, the detection result is displayed as an icon symbolically representing the detection result. In order to display with this icon, each action and an icon symbolically representing the action are associated with each other and stored in advance in the TA storage unit 33 d. In the example shown in FIG.
  • a wake-up icon that symbolizes wake-up is displayed.
  • the "corresponding" button 524 implements predetermined measures (action, measures, measures) such as life saving, nursing, care and assistance on the detection result displayed on the monitoring information screen 52. It is a button for inputting to the portable terminal device TAd that the intention is the worker NS of the portable terminal device TAd.
  • the “speak” button 525 is a button for requesting a voice call, and is used to input an instruction to connect the sensor device SU of the camera ID and the mobile terminal device TAd in a callable manner via the network NW. Button.
  • the “View LIVE” button 526 is a button for requesting a moving image in live mode, and is a button for inputting an instruction to display a moving image captured by the sensor device SU of the camera ID.
  • the nurse call reception screen 53 is a screen for displaying reception of a nurse call.
  • the nurse call reception screen 53 in the example shown in FIG. 25 has a menu bar area 511, a monitored person name area 521, a detection information display area 522, and a message indicating that a nurse call has been received (for example, "a nurse call” And a "corresponding" button 524 and a "speak” button 525.
  • a message indicating that a nurse call has been received for example, "a nurse call” And a "corresponding" button 524 and a "speak” button 525.
  • the nurse call reception screen 53 may further include a "view LIVE" button 526.
  • the mobile terminal device TAd is repeated by the TA control processing unit 32 d until an input operation is accepted, and the TA input unit 35 and the TA display unit 36 are displayed. It is determined whether or not an input operation has been received by the touch panel provided.
  • the mobile terminal device TAd causes the TA control processing unit 32d to execute appropriate processing according to the content of the input operation, terminates the present processing, and causes the standby screen 51 to be displayed on the TA display unit 36. Display and wait for the next communication signal addressed to your machine.
  • the TA control processing unit 32d receives the terminal ID of its own device, the camera ID corresponding to the monitoring information of the monitored person Ob displayed on the TA display unit 36, A communication signal (correspondence intention notification communication signal) containing event information and information (correspondence intention information) indicating that "correspondence" has been received is transmitted to the management server device SVd.
  • the management server device SVd that has received the correspondence intention notification communication signal first stores the correspondence presence information in the SV monitoring information storage unit 234 by the SV control processing unit 22d, and indicates that "corresponding" has been received to each mobile terminal.
  • the mobile terminal device transmits by broadcast the communication signal (corresponding presence intention known communication signal) containing the camera ID, the event information and the presence presence information received in the received correspondence intention notification communication signal. Send to TAd.
  • the call processing unit 325 requests the sensor device SU for monitoring the monitored person Ob displayed on the TA display unit 36 to request a voice call, etc.
  • a communication signal (call request communication signal) containing information is transmitted, and the sensor device SU according to this is connected to be able to make a voice call via the network NW. This enables voice communication between the mobile terminal device TAd and the sensor device SU.
  • the TA streaming processing unit 326 sends a live signal to the sensor device SU that monitors the monitored person Ob currently displayed on the TA display unit 36.
  • a communication signal (moving image distribution request communication signal) containing information indicating that moving image distribution is requested is transmitted, and the sensor device SU corresponding thereto is connected to be able to download the moving image via the network NW, and the sensor device Upon receiving a live video delivery from the SU, the video received this delivery is displayed on the TA display unit 36 by streaming reproduction.
  • the “end” button is displayed, and the input operation of the “end” button ends the call or streaming playback.
  • the monitored person monitoring support system MSd operates in this way with regard to the notification of the predetermined event, and the monitoring information is accumulated in the SV monitoring information storage unit 234 every time an event is detected.
  • a record is added to the detection event-added image information table IT, each information is registered, and the detection event-added image information table IT is updated.
  • the worker NS is notified of a predetermined event via the management server device SVd by the sensor device SU, for example.
  • -1 corresponds to the living room RM-1 when carrying (entering) the room RM-1 (monitoring area) of the person to be monitored Ob-1 with the portable terminal device TAd-1 being carried A reading operation is performed to bring the worker ID (first identification information) into reading by bringing it close to the provided ID device RDd-1 (C321).
  • the portable terminal device TAd-1 carried by the worker NS-1 has a worker ID; “ID-NA”. Is input, and the worker ID; “ID-NA” is stored in advance. Then, the worker NS is not present in the room RM-1 and the SU in / out status information table MTd similar to the CU in / out status information table MTa stored in the SU in / out status information storage unit 461 is displayed. It is assumed that the worker ID is not registered (stored).
  • the processes C322, C323, C324, C325, C326, and C327 shown in FIG. 22 sequentially correspond to the processes C12, C13, C14, C14, C15, and C16 shown in FIG. And the process C17. Therefore, the description of each process of the process C322, the process C323, the process C324, the process C325, the process C326, and the process C327 is omitted here.
  • the worker NS-1 who is present in the room RM-1 carries the portable terminal device TAd carried with him when he leaves the room.
  • a reading operation is performed in which an operator ID -1 is brought close to an ID device RDd-1 provided corresponding to the living room RM-1, and an operator ID; "ID-NA" is read (C331).
  • processing C332, processing C333, processing C334, processing C335 and processing C336 shown in FIG. 22 sequentially correspond to the processing C22, processing C23, processing C24, processing C25 and processing C26 shown in FIG. To be executed. Therefore, the descriptions of the processes C332, C333, C334, C335, and C336 are omitted here.
  • the management server device SVd When receiving the notification of the image from the sensor device SU (when receiving the image notification communication signal from the sensor device SU), the management server device SVd receives the notification from the sensor device SU by the image storage processing unit 222d of the SV control processing unit 22d.
  • the image is stored in the image storage unit 231a in association with the worker ID as the first specific information and the event most recently detected by the sensor device SU (C27).
  • the image storage processing unit 222d adds an image file name and stores the image contained in the received image notification communication signal in the image storage unit 231d.
  • the image storage processing unit 222d matches the camera ID contained in the received image notification communication signal out of each camera ID of each association information temporarily stored temporarily in the SV storage unit 23d.
  • the camera ID to be selected is selected (searched), the worker ID in the linkage information having the selected camera ID, the imaging start time, and the image (the image file name) contained in the received image notification communication signal And associating the imaging end time.
  • the image storage processing unit 222d allocates a serial number as an image ID to the linked set of the worker ID, the imaging start time, the image file name, and the imaging end time.
  • the image storage processing unit 222 d converts the camera ID contained in the received image notification communication signal into a room name (if the camera ID is a room name, this conversion process can be omitted), and the image storage unit
  • the event information registered in the event type field 2316 in the selected record is extracted, and the extracted event information is 1 set of the worker ID you gave the string, the imaging start time, give further string to the image file name and the imaging end time.
  • the image storage processing unit 222d generates a new record in the detection event-added image information table IT stored in the image storage unit 231d, and the image ID field 2311, the event type field 2316, and the start time in the generated record.
  • the image storage processing unit 222d erases (deletes) the association information temporarily stored in the SV storage unit 23d and the imaging start time.
  • a room name may be registered in the room name field 2317 of this new record.
  • the person-to-be-monitored monitoring support system MSd collects each image from each sensor device SU-1 to SU-3 arranged in each room RM-1 to RM-3, and obtains an operator for each image. Link and store the ID and the event.
  • an operator such as the boss of the worker NS is a worker corresponding to the desired worker NS as a search key from the SV input unit 24 Enter the ID and enter the search start instruction.
  • the SV control processing unit 22 d selects the worker ID of the search key from among the images stored in the image storage unit 231 d. Search for an image having the following equation, and output it to the SV output unit 25. More specifically, when the worker ID of the search key; "ID-NA" is received, the SV control processing unit 22d receives the worker ID field of the image information table IT with detection event stored in the image storage unit 231d. At 2314, a record for registering the received worker ID; “ID-NA” is extracted, and registered in the fields 2311, 2315, 2316, 2312 (23121, 23122), 2313, 2317, 2314 in the extracted record.
  • the 26 includes an image ID display field 621 for displaying the extracted image ID, an event detection time display field 622 for displaying the extracted event detection time, and the extracted event An event type display column 623 for displaying information, a recording time display column 624 for displaying the extracted recording time, an image file name display column 625 for displaying the extracted image file name, and the extracted room name A room name display field 626 to be displayed and a worker ID display field 627 for displaying the extracted worker ID, and the display line has a number corresponding to the number of extracted records.
  • the recording time display column 624 includes a start time display column 6241 and an end time display column 6242 for displaying the taken imaging start time and the imaging end time.
  • the SV control processing unit 22d An image having the operated image file name is taken out from the image storage unit 231d, and the taken out image is reproduced and displayed on the SV output unit 25. This allows the operator to refer to the image for the desired worker NS.
  • the operator inputs the desired event information (in this embodiment, one or more of rising, leaving, falling, falling, and nurse call) as a search key from the SV input unit 24, and the search is started. Enter the instructions.
  • desired event information in this embodiment, one or more of rising, leaving, falling, falling, and nurse call
  • the SV control processing unit 22d holds the search key event information out of the images stored in the image storage unit 231d.
  • the image is retrieved and output to the SV output unit 25. More specifically, when the event information of the search key is received; "falling" is received, the SV control processing unit 22d causes the event type field 2316 of the image information table IT with detection event stored in the image storage unit 231d to Received event information; extract a record for registering "overturning"; image ID, event registered in each of fields 2311, 2315, 2316, 2312 (23121, 23122), 2313, 2317, 2314 in the extracted record
  • the detection time, event information, recording time (shooting start time, shooting end time), image file name, room name and worker ID are taken out, and the extracted image ID, event detection time, event information, recording time (shooting start time (shooting start time) , Imaging end time), image file name, room name and creation
  • the user ID for
  • FIG. 27 shows another example of the extraction result display screen 62b having display fields 621 to 627 similar to those of FIG. Then, when the image file name displayed in the image file name display column 625 is inputted and operated from the SV input unit 24, the SV control processing unit 22d takes out the image having the inputted image file name from the image storage unit 231d. The reproduced image is reproduced and displayed on the SV output unit 25.
  • the operator can refer to the image of the worker NS having the worker ID displayed in the worker ID display field 627 for the desired type of event.
  • the person-to-be-monitored support system MSd incorporating the image recording system achieves the same effects as the first embodiment (when based on the second embodiment) In the case where the third embodiment is based on the same effects as the second embodiment, the same effects as the third embodiment are exhibited).
  • the above-mentioned person-to-be-monitored person monitoring support system MSd further links the image to the first specific information (the worker ID in the present embodiment) and the detection result received most recently from the sensor unit SU.
  • the monitored person monitoring support system MSd can not only easily extract an image for a desired (purpose) worker, but can also easily extract an image for each type of detection result.
  • the superior of the worker refers to the image for the worker NS for each type of the detection result, and thereby the manner, appropriateness and politeness to the work in the worker NS for each type of the detection result.
  • the worker NS can be instructed after grasping the actual state of the worker NS for each type of the detection result.
  • the superior can extract an image according to the type of the detection result, it is also possible to compare the manner, appropriateness, politeness, etc. for work among a plurality of workers NS. Since the superior can extract an image according to the type of the detection result, it can also check whether the worker NS copes with the procedure according to the type.
  • An image recording system corresponding to a predetermined imaging target, and an imaging unit that images the imaging target to generate an image, and an image storage unit that stores an image generated by the imaging unit.
  • An image storage processing unit for storing the image generated by the imaging unit in the image storage unit; first identification information for identifying the operator when a predetermined worker enters an area to be imaged;
  • the reading unit reads in advance one of the second identification information for identifying the imaging unit corresponding to the imaging target, and the other identification information of the first and second identification information, and the reading unit
  • association information in which the other identification information and the one specific information read by the reading unit are associated with each other is generated, and the generated association information is used as the image.
  • Memory place A generation unit for outputting to the unit, the imaging unit having second identification information of the own device in advance, outputting the generated image to the image storage processing unit together with the second identification information of the own device,
  • the image storage processing unit links the image from the imaging unit to the first identification information based on the second identification information from the imaging unit and the tying information from the generation unit.
  • the reading unit reads the first identification information from an IC card (RF tag) or a magnetic card storing the first identification information, and reads the read first identification information. It is a card reader which notifies the above-mentioned generation part by wired communication or wireless communication.
  • the reading unit reads the first identification information from a one-dimensional code (bar code) or a two-dimensional code representing the first identification information, and the read first identification information Is a code reader that notifies the generation unit by wired communication or wireless communication.
  • the reading unit reads the first identification information from a mobile phone device storing the first identification information, a smartphone or a tablet terminal device by wireless communication, and the read first information It is a reader which notifies specific information to the above-mentioned generation part by wire communication or wireless communication.
  • the reading unit reads the first identification information from a mobile phone device storing the first identification information, a smartphone or a tablet terminal device by wireless communication, and the read first information It is a tablet terminal device which notifies specific information to the above-mentioned generation part by wire communication or wireless communication.
  • the reading unit is provided with a function of a code reader for reading the second identification information from a one-dimensional code (bar code) representing the second identification information or a two-dimensional code.
  • the smartphone or the tablet terminal device, the mobile phone device, the smartphone or the tablet terminal device further includes the generation unit, and the generation unit further includes the second specific information read by the function and the second specific information (1) Generate association information in which the identification information is associated with each other, and the generated association information is output to the image storage processing unit by wireless communication.
  • the reading unit is a portable telephone apparatus having a card reader function of reading the second identification information from an IC card (RF tag) storing the second identification information or a magnetic card.
  • the mobile phone device, the smartphone or the tablet terminal device further includes the generation unit, and the generation unit is configured to have the second specific information read by the function and the first specific information.
  • the association information in which the identification information and the specific information are associated with each other is generated, and the generated association information is output to the image storage processing unit by wireless communication.
  • the reading unit is a mobile phone device, a smart phone or a tablet terminal device that reads the second identification information by wireless communication from a tablet terminal device that stores the second identification information.
  • a mobile phone device, a smartphone or a tablet terminal device further includes the generation unit, and the generation unit associates the read second identification information with the first identification information held in advance by association information Are generated, and the generated association information is output to the image storage processing unit by wireless communication.
  • the generation unit includes a management unit that manages the one specific information read by the reading unit, and the one specific information managed by the management unit. And a notification unit that generates the association information and outputs the generated association information to the image storage processing unit.
  • Such an image recording system reads the specific information of one of the first and second specific information when the predetermined worker enters the area to be imaged, and associates the specific information with the other specific information.
  • the linking information in which the first and second identification information are linked to each other is generated, and an image and its second identification information are obtained from the imaging unit.
  • the image recording system links the image from the imaging unit to the first identification information based on the second identification information from the imaging unit and the tying information from the generation unit.
  • Store in the storage unit That is, the image recording system obtains the first identification information corresponding to the second identification information from the imaging unit from the tying information from the generation unit, and obtains the obtained first identification information.
  • the image from the imaging unit is linked to the image storage unit.
  • the image recording system can more easily extract an image for a desired (purpose) worker by referring to the first specific information linked to the image. For this reason, the boss of the worker can grasp the manner, appropriateness and politeness to the work of the worker by referring to the image for the worker, and the work of the worker after grasping the actual state of the worker. Can teach
  • the reading unit further specifies one of the first and second identification information items when the worker leaves the imaging target area. And one specific information read by the reading unit is managed, and when the one specific information already managed is further read by the reading unit, the one specific information already managed When there is a management unit that cancels the management of the image, and the one specific information managed by the management unit, an instruction to start imaging is output to the imaging unit, and the one device managed by the management unit.
  • the imaging control unit further outputs an imaging end instruction to the imaging unit when the specific information disappears, and the imaging unit starts imaging when receiving the imaging start instruction from the imaging control unit. ,Previous When receiving an instruction of the imaging end from the imaging control unit ends the imaging.
  • Such an image recording system outputs an instruction to start imaging to the imaging unit when there is the one specific information under management, and when one of the specific information under management disappears, the imaging ends.
  • An instruction is output to the imaging unit. That is, when the operator enters the imaging target area, the image recording system instructs the imaging start, continues imaging while at least one worker is present, and the worker When it exits, the imaging end is instructed. Therefore, in the case where the image recording system can store an image while at least one worker is present in the area of the imaging target in the image storage unit, the image recording system continuously captures images regardless of the worker's location ( For example, the data capacity of the image can be reduced as compared with the 24-hour imaging). The boss of the worker can also observe the work of the worker promptly.
  • the above-described image recording system further includes an entrance detection unit which is provided corresponding to the imaging target and detects presence or absence of entrance to the area of the imaging target
  • the generation unit further includes: When the entrance detection unit corresponding to the imaging target in the area of the imaging target into which the operator enters detects that the entrance is present, the tied information is output to the image storage processing unit.
  • the entrance detection unit is disposed at the boundary of the area of the imaging target, and the infrared type human sensor in which the area of the imaging target is a detection area; And an entrance determination unit that determines presence / absence of entrance into the area of the imaging target according to the detection result of
  • the image recording system further includes an entrance detection unit, and when the entrance detection unit detects the presence of entrance, the image recording system outputs the tied information to the image storage processing unit. That is, the generation unit is a case where the one specific information is read by the reading unit, and the entrance detection unit corresponding to the imaging target in the area of the imaging target into which the operator enters is entered. When the information is detected, the association information is output to the image storage processing unit.
  • the image recording system can appropriately associate the first identification information with the image from the imaging unit.
  • the above-mentioned image recording system further includes an entry / exit detection unit which is provided corresponding to the imaging target and detects presence / absence of entry / exit with respect to the region of the imaging target, the imaging control unit Furthermore, when the entrance / exit detection unit corresponding to the imaging target in the area of the imaging target into which the worker enters detects presence of entrance, the imaging start instruction is output to the imaging unit, and the worker When the entry / exit detection unit corresponding to the imaging target in the area of the imaging target into which the image is input detects that there is an exit, the imaging completion instruction is output to the imaging unit.
  • the entry / exit detection unit includes a plurality of light emitting units disposed in parallel along the entry / exit direction at a predetermined height position at the boundary of the imaging target area. And each light emitted from each of the plurality of light emitting portions so as to be separated from the plurality of light emitting portions by a predetermined width (for example, a length equal to or greater than a human width) in an orthogonal direction orthogonal to the entry / exit direction. It has a plurality of light receiving units arranged to respectively receive light, and an entrance / exit judging unit which judges presence / absence of entrance / exit to the area of the imaging object according to each light reception result of each of the plurality of light receivers. .
  • the image recording system further includes an entry and exit detection unit, and when the entry and exit detection unit detects presence of entrance, the imaging start instruction is output to the imaging unit, and the entry and exit detection unit has exit When it is detected, an instruction to end the imaging is output to the imaging unit.
  • the imaging control unit is a case in which the reading unit reads the one specific information, and the entrance / exit detection unit corresponds to the imaging target in the imaging target area in which the operator enters.
  • the imaging start instruction is output to the imaging unit, and the reading unit again reads the one specific information, and the area of the imaging target into which the operator enters
  • the entry / exit detection unit corresponding to the imaging target in the above detects that there is an exit, the instruction to end the imaging is output to the imaging unit. Therefore, although the operator causes the reading unit to read the one specific information, when the user does not enter or leave the area to be imaged, the instruction to start the imaging or the instruction to end the imaging is not performed. Therefore, the above-mentioned image recording system can store (record) an image according to a worker's entrance and exit more appropriately.
  • an imaging unit provided corresponding to a predetermined imaging target, an imaging step of imaging the imaging target to generate an image, and an image generated in the imaging step
  • the other identification information and the reading step are read
  • Said imaging process The generated image is stored in the image storage unit in association with the first identification information based on the linking information generated by the generating step by said second identification information, and the generation unit of the imaging unit.
  • the image recording method when a predetermined worker enters the area to be imaged, the specific information of one of the first and second specific information is read and associated with the other specific information.
  • the linking information in which the first and second identification information are linked to each other is generated, and an image and its second identification information are obtained from the imaging unit.
  • the image recording method relates the image from the imaging unit to the first identification information based on the second identification information from the imaging unit and the tying information from the generation unit.
  • the storage unit Store in the storage unit. That is, in the image recording method, the first identification information corresponding to the second identification information from the imaging unit is obtained from the tying information from the generation unit, and the obtained first identification information is obtained.
  • the image from the imaging unit is linked to the image storage unit.
  • the image recording method can more easily extract an image for a desired (purpose) worker by referring to the first specific information linked to the image. For this reason, the boss of the worker can grasp the manner, appropriateness and politeness to the work of the worker by referring to the image for the worker, and the work of the worker after grasping the actual state of the worker. Can teach
  • the monitored person monitoring support system is provided corresponding to the monitored area, and is capable of communicating with the sensor device that detects a predetermined event related to the monitored person located in the monitored area
  • a central management device connected and managing a detection result received from the sensor device, and a terminal device communicably connected to the central management device and receiving and displaying the detection result via the central management device
  • the image storage unit, and the image storage processing unit, and the image storage processing unit links the image from the imaging unit to the first identification information and stores the image in the image storage unit.
  • the sensor device includes the imaging unit and the generation unit, and the terminal device stores the first specific information in a readable manner by the reading unit.
  • the sensor device includes the imaging unit, and the terminal device includes the reading unit and the generation unit.
  • the predetermined event includes a predetermined action on the person to be monitored.
  • the predetermined action includes at least one of getting up, leaving, falling and falling.
  • the predetermined event includes a nurse call.
  • Such a person-to-be-monitored monitoring support system further includes any of the above-described image recording systems, and uses an image from the imaging unit as a detection result most recently received from the first specific information and the sensor device.
  • a string is stored in the image storage unit.
  • the superior can extract an image according to the type of the detection result, it is also possible to compare the manner, appropriateness, politeness, etc. for work among a plurality of workers. Since the superior can extract an image according to the type of the detection result, it can also check whether the worker copes with the procedure according to the type.
  • an image recording system and an image recording method for recording an image and a monitored person monitoring support system that includes the image recording system and supports monitoring of a monitored person to be monitored.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Nursing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Alarm Systems (AREA)

Abstract

本発明の画像記録システムおよび該方法ならびに被監視者監視支援システムは、所定の作業者が撮像対象の領域に入場すると、第1および第2特定情報のうちの一方の特定情報を読み取って他方の特定情報に紐付けることによって前記第1および第2特定情報を互いに紐付けた紐付け情報を生成し、一方、撮像部から画像とその第2特定情報とを得る。そして、前記撮像部からの前記第2特定情報および前記生成された前記紐付け情報に基づいて、前記撮像部からの画像が前記第1特定情報に紐付けられて画像記憶部に記憶される。

Description

画像記録システムおよび該方法ならびに被監視者監視支援システム
 本発明は、画像を記録する画像記録システムおよび画像記録方法に関する。本発明は、前記画像記録システムを備え、監視対象である被監視者の監視を支援する被監視者監視支援システムに関する。
 近年、超高齢社会の突入に伴って、看護業界や介護業界等の業務を補完する技術が、研究、開発されており、例えば、特許文献1に開示されている。
 この特許文献1に開示されたナースコールシステムは、ベッドに設置されて患者が看護師を呼び出すためのナースコール子機と、ナースステーションに設置されて前記ナースコール子機による呼び出しに応答するためのナースコール親機とを有するナースコールシステムであって、ベッド上の患者をベッド上方から撮像するカメラと、前記カメラの撮像映像から、患者が上半身を起こした状態及び患者がベッド上から離れた状態のうち少なくとも一方の発生を判断して注意状態発生信号を出力する状態判断手段とを有し、前記ナースコール親機は、前記注意状態発生信号を受けて報知動作する報知手段を有する。
 ところで、例えば病院や介護施設等では、患者や被介護者等に対する医療、看護および介護等の仕事や、それに付随するカルテ、看護記録および介護記録等の仕事や、さらに栄養管理や清掃等の様々な仕事がある。この仕事を行うために、例えば医師、看護師、介護士、栄養士および清掃者等の作業者は、前記患者や被介護者の所在する場所に赴く。前記仕事における手際、内容の適切さおよび丁寧さ等は、通常、前記仕事を行う作業者の個々人により差が生じるものである。前記手際の悪さは、業務効率を下げるため、好ましくなく、前記適切さや前記丁寧さは、病院や介護施設等に対する評判に関わるため、適正であることが好ましい。このため、前記作業者の上司は、前記作業者を指導する必要があるが、このためには、前記仕事上における前記作業者の実態を正確に把握することが望まれる。
 前記特許文献1に開示されたナースコールシステムは、ベッド上の患者をベッド上方からカメラで撮像し、その映像を保存する。前記映像には、患者と共に看護師も映り込むことが予想されるが、看護師を特定していない。このため、前記映像のファイルままでは、複数のファイルの中から、所望の看護師に対する映像のファイルを抽出できないので、前記映像の各ファイルをそれぞれ再生して所望の看護師に対する映像のファイルを探し出さなければならず、手間(工数)を要してしまう。
特開2014-90913号公報
 本発明は、上述の事情に鑑みて為された発明であり、その目的は、所望(目的)の作業者に対する画像をより簡単に抽出できる画像記録システムおよび画像記録方法ならびに前記画像記録システムを備える被監視者監視支援システムを提供することである。
 上述した目的を実現するために、本発明の一側面を反映した画像記録システム、画像記録方法および被監視者監視支援システムは、所定の作業者が撮像対象の領域に入場すると、第1および第2特定情報のうちの一方の特定情報を読み取って他方の特定情報に紐付けることによって前記第1および第2特定情報を互いに紐付けた紐付け情報を生成し、一方、撮像部から画像とその第2特定情報とを得る。そして、前記撮像部からの前記第2特定情報および前記生成された前記紐付け情報に基づいて、前記撮像部からの画像が前記第1特定情報に紐付けられて画像記憶部に記憶される。
 発明の1または複数の実施形態により与えられる利点および特徴は、以下に与えられる詳細な説明および添付図面から十分に理解される。これら詳細な説明及び添付図面は、例としてのみ与えられるものであり本発明の限定の定義として意図されるものではない。
実施形態における画像記録システムの構成を示す図である。 前記画像記録システムにおける第1実施形態の撮像装置の構成を示す図である。 前記画像記録システムにおける第1実施形態の管理サーバ装置の構成を示す図である。 図3に示す前記管理サーバ装置に記憶される画像情報テーブルの構成を示す図である。 前記画像記録システムにおける第1実施形態の携帯端末装置の構成を示す図である。 一例として、前記画像記録システムにおける画像記録に関する第1実施形態の動作を示すシーケンス図である。 図6に示す動作におけるCU入出状況情報テーブルの変遷を説明するための図である。 前記管理サーバ装置に表示される、複数の画像ファイルの中から所望の作業者に対する画像を抽出した抽出結果を表示する抽出結果表示画面の一例を示す図である。 前記画像記録システムにおける第2実施形態の撮像装置の構成を示す図である。 前記画像記録システムにおける第2実施形態の管理サーバ装置の構成を示す図である。 前記画像記録システムにおける第2実施形態の携帯端末装置の構成を示す図である。 一例として、前記画像記録システムにおける画像記録に関する第2実施形態の動作を示すシーケンス図である。 図12に示す動作におけるSV入出状況情報テーブルの変遷を説明するための図である。 前記画像記録システムにおける第3実施形態の撮像装置の構成を示す図である。 一例として、前記画像記録システムにおける画像記録に関する第3実施形態の動作を示すシーケンス図である。 図15に示す動作におけるCU入出状況情報テーブルの変遷を説明するための図である。 第4実施形態における被監視者監視支援システムの構成を示す図である。 前記被監視者監視支援システムにおけるセンサ装置の構成を示す図である。 前記被監視者監視支援システムにおける管理サーバ装置の構成を示す図である。 図19に示す前記管理サーバ装置に記憶される検知イベント付き画像情報テーブルの構成を示す図である。 前記被監視者監視支援システムにおける携帯端末装置の構成を示す図である。 一例として、前記被監視者監視支援システムにおけるイベントの検知および画像記録に関する動作を示すシーケンス図である。 前記携帯端末装置に表示される待受け画面の一例を示す図である。 前記携帯端末装置に表示される監視情報画面の一例を示す図である。 前記携帯端末装置に表示されるナースコール受付画面の一例を示す図である。 前記被監視者監視支援システムにおいて、前記管理サーバ装置に表示される、複数の画像ファイルの中から所望の作業者に対する画像を抽出した抽出結果を表示する抽出結果表示画面の一例を示す図である。 前記被監視者監視支援システムにおいて、前記管理サーバ装置に表示される、複数の画像ファイルの中から所望の検知結果に対する画像を抽出した抽出結果を表示する抽出結果表示画面の他の一例を示す図である。
 以下、図面を参照して、本発明の1または複数の実施形態が説明される。しかしながら、発明の範囲は、開示された実施形態に限定されない。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
 実施形態における画像記録システムは、所定の撮像対象を撮像することによって生成された画像を、前記撮像対象の領域に入った所定の作業者と紐付けて記録(記憶)する装置であり、撮像部と、画像記憶部と、画像記憶処理部と、読取部と、生成部とを備える。前記撮像部は、所定の撮像対象に対応して設けられ、前記撮像対象を撮像して画像を生成する。前記画像記憶部は、前記撮像部で生成された画像を記憶する。前記画像記憶処理部は、前記撮像部で生成された画像を前記画像記憶部に記憶させる。前記読取部は、所定の作業者が撮像対象の領域に入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る。前記生成部は、前記第1および第2特定情報のうちの他方の特定情報を予め持ち、前記読取部によって前記一方の特定情報を読み取った場合に、前記他方の特定情報と前記読取部で読み取った前記一方の特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を前記画像記憶処理部へ出力する。そして、本実施形態では、前記撮像部は、予め自機の第2特定情報を持ち、前記生成した画像を前記自機の第2特定情報と共に前記画像記憶処理部へ出力し、前記画像記憶処理部は、前記撮像部からの前記第2特定情報および前記生成部からの前記紐付け情報に基づいて、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する。以下、このような画像記録システムがセンサ装置SU、識別装置RD、管理サーバ装置SVおよび携帯端末装置TAの複数の機器を備える場合について、より具体的に説明する。そして、この場合に、前記撮像部、前記画像記憶部、前記画像記憶処理部、前記読取部および前記生成部それぞれは、これら複数の機器のうちのいずれに実装されて良い。
 (第1実施形態)
 図1は、実施形態における画像記録システムの構成を示す図である。図2は、前記画像記録システムにおける第1実施形態の撮像装置の構成を示す図である。図3は、前記画像記録システムにおける第1実施形態の管理サーバ装置の構成を示す図である。図4は、図3に示す前記管理サーバ装置に記憶される画像情報テーブルの構成を示す図である。図5は、前記画像記録システムにおける第1実施形態の携帯端末装置の構成を示す図である。
 第1実施形態における画像記録システムMSaは、所定の撮像対象を撮像することによって生成された画像を、前記撮像対象の領域に入った所定の作業者と紐付けて記録(記憶)するものであり、第1実施形態では、前記読取部は、ID装置RDaに実装され、前記撮像部および前記生成部は、撮像装置CUaに実装され、前記画像記憶部および前記画像記憶処理部は、管理サーバ装置SVaに実装される。
 この画像記録システムMSaは、例えば、図1に示すように、1または複数の撮像装置CUa(CUa-1~CUa-3)と、1または複数の識別装置(ID装置)RDa(RDa-1~RDa-3)と、管理サーバ装置SVaと、1または複数の携帯端末装置TAa(TAa-1、TAa-2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWは、通信信号を中継する例えばリピーター、ブリッジおよびルーター等の中継機が備えられても良い。図1に示す例では、これら複数の撮像装置CUa-1~CUa-3、管理サーバ装置SVa、複数の携帯端末装置TAa-1、TAa-2および構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LSおよびアクセスポイントAPを含む有線および無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数の撮像装置CUa-1~CUa-3、管理サーバ装置SVaおよび構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TAa-1、TAa-2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。
 画像記録システムMSaは、記録すべき画像に応じて適宜な場所に配設される。前記記録すべき画像は、任意の種類であって良いが、一例として、本実施形態では、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob-1~Ob-3)の所在する監視領域を撮像対象の領域として、前記被監視者Obの所在する建物に配設される。前記被監視者Obは、任意の種類であって良い。図1に示す例では、画像記録システムMSaは、複数の被監視者Obが入居する複数の居室RMや、管理室や集会室等の複数の居室を備える建物に配設されている。
 構内交換機(回線切換機)CXは、ネットワークNWに接続され、携帯端末装置TAa同士における発信、着信および通話等の内線電話の制御を行って前記携帯端末装置TAa同士の内線電話を実施し、そして、例えば固定電話網や携帯電話網等の公衆電話網PNを介して例えば固定電話機や携帯電話機等の外線電話機TLに接続され、外線電話機TLと携帯端末装置TAaとの間における発信、着信および通話等の外線電話の制御を行って外線電話機TLと携帯端末装置TAaとの間における外線電話を実施するものである。構内交換機CXは、例えば、デジタル交換機や、IP-PBX(Internet Protocol Private Branch eXchange)等である。
 ID装置RDaは、撮像対象の領域に対応して設けられ、所定の作業者が前記撮像対象の領域に入退場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像装置CUaを特定する第2特定情報のうちの一方の特定情報を読み取る装置である。より具体的には、本実施形態では、ID装置RDaは、後述のように前記第1特定情報を記憶する携帯端末装置TAaから無線通信で前記第1特定情報を読み取り、この読み取った前記第1特定情報を有線通信または無線通信で、当該ID装置RDaが設けられた前記撮像対象の領域に対応して設けられた撮像装置CUaへ通知するリーダである。すなわち、1対1で、あるいは、1対多で、あるいは、多対1で、あるいは、多対多で互いに対応付けられたID装置RDaおよび撮像装置CUaは、同一の撮像対象の領域に対応付けられる。前記携帯端末装置TAaには、後述するように、携帯電話装置、スマートフォンおよびタブレット端末装置等が含まれる。ID装置RDaと携帯端末装置TAaとの間における前記無線通信には、例えばBluetooth(登録商標)規格等の近距離無線通信が利用される。ID装置RDaと撮像装置CUaとの間における前記有線通信または無線通信には、例えば前記ネットワークNWが利用されて良く、あるいは、ID装置RDaと撮像装置CUaとの間における前記無線通信には、例えば前記近距離無線通信が利用されて良い。
 前記撮像対象は、記録すべき画像に応じた適宜な被写体であり、任意であって良い。本実施形態では、上述したように被監視者Obの所在する監視領域を撮像対象の領域としており、前記監視領域は、被監視者Obが居る居室RMである。このため、複数のID装置RDa-1~RDa-3それぞれは、複数の居室RM-1~RM-3それぞれに配設されている。
 なお、一例として、画像記録システムMSaが病院の建物に配設される場合には、前記監視領域は、被監視者Obが居る病院の居室(病室)であり、また他の一例として、画像路記録システムMSaが住戸の建物に配設される場合には、前記監視領域は、被監視者Obが居る住戸の居室である。また他の一例として、前記居室が複数の被監視者Obが所在するいわゆる大部屋である場合には、前記監視領域は、被監視者Obが使用する寝具を含む所定の領域であって良い。あるいは、前記監視領域は、住戸の居室における、被監視者Obが使用する寝具を含む所定の領域であって良い。
 前記第1特定情報は、前記作業者を特定するための情報であり、例えば、作業者NSを特定し識別するための識別子である作業者識別子(作業者ID)である。前記作業者IDは、例えば、作業者名、職員番号およびシリアル番号等の所定の符号列である。作業者NSは、所定の仕事を行う者であり、画像記録システムMSaが配設される場所に応じた適宜な者である。一例では、作業者NSは、前記被監視者Obが患者である場合に前記患者に対し医療や看護等の各仕事を行う医師や看護師、前記被監視者Obが被介護者である場合に前記被介護者に対し介護の仕事を行う介護士、前記患者や前記被介護者等の栄誉管理の仕事を行う栄養士、および、清掃等の仕事を行う清掃者等である。
 前記第2特定情報は、前記撮像対象に対応する撮像装置CUaを特定するための情報であり、例えば、撮像装置CUaを特定し識別するための識別子である撮像装置識別子(カメラID)である。本実施形態では、撮像装置CUaは、前記撮像対象に対応して設けられ、前記撮像対象の領域は、被監視者Obが所在する居室であるので、前記カメラIDは、居室名、居室番号、前記居室RMに所在する被監視者Obの被監視者名およびシリアル番号等の所定の符号列であって良い。
 なお、ID装置RDaは、第1実施形態では、所定の作業者が撮像対象の領域に入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る読取部の一例に相当する。
 また、上述では、ID装置RDaは、携帯端末装置TAaから無線通信で前記第1特定情報を読み取り、この読み取った前記第1特定情報を有線通信または無線通信で撮像装置CUaへ通知するリーダであったが、これに限定されるものではなく、他の装置であっても良い。例えば、作業者NSが携帯端末装置TAaとは別途に、前記第1特定情報を記憶するICカード(RFタグ)または磁気カードを所持する場合には、ID装置RDaは、前記ICカード(RFタグ)または前記磁気カードから前記第1特定情報を読み取り、この読み取った前記第1特定情報を有線通信または無線通信で撮像装置CUaへ通知するカードリーダであって良い。あるいは、作業者NSが携帯端末装置TAaとは別途に、前記第1特定情報を表す1次元コード(バーコード)または2次元コードを持つIDカードを所持する場合には、ID装置RDaは、前記1次元コード(バーコード)または前記2次元コードから前記第1特定情報を読み取り、この読み取った前記第1特定情報を有線通信または無線通信で撮像装置CUaへ通知するコードリーダであって良い。
 撮像装置CUaは、撮像対象に対応して設けられ、ネットワークNWを介して管理サーバ装置SVaと通信する通信機能等を備え、前記撮像対象を撮像して画像を生成する装置である。そして、本実施形態では、撮像装置CUaは、撮像対象の領域に対する作業者NSの入出状況を管理し、予め自機の第2特定情報(本実施形態ではカメラID)を持ち、前記生成した画像を前記自機の第2特定情報と共に管理サーバ装置SVaへ出力(送信)する。このような撮像装置CUaは、例えば、図2に示すように、カメラ11と、撮像側制御処理部(CU制御処理部)12aと、撮像側通信インターフェース部(CU通信IF部)13と、撮像側記憶部(CU記憶部)14aとを備える。
 カメラ11は、CU制御処理部12aに接続され、CU制御処理部12aの制御に従って、画像(画像データ)を生成する装置である。前記画像には、静止画(静止画データ)および動画(動画データ)が含まれる。カメラ11は、撮像対象(図1に示す例では配設場所の居室(部屋)RM)を撮像可能に配置される。撮像対象の領域全体を撮像できるように、カメラ11は、撮像対象の上方から撮像可能に配設され、前記撮像対象を俯瞰した画像を生成し、前記撮像対象の画像(対象画像)をCU制御処理部12aへ出力する。好ましくは、撮像対象の領域全体を撮像できる蓋然性が高いことから、カメラ11は、被監視者Obが所在する居室RMの天井面に配設される。このようなカメラ11は、例えば、可視光の画像を生成する可視カメラであって良く、あるいは例えば、比較的暗がりでも撮像対象を撮像できるように、赤外線の画像を生成する赤外線カメラであって良い。
 CU通信IF部13は、CU制御処理部12aに接続され、CU制御処理部12aの制御に従って通信を行うための通信回路である。CU通信IF部13は、CU制御処理部12aから入力された転送すべきデータを収容した通信信号を、この画像記録システムMSaのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して管理サーバ装置SVaへ送信する。SU通信IF部13は、ネットワークNWを介して管理サーバ装置SVaから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをCU制御処理部12aが処理可能な形式のデータに変換してCU制御処理部12aへ出力する。CU通信IF部13は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
 なお、ID装置RDaと撮像装置CUaとの間における前記有線通信または無線通信に前記ネットワークNWが利用されずに、例えば前記近距離無線通信が利用される場合には、CU通信IF部13は、さらに、前記近距離無線通信に応じた通信インターフェース回路(例えばBluetooth(登録商標)規格の通信インターフェース回路)を備えて構成される。
 CU記憶部14aは、CU制御処理部12aに接続され、CU制御処理部12aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、所定のCU制御処理プログラムが含まれ、前記CU制御処理プログラムには、例えば、撮像装置CUaの各部11、13、14aを当該各部の機能に応じてそれぞれ制御するCU制御プログラムや、作業者NSが撮像対象の領域(本実施形態では前記居室RM)に入場(入室)する際にID装置RDaによって第1特定情報(本実施形態では作業者ID)を読み取った場合に、自機の第2特定情報(本実施形態ではカメラID)とID装置RDaによって読み取った第1特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を管理サーバ装置SVaへ出力(送信)する生成プログラムや、後述のように管理されている前記第1特定情報(本実施形態では作業者ID)が有る場合に、撮像開始の指示をカメラ11へ出力し、前記管理されている前記第1特定情報が無くなった場合に、撮像終了の指示をカメラ11へ出力する撮像制御プログラム等が含まれる。前記各種の所定のデータには、自機の第2特定情報(本実施形態ではカメラID)、管理サーバ装置SVaの通信アドレス、および、撮像対象の領域に対する作業者NSの入出状況を表すCU入出状況情報等の、各プログラムを実行する上で必要なデータ等が含まれる。CU記憶部14aは、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。CU記憶部14aは、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆるCU制御処理部12aのワーキングメモリとなるRAM(Random Access Memory)等を含む。そして、CU記憶部14aは、前記CU入出状況情報を記憶する撮像側入出状況情報記憶部(CU入出状況情報記憶部)141aを機能的に備える。
 CU入出状況情報記憶部141aは、撮像対象の領域に対する作業者NSの入出状況を表す前記CU入出状況情報を記憶するものである。本実施形態では、CU入出状況情報は、前記第1特定情報、本実施形態では、作業者IDの記憶の有り無しによって、撮像対象の領域に対する作業者NSの入出状況を表す。より具体的には、CU入出状況情報記憶部141aは、後述の図7に示すように、作業者IDを登録する作業者IDフィールド1411を備え、作業者IDごとにレコードを持つ撮像側入出状況情報テーブル(CU入出状況情報テーブル)MTaを記憶する。ID装置RDaから作業者IDが通知された場合に、この通知された作業者IDがCU入出状況情報テーブルMTaの作業者IDフィールド1411に登録されていない場合には、新たなレコードが生成され、この新たに生成されたレコードの作業者IDフィールド1411に前記通知された作業者IDが登録される。これによって撮像対象の領域に作業者IDを持つ作業者NSが入場(入室、在室)した状況がCU入出状況情報記憶部141aに記憶される。一方、ID装置RDaから作業者IDが通知された場合に、この通知された作業者IDがCU入出状況情報テーブルMTaの作業者IDフィールド1411に既に登録されている場合には、前記通知された作業者IDを登録するレコードが削除される(作業者IDフィールド1411から作業者IDが消去される)。これによって撮像対象の領域から作業者IDを持つ作業者NSが退場(退室、不在)した状況がCU入出状況情報記憶部141aに記憶される。
 CU制御処理部12aは、撮像装置CUaの各部11、13、14aを当該各部の機能に応じてそれぞれ制御し、前記撮像対象を撮像して画像を生成し、この生成した画像を、管理サーバ装置SVaへ通知するための回路である。そして、CU制御処理部12aは、撮像対象の領域に対する作業者NSの入出状況を管理し、前記生成した画像を管理サーバ装置SVaへ通知する際に、CU記憶部14aに予め記憶された自機の第2特定情報(本実施形態ではカメラID)と共に、前記生成した画像を管理サーバ装置SVaへ通知する。CU制御処理部12aは、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。CU制御処理部12aは、前記CU制御処理プログラムが実行されることによって、撮像側制御部(CU制御部)121、生成部122aおよび撮像制御部123を機能的に備える。
 CU制御部121は、撮像装置CUaの各部11、13、14aを当該各部の機能に応じてそれぞれ制御し、撮像装置CUaの全体制御を司るものである。CU制御部121は、年月日時分秒で計時する。
 生成部122aは、作業者NSが撮像対象の領域(本実施形態では前記居室RM)に入場(入室)する際にID装置RDaによって第1特定情報(本実施形態では作業者ID)を読み取った場合に、自機の第2特定情報(本実施形態ではカメラID)とID装置RDaによって読み取った第1特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を管理サーバ装置SVaへ出力(送信)するものである。
 本実施形態では、生成部122aは、撮像対象の領域に対する作業者NSの入出状況を管理するための撮像側管理処理部(CU管理処理部)1221aと、紐付け情報を生成して送信するための通知処理部1222とを機能的に備える。
 CU管理処理部1221aは、ID装置RDaで読み取った前記第1特定情報(本実施形態では作業者ID)を管理するものである。本実施形態では、カメラ11による撮像の開始および終了を撮像制御部123によって制御するために、CU管理処理部1221aは、さらに、既に管理している前記第1特定情報がID装置RDaでさらに読み取った場合に、前記既に管理している前記第1特定情報の管理を解除する。より具体的には、CU管理処理部1221aは、ID装置RDaで読み取ってID装置RDaから作業者IDが通知された場合に、この通知された作業者IDが、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTaの作業者IDフィールド1411に登録されていない場合には、新たなレコードを生成し、この新たに生成したレコードの作業者IDフィールド1411に前記通知された作業者IDを登録する。一方、CU管理処理部1221aは、ID装置RDaで読み取ってID装置RDaから作業者IDが通知された場合に、この通知された作業者IDが、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTaの作業者IDフィールド1411に登録されている場合には、前記通知された作業者IDを登録するレコードを削除する。このようにCU管理処理部1221aは、作業者IDの記憶の有り無しによって、撮像対象の領域に対する作業者NSの入出状況を管理する。
 通知処理部1222は、CU管理処理部1221aによる管理結果に応じて紐付け情報を生成し、この生成した紐付け情報を管理サーバ装置SVaへ通知(送信)するものである。より具体的には、通知処理部1222は、上述のようにCU入出状況情報テーブルMTaに新たなレコードを生成して作業者IDフィールド1411に前記通知された作業者IDを登録した場合には、作業者NSが撮像対象の領域に入場したと判断し、自機のカメラIDとID装置RDaで読み取ってID装置RDaから通知された作業者IDとを互いに紐付けた紐付け情報を生成し、この生成した紐付け情報、および、撮像開始時刻としての現在の時刻を収容した通信信号(紐付け情報通知通信信号)を管理サーバ装置SVa宛に生成し、この生成した紐付け情報通知通信信号をCU通信IF13で管理サーバ装置SVaへ送信する。
 撮像制御部123は、上述のように生成部122aによって管理されている入出状況の管理結果に基づいて撮像開始および撮像終了の各指示をカメラ11へ出力するものである。より具体的には、撮像制御部123は、生成部122aのCU管理処理部1221aで管理されている前記第1特定情報(本実施形態では作業者ID)が有る場合に、撮像を開始させる撮像開始の指示をカメラ11へ出力し、前記管理されている前記第1特定情報が無くなった場合に、撮像を終了させる撮像終了の指示をカメラ11へ出力する。
 カメラ11は、上述のように撮像制御部123から前記撮像開始の指示を受けると、撮像を開始し、この撮像によって生成した画像をCU制御処理部12aへ出力し、CU制御処理部12aは、この画像をCU記憶部14aに一時的に記憶する。一方、カメラ11は、撮像制御部123から前記撮像終了の指示を受けると、撮像を終了する。撮像が終了すると、CU制御処理部12aは、CU記憶部14aに一時的に記憶した前記画像を管理サーバ装置SVaへ送信する。より具体的には、CU制御処理部12aは、CU記憶部14aに一時的に記憶した前記画像(画像データ)、自機のカメラID、および、撮像終了時刻としての現在の時刻を収容した通信信号(画像通知通信信号)を管理サーバ装置SVa宛に生成し、この生成した画像通知通信信号をCU通信IF13で管理サーバ装置SVaへ送信する。CU制御処理部12aは、CU記憶部14aに一時的に記憶した前記画像を管理サーバ装置SVaへ送信すると、前記画像をCU記憶部14aから削除(消去)する。
 なお、上述では、撮像装置CUaは、撮像制御部123によって、撮像対象の領域に対する作業者NSの入出状況を管理し、この入出状況の管理結果に基づいて撮像開始および撮像終了の各指示をカメラ11へ出力したが、撮像装置CUaは、撮像制御部123を備えずに、CU制御部121によって、ID装置RDaで前記一方の特定情報を読み取った場合(本実施形態ではID装置RDaから作業者IDが通知された場合)に、カメラ11で撮像を開始し、予め設定された所定の時間(例えば3分、5分および10分等)の経過後、自動的に前記撮像を終了し、前記画像通知通信信号を管理サーバ装置SVaへ送信しても良い。
 図1には、一例として、第1ないし第3撮像装置CUa-1~CUa-3が示されており、第1撮像装置CUa-1は、第1ID装置RDa-1と共に、被監視者Obの一人であるAさんOb-1の居室RM-1(不図示)に配設され、第2撮像装置CUa-2は、第2ID装置RDa-2と共に、被監視者Obの一人であるBさんOb-2の居室RM-2(不図示)に配設され、そして、第3撮像装置CUa-3は、第3ID装置RDa-3と共に、被監視者Obの一人であるCさんOb-3の居室RM-3(不図示)に配設されている。
 なお、撮像装置CUaは、第1実施形態では、所定の撮像対象に対応して設けられ、前記撮像対象を撮像して画像を生成する撮像部の一例に相当する。
 管理サーバ装置SVaは、ネットワークNWを介して他の装置CUa、TAaと通信する通信機能を備え、撮像装置CUaから画像を受信すると、前記画像を記憶して管理し、クライアント(本実施形態では携帯端末装置TAa等)の要求に応じたデータを前記クライアントに提供し、画像記録システムMSa全体を管理する装置である。そして、本実施形態では、管理サーバ装置SVaは、前記画像を記憶する際に、前記画像と共に撮像装置CUaから受信した前記第2特定情報としてのカメラIDおよび前記撮像装置CUaから受信した紐付け情報に基づいて、前記画像を前記第1特定情報としての作業者IDに紐付けて記憶する。このような管理サーバ装置SVaは、例えば、図3に示すように、サーバ側通信インターフェース部(SV通信IF部)21と、サーバ側制御処理部(SV制御処理部)22aと、サーバ側記憶部(SV記憶部)23aと、サーバ側入力部(SV入力部)24と、サーバ側出力部(SV出力部)25と、サーバ側インターフェース部(SVID部)26とを備える。
 SV通信IF部21は、CU通信IF部13と同様に、SV制御処理部22aに接続され、SV制御処理部22aの制御に従って通信を行うための通信回路である。SV通信IF部21は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
 SV入力部24は、SV制御処理部22aに接続され、例えば、画像を検索する検索キーや前記検索キーに該当する画像の表示を指示するコマンド等の各種コマンド、および、例えばネットワークNWを介して撮像装置CUaに設定するカメラID等の、画像記録システムMSaを作動する上で必要な各種データを管理サーバ装置SVaに入力する装置であり、例えば、所定の機能を割り付けられた複数の入力スイッチ、キーボードおよびマウス等である。
 SV出力部25は、SV制御処理部22aに接続され、SV制御処理部22aの制御に従って、SV入力部24から入力されたコマンドやデータや、前記検索キーに該当する画像等を出力する装置であり、例えばCRTディスプレイ、LCD(液晶表示装置)および有機ELディスプレイ等の表示装置である。
 SVIF部26は、例えば、外部の機器との間でデータを入出力する回路であり、例えば、シリアル通信方式であるRS-232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。
 SV記憶部23aは、SV制御処理部22aに接続され、SV制御処理部22aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、所定のSV制御処理プログラムが含まれ、前記SV制御処理プログラムには、例えば、管理サーバ装置SVaの各部21、23a、24~26を当該各部の機能に応じてそれぞれ制御するSV制御プログラムや、撮像装置CUaで生成された画像を後述の画像記憶部231aに記憶させる画像記憶処理プログラム等が含まれる。前記各種の所定のデータには、自機の、管理サーバ装置SVaを特定し管理サーバ装置SVaを識別するためのサーバ識別子(サーバID)や、撮像装置CUaで生成され受信した前記画像(画像データ)等の各プログラムを実行する上で必要なデータ等が含まれる。SV記憶部23aは、例えばROMやEEPROMやRAM等を備える。なお、SV記憶部23aは、必要に応じて比較的大容量のハードディスク装置(HDD)をさらに備えても良い。そして、前記画像を記憶するために、SV記憶部23aは、画像記憶部231aを機能的に備える。
 画像記憶部231aは、撮像装置CUaからの画像を第1特定情報(本実施形態では作業者ID)に紐付けて記憶するものである。より具体的には、本実施形態では、前記画像通知通信信号に収容された前記画像(画像データ)は、自動的に割り振られたファイル名(画像ファイル名)を付して画像記憶部231aに記憶され、前記画像の画像ファイル名と作業者IDとが互いに紐付けられ、互いに紐付けられた前記画像および作業者IDは、テーブル形式で画像記憶部231aに記憶される。互いに紐付けられた前記画像および作業者IDを登録する画像情報テーブルPTは、例えば、図4に示すように、互いに紐付けられた1組の画像および作業者IDに対し自動的に割り振られたシリアル番号を画像IDとして登録する画像IDフィールド2311と、前記画像を記録した時刻を登録する記録時刻フィールド2312と、前記画像に対し自動的に付けられた画像ファイル名を登録する画像ファイル名フィールド2313と、前記画像に紐付けられた作業者IDを登録する作業者IDフィールド2314とを備え、前記画像ごと(互いに紐付けられた1組の前記画像および作業者IDごと)にレコードを持つ。記録時刻フィールド2312は、開始の時刻を登録する開始時刻サブフィールド23121と、終了の時刻を登録する終了時刻サブフィールド23122とを備える。
 SV制御処理部22aは、管理サーバ装置SVaの各部21、23a、24~26を当該各部の機能に応じてそれぞれ制御し、撮像装置CUaから画像を受信すると、前記画像を記憶して管理し、クライアント(本実施形態では携帯端末装置TAa等)の要求に応じたデータを前記クライアントに提供し、画像記録システムMSa全体を管理するための回路である。そして、本実施形態では、SV制御処理部22aは、前記画像を記憶する際に、前記画像と共に撮像装置CUaから受信した前記第2特定情報としてのカメラIDおよび撮像装置CUaから受信した紐付け情報に基づいて、前記画像を前記第1特定情報としての作業者IDに紐付けて記憶する。SV制御処理部22aは、例えば、CPUおよびその周辺回路を備えて構成される。SV制御処理部22aは、前記SV制御処理プログラムが実行されることによって、サーバ側制御部(SV制御部)221および画像記憶処理部222aを機能的に備える。
 SV制御部221は、管理サーバ装置SVaの各部21、23a、24~26を当該各部の機能に応じてそれぞれ制御し、管理サーバ装置SVaの全体制御を司るものである。SV制御部221は、年月日時分秒で計時する。
 画像記憶処理部222aは、撮像装置CUaで生成された画像を画像記憶部231aに記憶させるものである。画像記憶処理部222aは、前記画像を記憶する際に、前記画像と共に撮像装置CUaから受信した前記第2特定情報(本実施形態ではカメラID)および撮像装置CUaから受信した紐付け情報に基づいて、前記画像を前記第1特定情報(本実施形態では作業者ID)に紐付けて画像記憶部231aに記憶する。より具体的には、画像記憶処理部222aは、まず、撮像装置CUaから紐付け情報通知通信信号を受信した場合に、前記受信した入場の紐付け情報通知通信信号に収容された紐付け情報および撮像開始時刻をSV記憶部23aに一時的に仮に記憶する。次に、画像記憶処理部222aは、撮像装置CUaから画像通知通信信号を受信した場合に、この受信した画像通知通信信号に収容された画像(画像データ)を、画像ファイル名を付して画像記憶部231aに記憶する。前記画像ファイル名は、任意であって良いが、例えば、画像記憶部231aに記憶する順に00001から割り振られたシリアル番号である。次に、画像記憶処理部222aは、SV記憶部23aに一時的に仮に記憶されている各紐付け情報の各カメラIDの中から、前記受信した画像通知通信信号に収容された前記第2特定情報としてのカメラIDと一致するカメラIDを選定(検索)し、この選定したカメラIDを持つ紐付け情報における前記第1特定情報としての作業者IDおよび前記撮像開始時刻と、前記受信した画像通知通信信号に収容された前記画像(前記画像ファイル名)および撮像終了時刻と、を紐付ける。画像記憶処理部222aは、この紐付けた1組の前記作業者ID、前記撮像開始時刻、前記画像および前記撮像終了時刻に対し、シリアル番号を画像IDとして割り振る。この画像IDとして割り振られるシリアル番号は、本実施形態では、画像ファイル名として割り振られた前記シリアル番号と兼用される。そして、画像記憶処理部222aは、画像記憶部231aに記憶されている画像情報テーブルPTに新たなレコードを生成し、この生成したレコードにおける画像IDフィールド2311、開始時刻サブフィールド23121、終了時刻サブフィールド23122、画像ファイル名フィールド2313および作業者IDフィールド2314それぞれに、前記画像ID、前記撮像開始時刻(前記紐付け情報通知通信信号に収容された時刻)、前記撮像終了時刻(前記画像通知通信信号に収容された時刻)、前記画像ファイル名および前記作業者IDそれぞれを登録する。そして、画像記憶処理部222aは、この登録した、SV記憶部23aに一時的に仮に記憶されている前記紐付け情報および前記撮像開始時刻を消去(削除)する。
 このような管理サーバ装置SVaは、例えば、通信機能付きのコンピュータによって構成可能である。
 携帯端末装置TAaは、ネットワークNWを介して管理サーバ装置SVaと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVaから受信したデータを表示したり、内線電話したり、外線電話したり等するための機器である。そして、本実施形態では、携帯端末装置TAaは、前記第1特定情報(本実施形態では作業者ID)を記憶し、この前記第1特定情報をID装置RDaに読み取らせる。このような携帯端末装置TAaは、本実施形態では、例えば、図5に示すように、端末側通信インターフェース部(TA通信IF部)31と、端末側制御処理部(TA制御処理部)32aと、端末側記憶部(TA記憶部)33と、端末側音入出力部(TA音入出力部)34と、端末側入力部(TA入力部)35と、端末側表示部(TA表示部)36と、端末側インターフェース部(TAIF部)37とを備える。
 TA音入出力部34は、TA制御処理部32aに接続され、外部の音を取得して携帯端末装置TAaに入力するための回路であって、TA制御処理部32aの制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。TA音入出力部34は、例えば、音の電気信号(音データ)を音の機械振動信号(音響信号)に変換するスピーカ等と、可聴領域の音の機械振動信号を電気信号に変換するマイクロフォン等とを備えて構成される。TA音入出力部34は、外部の音を表す電気信号をTA制御処理部32aへ出力し、また、TA制御処理部32aから入力された電気信号を音の機械振動信号に変換して出力する。
 TA入力部35は、TA制御処理部32aに接続され、例えば、所定の操作を受け付け、携帯端末装置TAaに入力する回路であり、例えば、所定の機能を割り付けられた複数の入力スイッチ等である。TA表示部36は、TA制御処理部32aに接続され、TA制御処理部32aの制御に従って、TA入力部35から入力された所定の操作内容や、管理サーバ装置SVaから受信したデータ等を表示する回路であり、例えばLCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置である。そして、本実施形態では、TA入力部35およびTA表示部36からタッチパネルが構成されている。この場合において、TA入力部35は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力デバイスである。このタッチパネルでは、TA表示部36の表示面上に位置入力デバイスが設けられ、TA表示部36に入力可能な1または複数の入力内容の候補が表示され、例えば看護師や介護士等の作業者(ユーザ)NSが、入力したい入力内容を表示した表示位置を触れると、位置入力デバイスによってその位置が検出され、検出された位置に表示された表示内容が作業者NSの操作入力内容として携帯端末装置TAaに入力される。
 TAIF部37は、SVIF部26と同様に、TA制御処理部32aに接続され、TA制御処理部32aの制御に従って、外部機器との間でデータの入出力を行う回路である。
 TA通信IF部31は、CU通信IF部13と同様に、TA制御処理部32aに接続され、TA制御処理部32aの制御に従って通信を行うための通信回路である。TA通信IF部31は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。
 TA記憶部33aは、TA制御処理部32aに接続され、TA制御処理部32aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、所定のTA制御処理プログラムが含まれ、前記TA制御処理プログラムには、例えば、携帯端末装置TAaの各部31、33a、34~37を当該各部の機能に応じてそれぞれ制御するTA制御プログラムや、前記第1特定情報(本実施形態では作業者ID)をID装置RDaへ出力する作業者ID情報出力処理プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータでは、自機の前記第1特定情報(本実施形態では作業者ID)や、管理サーバ装置SVaの通信アドレス等の各プログラムを実行する上で必要なデータ等が含まれる。TA記憶部33aは、例えばROMやEEPROMやRAM等を備える。前記第1特定情報(本実施形態では作業者ID)を記憶するために、TA記憶部33aは、作業者ID情報記憶部331を機能的に備える。
 作業者ID情報記憶部331は、作業者NSを特定する第1特定情報、本実施形態では作業者IDを記憶するものである。作業者IDは、例えば、予め携帯端末装置TAaに登録されて作業者ID情報記憶部331に記憶されて良く、あるいは、例えば、ログインの際にTA入力部35から入力され、作業者ID情報記憶部331に記憶されて良い。
 TA制御処理部32aは、携帯端末装置TAaの各部31、33a、34~37を当該各部の機能に応じてそれぞれ制御するための回路である。そして、第1実施形態では、TA制御処理部32aは、第1特定情報をID装置RDaに読み取らせる。TA制御処理部32aは、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32aは、TA制御処理プログラムが実行されることによって、端末側制御部(TA制御部)321および作業者ID情報出力処理部322を機能的に備える。
 TA制御部321は、携帯端末装置TAaの各部31、33a、34~37を当該各部の機能に応じてそれぞれ制御し、携帯端末装置TAaの全体制御を司るものである。TA制御部321は、年月日時分秒で計時する。
 作業者ID情報出力処理部325は、前記第1特定情報として、作業者ID情報記憶部332aに記憶されている作業者IDを、ID装置RDaへTAIF部37で出力するものである。
 このような携帯端末装置TAaは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。
 次に、本実施形態の動作について説明する。図6は、一例として、前記画像記録システムにおける画像記録に関する第1実施形態の動作を示すシーケンス図である。図7は、図6に示す動作におけるCU入出状況情報テーブルの変遷を説明するための図である。図7には、紙面左側から紙面右側へ順に、時刻t11、時刻t12および時刻t13それぞれの各CU入出状況情報テーブルMTa-t11、MTa-t12、MTa-t13が示されている。図8は、前記管理サーバ装置に表示される、複数の画像ファイルの中から所望の作業者に対する画像を抽出した抽出結果を表示する抽出結果表示画面の一例を示す図である。
 上記構成の画像記録システムMSaでは、各装置CUa、RDa、SVa、TAaは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。撮像装置CUaでは、そのCU制御処理プログラムの実行によって、CU制御処理部12aには、CU制御部121、生成部122aおよび撮像制御部123が機能的に構成される。管理サーバ装置SVaでは、そのSV制御処理プログラムの実行によって、SV制御処理部22aには、SV制御部221および画像記憶処理部222aが機能的に構成される。そして、携帯端末装置TAaでは、そのTA制御処理プログラムの実行によって、TA制御処理部32aには、TA制御部321および作業者ID情報出力処理部322が機能的に構成される。
 そして、画像記録システムMSaは、次のような画像記録に関する第1実施形態の動作によって各撮像装置CUa-1~CUa-3から各画像を収集し、各画像を記録(記憶)する。ここで、以下の説明において、一例として、その当初では、例えばログイン操作の際に、作業者NS-1が携帯する携帯端末装置TAa-1には、作業者ID;「ID-NA」が入力され、作業者ID;「ID-NA」が予め記憶されているものとする。そして、居室RM-1には、作業者NSが在室せず、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTa-t11には、図7の紙面左側に示すように、作業者IDが登録(記憶)されていないものとする。
 図6において、例えば看護や介護や清掃等の所定の仕事を行うために、作業者NS-1は、被監視者Ob-1の居室RM-1(撮像対象の領域)に入室(入場)する際に、その携行している携帯端末装置TAa-1を、前記居室RM-1に対応して設けられたID装置RDa-1に近接させ、作業者ID(第1特定情報)を読み取らせる読み取り操作を行う(C11)。
 携帯端末装置TAa-1とID装置RDa-1とは、互いに近接されると、携帯端末装置TAa-1は、TA制御処理部32aの作業者ID情報出力処理部325によって、TA記憶部33aの作業者ID情報記憶部332に記憶されている作業者ID;「ID-NA」を取り出し、この取り出した作業者ID;「ID-NA」をTAIF部37で送信し(前記作業者ID;「ID-NA」を収容する通信信号をTAIF部37で送信し)、ID装置RDa-1は、携帯端末装置TAa-1から送信された作業者ID;「ID-NA」を受信し、これによって作業者IDを携帯端末装置TAa-1から読み取る(C12)。
 続いて、ID装置RDa-1は、携帯端末装置TAa-1から読み取った作業者ID;「ID-NA」を、前記居室RM-1に設けられた撮像装置CUa-1へ通知(前記作業者ID;「ID-NA」を収容する通信信号を前記撮像装置CUa-1へ送信)する(C13)。
 ID装置RDa-1から作業者ID;「ID-NA」の通知を受けると、撮像装置CUa-1は、前記居室RM-1に対する作業者NSの入出状況を処理するために、CU制御処理部12aにおける生成部122aのCU管理処理部1221aによって、ID装置RDa-1から通知された作業者ID;「ID-NA」を管理する(C14)。より具体的には、この通知された作業者ID;「ID-NA」が、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTaの作業者IDフィールド1411に登録されていない場合には、CU管理処理部1221aは、新たなレコードを生成し、この新たに生成したレコードの作業者IDフィールド1411に前記通知された作業者ID;「ID-NA」を登録する。一方、この通知された作業者ID;「ID-NA」が、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTaの作業者IDフィールド1411に登録されている場合には、CU管理処理部1221aは、前記通知された作業者ID;「ID-NA」を登録するレコードを削除する(作業者IDフィールド1411から作業者IDを消去する)。
 図7に示す例では、ID装置RDa-1から作業者ID;「ID-NA」の通知を受けると、この通知された作業者ID;「ID-NA」が、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTa-t11の作業者IDフィールド1411に登録されていないので、CU管理処理部1221aは、新たなレコードを生成し、この新たに生成したレコードの作業者IDフィールド1411に前記通知された作業者ID;「ID-NA」を登録する。これによって図7の紙面左側に示すCU入出状況情報テーブルMTa-t11からその紙面中央に示すCU入出状況情報テーブルMTa-t12となり、CU入出状況情報記憶部141aには、作業者ID;「ID-NA」を登録したCU入出状況情報テーブルMTa-t12が記憶される。
 続いて、CU管理処理部1221aで管理されているCU入出状況情報テーブルMTa-t12に、作業者ID;「ID-NA」が有るので、撮像装置CUa-1は、撮像を開始するために、撮像制御部123によって、撮像を開始させる撮像開始の指示をカメラ11へ出力する(C15)。カメラ11は、撮像制御部123から前記撮像開始の指示を受けると、撮像を開始し、この撮像によって生成した画像をCU制御処理部12aへ出力し、CU制御処理部12aは、この画像をCU記憶部14aに一時的に記憶する。これによって撮像対象を撮像した画像(本実施形態では動画)が生成され、CU記憶部14aに記憶されて行く。前記動画は、例えば24fpsや30fps等の通常のフレームレートであって良く、あるいは、データ容量を低減するために、前記通常のフレームレートより低い例えば15fpsや10fpsや5fps等のフレームレートであって良い。
 続いて、処理C14で新たに作業者IDを登録したので、撮像装置CUa-1は、紐付き情報を通知するために、CU制御処理部12aにおける生成部122aの通知処理部1222によって、自機のカメラID;「CU-1」とID装置RDaによって読み取って通知された作業者ID;「ID-NA」とを互いに紐付けた紐付け情報を生成し、この生成した紐付け情報および撮像開始時刻としての現在の時刻を管理サーバ装置SVaへ通知(前記紐付け情報および現在の時刻(撮像開始時刻)を収容した紐付け情報通知通信信号を管理サーバ装置SVaへ送信)する(C16)。
 撮像装置CUa-1から紐付け情報および撮像開始時刻の通知を受けると(撮像装置CUa-1から紐付け情報通知通信信号を受信すると)、管理サーバ装置SVaは、前記紐付け情報および撮像開始時刻をSV記憶部23aに一時的に仮に記憶する(C17)。
 そして、前記仕事の終了によって、前記居室RM-1に在室している作業者NS-1は、退出する際に、その携行している携帯端末装置TAa-1を、前記居室RM-1に対応して設けられたID装置RDa-1に近接させ、作業者ID;「ID-NA」を読み取らせる読み取り操作を行う(C21)。
 携帯端末装置TAa-1とID装置RDa-1とは、互いに近接されると、上述の処理C12と同様に、携帯端末装置TAa-1では、作業者ID情報出力処理部325は、作業者ID情報記憶部332aに記憶されている作業者ID;「ID-NA」を取り出し、この取り出した作業者ID;「ID-NA」をTAIF部37で送信し、ID装置RDa-1は、携帯端末装置TAa-1から送信された作業者ID;「ID-NA」を受信し、これによって作業者ID;「ID-NA」を携帯端末装置TAa-1から読み取る(C22)。
 続いて、ID装置RDa-1は、上述の処理C13と同様に、携帯端末装置TAa-1から読み取った作業者ID;「ID-NA」を、前記居室RM-1に設けられた撮像装置CUa-1へ通知する(C23)。
 ID装置RDa-1から作業者ID;「ID-NA」の通知を受けると、撮像装置CUa-1は、前記居室RM-1に対する作業者NSの入出状況を処理するために、CU管理処理部1221aによって、ID装置RDa-1から通知された作業者ID;「ID-NA」を管理する(C24)。より具体的には、ここでは、図7の紙面中央に示すように、この通知された作業者ID;「ID-NA」が、CU入出状況情報記憶部141aに記憶されているCU入出状況情報テーブルMTa-t12の作業者IDフィールド1411に登録されているので、CU管理処理部1221aは、前記通知された作業者ID;「ID-NA」を登録するレコードを削除する。これによって図7の紙面中央に示すCU入出状況情報テーブルMTa-t12からその紙面右側に示すCU入出状況情報テーブルMTa-t13となり、SU入出状況情報記憶部141aには、作業者ID;「ID-NA」を登録したレコードが無くなって、作業者IDを1つも登録しないCU入出状況情報テーブルMTa-t13が記憶される。通知処理部1222は、作業者IDを登録しなかったので、紐付け情報を生成せず、紐付け情報通知通信信号を送信しない。
 続いて、CU管理処理部1221aで管理されているCU入出状況情報テーブルMTa-t13に、作業者IDが無いので、撮像装置CUa-1は、撮像を終了するために、撮像制御部123によって、撮像を終了させる撮像終了の指示をカメラ11へ出力する(C25)。カメラ11は、撮像制御部123から前記撮像終了の指示を受けると、撮像を終了する。
 撮像が終了すると、撮像装置CUa-1は、CU制御処理部12aによって、CU記憶部14aに一時的に記憶した前記画像を管理サーバ装置SVaへ送信する(C26)。より具体的には、CU制御処理部12aは、CU記憶部14aに一時的に記憶した前記画像、自機のカメラID、および、撮像終了時刻としての現在の時刻を収容した画像通知通信信号を管理サーバ装置SVaへ送信する。
 撮像装置CUaから前記画像の通知を受けると(撮像装置CUaから画像通知通信信号を受信すると)、管理サーバ装置SVaは、SV制御処理部22aの画像記憶処理部222aによって、前記撮像装置CUaからの画像を前記第1特定情報としての作業者IDに紐付けて画像記憶部231aに記憶する(C27)。より具体的には、画像記憶処理部222aは、前記受信した画像通知通信信号に収容された画像を、画像ファイル名を付して画像記憶部231aに記憶する。次に、画像記憶処理部222aは、SV記憶部23aに一時的に仮に記憶されている各紐付け情報の各カメラIDの中から、前記受信した画像通知通信信号に収容されたカメラIDと一致するカメラIDを選定(検索)し、この選定したカメラIDを持つ紐付け情報における作業者IDおよび前記撮像開始時刻と、前記受信した画像通知通信信号に収容された前記画像(前記画像ファイル名)および前記撮像終了時刻と、を紐付ける。次に、画像記憶処理部222aは、この紐付けた1組の前記作業者ID、前記撮像開始時刻、前記画像ファイル名および前記撮像終了時刻とに対し、シリアル番号を画像IDとして割り振る。そして、画像記憶処理部222aは、画像記憶部231aに記憶されている画像情報テーブルPTに新たなレコードを生成し、この生成したレコードにおける画像IDフィールド2311、開始時刻サブフィールド23121、終了時刻サブフィールド23122、画像ファイル名フィールド2313および作業者IDフィールド2314それぞれに、前記画像ID、前記撮像開始時刻(前記紐付け情報通知通信信号に収容された時刻)、前記撮像終了時刻(前記画像通知通信信号に収容された時刻)、画像ファイル名および作業者IDそれぞれを登録する。そして、画像記憶処理部222aは、SV記憶部23aに一時的に仮に記憶されている前記紐付け情報および前記撮像開始時刻を消去(削除)する。
 このような動作によって、画像記録システムMSaは、各居室RM-1~RM-3に配置された各撮像装置CUa-1~CUa-3から各画像を収集し、各画像に作業者IDを紐付けて記憶(記録)する。
 そして、所望(目的)の作業者NSに対する画像を抽出する場合には、例えば前記作業者NSの上司等のオペレータは、SV入力部24から検索キーとして前記所望の作業者NSに対応する作業者IDを入力し、検索開始の指示を入力する。
 管理サーバ装置SVaは、検索キーの作業者IDと検索開始の指示を受け付けると、SV制御処理部22aによって、画像記憶部231に記憶されている各画像の中から、前記検索キーの作業者IDを持つ画像を検索し、SV出力部25に出力する。より具体的には、検索キーの作業者ID;「ID-NA」を受け付けると、SV制御処理部22aは、画像記憶部231aに記憶されている画像情報テーブルPTの作業者IDフィールド2314に、前記受け付けた作業者ID;「ID-NA」を登録するレコードを抽出し、この抽出したレコードにおける各フィールド2311、2312(23121、23122)、2313、2314に登録されている画像ID、記録時刻(撮像開始時刻、撮像終了時刻)、画像ファイル名および作業者IDを取り出し、この取り出した画像ID、記録時刻(撮像開始時刻、撮像終了時刻)、画像ファイル名および作業者IDを、例えば、図8に示すように、一覧表形式でSV出力部25に表示する。この図8に示す例の抽出結果表示画面61は、前記取り出した画像IDを表示する画像ID表示欄611と、前記取り出した記録時刻を表示する記録時刻表示欄612と、前記取り出した画像ファイル名を表示する画像ファイル名表示欄613と、前記取り出した作業者IDを表示する作業者ID表示欄614とを備え、前記抽出したレコードの個数に応じた個数の表示行を持つ。記録時刻表示欄612は、前記取り出した撮像開始時刻および撮像終了時刻それぞれを表示する開始時刻表示欄6121および終了時刻表示欄6122を備える。そして、画像ファイル名表示欄613に表示された画像ファイル名をSV入力部24から入力操作すると(例えばマウスによってカーソルを画像ファイル名に合わせ、左クリックすると)、SV制御処理部22aは、この入力操作された画像ファイル名を持つ画像を画像記憶部231から取り出し、この取り出した画像をSV出力部25に再生表示する。前記画像は、例えば、抽出結果表示画面61に替え、SV出力部25に再生表示される。この場合には、前記画像の再生が終了すると、前記抽出結果表示画面61がSV出力部25に表示される。あるいは、例えば、前記画像は、新たなウィンドウでSV出力部25に再生表示される。これによって前記オペレータは、所望の作業者NSに対する画像を参照できる。
 以上説明したように、本第1実施形態における画像記録システムMSaおよびこれに実装された画像記録方法は、所定の作業者NSが撮像対象の領域(本実施形態では前記居室RM)に入場すると、前記第1および第2特定情報のうちの一方の特定情報(本実施形態では第1特定情報としての作業者ID)を読み取って他方の特定情報(本実施形態では第2特定情報としてのカメラID)に紐付けることによって前記第1および第2特定情報を互いに紐付けた紐付け情報を生成し、一方、撮像装置CUaから画像とその第2特定情報とを得る。そして、上記画像記録システムMSaおよび画像記録方法は、前記画像と共に撮像装置CUaから受信した前記第2特定情報および撮像装置CUaから受信した紐付け情報に基づいて、前記画像を前記第1特定情報に紐付けて画像記憶部231aに記憶する。すなわち、上記画像記録システムMSaおよび画像記録方法は、前記紐付け情報から、前記画像に伴う前記第2特定情報に対応する前記第1特定情報を得て、この得られた前記第1特定情報に前記画像を紐付けて画像記憶部231aに記憶する。したがって、上記画像記録システムMSaおよび画像記録方法は、前記画像に紐付けられた前記第1特定情報を参照することで、所望(目的)の作業者NSに対する画像をより簡単に抽出できる。このため、作業者NSの上司は、前記作業者NSに対する画像を参照することで、前記作業者NSにおける仕事に対する手際や適切さや丁寧さ等を把握でき、前記作業者NSの実態を把握した上で、前記作業者NSを指導できる。
 上記画像記録システムMSaおよび画像記録方法は、管理下の前記一方の特定情報(本実施形態では第1特定情報としての作業者ID)が有る場合に、撮像開始の指示をカメラ11へ出力し、管理下の前記一方の特定情報が無くなった場合に、撮像終了の指示を前記カメラ11へ出力する。すなわち、上記画像記録システムMSaおよび画像記録方法は、前記撮像対象の領域に対し、作業者NSが入場すると前記撮像開始を指示し、少なくとも1人の作業者NSが所在している間、撮像を継続し、そして、作業者NSが退場すると、前記撮像終了を指示する。このため、上記画像記録システムMSaおよび画像記録方法は、少なくとも1人の作業者NSが前記撮像対象の領域内に所在する間の画像を画像記憶部221aに記憶でき、作業者NSの所在に無関係に連続的に撮像する場合(例えば24時間撮像)に較べて、画像のデータ容量を低減できる。前記作業者NSの上司も、速やかに前記作業者NSの仕事の様子を観察できる。
 次に、別の実施形態について説明する。
(第2実施形態)
 図9は、前記画像記録システムにおける第2実施形態の撮像装置の構成を示す図である。図10は、前記画像記録システムにおける第2実施形態の管理サーバ装置の構成を示す図である。図11は、前記画像記録システムにおける第2実施形態の携帯端末装置の構成を示す図である。
 第1実施形態における画像記録システムMSaでは、読取操作によって、ID装置RDaが携帯端末装置TAaから第1特定情報(上述の例では作業者ID)を読み取り、これを撮像装置CUaへ通知し、撮像装置CUaが、ID装置RDaから通知された前記第1特定情報と、予め記憶された第2特定情報とを紐付けて紐付け情報として管理サーバ装置SVaへ通知した。一方、第2実施形態における画像記録システムMSbでは、読取操作によって、携帯端末装置TAbがID装置RDbから、第2特定情報を読み取り、この読み取った第2特定情報と、予め記憶された第1特定情報とを紐付けて紐付け情報として管理サーバ装置SVbへ通知するものである。第2実施形態では、前記読取部および前記生成部は、携帯端末装置TAbに実装され、前記撮像部は、撮像装置CUbに実装され、前記画像記憶部および前記画像記憶処理部は、管理サーバ装置SVbに実装される。第2実施形態における第1および第2特定情報は、それぞれ、第1実施形態と同様に、例えば、作業者IDおよびカメラIDである。
 このような第2実施形態における画像記録システムMSbは、例えば、図1示すように、第1実施形態における画像記録システムMSaと同様に、1または複数の撮像装置CUb(CUb-1~CUb-3)と、1または複数のID装置RDb(RDb-1~RDb-3)と、管理サーバ装置SVbと、1または複数の携帯端末装置TAb(TAb-1、TAb-2)と、構内交換機CXとを備え、これらは、ネットワークNWを介して通信可能に接続される。第2実施形態の画像記録システムMSbにおける構内交換機CXは、第1実施形態の画像記録システムMSaにおける構内交換機CXと同様であるので、その説明を省略する。
 ID装置RDbは、撮像対象に対応する撮像装置CUbに対応して設けられ、前記撮像装置CUbを特定する第2特定情報(本実施形態ではカメラID)を、携帯端末装置TAbに読み取り可能に備える装置である。このようなID装置RDbは、例えば、前記第2特定情報を表す1次元コード(バーコード)または2次元コードを持つ部材である。より具体的には、ID装置RDbは、一例では、前記第2特定情報を表す1次元コードまたは2次元コードを印字したプレートであり、当該ID装置RDbに対応する撮像装置CUbの撮像対象の領域に配設される。
 なお、上述では、ID装置RDbは、前記第2特定情報を表す1次元コードまたは2次元コードを持つ部材であるが、これに限定されるものではなく、他の装置であってもよい。例えば、ID装置RDbは、前記第2特定情報を記憶するICカード(RFタグ)または磁気カードでも良い。あるいは、例えば、ID装置RDbは、通信機能を備え、前記第2特定情報を記憶するタブレット端末装置であっても良い。
 撮像装置CUbは、第1実施形態の撮像装置CUaと同様に、撮像対象に対応して設けられ、ネットワークNWを介して管理サーバ装置SVbと通信する通信機能等を備え、前記撮像対象を撮像して画像を生成する装置である。第2実施形態における撮像装置CUbは、第1実施形態における撮像装置CUaのように、第1特定情報(作業者ID)の管理を行わず、したがって、カメラ11に対する撮像開始および撮像終了の制御も行わない。このような点で、第2実施形態における撮像装置CUbは、第1実施形態における撮像装置CUaと異なる。
 このような撮像装置CUbは、例えば、図9に示すように、カメラ11と、CU制御処理部12bと、CU通信IF部13と、CU記憶部14bとを備える。これら第2実施形態の撮像装置CUbにおけるカメラ11およびCU通信IF部13は、それぞれ、第1実施形態の撮像装置CUaにおけるカメラ11およびCU通信IF部13と同様であるので、その説明を省略する。
 CU記憶部14bは、第2実施形態では撮像装置CUbが上述したように第1特定情報を管理しないので、CU入出状況情報記憶部141aを備えない。この点を除き、第2実施形態のCU記憶部14bは、第1実施形態のCU記憶部14aと同様であるので、その説明を省略する。
 CU制御処理部12bは、撮像装置CUbが上述したように第1特定情報を管理せず、カメラ11に対する撮像開始および撮像終了の制御も行わないので、生成部122aおよび撮像制御部123を備えない。すなわち、第2実施形態のCU制御処理部12bは、撮像装置CUbの各部11、13、14bを当該各部の機能に応じてそれぞれ制御し、前記撮像対象を撮像して画像を生成し、この生成した画像を、管理サーバ装置SVbへ通知するための回路である。そして、CU制御処理部12bは、前記生成した画像を管理サーバ装置SVbへ通知する際に、CU記憶部14bに予め記憶された自機の第2特定情報(本実施形態ではカメラID)と共に、前記生成した画像と共に管理サーバ装置SVbへ通知する。CU制御処理部12bは、例えば、CPUおよびその周辺回路を備えて構成される。
 第2実施形態では、上述のようにカメラ11に対する撮像開始および撮像終了の制御を行わないので、撮像装置CUbが稼働を始めると、カメラ11は、常時、撮像対象を撮像して画像を生成し、この生成した画像をCU制御処理部12bへ出力し、CU制御処理部12bは、この画像をCU記憶部14bに一時的に記憶する。そして、CU制御処理部12bは、予め設定された所定の通知タイミングで、カメラ11で生成され一時的にCU記憶部14bに記憶した画像(画像データ)を画像通知通信信号で管理サーバ装置SVbへ送信する。前記通知タイミングは、任意であり、例えば、予め設定された時間間隔(例えば勤務体制に応じて8時間間隔や、1日分の24時間間隔等)であって良く、あるいは、例えば、予め設定された定時(例えば毎正時や、午前0等)であって良い。
 管理サーバ装置SVbは、第1実施形態の管理サーバ装置SVaと同様に、ネットワークNWを介して他の装置CUb、TAbと通信する通信機能を備え、撮像装置CUbから画像を受信すると、前記画像を記憶して管理し、クライアント(本実施形態では携帯端末装置TAb等)の要求に応じたデータを前記クライアントに提供し、画像記録システムMSb全体を管理する装置である。そして、第2実施形態では、管理サーバ装置SVbは、後述のように携帯端末装置TAbから通知された紐付け情報としての第1および第2特定情報(本実施形態では作業者IDおよびカメラID)を管理し、前記通知タイミングで撮像装置CUbから受信した画像を元画像(オリジナル画像)として記憶し、この元画像から作業者NSの入退場に応じた画像を切り出し、この切り出した前記画像を記憶する際に、前記元画像と共に撮像装置CUbから受信した前記第2特定情報としてのカメラIDおよび前記携帯端末装置TAbから受信した紐付け情報に基づいて、前記画像を前記第1特定情報としての作業者IDに紐付けて記憶する。このような管理サーバ装置SVbは、例えば、図10に示すように、SV通信IF部21と、SV制御処理部22bと、SV記憶部23bと、SV入力部24と、SV出力部25と、SVIF部26とを備える。これら第2実施形態の管理サーバ装置SVbにおけるSV通信IF部21、SV入力部24、SV出力部25、SVIF部26は、それぞれ、第1実施形態の管理サーバ装置SVaにおけるSV通信IF部21、SV入力部24、SV出力部25、SVIF部26と同様であるので、その説明を省略する。
 SV記憶部23bは、SV制御処理部22bに接続され、SV制御処理部22bの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、所定のSV制御処理プログラムが含まれ、前記SV制御処理プログラムには、例えば、管理サーバ装置SVbの各部21、23b、24~26を当該各部の機能に応じてそれぞれ制御するSV制御プログラムや、撮像装置CUbで生成された画像を後述の画像記憶部231bおよび元画像記憶部232に記憶させる画像記憶処理プログラムや、携帯端末装置TAbから通知された紐付け情報としての第1および第2特定情報(本実施形態では作業者IDおよびカメラID)を管理するSV管理処理プログラム等が含まれる。前記各種の所定のデータには、自機のサーバIDや、撮像装置CUbで生成され画像通知通信信号で受信した画像(元画像、元画像データ)や、前記元画像から作業者NSの入退場に応じて切り出した画像(画像データ)や、撮像対象の領域に対する作業者NSの入出状況を表すSV入出状況情報等の各プログラムを実行する上で必要なデータ等が含まれる。SV記憶部23bは、例えばROMやEEPROMやRAM等を備え、必要に応じてHDDをさらに備える。そして、これら前記画像、前記元画像およびSV入出状況情報を記憶するために、SV記憶部23bは、画像記憶部231b、元画像記憶部232およびSV入出状況情報記憶部233を機能的に備える。
 元画像記憶部232は、前記通知タイミングに応じて撮像装置CUbから受信した画像を元画像(オリジナル画像)として第2特定情報(本実施形態ではカメラID)および撮像終了時刻と紐付けて記憶するものである。より具体的には、本実施形態では、前記画像通知通信信号に収容された前記画像(画像データ)は、自動的に割り振られたファイル名(元画像ファイル名)を付して元画像記憶部232に記憶され、前記画像の元画像ファイル名と、前記画像通知通信信号に収容されたカメラIDと、前記撮像終了時刻としての、前記画像通知通信信号に収容された時刻とが互いに紐付けられて、元画像記憶部232に記憶される。
 画像記憶部231bは、撮像装置CUaからの前記元画像から、作業者NSの入退場に応じて切り出した前記画像を、第1特定情報(本実施形態では作業者ID)に紐付けて記憶するものである。第1実施形態の画像記憶部231aは、撮像装置CUaからの前記画像そのものを記憶したが、第2実施形態の画像記憶部231bは、撮像装置CUbからの前記元画像から、作業者NSの入退場に応じて切り出した前記画像を記憶する。この点を除き、第2実施形態の画像記憶部231bは、第1実施形態の画像記憶部231aと同様であるので、その説明を省略する。
 SV入出状況情報記憶部233は、撮像対象の領域に対する作業者NSの入出状況を表す前記SV入出状況情報を記憶するものである。本実施形態では、SV入出状況情報は、前記第1特定情報、本実施形態では作業者IDの記憶の有り無しによって、撮像対象の領域に対する作業者NSの入出状況を表す。より具体的には、本実施形態では、撮像対象の領域は、複数の居室RMであるので、各撮像対象の各領域ごとに、当該領域に対する作業者NSの入出状況を表すために、複数の第2特定情報(本実施形態ではカメラID)それぞれに、前記第1特定情報、本実施形態では作業者IDが対応付けられ、前記SV入出状況情報としてSV入出状況情報記憶部233に記憶される。より詳しくは、SV入出状況情報は、テーブル形式でSV入出状況情報記憶部233に記憶される。このSV入出状況情報を登録するSV入出状況情報テーブルMTbは、例えば、後述の図13に示すように、カメラIDを登録するカメラIDフィールド2331と、カメラIDフィールド2331に登録されたカメラIDを持つ撮像装置CUbに対応する撮像対象の領域に対し入退場する作業者NSの作業者IDを登録する作業者IDフィールド2332とを備え、カメラID(すなわち、撮像対象の領域(居室RM))ごとにレコードを持つ。各レコードのカメラIDフィールド2331には、複数の撮像対象それぞれに対応する撮像装置CUbのカメラIDが予め登録される。
 SV制御処理部22bは、管理サーバ装置SVbの各部21、23b、24~26を当該各部の機能に応じてそれぞれ制御し、撮像装置CUbから画像を受信すると、前記画像を記憶して管理し、クライアント(本実施形態では携帯端末装置TAb等)の要求に応じたデータを前記クライアントに提供し、画像記録システムMSb全体を管理するための回路である。本実施形態では、SV制御処理部22bは、後述のように携帯端末装置TAbから通知された紐付け情報としての第1および第2特定情報(本実施形態では作業者IDおよびカメラID)を管理する。そして、SV制御処理部22bは、前記画像を記憶する際に、まず、前記通知タイミングに応じて撮像装置CUbから受信した画像を元画像(オリジナル画像)として記憶し、次に、この元画像から作業者NSの入退場に応じた画像を切り出し、この切り出した前記画像を記憶する際に、前記元画像と共に撮像装置CUbから受信した前記第2特定情報としてのカメラIDおよび前記携帯端末装置TAbから受信した紐付け情報に基づいて、前記画像を前記第1特定情報としての作業者IDに紐付けて記憶する。SV制御処理部22bは、例えば、CPUおよびその周辺回路を備えて構成される。SV制御処理部22bは、そのSV制御処理プログラムが実行されることによって、SV制御部221、画像記憶処理部222bおよびSV管理処理部233を機能的に備える。第2実施形態の管理サーバ装置SVbにおけるSV制御部221は、第1実施形態の管理サーバ装置SVaにおけるSV制御部221と同様であるので、その説明を省略する。
 SV管理処理部223は、携帯端末装置TAbから通知された前記第1および第2特定情報(本実施形態では、作業者IDおよびカメラID)を管理するものである。より具体的には、携帯端末装置TAbから紐付け情報通知通信信号で紐付け情報として第1および第2特定情報として作業者IDおよびカメラIDが通知されると、SV管理処理部223は、まず、この通知されたカメラIDを、SV入出状況情報記憶部233に記憶されているSV入出状況情報テーブルMTbのカメラIDフィールド2331に登録するレコードを選定(検索)する。次に、SV管理処理部223は、この選定したレコードにおける作業者IDフィールド2332に、前記通知された作業者IDが登録されているか否かを調べる。SV管理処理部223は、この選定したレコードにおける作業者IDフィールド2332に、前記通知された作業者IDが登録されていない場合には、前記選定したレコードにおける作業者IDフィールド2332に、前記通知された作業者IDが登録する。これによってカメラIDを持つ撮像装置CUbに対応する撮像対象の領域に作業者IDを持つ作業者NSが入場(入室、在室)した状況がSV入出状況情報記憶部233に記憶される。一方、SV管理処理部223は、前記選定したレコードにおける作業者IDフィールド2332に、前記通知された作業者IDが登録されている場合には、前記選定したレコードにおける作業者IDフィールド2332から作業者IDを削除(消去)する。これによってカメラIDを持つ撮像装置CUbに対応する撮像対象の領域から作業者IDを持つ作業者NSが退場(退室、不在)した状況がSV入出状況情報記憶部233に記憶される。このようにSV管理処理部223は、各カメラIDごと(各撮像対象の各領域ごと)に作業者IDの記憶の有り無しによって、撮像対象の領域に対する作業者NSの入出状況を管理する。そして、SV管理処理部223は、各レコードごと(各カメラIDごと、すなわち、各撮像対象の各領域ごと)に、作業者IDフィールド2332に作業者IDが1つも無い状態から作業者IDが登録されると、この登録した作業者IDの紐付け情報を収容した紐付け情報通知通信信号に収容された時刻を開始時刻として、前記登録した作業者ID、紐付け情報でこの作業者IDに紐付けられたカメラIDおよび前記開始時刻を互いに紐付けてSV記憶部23bに一時的に仮に記憶する。SV管理処理部223は、前記各レコードごとに、前記開始時刻から前記作業者IDフィールド2332に作業者IDが1つも無い状態になるまでの間に前記作業者IDフィールド2332に登録された作業者IDを、前記互いに紐付けられた作業者ID、カメラIDおよび開始時刻にさらに紐付けてSV記憶部23bに一時的に仮に記憶する。そして、SV管理処理部223は、前記各レコードごとに、前記作業者IDフィールド2332に作業者IDが少なくとも1つ有る状態から作業者IDが1つも無くなると、この登録から削除した作業者IDの紐付け情報を収容した紐付け情報通知通信信号に収容された時刻を終了時刻として、この終了時刻を、前記互いに紐付けられた作業者ID、カメラIDおよび開始時刻にさらに紐付けてSV記憶部23bに一時的に仮に記憶する。これによって1つのカメラID、1または複数の作業者ID、開始時刻および終了時刻を互いに紐付けた1組の情報がSV記憶部23bに一時的に仮に記憶される。
 画像記憶処理部222bは、撮像装置CUbで生成された画像を画像記憶部231bおよび元画像記憶部232に記憶させるものである。本実施形態では、画像記憶処理部222bは、撮像装置CUbで生成され撮像装置CUbから受信した画像を元画像として元画像記憶部232に記憶するための元画像記憶処理部2222と、前記元画像から作業者NSの入退場に応じて切り出した画像を画像記憶部231bに記憶するための画像切出記憶処理部2221とを機能的に備える。
 元画像記憶処理部2222は、前記通知タイミングに応じて撮像装置CUbから受信した画像を元画像(オリジナル画像)として元画像記憶部232に記憶するものである。より具体的には、撮像装置CUbから画像通知通信信号を受信すると、まず、元画像記憶処理部2222は、この受信した画像通知通信信号に収容されている、元画像(元画像データ)としての画像(画像データ)、第2特定情報としてのカメラID、および、撮像終了時刻としての時刻を取り出す。次に、元画像記憶処理部2222は、この取り出した元画像に対して自動的に元画像ファイル名を生成し、この生成した元画像ファイル名を付して前記取り出した元画像を元画像記憶部232に記憶する。そして、元画像記憶処理部2222は、前記元画像ファイル名と、前記取り出したカメラIDと、前記取り出した撮像終了時刻とを互いに紐付けて元画像記憶部232に記憶する。
 画像切出記憶処理部2221は、前記元画像から作業者NSの入退場に応じた画像を切り出した前記画像を画像記憶部231bに記憶するものである。画像切出記憶処理部2221は、この切り出した前記画像を画像記憶部231bに記憶する際に、前記元画像と共に撮像装置CUbから受信した前記第2特定情報としてのカメラIDおよび前記携帯端末装置TAbから受信した紐付け情報に基づいて、前記画像を前記第1特定情報としての作業者IDに紐付けて記憶する。より具体的には、画像切出記憶処理部2221は、予め設定された所定の切出タイミングで、まず、SV管理処理部223によってSV記憶部23bに一時的に仮に記憶されている前記互いに紐付けられた1組の作業者ID、カメラID、開始時刻および終了時刻を取り出し、元画像記憶部232から、この取り出したカメラIDに紐付けられ、かつ、前記取り出した開始時刻および終了時刻を含む元画像ファイル名(元画像)を選定(検索)する。元画像ファイル名には、撮像終了時刻が紐付けられ、通知タイミングが既知であるので、元画像の先頭時刻(撮像開始時刻)が算出でき、元画像ファイル名を持つ元画像が前記取り出した開始時刻および終了時刻を含むか否か判定できる。前記切出タイミングは、任意であり、例えば、予め設定された時間間隔(例えば勤務体制に応じて8時間間隔や、1日分の24時間間隔等)であって良く、あるいは、例えば、予め設定された定時(例えば毎正時や、午前0等)であって良く、あるいは、元画像記憶処理部2222によって元画像が元画像記憶部232に記憶された時点であって良い。次に、画像切出記憶処理部2221は、この選定した元画像ファイル名を持つ元画像から、前記取り出した開始時刻および終了時刻に相当する部分の画像を切り出して新たな画像(画像データ、元画像の時間的な部分画像)を生成する。次に、画像切出記憶処理部2221は、この切り出した前記画像に対し自動的に画像ファイル名および画像IDを生成し、前記切り出した前記画像を前記生成した画像ファイル名を付して画像記憶部231bに記憶する。そして、画像切出記憶処理部2221は、画像記憶部231bに記憶されている画像情報テーブルPTに新たなレコードを生成し、この生成したレコードにおける画像IDフィールド2311、開始時刻サブ「フィールド23121、終了時刻サブフィールド23122、画像ファイル名フィールド2313および作業者IDフィールド2314それぞれに、前記生成した画像ID、前記取り出した開始時刻、前記取り出した終了時刻、前記生成した画像ファイル名、および、前記取り出した作業者IDそれぞれを登録する。そして、画像切出記憶処理部2221は、この登録した開始時刻、終了時刻および作業者IDを、これらに紐付けられたカメラIDと共に、SV記憶部23bから消去(削除)する。画像切出記憶処理部2221は、このような処理を、SV管理処理部223によってSV記憶部23bに一時的に仮に記憶されている前記互いに紐付けられた1組の作業者ID、カメラID、開始時刻および終了時刻が基本的に無くなるまで(全て消去されるまで)繰り返す。
 なお、前記取り出した開始時刻および終了時刻と前記通知タイミングによっては、前記取り出した開始時刻のみを含む元画像ファイル名と前記取り出した終了時刻のみを含む元画像ファイル名とが取り出される場合がある。この場合には、画像切出記憶処理部2221は、前記開始時刻のみを含む元画像ファイル名を持つ元画像から、前記開始時刻から前記元画像の終了までを切り出し、前記終了時刻のみを含む元画像ファイル名を持つ元画像から、その先頭から前記終了時刻までを切り出し、これらを連結して新たな画像を生成する。この場合では、通知タイミングと切出タイミングとの関係によっては、前記切出タイミングの時点で、前記取り出した終了時刻のみを含む元画像ファイル名を持つ元画像が元画像記憶部232に記憶されていない場合が有り得る。このときには、元画像から前記画像を切り出さず、かつ、SV記憶部23bに一時的に仮に記憶されている前記互いに紐付けられた1組の作業者ID、カメラID、開始時刻および終了時刻を消去せずに、次回の切出タイミングに、SV記憶部23bに一時的に仮に記憶されている前記互いに紐付けられた1組の作業者ID、カメラID、開始時刻および終了時刻が持ち越される(一時的に記憶された状態が維持される)。
 携帯端末装置TAbは、第1実施形態における携帯端末装置TAaと同様に、ネットワークNWを介して管理サーバ装置SVbと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVbから受信したデータを表示したり、内線電話したり、外線電話したり等するための機器である。そして、本実施形態では、携帯端末装置TAbは、前記第2特定情報(本実施形態ではカメラID)をID装置RDbから読み取って予め持っている前記第1特定情報(本実施形態では作業者ID)を、前記読み取った第2特定情報と共に紐付け情報として管理サーバ装置SVbへ通知する。このような携帯端末装置TAbは、本実施形態では、例えば、図11に示すように、TA通信IF部31と、TA制御処理部32bと、TA記憶部33bと、TA音入出力部34と、TA入力部35と、TA表示部36と、TAIF部37とを備える。これら第2実施形態の携帯端末装置TAbにおけるTA通信IF部31、TA音入出力部34、TA入力部35、TA表示部36およびTAIF部37は、それぞれ、第1実施形態の携帯端末装置TAaにおけるTA通信IF部31、TA音入出力部34、TA入力部35、TA表示部36およびTAIF部37と同様であるので、その説明を省略する。第2実施形態のTA記憶部33bは、TA制御処理プログラムに含まれる1つのプログラムとして、前記第2特定情報(本実施形態ではカメラID)をID装置RDbから読み取って予め持っている前記第1特定情報(本実施形態では作業者ID)を、通知する読取通知処理プログラムをさらに記憶する点を除いて、第1実施形態のTA記憶部33aと同様であるので、その説明を省略する。
 TA制御処理部32bは、第1実施形態におけるTA制御処理部32aと同様に、携帯端末装置TAbの各部31、33b、34~37を当該各部の機能に応じてそれぞれ制御し、被監視者Obの前記監視情報を受けて表示し、ナースコールの応答や声かけするための回路である。そして、第2実施形態では、TA制御処理部32bは、前記第2特定情報(本実施形態では監視領域ID(カメラID))をID装置RDbから読み取って予め持っている前記第1特定情報(本実施形態では作業者ID)を、前記読み取った第2特定情報と共に紐付け情報として管理サーバ装置SVbへ通知する。TA制御処理部32bは、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32bは、TA制御処理プログラムが実行されることによって、TA制御部321および読取通知処理部323を機能的に備える。これら第2実施形態の携帯端末装置TAbにおけるTA制御部321は、第1実施形態の携帯端末装置TAaにおけるTA制御部321と同様であるので、その説明を省略する。
 読取通知処理部323は、前記第2特定情報(本実施形態ではカメラID)をID装置RDbから読み取って予め作業者ID情報記憶部332に持っている前記第1特定情報(本実施形態では作業者ID)を、前記読み取った第2特定情報と共に紐付け情報として管理サーバ装置SVbへ通知するものである。
 本実施形態では、ID装置RDbは、第2特定情報としてカメラIDを表す1次元コードまたは2次元コードを印字したプレートであるので、携帯端末装置TAbは、例えばカメラをさらに備え、読取通知処理部323は、前記カメラで1次元コードまたは2次元コードを撮像することによって得られた画像(画像データ)に対し所定の画像処理を実行することで、1次元コードまたは2次元コードを識別して解析し、この解析結果から前記第2特定情報(カメラID)を読み取る。そして、読取通知処理部323は、この読み取った前記第2特定情報(カメラID)および作業者ID情報記憶部331に記憶されている作業者IDを互いに紐付けて紐付け情報を生成し、この生成した紐付け情報および現在の時刻を収容する通信信号(紐付け情報通知通信信号)を管理サーバ装置SVb宛に生成し、この生成した紐付け情報通知通信信号をTA通信IF部31で送信する。
 なお、ID装置RDbがICカード(RFタグ)または磁気カードである場合には、携帯端末装置TAbは、ICカードまたは磁気カードのカードリーダをさらに備え、読取通知処理部323は、前記カードリーダでICカードまたは磁気カードから前記第2特定情報(カメラID)を読み取り、前記紐付け情報通知通信信号を管理サーバ装置SVbへ送信する。あるいは、ID装置RDbがタブレット端末装置である場合には、読取通知処理部323は、TAIF部37で前記タブレット端末装置から前記第2特定情報(カメラID)を読み取り、前記紐付け情報通知通信信号を管理サーバ装置SVbへ送信する。
 なお、携帯端末装置TAbは、第2実施形態では、所定の作業者が撮像対象の領域に入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る読取部の他の一例に相当する。そして、携帯端末装置TAbは、第2実施形態では、さらに、前記第1および第2特定情報のうちの他方の特定情報を予め持ち、前記読取部によって前記一方の特定情報を読み取った場合に、前記他方の特定情報と前記読取部で読み取った前記一方の特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を前記画像記憶処理部へ出力する生成部の一例にも相当する。
 次に、本実施形態の動作について説明する。図12は、一例として、前記画像記録システムにおける画像記録に関する第2実施形態の動作を示すシーケンス図である。図13は、図12に示す動作におけるSV入出状況情報テーブルの変遷を説明するための図である。図13には、紙面左側から紙面右側へ順に、時刻t21、時刻t22および時刻t23それぞれの各SV入出状況情報テーブルMTb-t21、MTb-t22、MTb-t23が示されている。
 上記構成の画像記録システムMSbでは、各装置CUb、SVb、TAbは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。管理サーバ装置SVbでは、そのSV制御処理プログラムの実行によって、SV制御処理部22bには、SV制御部221、画像記憶処理部222bおよびSV管理処理部223が機能的に構成され、画像記憶処理部222bには、画像切出記憶処理部2221および元画像記憶処理部2222が機能的に構成される。そして、携帯端末装置TAbでは、そのTA制御処理プログラムの実行によって、TA制御処理部32bには、TA制御部321および読取通知処理部323が機能的に構成される。
 そして、画像記録システムMSbは、次のような画像記録に関する第2実施形態の動作によって各撮像装置CUb-1~CUb-3から各画像を収集し、各画像を記録(記憶)する。ここで、以下の説明において、一例として、その当初では、例えばログイン操作の際に、作業者NS-1が携帯する携帯端末装置TAa-1には、作業者ID;「ID-NA」が入力され、作業者ID;「ID-NA」が予め記憶されているものとする。そして、居室RM-1には、作業者NSが在室せず、SV入出状況情報記憶部233に記憶されているSV入出状況情報テーブルMTb-t21には、図13の紙面左側に示すように、作業者IDが登録(記憶)されていないものとする。
 図12において、例えば所定の仕事を行うために、作業者NS-1は、被監視者Obの居室RM-1に入室する際に、その携行している携帯端末装置TAb-1を、前記居室RM-1に対応して設けられたID装置RDb-1に近接させ、カメラID(第2特定情報)を読み取らせる読み取り操作を行う(C111)。
 携帯端末装置TAb-1とID装置RDb-1とは、互いに近接されると、携帯端末装置TAb-1は、TA制御処理部32bの読取通知処理部323によって、ID装置RDb-1から第2特定情報としてカメラID;「CU-1」を読み取る(C112)。
 続いて、携帯端末装置TAb-1は、読取通知処理部323によって、TA記憶部33の作業者ID情報記憶部331に第1特定情報として記憶されている作業者ID;「ID-NA」を取り出し、処理C112で読み取ったカメラID;「CU-1」および前記取り出した作業者ID;「ID-NA」を互いに紐付けて紐付け情報を生成し、この生成した紐付け情報および現在の時刻を収容する紐付け情報通知通信信号を管理サーバ装置SVb宛に生成し、この生成した紐付け情報通知通信信号をTA通信IF部31で送信する(C113)。
 携帯端末装置TAb-1から紐付け情報通知通信信号を受信すると、管理サーバ装置SVbは、撮像対象の領域に対する作業者NSの入出状況を処理するために、SV制御処理部22bのSV管理処理部223によって、携帯端末装置TAb-1から送信されたカメラID;「CU-1」および作業者ID;「ID-NA」を管理する(C114)。より具体的には、SV管理処理部223は、まず、この受信した紐付け情報通知通信信号に収容された紐付け情報のカメラID;「CU-1」を、SV入出状況情報記憶部233に記憶されているSV入出状況情報テーブルMTbのカメラIDフィールド2331に登録するレコードを選定(検索)する。次に、SV管理処理部223は、この選定したレコードにおける作業者IDフィールド2332に、前記受信した紐付け情報通知通信信号に収容された紐付け情報の作業者ID;「ID-NA」が登録されているか否かを調べる。SV管理処理部223は、この選定したレコードにおける作業者IDフィールド2332に、前記受信の作業者ID;「ID-NA」が登録されていない場合には、前記選定したレコードにおける作業者IDフィールド2332に、前記受信の作業者ID;「ID-NA」を登録する。一方、SV管理処理部223は、前記選定したレコードにおける作業者IDフィールド2342に、前記受信の作業者ID;「ID-NA」が登録されている場合には、前記選定したレコードにおける作業者IDフィールド2342から作業者IDを削除(消去)する。
 図13に示す例では、携帯端末装置TAb-1から紐付け情報通知通信信号でカメラID;「CU-1」および作業者ID;「ID-NA」を受信すると、SV入出状況情報記憶部233に記憶されているSV入出状況情報テーブルMTb-t21において、この受信したカメラID;「CU-1」をカメラIDフィールド2331に登録するレコードにおける作業者IDフィールド2332に、前記受信した作業者ID;「ID-NA」が登録されていないので、SV管理処理部223は、前記作業者IDフィールド2332に、前記受信した作業者ID;「ID-NA」を登録する。これによって図13の紙面左側に示すSV入出状況情報テーブルMTb-t21からその紙面中央に示すSV入出状況情報テーブルMTb-t22となり、SV入出状況情報記憶部233には、カメラID;「CU-1」をカメラIDフィールド2331に登録したレコードにおける作業者IDフィールド2332に作業者ID;「ID-NA」を登録したSV入出状況情報テーブルMTb-t22が記憶される。
 続いて、SV入出状況情報テーブルMTb-t22が更新されると、SV管理処理部223は、前記受信した紐付け情報をSV記憶部23bに一時的に仮に記憶する(C115)。より具体的には、作業者IDフィールド2332に作業者IDが1つも無い状態から作業者IDを登録した場合、SV管理処理部223は、前記受信した紐付け情報通知通信信号に収容された時刻を開始時刻として、前記登録した作業者ID、紐付け情報でこの作業者IDに紐付けられたカメラIDおよび前記開始時刻を互いに紐付けてSV記憶部23bに一時的に仮に記憶する。作業者IDフィールド2332に作業者IDが有る状態から作業者IDをさらに登録した場合、SV管理処理部223は、前記作業者IDフィールド2332に登録された作業者IDを、既にSV記憶部23bに仮に記憶された前記互いに紐付けられた作業者ID、カメラIDおよび開始時刻にさらに紐付けてSV記憶部23bに一時的に仮に記憶する。前記作業者IDフィールド2332に作業者IDが少なくとも1つ有る状態から作業者IDが1つも無くなった場合、SV管理処理部223は、この登録から削除した作業者IDの紐付け情報を収容した紐付け情報通知通信信号に収容された時刻を終了時刻として、この終了時刻を、既にSV記憶部23bに仮に記憶された前記互いに紐付けられた作業者ID、カメラIDおよび開始時刻にさらに紐付けてSV記憶部23bに一時的に仮に記憶する。
 図13に示す例では、作業者IDフィールド2332に作業者IDが1つも無い状態から作業者IDを登録した場合であるので、SV管理処理部223は、前記受信した紐付け情報通知通信信号に収容された時刻を開始時刻として、前記登録した作業者ID、紐付け情報でこの作業者IDに紐付けられたカメラIDおよび前記開始時刻を互いに紐付けてSV記憶部23bに一時的に仮に記憶する。
 そして、例えば前記仕事の終了によって、前記居室RM-1に在室している作業者NS-1は、退出する際に、その携行している携帯端末装置TAb-1を、前記居室RM-1に対応して設けられたID装置RDb-1に近接させ、カメラIDを読み取らせる読み取り操作を行う(C121)。
 携帯端末装置TAb-1とID装置RDb-1とは、互いに近接されると、上述の処理C112と同様に、携帯端末装置TAb-1は、ID装置RDb-1から第2特定情報としてカメラID;「CU-1」を読み取る(C122)。
 続いて、携帯端末装置TAb-1は、上述の処理C113と同様に、記憶されている作業者ID;「ID-NA」を取り出し、処理C122で読み取ったカメラID;「CU-1」および前記取り出した作業者ID;「ID-NA」を互いに紐付けて紐付け情報を生成し、この生成した紐付け情報および現在の時刻を収容する紐付け情報通知通信信号を管理サーバ装置SVbへ送信する(C123)。
 携帯端末装置TAb-1から紐付け情報知通信信号を受信すると、管理サーバ装置SVbは、上述の処理C114と同様に、SV管理処理部223によって、携帯端末装置TAb-1から送信されたカメラID;「CU-1」および作業者ID;「ID-NA」を管理する(C124)。
 図13に示す例では、携帯端末装置TAb-1から紐付け情報通知通信信号でカメラID;「CU-1」および作業者ID;「ID-NA」を受信すると、SV入出状況情報記憶部233に記憶されているSV入出状況情報テーブルMTb-t22において、この受信したカメラID;「CU-1」をカメラIDフィールド2331に登録するレコードにおける作業者IDフィールド2332に、前記受信した作業者ID;「ID-NA」が登録されているので、SV管理処理部223は、前記作業者IDフィールド2332から、前記受信した作業者ID;「ID-NA」を削除(消去)する。これによって図13の紙面中央に示すSV入出状況情報テーブルMTb-t22からその紙面右側に示すSV入出状況情報テーブルMTb-t23となり、SV入出状況情報記憶部233には、カメラID;「CU-1」をカメラIDフィールド2331に登録したレコードにおける作業者IDフィールド2332に作業者IDの登録の無いSV入出状況情報テーブルMTb-t23が記憶される。
 続いて、SV入出状況情報テーブルMTb-t23が更新されると、SV管理処理部223は、上述の処理C115と同様に、前記受信した紐付け情報をSV記憶部23bに一時的に仮に記憶する(C125)。
 図13に示す例では、前記作業者IDフィールド2332に作業者IDが少なくとも1つ有る状態から作業者IDが1つも無くなった場合であるので、SV管理処理部223は、この登録から削除した作業者IDの紐付け情報を収容した紐付け情報通知通信信号に収容された時刻を終了時刻として、この終了時刻を、既にSV記憶部23bに仮に記憶された前記互いに紐付けられた作業者ID、カメラIDおよび開始時刻にさらに紐付けてSV記憶部23bに一時的に仮に記憶する。
 このような動作によって撮像対象の領域に対し入退場した作業者NSに関する紐付け情報が開始時刻および終了時刻と共にSV記憶部23bに一時的に仮に記憶され、蓄積されて行く。
 一方、撮像装置CUbは、カメラ11によって撮像対象を常時撮像して画像を生成し、この生成した画像をCU記憶部14bに一時的に記憶し、蓄積して行く。通知タイミングになると、撮像装置CUbは、カメラ11で生成され一時的にCU記憶部14bに記憶した画像(画像データ)、自機のカメラIDおよび撮像終了時刻として現在の時刻を収容した画像通知通信信号を生成し、この生成した画像通知通信信号を管理サーバ装置SVbへ送信する(C131)。
 撮像装置CUbから画像通知通信信号を受信すると、管理サーバ装置SVbは、画像記憶処理部222bの元画像記憶処理部2222によって、前記受信した画像通知通信信号に収容された前記画像(画像データ)を、自動的に割り振られた元画像ファイル名を付して元画像記憶部232に記憶する。そして、元画像記憶処理部2222は、前記元画像ファイル名と、前記受信した画像通知通信信号に収容されたカメラIDと、撮像終了時刻としての、前記受信した画像通知通信信号に収容された時刻とを互いに紐付けて元画像記憶部232に記憶する(C132)。
 そして、切出タイミングになると、管理サーバ装置SVbは、画像記憶処理部222bの画像切出記憶処理部2221によって、元画像から作業者NSの入退場に応じた画像を切り出した前記画像を、前記第1特定情報としての作業者IDに紐付けて画像記憶部231に記憶する(C141)。より具体的には、画像切出記憶処理部2221は、SV管理処理部223によってSV記憶部23bに一時的に仮に記憶されている前記互いに紐付けられた1組の作業者ID、カメラID、開始時刻および終了時刻を取り出し、元画像記憶部232から、この取り出したカメラIDに紐付けられ、かつ、前記取り出した開始時刻および終了時刻を含む元画像ファイル名を選定する。次に、画像切出記憶処理部2221は、この選定した元画像ファイル名を持つ元画像から、前記取り出した開始時刻および終了時刻に相当する部分の画像を切り出して新たな画像を生成する。次に、画像切出記憶処理部2221は、この切り出した前記画像に対し自動的に画像ファイル名および画像IDを生成し、前記切り出した前記画像を前記生成した画像ファイル名を付して画像記憶部231に記憶する。そして、画像切出記憶処理部2221は、画像記憶部231に記憶されている画像情報テーブルPTに新たなレコードを生成し、この生成したレコードにおける画像IDフィールド2311、開始時刻サブ「フィールド23121、終了時刻サブフィールド23122、画像ファイル名フィールド2313および作業者IDフィールド2314それぞれに、前記生成した画像ID、前記取り出した開始時刻、前記取り出した終了時刻、前記生成した画像ファイル名、および、前記取り出した作業者IDそれぞれを登録する。そして、画像切出記憶処理部2221は、この登録した開始時刻、終了時刻および作業者IDを、これらに紐付けられたカメラIDと共に、SV記憶部23bから消去する。画像切出記憶処理部2221は、このような処理を、SV管理処理部223によってSV記憶部23bに一時的に仮に記憶されている前記互いに紐付けられた1組の作業者ID、カメラID、開始時刻および終了時刻が基本的に無くなるまで(全て消去されるまで)繰り返す。
 このような動作によって、画像記録システムMSbは、各居室RM-1~RM-3に配置された各撮像装置CUb-1~CUb-3から各元画像を収集し、各元画像から、各居室RM-1~RM-3に対する作業者NSの入退場に応じて切り出した各画像を生成し、これら各画像に作業者IDを紐付けて記憶(記録)する。
 そして、所望(目的)の作業者NSに対する画像を抽出する場合には、第1実施形態における画像記録システムMSaと同様に、例えば前記作業者NSの上司等のオペレータは、SV入力部24から検索キーとして前記所望の作業者NSに対応する作業者IDを入力し、検索開始の指示を入力し、管理サーバ装置SVbは、これに応じて画像をSV出力部25に再生表示する。これによって前記オペレータは、所望の作業者NSに対する画像を参照できる。
 以上説明したように、第2実施形態における画像記録システムMSbおよびこれに実装された画像記録方法は、所定の作業者NSが撮像対象の領域(本実施形態では前記居室RM)に入場すると、前記第1および第2特定情報のうちの一方の特定情報(本実施形態では第2特定情報としてのカメラID)を読み取って他方の特定情報(本実施形態では第1特定情報としての作業者ID)に紐付けることによって前記第1および第2特定情報を互いに紐付けた紐付け情報を生成し、一方、撮像装置CUbから画像とその第2特定情報とを得る。そして、上記画像記録システムMSbおよび画像記録方法は、前記画像と共に撮像装置CUbから受信した前記第2特定情報および携帯端末装置TAbから受信した紐付け情報に基づいて、前記画像を前記第1特定情報に紐付けて画像記憶部231に記憶する。したがって、上記画像記録システムMSbおよび画像記録方法は、前記画像に紐付けられた前記第1特定情報を参照することで、所望(目的)の作業者NSに対する画像をより簡単に抽出できる。このため、作業者NSの上司は、前記作業者NSに対する画像を参照することで、前記作業者NSにおける仕事に対する手際や適切さや丁寧さ等を把握でき、前記作業者NSの実態を把握した上で、前記作業者NSを指導できる。
 次に、別の実施形態について説明する。
(第3実施形態)
 図14は、前記画像記録システムにおける第3実施形態の撮像装置の構成を示す図である。
 これら上述の第1および第2実施形態における画像記録システムMSa、MSbでは、ID装置RDa、RDbと携帯端末装置TAa、TAbとが互いに近接されることで撮像対象の領域に対する作業者NSの入退場が判定されたが、第3実施形態における画像記録システムMScでは、センサで撮像対象の領域に対する作業者NSの入退場が判定されるものである。このような第3実施形態における画像記録システムMScは、これら上述の第1および第2実施形態における画像記録システムMSa、MSbをベースに構成できる。ここでは、一例として、第1実施形態における画像記録システムMSaをベースに構成した第3実施形態における画像記録システムMScについて、以下に説明する。なお、第2実施形態における画像記録システムMSbをベースに第3実施形態における画像記録システムMScも以下と同様に構成できる。
 このような第3実施形態における画像記録システムMScは、例えば、図1示すように、第1実施形態における画像記録システムMSaと同様に、1または複数の撮像装置CUc(CUc-1~CUc-3)と、1または複数のID装置RDc(RDc-1~RDc-3)と、管理サーバ装置SVcと、1または複数の携帯端末装置TAc(TAc-1、TAc-2)と、構内交換機CXとを備え、これらは、ネットワークNWを介して通信可能に接続される。これら第3実施形態の画像記録システムMScにおけるID装置RDc、管理サーバ装置SVc、携帯端末装置TAcおよび構内交換機CXは、それぞれ、第1実施形態の画像記録システムMSaにおけるID装置RDa、管理サーバ装置SVa、携帯端末装置TAaおよび構内交換機CXと同様であるので、その説明を省略する。
 撮像装置CUcは、第1実施形態の撮像装置CUaと同様に、撮像対象に対応して設けられ、ネットワークNWを介して管理サーバ装置SVcと通信する通信機能等を備え、前記撮像対象を撮像して画像を生成する装置である。そして、本実施形態では、撮像装置CUcは、後述の入退場検知部15の検知結果にさらに基づいて撮像対象の領域に対する作業者NSの入出状況を管理し、予め自機の第2特定情報を持ち、前記生成した画像を前記自機の第2特定情報と共に管理サーバ装置SVcへ出力(送信)する。このような撮像装置CUcは、例えば、図14に示すように、カメラ11と、CU制御処理部12cと、CU通信IF部13と、CU記憶部14cと、入退場検知部15とを備え、これら第3実施形態の撮像装置CUcにおけるカメラ11、CU通信IF部13およびCU記憶部14cは、それぞれ、第1実施形態の撮像装置CUaにおけるカメラ11、CU通信IF部13およびCU記憶部14aと同様であるので、その説明を省略する。したがって、CU記憶部14cには、CU入出状況情報記憶部141aと同様のCU入出状況情報記憶部141cを機能的に備える。
 入退場検知部15は、CU制御処理部12cに接続され、CU制御処理部12cの制御に従って、撮像対象の領域に対する入退場の有無を検知するものである。入退場検知部15は、その検知結果をCU制御処理部12cへ出力する。入退場検知部15は、例えば、前記撮像対象の領域の境界(例えば前記居室RMの出入口等)に、所定の高さ位置に入退場方向に沿って並置するように配設された複数の発光部と、前記複数の発光部から前記入退場方向と直交する直交方向で所定の幅(例えば人幅以上の長さや記居室RMの出入口の幅等)で離間するように、かつ、前記複数の発光部それぞれから発光された各光をそれぞれ受光するように配設された複数の受光部と、前記複数の受光部それぞれの各受光結果に応じて前記撮像対象の領域に対する入退場の有無を判定する入退場判定部とを備えて構成される。このような構成では、入退場判定部は、前記複数の受光部から入場方向に沿って順次に受光出力が得られると入場と判定し、前記複数の受光部から退場方向に沿って順次に受光出力が得られると退場と判定する。
 なお、撮像対象の領域に対する作業者NSの入場のみを管理し、撮像開始から所定の時間の経過後に、撮像を終了する場合には、入退場検知部15は、例えば、撮像対象の領域の境界(例えば前記居室RMの出入口等)に配置され、前記撮像対象の領域(例えば前記居室RM等)を検知領域とする赤外線型人感センサと、前記赤外線型人感センサの検知結果に応じて前記監視領域内への入場の有無を判定する入場判定部とを備えて構成されても良い。
 CU制御処理部12cは、第1実施形態におけるCU制御処理部12aと同様に、撮像装置CUcの各部11、13、14cを当該各部の機能に応じてそれぞれ制御し、前記撮像対象を撮像して画像を生成し、この生成した画像を、管理サーバ装置SVcへ通知するための回路である。そして、CU制御処理部12cは、入退場検知部15の検知結果にさらに基づいて撮像対象の領域に対する作業者NSの入出状況を管理し、前記生成した画像を管理サーバ装置SVcへ通知する際に、CU記憶部14cに予め記憶された自機の第2特定情報(本実施形態ではカメラID)と共に、前記生成した画像を管理サーバ装置SVcへ通知する。CU制御処理部12cは、例えば、CPUおよびその周辺回路を備えて構成される。CU制御処理部12cは、そのCU制御処理プログラムが実行されることによって、CU制御部121、生成部122cおよび撮像制御部123を機能的に備える。これら第3実施形態のCU制御処理部12cにおけるCU制御部121および撮像制御部123は、それぞれ、第1実施形態のCU制御処理部12aにおけるCU制御部121および撮像制御部123と同様であるので、その説明を省略する。
 生成部122cは、作業者NSが撮像対象の領域(本実施形態では前記居室RM)に入退場(入室、退室)する際にID装置RDcによって第1特定情報(本実施形態では作業者ID)を読み取って入退場検知部15で入退場を検知した場合に、自機の第2特定情報(本実施形態ではカメラID)とID装置RDcによって読み取った第1特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を管理サーバ装置SVcへ出力(送信)するものである。
 本実施形態では、生成部122cは、撮像対象の領域に対する作業者NSの入出状況を管理するための撮像側管理処理部(CU管理処理部)1221cと、紐付け情報を生成して送信するための通知処理部1222とを機能的に備える。第3実施形態の生成部122cにおける通知処理部1222は、第1実施形態の生成部122cにおける通知処理部1222と同様であるので、その説明を省略する。
 CU管理処理部1221cは、入退場検知部15の検知結果に基づきID装置RDcで読み取った前記第1特定情報(本実施形態では作業者ID)を管理するものである。より具体的には、CU管理処理部1221cは、ID装置RDcで読み取ってID装置RDcから作業者IDが通知された場合であって、かつ、入退場検知部15で入場を検知した場合に、この通知された作業者IDが、CU入出状況情報記憶部141cに記憶されているCU入出状況情報テーブルMTcの作業者IDフィールド1411(後述の図16参照)に登録されていない場合には、新たなレコードを生成し、この新たに生成したレコードの作業者IDフィールド1411に前記通知された作業者IDを登録する。一方、CU管理処理部1221cは、ID装置RDcで読み取ってID装置RDcから作業者IDが通知された場合であって、かつ、入退場検知部15で退場を検知した場合に、この通知された作業者IDが、CU入出状況情報記憶部141cに記憶されているCU入出状況情報テーブルMTcの作業者IDフィールド1411に登録されている場合には、前記通知された作業者IDを登録するレコードを削除する。このようにCU管理処理部1221cは、作業者IDの記憶の有り無しによって、撮像対象の領域に対する作業者NSの入出状況を管理する。
 なお、入退場検知部15が入場のみを検知する場合には、ID装置RDcと携帯端末装置TAcとが互いに近接され、ID装置RDcから作業者IDが通知された場合に、CU管理処理部1221cは、この通知された作業者IDが、CU入出状況情報記憶部141cに記憶されている前記CU入出状況情報テーブルMTcの作業者IDフィールド1411に登録されている場合には、前記通知された作業者IDを登録するレコードを削除すれば良い。
 次に、本実施形態の動作について説明する。図15は、一例として、前記画像記録システムにおける画像記録に関する第3実施形態の動作を示すシーケンス図である。図16は、図15に示す動作におけるCU入出状況情報テーブルの変遷を説明するための図である。図16には、紙面左側から紙面右側へ順に、時刻t31、時刻t32、時刻t33および時刻t34それぞれの各CU入出状況情報テーブルMTc-t31、MTc-t32、MTc-t33、MTc-t34が示されている。
 上記構成の画像記録システムMScでは、各装置CUc、RDc、SVc、TAcは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。撮像装置CUcでは、そのCU制御処理プログラムの実行によって、CU制御処理部12cには、CU制御部121、生成部122cおよび撮像制御部123が機能的に構成され、生成部122cには、CU管理処理部1221cおよび通知処理部1222が機能的に構成される。管理サーバ装置SVcおよび携帯端末装置TAcでは、第1実施形態と同様である。
 そして、画像記録システムMScは、次のような画像記録に関する第3実施形態の動作によって各撮像装置CUc-1~CUc-3から各画像を収集し、各画像を記録する。ここで、以下の説明において、一例として、その当初では、作業者NS-1が携帯する携帯端末装置TAc-1には、例えばログイン操作の際に、作業者ID;「ID-NA」が入力され、作業者ID;「ID-NA」が予め記憶されて、作業者NS-2が携帯する携帯端末装置TAc-2には、例えばログイン操作の際に、作業者ID;「ID-NB」が入力され、作業者ID;「ID-NB」が予め記憶されているものとする。そして、居室RM-1には、作業者NSが在室せず、CU入出状況情報記憶部141cに記憶されているCU入出状況情報テーブルMTc-t31には、図16の紙面左側に示すように、作業者IDが登録(記憶)されていないものとする。
 図15において、例えば看護や介護や清掃等の所定の仕事を行うために、作業者NS-1は、被監視者Ob-1の居室RM-1に入室する際に、その携行している携帯端末装置TAc-1を、前記居室RM-1に対応して設けられたID装置RDc-1に近接させ、作業者IDを読み取らせる読み取り操作を行う(C211)。
 携帯端末装置TAc-1とID装置RDc-1とは、互いに近接されると、上述の処理C12と同様に、携帯端末装置TAc-1は、その記憶されている作業者ID;「ID-NA」をTAIF部37で送信し、ID装置RDc-1は、携帯端末装置TAc-1から送信された作業者ID;「ID-NA」を受信し、これによって作業者ID;「ID-NA」を携帯端末装置TAc-1から読み取る(C212)。
 続いて、ID装置RDc-1は、上述の処理C13と同様に、携帯端末装置TAc-1から読み取った作業者ID;「ID-NA」を、前記居室RM-1に設けられた撮像装置CUc-1へ通知する(C213)。
 ここで、作業者NS-1は、上述のように携帯端末装置TAc-1とID装置RDc-1とを互いに近接させたが、例えば急な呼び出し等によって、前記居室RM-1に入室(入場)せずに、前記居室RM-1から離れると、入退場検知部15が作業者NS-1の入場を検知せず、入退場検知部15から入場の検知結果がCU制御処理部12cへ出力されない。このため、撮像装置CUc-1は、以降の処理を行わない。このため、図16に示す例では、ID装置RDc-1から作業者ID;「ID-NA」の通知を受けても、図16の紙面左側に示すCU入出状況情報テーブルMTc-t31は、図16の紙面左から2番目に示すCU入出状況情報テーブルMTc-t32のように、変わらず、CU入出状況情報記憶部141cには、作業者IDの登録の無いSU入出状況情報テーブルMTc-t32が記憶される(MTc-t31=MTc-t32)。したがって、撮像装置CUc-1による撮像は、開始されない。なお、撮像装置CUcは、ID装置RDcから作業者IDが通知されてから、予め設定された所定の時間以内(例えば5秒以内や10秒以内等)に、入退場検知部15から入場または退場の検知結果が通知されない場合に、今回の処理を終了しても良い。
 そこに、例えば所定の仕事を行うために、作業者NS-2は、被監視者Ob-1の居室RM-1に入室する際に、その携行している携帯端末装置TAc-2を、前記居室RM-1に対応して設けられたID装置RDc-1に近接させ、作業者IDを読み取らせる読み取り操作を行う(C221)。
 携帯端末装置TAc-2とID装置RDc-1とは、互いに近接されると、上述の処理C12と同様に、携帯端末装置TAc-2は、その記憶されている作業者ID;「ID-NB」をTAIF部37で送信し、ID装置RDc-1は、携帯端末装置TAc-2から送信された作業者ID;「ID-NB」を受信し、これによって作業者ID;「ID-NB」を携帯端末装置TAc-2から読み取る(C222)。
 続いて、ID装置RDc-1は、上述の処理C13と同様に、携帯端末装置TAc-2から読み取った作業者ID;「ID-NB」を、前記居室RM-1に設けられた撮像装置CUc-1へ通知する(C223)。
 作業者NS-2が前記居室RM-1に入室すると、入退場検知部15は、作業者NS-2の入場を検知し、入場の検知結果をCU制御処理部112cへ出力する(C224)。
 ID装置RDc-1から作業者ID;「ID-NB」の通知を受け、かつ、入退場検知部15から入場の検知結果を受けると、撮像装置CUc-1は、前記居室RM-1に対する作業者NSの入出状況を処理するために、CU制御処理部12cにおける生成部122cのCU管理処理部1221cによって、ID装置RDc-1から通知された作業者ID;「ID-NB」を管理する(C225)。より具体的には、この通知された作業者ID;「ID-NB」が、CU入出状況情報記憶部141cに記憶されているCU入出状況情報テーブルMTcの作業者IDフィールド1411に登録されていない場合には、CU管理処理部1221cは、新たなレコードを生成し、この新たに生成したレコードの作業者IDフィールド1411に前記通知された作業者ID;「ID-NB」を登録する。一方、この通知された作業者ID;「ID-NB」が、CU入出状況情報記憶部141cに記憶されているCU入出状況情報テーブルMTcの作業者IDフィールド1411に登録されている場合には、CU管理処理部1221cは、前記通知された作業者ID;「ID-NB」を登録するレコードを削除する。
 図16に示す例では、ID装置RDc-1から作業者ID;「ID-NB」の通知を受け、かつ、入退場検知部15から入場の検知結果を受けると、この通知された作業者ID;「ID-NB」が、CU入出状況情報記憶部14cに記憶されているCU入出状況情報テーブルMTc-t32の作業者IDフィールド1411に登録されていないので、CU管理処理部1221cは、新たなレコードを生成し、この新たに生成したレコードの作業者IDフィールド1411に前記通知された作業者ID;「ID-NB」を登録する。これによって図16の紙面左から2番目に示すCU入出状況情報テーブルMTc-t32からその紙面右から2番目に示すCU入出状況情報テーブルMTc-t33となり、CU入出状況情報記憶部141cには、作業者ID;「ID-NB」を登録したCU入出状況情報テーブルMTc-t33が記憶される。
 続いて、CU管理処理部1221cで管理されているCU入出状況情報テーブルMTc-t33に、作業者ID;「ID-NB」が有るので、撮像装置CUc-1は、撮像を開始するために、撮像制御部123によって、撮像を開始させる撮像開始の指示をカメラ11へ出力する(C226)。カメラ11は、撮像制御部123から前記撮像開始の指示を受けると、撮像を開始し、この撮像によって生成した画像をCU制御処理部12cへ出力し、CU制御処理部12cは、この画像をCU記憶部14cに一時的に記憶する。これによって撮像対象を撮像した画像(本実施形態では動画)が生成され、CU記憶部14cに記憶されて行く。
 続いて、処理C225で新たに作業者IDを登録したので、上述の処理C16と同様に、撮像装置CUc-1は、紐付き情報を通知するために、CU制御処理部12cにおける生成部122cの通知処理部1222によって、自機のカメラID;「CU-1」とID装置RDc-1によって読み取って通知された作業者ID;「ID-NB」とを互いに紐付けた紐付け情報を生成し、この生成した紐付け情報および撮像開始時刻としての現在の時刻を管理サーバ装置SVcへ通知する(C227)。
 撮像装置CUc-1から紐付け情報および撮像開始時刻の通知を受けると、管理サーバ装置SVcは、上述の処理C17と同様に、前記紐付け情報および撮像開始時刻をSV記憶部23aに一時的に仮に記憶する(C228)。
 そして、前記仕事の終了によって、前記居室RM-1に在室している作業者NS-2は、退出する際に、その携行している携帯端末装置TAc-2を、前記居室RM-1に対応して設けられたID装置RDc-1に近接させ、作業者ID;「ID-NB」を読み取らせる読み取り操作を行う(C231)。
 携帯端末装置TAc-2とID装置RDc-1とは、互いに近接されると、上述の処理C12と同様に、携帯端末装置TAc-2は、その記憶されている作業者ID;「ID-NB」をTAIF部37で送信し、ID装置RDc-1は、携帯端末装置TAc-2から送信された作業者ID;「ID-NB」を受信し、これによって作業者ID;「ID-NB」を携帯端末装置TAc-2から読み取る(C232)。
 続いて、ID装置RDc-1は、上述の処理C13と同様に、携帯端末装置TAc-2から読み取った作業者ID;「ID-NB」を、前記居室RM-1に設けられた撮像装置CUc-1へ通知する(C233)。
 作業者NS-2が前記居室RM-1から退室すると、入退場検知部15は、作業者NS-2の退場を検知し、退場の検知結果をCU制御処理部112cへ出力する(C234)。
 ID装置RDc-1から作業者ID;「ID-NB」の通知を受け、かつ、入退場検知部15から退場の検知結果を受けると、撮像装置CUc-1は、前記居室RM-1に対する作業者NSの入出状況を処理するために、CU制御処理部12cにおける生成部122cのCU管理処理部1221cによって、ID装置RDc-1から通知された作業者ID;「ID-NB」を管理する(C235)。より具体的には、ここでは、図16の紙面右から2番目に示すように、この通知された作業者ID;「ID-NB」が、CU入出状況情報記憶部141cに記憶されているCU入出状況情報テーブルMTc-t33の作業者IDフィールド1411に登録されているので、CU管理処理部1221cは、前記通知された作業者ID;「ID-NB」を登録するレコードを削除する。これによって図16の紙面右から2番目に示すCU入出状況情報テーブルMTc-t33からその紙面右側に示すCU入出状況情報テーブルMTc-t34となり、CU入出状況情報記憶部141cには、作業者ID;「ID-NB」を登録したレコードが無くなって、作業者IDを1つも登録しないCU入出状況情報テーブルMTc-t34が記憶される。
 続いて、CU管理処理部1221cで管理されているCU入出状況情報テーブルMTc-t34に、作業者IDが無いので、撮像装置CUc-1は、上述の処理C25と同様に、撮像を終了するために、撮像制御部123によって、撮像を終了させる撮像終了の指示をカメラ11へ出力する(C236)。カメラ11は、撮像制御部123から前記撮像終了の指示を受けると、撮像を終了する。
 撮像が終了すると、撮像装置CUc-1は、CU制御処理部12cによって、CU記憶部14cに一時的に記憶した前記画像を管理サーバ装置SVcへ送信する(C237)。より具体的には、CU制御処理部12cは、CU記憶部14cに一時的に記憶した前記画像、自機のカメラID、および、撮像終了時刻としての現在の時刻を収容した画像通知通信信号を管理サーバ装置SVcへ送信する。
 撮像装置CUc-1から前記画像の通知を受けると、管理サーバ装置SVcは、上述の処理C27と同様に、前記撮像装置CUc-1からの画像を前記第1特定情報としての作業者IDに紐付けて画像記憶部231に記憶する(C238)。
 このような動作によって、画像記録システムMScは、各居室RM-1~RM-3に配置された各撮像装置CUc-1~CUc-3から各画像を収集し、各画像に作業者IDを紐付けて記憶(記録)する。
 そして、所望(目的)の作業者NSに対する画像を抽出する場合には、第1実施形態における画像記録システムMSaと同様に、例えば前記作業者NSの上司等のオペレータは、SV入力部24から検索キーとして前記所望の作業者NSに対応する作業者IDを入力し、検索開始の指示を入力し、管理サーバ装置SVcは、これに応じて画像をSV出力部25に再生表示する。これによって前記オペレータは、所望の作業者NSに対する画像を参照できる。
 以上説明したように、第3実施形態における画像記録システムMScおよびこれに実装された画像記録方法は、第1実施形態と同様の作用効果を奏する(第2実施形態をベースとする場合には、第2実施形態と同様の作用効果を奏する)。
 撮像対象の領域に来たものの、状況の変化によって他の場所に向かう必要が生じた等のために、作業者NSは、ID装置RDcに前記一方の特定情報として第1特定情報(上述では作業者ID)を読み取らせたものの、当該撮像対象の領域に入場しない場合も有り得る。上記画像記録システムMScおよび画像記録方法は、入退場検知部15をさらに備え、入退場検知部15で入場有りを検知した場合に、前記紐付き情報を管理サーバ装置SVcへ出力する。このため、作業者NSがID装置RDcに前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に対し入場しなかった場合、前記紐付き情報が管理サーバ装置SVcへ出力されない。したがって、上記画像記録システムMScおよび画像記録方法は、撮像装置CUc部からの画像に、前記第1特定情報(上述では作業者ID)を、より適切に紐付けられる。
 また、上述のように、作業者NSは、ID装置RDcに前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に入場しない場合も有り得る。一方、所定の作業が終了したと考えて、前記作業者NSは、ID装置RDcに前記一方の特定情報を読み取らせたものの、作業のやり残しに気づき、当該撮像対象の領域から退場しない場合も有り得る。上記画像記録システムMScおよび画像記録方法は、入退場検知部15をさらに備え、入退場検知部15で入場有りを検知した場合に、前記撮像開始の指示をカメラ11へ出力し、入退場検知部15で退場有りを検知した場合に、前記撮像終了の指示を前記カメラ11へ出力する。このため、作業者NSがID装置RDcに前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に対し入退場しなかった場合、前記撮像開始の指示や前記撮像終了の指示が行われない。したがって、上記画像記録システムMScおよび画像記録方法は、より適切に、作業者の入退場に応じて画像を記憶(記録)できる。
 次に、別の実施形態について説明する。
(第4実施形態)
 図17は、第4実施形態における被監視者監視支援システムの構成を示す図である。図18は、前記被監視者監視支援システムにおけるセンサ装置の構成を示す図である。図19は、前記被監視者監視支援システムにおける管理サーバ装置の構成を示す図である。図20は、図19に示す前記管理サーバ装置に記憶される検知イベント付き画像情報テーブルの構成を示す図である。図21は、前記被監視者監視支援システムにおける携帯端末装置の構成を示す図である。
 第4実施形態は、前記画像記録システムを、監視領域に所在する監視対象の被監視者に関わる所定のイベントを検知して通知することによって前記被監視者の監視を支援する被監視者監視支援システムに組み込んだ実施形態である。前記被監視者監視支援システムには、これら上述の第1ないし第3実施形態における画像記録システムMSa~MScのいずれも組み込むことができる。ここでは、第1実施形態における画像記録システムMSaを組み込んだ被監視者監視支援システムについて、以下に、説明する。なお、第2または第3実施形態における画像記録システムMSb、MScを組み込んだ被監視者監視支援システムも以下と同様に構成できる。
 このような被監視者監視支援システムMSdは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob-1~Ob-3)を検知して前記被監視者Obの監視を支援するものであり、例えば、図17に示すように、1または複数のセンサ装置SU(SU-1~SU-3)と、1または複数のID装置RDd(RDd-1~RDd-3)と、管理サーバ装置SVdと、1または複数の携帯端末装置TAd(TAd-1、TAd-2)と、構内交換機(PBX、Private branch exchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。これら第4実施形態の被監視者監視支援システムMSdにおけるセンサ装置SU、管理サーバ装置SVdおよび携帯端末装置TAdには、それぞれ、第1実施形態における画像記録システムMSaにおける撮像装置CUa、管理サーバ装置SVaおよび携帯端末装置TAaの各構成が後述のように組み込まれている。これら第4実施形態の被監視者監視支援システムMSdにおけるID装置RDdおよび構内交換機CXは、第1実施形態の画像記録システムMSaにおけるID装置RDaおよび構内交換機CXと同様であるので、その説明を省略する。これら第4実施形態の被監視者監視支援システムMSdにおけるセンサ装置SU、ID装置RDa、管理サーバ装置SVd、携帯端末装置TAdおよび構内交換機CXの、通信に関する接続関係は、第1実施形態と同様であるので、その説明を省略する。
 被監視者監視支援システムMSdは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視支援システムMSdは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図17に示す例では、被監視者監視支援システムMSdは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の居室を備える介護施設の建物に配設されている。
 センサ装置SUは、監視対象の被監視者Obが所在する監視領域に対応して設けられ、ネットワークNWを介して他の装置SVd、TAdと通信する通信機能等を備え、被監視者Obに関わる所定のイベント(事象)を、管理サーバ装置SVdへ通知する装置である。前記所定のイベント(事象)は、好適には対処が必要な所定のイベントであり、例えば、本実施形態では、被監視者Obにおける予め設定された所定の行動およびナースコールである。このため、本実施形態では、センサ装置SUは、被監視者Obにおける所定の行動を検知して検知結果を前記所定のイベントの一例として管理サーバ装置SVへ通知(送信)し、ナースコールを受け付けて前記ナースコールを前記所定のイベントの他の一例として管理サーバ装置SVへ通知(送信)し、携帯端末装置TAdとの間で音声通話を行い、動画を含む画像を生成して携帯端末装置TAdへ動画を配信する装置である。そして、第4実施形態では、センサ装置SUは、さらに、前記監視領域を前記撮像対象の領域として第1実施形態の撮像装置CUaと同様の機能を備える。このようなセンサ装置SUは、例えば、図18に示すように、カメラ41と、センサ側音入出力部(SU音入出力部)42と、ナースコール受付操作部43と、センサ側制御処理部(SU制御処理部)44と、センサ側通信インターフェース部(SU通信IF部)45と、センサ側記憶部(SU記憶部)46とを備える。
 カメラ41およびSU通信IF部45は、それぞれ、第1実施形態におけるカメラ11およびCU通信IF部13と同様であるので、その説明を省略する。
 SU音入出力部42は、音を入出力する回路である。すなわち、SU音入出力部42は、第1実施形態における携帯端末装置TAaのTA音入出力部34と同様に、SU制御処理部44に接続され、SU制御処理部44の制御に従って音を表す電気信号に応じた音を生成して出力するための回路であって、外部の音を取得してセンサ装置SUに入力するための回路である。
 ナースコール受付操作部43は、SU制御処理部44に接続され、ナースコールを当該センサ装置SUに入力するための例えば押しボタン式スイッチ等のスイッチ回路である。なお、ナースコール受付操作部13は、有線でSU制御処理部44に接続されて良く、また、例えばBluetooth(登録商標)規格等の前記近距離無線通信でSU制御処理部44に接続されて良い。
 SU記憶部46は、SU制御処理部44に接続され、SU制御処理部44の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、所定のSU制御処理プログラムが含まれ、前記SU制御処理プログラムには、例えば、センサ装置SUの各部41~43、45、46を当該各部の機能に応じてそれぞれ制御するSU制御プログラムや、第1実施形態と同様な生成プログラムや、第1実施形態と同様な撮像制御プログラムや、被監視者Obに対する監視に関する所定の情報処理を実行するSU監視処理プログラム等が含まれる。前記SU監視処理プログラムには、被監視者Obにおける所定の行動を検知して検知結果を前記所定のイベント(事象)の一例として管理サーバ装置SVdを介して所定の携帯端末装置TAdへ通知する行動検知処理プログラムや、ナースコール受付操作部13でナースコールを受け付けた場合にその旨を前記所定のイベントの他の一例として管理サーバ装置SVdを介して所定の携帯端末装置TAdへ通知し、SU音入出力部42等を用いることで携帯端末装置TAdとの間で音声通話を行うナースコール処理プログラムや、カメラ11で生成した動画を、その動画を要求した携帯端末装置TAdへストリーミングで配信するSUストリーミング処理プログラム等が含まれる。前記各種の所定のデータには、自機の第2特定情報(本実施形態ではカメラID(センサID))、管理サーバ装置SVdの通信アドレス、および、監視領域(撮像対象の領域)に対する作業者NSの入出状況を表すSU入出状況情報等の、各プログラムを実行する上で必要なデータ等が含まれる。SU記憶部46は、例えばROMやEEPROMやRAM等を備える。SU記憶部46は、前記SU入出状況情報を記憶するセンサ側入出状況情報記憶部(SU入出状況情報記憶部)461を機能的に備える。このSU入出状況情報記憶部461は、第1実施形態のCU入出状況情報記憶部141aと同様であるので、その説明を省略する。
 SU制御処理部44は、センサ装置SUの各部41~43、45、46を当該各部の機能に応じてそれぞれ制御し、被監視者Obに関わる所定のイベント(事象)を、管理サーバ装置SVdへ通知するための回路である。より具体的には、本実施形態では、SU制御処理部44は、被監視者Obにおける所定の行動を検知してその検知結果を前記所定のイベントの一例として管理サーバ装置SVdへ通知(報知、送信)し、ナースコールを受け付けてそのナースコールを前記所定のイベントの他の一例として管理サーバ装置SVdへ通知(報知、送信)し、携帯端末装置TAdとの間で音声通話を行い、動画を含む画像を生成して携帯端末装置TAdへ動画を配信する。そして、第4実施形態では、SU制御処理部44は、さらに、第1実施形態のCU制御処理部12aと同様にも機能する。SU制御処理部44は、例えば、CPUよびその周辺回路を備えて構成される。SU制御処理部44は、そのSU制御処理プログラムが実行されることによって、センサ側制御部(SU制御部)441、生成部442、撮像制御部443、行動検知処理部444、ナースコール処理部445およびセンサ側ストリーミング処理部(SUストリーミング処理部)446を機能的に備え、生成部442は、SU管理処理部4421および通知処理部4422を機能的に備える。生成部442および撮像制御部443は、それぞれ。第1実施形態における生成部122aおよび撮像制御部123と同様であり、SU管理処理部4421および通知処理部4422は、第1実施形態におけるCU管理処理部1221aおよび通知処理部1222と同様であるので、その説明を省略する。
 SU制御部441は、センサ装置SUの各部41~43、45、46を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。SU制御部441は、年月日時分秒で計時する。
 行動検知処理部444は、被監視者Obにおける、予め設定された所定の行動を検知して検知結果を前記所定のイベントの一例として管理サーバ装置SVdへ通知するものである。より具体的には、本実施形態では、前記所定の行動は、例えば、被監視者Obが起きた起床、被監視者Obが寝具から離れた離床、被監視者Obが寝具から落ちた転落、および、被監視者Obが倒れた転倒の4つの行動である。そして、行動検知処理部444は、例えば、カメラ11で撮像した画像(対象画像)に基づいて被監視者Obの頭部を検出し、この検出した被監視者Obの頭部における大きさの時間変化に基づいて被監視者Obの起床、離床、転倒および転落を検知する。より詳しくは、まず、寝具BDの所在領域および第1ないし第3閾値Th1~Th3が前記各種の所定のデータの1つとして予めSU記憶部46に記憶される。前記第1閾値Th1は、寝具BDの所在領域内における横臥姿勢の頭部の大きさと座位姿勢の頭部の大きさとを識別するための閾値である。前記第2閾値Th2は、寝具BDの所在領域を除く居室RM内における立位姿勢の頭部の大きさであるか否かを識別するための閾値である。前記第3閾値Th3は、寝具BDの所在領域を除く居室RM内における横臥姿勢の頭部の大きさであるか否かを識別するための閾値である。そして、行動検知処理部444は、まず、対象画像から例えば背景差分法やフレーム差分法によって被監視者Obの人物の領域として動体領域を抽出する。次に、行動検知処理部444は、この抽出した動体領域から、例えば円形や楕円形のハフ変換によって、また例えば予め用意された頭部のモデルを用いたパターンマッチングによって、また例えば頭部検出用に学習したニューラルネットワークによって、被監視者Obの頭部領域を抽出する。そして、行動検知処理部444は、この抽出した頭部の位置および大きさから起床、離床、転倒および転落を検知する。例えば、行動検知処理部444は、この抽出した頭部の位置が寝具BDの所在領域内であって、前記抽出した頭部の大きさが前記第1閾値Th1を用いることによって横臥姿勢の大きさから座位姿勢の大きさへ時間変化した場合には、起床と判定し、前記起床を検知する。例えば、行動検知処理部444は、この抽出した頭部の位置が寝具BDの所在領域内から寝具の所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第2閾値Th2を用いることによって或る大きさから立位姿勢の大きさへ時間変化した場合には、離床と判定し、前記離床を検知する。例えば、行動検知処理部444は、この抽出した頭部の位置が寝具BDの所在領域内から寝具BDの所在領域外へ時間変化した場合であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転落と判定し、前記転落を検知する。例えば、行動検知処理部444は、この抽出した頭部の位置が寝具BDの所在領域を除く居室RM内であって、前記抽出した頭部の大きさが前記第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへ時間変化した場合には、転倒と判定し、前記転倒を検知する。
 このように前記所定の行動を検知すると、行動検知処理部444は、被監視者Obに関わる所定のイベント(事象)の内容を表すイベント情報(事象情報)を収容した、前記イベントを通知するための通信信号(第1イベント通知通信信号)をSU通信IF部45で管理サーバ装置SVdへ通知する。より詳しくは、行動検知処理部444は、自機のカメラID、前記イベントの内容を表すイベント情報、前記所定の行動の検知に用いられた対象画像を収容した第1イベント通知通信信号を、SU通信IF部45を介して管理サーバ装置SVdへ送信する。前記イベント情報は、イベントの種別で表され、本実施形態では、起床、離床、転落、転倒およびナースコール(NC)のうちの1または複数であり、ここでは、行動検知処理部142は、検知した起床、離床、転落および転倒のうちの1または複数を前記イベント情報として第1イベント通知通信信号に収容する。前記画像は、静止画および動画のうちの少なくとも一方であって良く、本実施形態では、まず、静止画が報知され、作業者の要求に応じて動画が配信される。
 ナースコール処理部445は、ナースコール受付操作部43でナースコールを受け付けた場合にその旨を前記所定のイベントの他の一例として収容した第1イベント通知通信信号を管理サーバ装置SVdへ通知し、SU音入出力部42等を用いることで携帯端末装置TAdとの間で音声通話を行うものである。より具体的には、ナースコール処理部445は、ナースコール受付操作部43が入力操作されると、自機のカメラIDおよび前記イベント情報としてナースコールを収容した第1イベント通知通信信号をSU通信IF部45を介して管理サーバ装置SVdへ送信する。そして、ナースコール処理部445は、SU音入出力部42等を用い、携帯端末装置TAdとの間で例えばVoIP(Voice over Internet Protocol)によって音声通話を行う。
 SUストリーミング処理部446は、SU通信IF部46を介して携帯端末装置TAdから動画の配信の要求があった場合に、この要求のあった携帯端末装置TAdへ、カメラ11で生成した動画(例えばライブの動画)をストリーミング再生でSU通信IF部45を介して配信するものである。
 図1には、一例として、第1ないし第3センサ装置SU-1~SU-3が示されており、第1センサ装置SU-1は、第1ID装置RDd-1と共に、被監視者Obの一人であるAさんOb-1の居室RM-1(不図示)に配設され、第2センサ装置SU-2は、第2ID装置RDd-2と共に、被監視者Obの一人であるBさんOb-2の居室RM-2(不図示)に配設され、そして、第3センサ装置SU-3は、第3ID装置RDd-3と共に、被監視者Obの一人であるCさんOb-3の居室RM-3(不図示)に配設されている。
 管理サーバ装置SVdは、ネットワークNWを介して他の装置SU、TAdと通信する通信機能を備え、センサ装置SUから前記所定のイベントの通知を受けると、被監視者Obに対する監視に関する情報(監視情報(本実施形態では例えば前記所定のイベント(センサ装置SUで検知した所定の行動の種類やセンサ装置SUで受け付けたナースコール)、被監視者Obの画像(静止画および動画)、および、前記通知を受けた時刻等))を管理し、前記所定のイベントを所定の携帯端末装置TAdへ通知(再通知、再報知、送信)し、クライアント(本実施形態では携帯端末装置TAd等)の要求に応じたデータを前記クライアントに提供し、被監視者監視支援システムMSd全体を管理する装置である。そして、第4実施形態では、管理サーバ装置SVdは、前記画像にさらに直近にセンサ装置SUで検知したイベントに紐付ける点を除き、第1実施形態の管理サーバ装置SVaと同様の機能を備える。このような管理サーバ装置SVdは、例えば、図19に示すように、SV通信IF部21と、SV制御処理部22dと、SV記憶部23cと、SV入力部24と、SV出力部25と、SVIF部26とを備える。これら第4実施形態の管理サーバ装置SVdにおけるSV通信IF部21、SV入力部24、SV出力部25、SVIF部26は、それぞれ、第1実施形態の管理サーバ装置SVaにおけるSV通信IF部21、SV入力部24、SV出力部25、SVIF部26と同様であるので、その説明を省略する。
 SV記憶部23dは、SV制御処理部22dに接続され、SV制御処理部22dの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、所定のSV制御処理プログラムが含まれ、前記SV制御処理プログラムには、管理サーバ装置SVdの各部21、23d、24~26を当該各部の機能に応じてそれぞれ制御するSV制御プログラムや、センサ装置SUで生成された画像を後述の画像記憶部231dに記憶させる画像記憶処理プログラムや、被監視者Obに対する監視に関する所定の情報処理を実行するSV監視処理プログラム等が含まれる。前記各種の所定のデータには、自機のサーバIDや、撮像装置CUaとしてのセンサ装置SUで生成され受信した前記画像(画像データ)や、被監視者Obの前記監視情報や、前記所定のイベントの通知先等の装置SU、TAd間の情報を表す装置間情報や、センサ装置SUに関するセンサ情報等の各プログラムを実行する上で必要なデータ等が含まれる。SV記憶部23dは、例えばROMやEEPROMやRAM等を備え、必要に応じてHDDをさらに備えても良い。そして、前記画像、前記監視情報、前記装置間情報および前記センサ情報それぞれを記憶するために、SV記憶部23dは、画像記憶部231、サーバ側監視情報記憶部(SV監視情報記憶部)234、装置間情報記憶部235およびセンサ情報記憶部236を機能的に備える。
 画像記憶部231dは、第1実施形態と同様に、撮像装置CUaとしてのセンサ装置SUからの画像を第1特定情報(本実施形態では作業者ID)に紐付けて記憶するものである。さらに、第4実施形態では、画像記憶部231dは、前記画像に、直近にセンサ装置SUで検知したイベント情報を紐付けて記憶する。より具体的には、互いに紐付けられた1組の前記画像、前記作業者IDおよび前記イベント情報は、テーブル形式で画像記憶部231dに記憶される。互いに紐付けられた1組の前記画像、前記作業者IDおよび前記イベント情報を登録する検知イベント付き画像情報テーブルITは、例えば、図20に示すように、前記画像IDを登録する画像IDフィールド2311と、イベントを検知したイベント検知時刻を登録するイベント検知時刻フィールド2315と、イベント情報を登録するイベント種別フィールド2316と、記録時刻を登録する記録時刻フィールド2312と、画像ファイル名を登録する画像ファイル名フィールド2313と、部屋名を登録する部屋名フィールド2317と、作業者IDを登録する作業者IDフィールド2314とを備え、前記画像ごとに(前記1組ごとに)、さらに、イベントの通知ごとにレコードを持つ。すなわち、この検知イベント付き画像情報テーブルITは、上述の図4に示す画像情報テーブルPTに、さらに、イベント検知時刻フィールド2315、イベント種別フィールド2316および部屋名フィールド2317を備える。
 SV監視情報記憶部234は、各装置SU、TAdそれぞれとの間で送受信した被監視者Obの監視情報を記憶するものである。より具体的には、SV監視情報記憶部234には、本実施形態では、前記監視情報として、第1イベント通知通信信号等の通信信号に収容された各情報に基づいて、カメラID、イベント情報(事象情報、本実施形態では起床、離床、転落、転倒およびナースコール)、受信時刻、対象画像(静止画および動画)および対処の有無(対応の受付の有無)等が互いに対応付けて記憶される。
 装置間情報記憶部235は、前記装置間情報として、本実施形態では、通知先対応関係情報および通信アドレス対応関係情報等を記憶するものである。前記通知先対応関係情報は、センサ装置SUから送信された第1イベント通知通信信号等の通知先(再通知先、再報知先、送信先)を示す、送信元であるカメラIDと通知先(再通知先)である端末IDとの対応関係を表す情報である。前記通信アドレス対応関係情報は、各装置SU、TAdのID(センサID、端末ID)とその通信アドレスとの対応関係を表す情報である。端末IDは、携帯端末装置TAdを特定し携帯端末装置TAdを識別するための端末識別子である。
 センサ情報記憶部236は、センサ装置SUに関する情報であるセンサ情報を記憶するものである。本実施形態では、前記センサ情報は、例えば、センサ装置SUのカメラIDと、前記センサ装置SUの配設場所(前記監視領域、前記撮像対象の領域)と、前記センサ装置SUの配設場所に所在する被監視者Obの被監視者名とを互いに対応付けた情報である。前記センサ装置SUの配設場所は、例えば部屋名(居室名)で表される。
 SV制御処理部22dは、管理サーバ装置SVdの各部21、23d、24~26を当該各部の機能に応じてそれぞれ制御し、センサ装置SUから前記所定のイベントの通知を受けると、被監視者Obに対する監視に関する監視情報を管理し、前記所定のイベントを所定の携帯端末装置TAdへ通知し、クライアントの要求に応じたデータを前記クライアントに提供するための回路である。そして、第4実施形態では、SV制御処理部22dは、前記画像にさらに直近にセンサ装置SUで検知したイベントに紐付ける点を除き、第1実施形態のSV制御処理部22aと同様に機能する。SV制御処理部22dは、例えば、CPUおよびその周辺回路を備えて構成される。SV制御処理部22dは、そのSV制御処理プログラムが実行されることによって、SV制御部221、画像記憶処理部222dおよびサーバ側監視処理部(SV監視処理部)223を機能的に備える。
 SV制御部221は、管理サーバ装置SVdの各部21、23d、24~26を当該各部の機能に応じてそれぞれ制御し、管理サーバ装置SVdの全体制御を司るものである。SV制御部221は、年月日時分秒で計時する。
 SV監視処理部224は、センサ装置SUから前記所定のイベントの通知を受信すると被監視者Obに対する監視に関する監視情報を管理し、前記所定のイベントを所定の携帯端末装置TAdへ通知するものである。
 より具体的には、SV監視処理部224は、センサ装置SUから前記第1イベント通知通信信号を受信すると、この受信した第1イベント通知通信信号に収容された、被監視者Obに対する監視に関する監視情報をSV監視情報記憶部234に記憶(記録)する。SV監視処理部222は、この受信した第1イベント通知通信信号を送信したセンサ装置SUに対応する通知先(再通知先、転送先、送信先)を、装置間情報記憶部235に記憶された前記通知先対応関係情報から選定(検索)し、選定結果に基づき第2イベント通知通信信号を生成し、前記生成した前記第2イベント通知通信信号をSV通信IF部21で送信する。前記第1イベント通知通信信号に収容されたイベント情報が前記所定の行動(起床、離床、転落および転倒のうちの1または複数)である場合には、前記第2イベント通知通信信号には、第1イベント通知通信信号に収容されたカメラID、イベント情報および対象画像、ならびに、動画のダウンロード先として、第1イベント通知通信信号に収容されたカメラIDを持つセンサ装置SUに対応する通信アドレスが収容される。この通信アドレスは、前記受信した第1イベント通知通信信号を送信したセンサ装置SUに対応するカメラIDに基づいて通信アドレス対応関係情報から選定(検索)される。前記第1イベント通知通信信号に収容されたイベント情報が前記ナースコールである場合には、前記第2イベント通知通信信号には、第1イベント通知通信信号に収容されたカメラIDおよびイベント情報(ここではナースコール)が収容される。
 画像記憶処理部222dは、撮像装置CUaとしてのセンサ装置SUで生成された画像を画像記憶部231dに記憶させるものである。画像記憶処理部222dは、第1実施形態の画像記憶処理部222aと同様に、前記画像を記憶する際に、前記画像と共にセンサ装置SUから受信した前記第2特定情報(本実施形態ではカメラID)およびセンサ装置SUから受信した紐付け情報に基づいて、前記画像を前記第1特定情報(本実施形態では作業者ID)に紐付けて画像記憶部231dに記憶する。そして、第4実施形態では、画像記憶処理部222dは、前記画像にさらに直近にセンサ装置SUで検知したイベントに紐付ける。
 より具体的には、画像記憶処理部222dは、センサ装置SUから前記第1イベント通知通信信号を受信すると、まず、現在の時刻をイベント検知時刻とし、前記受信した第1イベント通知通信信号に収容されたカメラID、イベント情報および対象画像を取り出す。なお、センサ装置SUが第1イベント通知通信信号にイベント検知時刻を収容する場合には、このイベント検知時刻が用いられても良い。次に、画像記憶処理部222dは、前記カメラIDを、センサ情報記憶部236に記憶されたセンサ情報に基づいて部屋名に変換する。なお、カメラIDとして部屋名が利用されている場合には、この処理は省略される。次に、画像記憶処理部222dは、前記対象画像に、画像ファイル名を付して画像記憶部231dに記憶する。この画像ファイル名は、任意であって良いが、画像通知通信信号に収容された前記画像に付される画像ファイル名と通番であって良い。次に、画像記憶処理部222dは、画像通知通信信号の受信の際に生成される画像IDと通番で画像IDを生成する。次に、画像記憶処理部222dは、画像記憶部231dに記憶されている検知イベント付き画像情報テーブルITに新たなレコードを生成し、この生成したレコードにおける画像IDフィールド2311、イベント検知時刻フィールド2315、イベント種別フィールド2316、画像ファイル名フィールド2313および部屋名フィールド2317それぞれに、前記画像ID、前記イベント検知時刻、前記画像ファイル名および前記部屋名それぞれを登録する。
 なお、上述の処理は、SV監視処理部224が前記第1イベント通知通信信号で通知された前記監視情報をSV監視情報記憶部234に記憶した後に、SV監視情報記憶部234に記憶された前記監視情報から、画像記憶処理部222dが検知イベント付き画像情報テーブルITへ転記しても良い。あるいは、上述の処理は、画像記憶処理部222dに替え、SV監視処理部224が実行しても良い。
 そして、画像記憶処理部222dは、センサ装置SUから前記画像通知通信信号を受信すると、前記画像にさらに直近にセンサ装置SUで検知したイベントに紐付ける点を除き、第1実施形態の画像記憶処理部222aと同様に機能する。すなわち、センサ装置SUから前記画像通知通信信号を受信すると、画像記憶処理部222dは、第1実施形態の画像記憶処理部222aと同様に、画像記憶部231dに記憶されている検知イベント付き画像情報テーブルITに新たに生成したレコードにおける各フィールド2311、23121、23122、2313、2314に各データを登録するが、この際に、この新たに生成したレコードにおけるイベント種別フィールド2316に、前記受信した画像通知通信信号に収容されたカメラIDと同一のカメラIDを収容した第1イベント通知通信信号であって、かつ、前記受信した画像通知通信信号に最も時間的に近い時刻に受信した前記第1イベント通知通信信号に収容されたイベント情報を登録する。例えば、図20に示す検知イベント付き画像情報テーブルITでは、2行目のレコードにおけるイベント種別フィールド2316には、これに直近の1行目のレコードにおけるイベント種別フィールド2316に登録されているイベント情報;「転倒」が登録される。
 携帯端末装置TAdは、ネットワークNWを介して他の装置SVd、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVdやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVdからの通知によってセンサ装置SUで得られた前記監視情報を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等するための機器である。そして、第4実施形態では、携帯端末装置TAdは、第1実施形態の携帯端末装置TAaと同様の機能を備える。このような携帯端末装置TAdは、本実施形態では、例えば、図21に示すように、TA通信IF部31と、TA制御処理部32dと、TA記憶部33dと、TA音入出力部34と、TA入力部35と、TA表示部36と、TAIF部37とを備える。これら第4実施形態の携帯端末装置TAdにおけるTA通信IF部31、TA音入出力部34、TA入力部35、TA表示部36およびTAIF部37は、それぞれ、第1実施形態の携帯端末装置TAaにおけるTA通信IF部31、TA音入出力部34、TA入力部35、TA表示部36およびTAIF部37と同様であるので、その説明を省略する。第4実施形態の携帯端末装置TAdにおけるTA記憶部33dは、TA制御処理プログラムに含まれる1つのプログラムとして、被監視者Obに対する監視に関する所定の情報処理を実行するTA監視処理プログラム、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行う通話処理プログラム、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するTAストリーミング処理プログラム、および、管理サーバ装置SVdから第2イベント通知通信信号で受信した監視情報をさらに記憶する点を除いて、第1実施形態の携帯端末装置TAaにおけるTA記憶部33aと同様であるので、その説明を省略する。
 TA制御処理部32dは、携帯端末装置TAdの各部31、33d、34~37を当該各部の機能に応じてそれぞれ制御し、被監視者Obの前記監視情報を受けて表示し、ナースコールの応答や声かけするための回路である。そして、第4実施形態では、TA制御処理部32dは、第1実施形態のTA制御処理部32aと同様に機能する。TA制御処理部32dは、例えば、CPUおよびその周辺回路を備えて構成される。TA制御処理部32dは、そのTA制御処理プログラムが実行されることによって、TA制御部321、作業者ID情報出力処理部322、端末側監視処理部(TA監視処理部)323、通知処理部324および端末側ストリーミング処理部(TAストリーミング処理部)325を機能的に備える。この作業者ID情報出力処理部322は、第1実施形態と同様であるので、その説明を省略する。
 TA制御部321は、携帯端末装置TAdの各部31、33d、34~37を当該各部の機能に応じてそれぞれ制御し、携帯端末装置TAdの全体制御を司るものである。TA制御部321は、年月日時分秒で計時する。
 TA監視処理部324は、被監視者Obに対する監視に関する所定の情報処理を実行するものである。より具体的には、TA監視処理部324は、センサ装置SUによって送信された第1イベント通知通信信号、に起因して管理サーバ装置SVdによって送信された第2イベント通知通信信号を受信した場合に、この受信した第2イベント通知通信信号に収容された各情報(各データ)に基づき、被監視者Obの監視情報をTA記憶部33dに記憶(記録)する。TA監視処理部324は、この受信した第2イベント通知通信信号に収容された各情報に応じた画面をTA表示部36に表示する。そして、TA監視処理部324は、TA入力部35から所定の入力操作を受け付けると、その入力操作に応じた所定の処理を実行する。
 通話処理部325は、TA音入出力部34等を用いることでセンサ装置SUとの間で音声通話を行うものである。より具体的には、例えば、通話処理部325は、TA音入出力部34等を用い、第2イベント通知通信信号の送信の原因となった第1イベント通知通信信号を管理サーバ装置SVdへ送信した送信元のセンサ装置SUとの間で例えばVoIPによって音声通話を行う。
 TAストリーミング処理部326は、センサ装置SUから動画の配信を受け、前記配信を受けた動画をストリーミング再生でTA表示部36に表示するものである。
 次に、本実施形態の動作について説明する。図22は、一例として、前記被監視者監視支援システムにおけるイベントの検知および画像記録に関する動作を示すシーケンス図である。図23は、前記携帯端末装置に表示される待受け画面の一例を示す図である。図24は、前記携帯端末装置に表示される監視情報画面の一例を示す図である。図25は、前記携帯端末装置に表示されるナースコール受付画面の一例を示す図である。図26は、前記被監視者監視支援システムにおいて、前記管理サーバ装置に表示される、複数の画像ファイルの中から所望の作業者に対する画像を抽出した抽出結果を表示する抽出結果表示画面の一例を示す図である。図27は、前記被監視者監視支援システムにおいて、前記管理サーバ装置に表示される、複数の画像ファイルの中から所望の検知結果に対する画像を抽出した抽出結果を表示する抽出結果表示画面の他の一例を示す図である。
 上記構成の被監視者監視支援システムMSdでは、各装置SU、RDd、SVd、TAdは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。センサ装置SUでは、そのSU制御処理プログラムの実行によって、SU制御処理部44には、SU制御部441、生成部442、撮像制御部443、行動検知処理部444、ナースコール処理部445およびSUストリーミング処理部446が機能的に構成され、生成部442には、SU管理処理部4421および通知処理部4422が機能的に構成される。管理サーバ装置SVdでは、そのSV制御処理プログラムの実行によって、SV制御処理部22dには、SV制御部221、画像記憶処理部222dおよびSV監視処理部224が機能的に構成される。そして、携帯端末装置TAdでは、そのTA制御処理プログラムの実行によって、TA制御処理部32dには、TA制御部321、作業者ID情報出力処理部322、TA監視処理部324、通知処理部324およびTAストリーミング処理部326が機能的に構成される。
 そして、イベントの検知では、まず、図22において、センサ装置SUは、所定のイベントを検知すると(C311)、前記所定のイベントを通知するために、第1イベント通知通信信号を管理サーバ装置SVdへ送信する(C312)。
 より具体的には、センサ装置SUは、各フレームごとに、あるいは、数フレームおきに、次のように動作することで、被監視者Obにおける所定のイベントを検知し、第1イベント通知通信信号を管理サーバ装置SVdへ送信している。まず、センサ装置SUは、カメラ11から1フレーム分の画像(画像データ)を対象画像として取得し、この取得した対象画像に基づいて被監視者Obにおける所定の行動を検知し、前記所定の行動を検知すると、その検知結果を所定の携帯端末装置TAdへ通知するために、前記イベント情報として検知した前記所定の行動を収容した、前記所定の行動の検知にかかる第1イベント通知通信信号を、管理サーバ装置SVdへ送信する。このように動作している間に、センサ装置SUは、ナースコールを受け付けているか否かを判定し、ナースコールを受け付けると、そのナースコールの受付を所定の携帯端末装置TAdへ通知するために、センサ装置SUは、前記イベント情報として前記受け付けたナースコールを収容した、前記ナースコールの受付にかかる第1イベント通知通信信号を、管理サーバ装置SVdへ送信する。
 第1イベント通知通信信号をセンサ装置SUから受信すると、管理サーバ装置SVdは、SV制御処理部22dのSV監視処理部224によって、この受信した第1イベント通知通信信号に収容された、被監視者Obに対する監視に関する監視情報をSV監視情報記憶部234に記憶(記録)する。そして、管理サーバ装置SVdは、SV制御処理部22dの画像記憶処理部222dによって、前記受信した第1イベント通知通信信号に収容された各情報(各データ)に基づき、画像記憶部231に記憶されている検知イベント付き画像情報テーブルITに新たに生成したレコードにおける画像IDフィールド2311、イベント検知時刻フィールド2315、イベント種別フィールド2316、画像ファイル名フィールド2313および部屋名フィールド2317それぞれに、前記画像ID、前記イベント検知時刻、前記画像ファイル名および前記部屋名それぞれを登録する(C313)。
 続いて、管理サーバ装置SVdは、SV制御処理部22dのSV監視処理部224によって、前記受信した第1イベント通知通信信号に応じた第2イベント通知通信信号を生成し、この生成した第2イベント通知通信信号をSV通信IF部21で所定の携帯端末装置TAdへ送信する(C314)。
 第2イベント通知通信信号を管理サーバ装置SVdから受信すると、携帯端末装置TAdは、前記受信した第2イベント通知通信信号に収容された各情報(各データ)に基づき、被監視者Obの監視情報をTA記憶部33dに記憶(記録)し、前記受信した第2イベント通知通信信号に収容された各情報に応じた画面をTA表示部36に表示する(C315)。
 例えば、携帯端末装置TAdにログインすると、例えば図23に示す待受け画面51がTA表示部36に表示され、前記受信した第2イベント通知通信信号に収容された前記イベント情報が前記所定の行動である場合には、例えば図24に示す監視情報画面52がTA表示部36に表示され、一方、前記受信した第2イベント通知通信信号に収容された前記イベント情報が前記ナースコールである場合には、例えば図25に示すナースコール受付画面53がTA表示部36に表示される。
 この図23に示す例の待受け画面51は、メニューバーを表示するメニューバー領域511と、待ち受け中であることを表すメッセージ(例えば「通知はありません」)およびアイコンを表示する待受けメイン領域512と、現在時刻を表示する時刻領域513と、今日の年月日曜日を表示する年月日曜日領域514と、今、当該携帯端末装置TAaにログインしている監視者名を表示する監視者名領域515とを備える。
 この監視情報画面52は、被監視者Obの監視に関する前記監視情報を表示するための画面である。この図24に示す例の監視情報画面52は、メニューバー領域511と、前記受信した第2イベント通知通信信号に収容されたカメラIDを持つセンサ装置SUの配設場所および前記カメラIDを持つ前記センサ装置SUによって監視される被監視者Obの名前を表示する被監視者名領域521と、前記受信した第2イベント通知通信信号の受信時刻からの経過時間、および、前記受信した第2イベント通知通信信号に収容された前記イベント情報(前記所定の行動の検知結果)を表示する検知情報表示領域522と、前記受信した第2イベント通知通信信号に収容された画像(すなわち、前記カメラIDを持つ前記センサ装置SUによって撮像された対象画像)(ここでは静止画)を表示する画像領域523と、「対応する」ボタン524と、「話す」ボタン525と、「LIVEを見る」ボタン526とを備える。
 被監視者名領域521にセンサ装置SUの配設場所および被監視者Obの名前を表示するために、カメラID、センサ装置SUの配設場所および被監視者Obの名前を互いに対応付けた情報(センサ情報)がTA記憶部33dに記憶される。検知情報表示領域522には、前記受信した第2イベント通知通信信号に収容されたイベント情報(検知結果、本実施形態では、起床、離床、転倒および転落の各名称)がそのまま表示されても良いが、本実施形態では、前記検知結果を象徴的に表すアイコンで表示されている。このアイコンで表示するために、TA記憶部33dには、各行動およびその行動を象徴的に表すアイコンが互いに対応付けられて予め記憶される。図24に示す例では、検知情報表示領域522には、起床を象徴的に表す起床アイコンが表示されている。「対応する」ボタン524は、監視情報画面52では、この監視情報画面52に表示された検知結果に対し例えば救命、看護、介護および介助等の所定の対応(対処、処置、措置)を実施する意思が当該携帯端末装置TAdの作業者NSにある旨を、当該携帯端末装置TAdに入力するためのボタンである。「話す」ボタン525は、音声通話を要求するためのボタンであって、前記カメラIDの前記センサ装置SUと当該携帯端末装置TAdとをネットワークNWを介して通話可能に接続する指示を入力するためのボタンである。「LIVEを見る」ボタン526は、ライブでの動画を要求するためのボタンであって、前記カメラIDの前記センサ装置SUによって撮像される動画を表示させる指示を入力するためのボタンである。
 前記ナースコール受付画面53は、ナースコールの受付を表示するための画面である。この図25に示す例のナースコール受付画面53は、メニューバー領域511と、被監視者名領域521と、検知情報表示領域522と、ナースコールを受け付けた旨を表すメッセージ(例えば「ナースコールです」)を表示するナースコール受付通知表示領域531と、「対応する」ボタン524と、「話す」ボタン525とを備える。このナースコール受付画面53では、検知情報表示領域522には、前記受信した第2イベント通知通信信号の受信時刻からの経過時間のみが表示される。なお、ナースコール受付画面53は、「LIVEを見る」ボタン526をさらに備えても良い。
 そして、このような監視情報画面52やナースコール受付画面53の表示中に、携帯端末装置TAdは、TA制御処理部32dによって、入力操作を受け付けるまで繰り返し、TA入力部35およびTA表示部36を備えて成るタッチパネルで入力操作を受け付けたか否かを、判定する。入力操作を受け付けると、携帯端末装置TAdは、TA制御処理部32dによって、入力操作の内容に応じた適宜な処理を実行し、本処理を終了し、そして、待受け画面51をTA表示部36に表示し、次の自機宛の通信信号を待ち受ける。
 例えば、「対応する」ボタン524の入力操作を受け付けると、TA制御処理部32dは、自機の端末ID、TA表示部36に表示している被監視者Obの監視情報に対応するカメラID、イベント情報および「対応する」を受け付けた旨を表す情報(対応有意思情報)を収容した通信信号(対応有意思通知通信信号)を管理サーバ装置SVdへ送信する。この対応有意思通知通信信号を受信した管理サーバ装置SVdは、まず、SV制御処理部22dによって、SV監視情報記憶部234に対応有意思情報を記憶し、「対応する」を受け付けた旨を各携帯端末装置TAd間で同期するために、前記受信した対応有意思通知通信信号に収容されたカメラID、イベント情報および対応有意思情報を収容した通信信号(対応有意思周知通信信号)を同報通信で携帯端末装置TAdへ送信する。
 また例えば、「話す」ボタン525の入力操作を受け付けると、通話処理部325によって、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、音声通話を要求する旨等の情報を収容した通信信号(通話要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して音声通話可能に接続する。これによって携帯端末装置TAdとセンサ装置SUとの間で音声通話が可能となる。
 また例えば、「LIVEを見る」ボタン526の入力操作を受け付けると、TAストリーミング処理部326は、現在、TA表示部36に表示している被監視者Obを監視するセンサ装置SUへ、ライブでの動画の配信を要求する旨等の情報を収容した通信信号(動画配信要求通信信号)を送信し、これに応じたセンサ装置SUとネットワークNWを介して動画のダウンロード可能に接続し、前記センサ装置SUからライブでの動画の配信を受け、この配信を受けた動画をストリーミング再生でTA表示部36に表示する。
 なお、これら通話中やストリーミング再生中では、図略の「終了」ボタンが表示され、この「終了」ボタンの入力操作によって、通話やストリーミング再生が終了される。
 被監視者監視支援システムMSdは、前記所定のイベントの通知に関し、このように動作し、イベントの検知ごとに、前記監視情報がSV監視情報記憶部234に蓄積されて行き、画像記憶部231dの検知イベント付き画像情報テーブルITにレコードが追加されて各情報が登録され、検知イベント付き画像情報テーブルITが更新されて行く。
 図22に戻って、一方、前記撮像対象の領域に対する作業者NSの入退場に応じた画像の蓄積では、例えばセンサ装置SUによる管理サーバ装置SVdを介した所定のイベントの通知によって、作業者NS-1は、被監視者Ob-1の居室RM-1(監視領域)に入室(入場)する際に、その携行している携帯端末装置TAd-1を、前記居室RM-1に対応して設けられたID装置RDd-1に近接させ、作業者ID(第1特定情報)を読み取らせる読み取り操作を行う(C321)。なお、第1実施形態と同様に、一例として、その当初では、例えばログイン操作の際に、作業者NS-1が携帯する携帯端末装置TAd-1には、作業者ID;「ID-NA」が入力され、作業者ID;「ID-NA」が予め記憶されているものとする。そして、居室RM-1には、作業者NSが在室せず、SU入出状況情報記憶部461に記憶されている、CU入出状況情報テーブルMTaと同様な図略のSU入出状況情報テーブルMTdには、作業者IDが登録(記憶)されていないものとする。
 これに応じて図22に示す処理C322、処理C323、処理C324、処理C325、処理C326および処理C327が、順次に、図6に示す上述の処理C12、処理C13、処理C14、処理C15、処理C16および処理C17と同様に実行される。このため、ここでは、これら処理C322、処理C323、処理C324、処理C325、処理C326および処理C327の各処理の説明を省略する。
 そして、例えば被監視者Obに生じた前記イベントに対する対処が終了すると、前記居室RM-1に在室している作業者NS-1は、退出する際に、その携行している携帯端末装置TAd-1を、前記居室RM-1に対応して設けられたID装置RDd-1に近接させ、作業者ID;「ID-NA」を読み取らせる読み取り操作を行う(C331)。
 これに応じて図22に示す処理C332、処理C333、処理C334、処理C335および処理C336が、順次に、図6に示す上述の処理C22、処理C23、処理C24、処理C25および処理C26と同様に実行される。このため、ここでは、これら処理C332、処理C333、処理C334、処理C335および処理C336の各処理の説明を省略する。
 センサ装置SUから前記画像の通知を受けると(センサ装置SUから画像通知通信信号を受信すると)、管理サーバ装置SVdは、SV制御処理部22dの画像記憶処理部222dによって、前記センサ装置SUからの画像を、前記第1特定情報としての作業者IDおよび直近にセンサ装置SUで検知したイベントに紐付けて画像記憶部231aに記憶する(C27)。
 より具体的には、画像記憶処理部222dは、前記受信した画像通知通信信号に収容された画像を、画像ファイル名を付して画像記憶部231dに記憶する。次に、画像記憶処理部222dは、SV記憶部23dに一時的に仮に記憶されている各紐付け情報の各カメラIDの中から、前記受信した画像通知通信信号に収容されたカメラIDと一致するカメラIDを選定(検索)し、この選定したカメラIDを持つ紐付け情報における作業者IDおよび前記撮像開始時刻と、前記受信した画像通知通信信号に収容された前記画像(前記画像ファイル名)および前記撮像終了時刻と、を紐付ける。次に、画像記憶処理部222dは、この紐付けた1組の前記作業者ID、前記撮像開始時刻、前記画像ファイル名および前記撮像終了時刻に対し、シリアル番号を画像IDとして割り振る。次に、画像記憶処理部222dは、前記受信した画像通知通信信号に収容されたカメラIDを部屋名に変換し(カメラIDが部屋名である場合、この変換処理は省略できる)、画像記憶部231dに記憶された検知イベント付き画像情報テーブルITから、前記必要に応じて変換した部屋名(すなわち、前記受信した画像通知通信信号に収容されたカメラID)と同一の部屋名(カメラID)を、部屋名フィールド2317に登録し、かつ、前記受信した画像通知通信信号に収容された撮像終了時刻に最も時間的に近い時刻を、イベント検知時刻フィールド2315に登録するレコードを選定(検索)し、この選定したレコードにおけるイベント種別フィールド2316に登録されているイベント情報を抽出し、この抽出したイベント情報を、前記紐付けた1組の前記作業者ID、前記撮像開始時刻、前記画像ファイル名および前記撮像終了時刻にさらに紐付ける。そして、画像記憶処理部222dは、画像記憶部231dに記憶されている検知イベント付き画像情報テーブルITに新たなレコードを生成し、この生成したレコードにおける画像IDフィールド2311、イベント種別フィールド2316、開始時刻サブフィールド23121、終了時刻サブフィールド23122、画像ファイル名フィールド2313および作業者IDフィールド2314それぞれに、前記画像ID、前記抽出したイベント情報、前記撮像開始時刻(前記紐付け情報通知通信信号に収容された時刻)、前記撮像終了時刻(前記画像通知通信信号に収容された時刻)、画像ファイル名および作業者IDそれぞれを登録する。そして、画像記憶処理部222dは、SV記憶部23dに一時的に仮に記憶されている前記紐付け情報および前記撮像開始時刻を消去(削除)する。なお、この新たなレコードにおける部屋名フィールド2317に部屋名が登録されても良い。
 なお、上述では、直近のイベント情報のみを紐付けたが、前記受信した画像通知通信信号より所定時間以内前(例えば5分以内前や10分以内前)に受信した全ての第1イベント通知通信信号に収容されたイベント情報が紐付けられても良い。
 このような動作によって、被監視者監視支援システムMSdは、各居室RM-1~RM-3に配置された各センサ装置SU-1~SU-3から各画像を収集し、各画像に作業者IDおよびイベントを紐付けて記憶(記録)する。
 そして、所望(目的)の作業者NSに対する画像を抽出する場合には、例えば前記作業者NSの上司等のオペレータは、SV入力部24から検索キーとして前記所望の作業者NSに対応する作業者IDを入力し、検索開始の指示を入力する。
 管理サーバ装置SVdは、検索キーの作業者IDと検索開始の指示を受け付けると、SV制御処理部22dによって、画像記憶部231dに記憶されている各画像の中から、前記検索キーの作業者IDを持つ画像を検索し、SV出力部25に出力する。より具体的には、検索キーの作業者ID;「ID-NA」を受け付けると、SV制御処理部22dは、画像記憶部231dに記憶されている検知イベント付き画像情報テーブルITの作業者IDフィールド2314に、前記受け付けた作業者ID;「ID-NA」を登録するレコードを抽出し、この抽出したレコードにおける各フィールド2311、2315、2316、2312(23121、23122)、2313、2317、2314に登録されている画像ID、イベント検知時刻、イベント情報、記録時刻(撮像開始時刻、撮像終了時刻)、画像ファイル名、部屋名および作業者IDを取り出し、この取り出した画像ID、イベント検知時刻、イベント情報、記録時刻(撮像開始時刻、撮像終了時刻)、画像ファイル名、部屋名および作業者IDを、例えば、図26に示すように、一覧表形式でSV出力部25に表示する。この図26に示す一例の抽出結果表示画面62aは、前記取り出した画像IDを表示する画像ID表示欄621と、前記取り出したイベント検知時刻を表示するイベント検知時刻表示欄622と、前記取り出したイベント情報を表示するイベント種別表示欄623と、前記取り出した記録時刻を表示する記録時刻表示欄624と、前記取り出した画像ファイル名を表示する画像ファイル名表示欄625と、前記取り出した部屋名を表示する部屋名表示欄626と、前記取り出した作業者IDを表示する作業者ID表示欄627とを備え、前記抽出したレコードの個数に応じた個数の表示行を持つ。記録時刻表示欄624は、前記取り出した撮像開始時刻および撮像終了時刻それぞれを表示する開始時刻表示欄6241および終了時刻表示欄6242を備える。そして、画像ファイル名表示欄625に表示された画像ファイル名をSV入力部24から入力操作すると(例えばマウスによってカーソルを画像ファイル名に合わせ、左クリックすると)、SV制御処理部22dは、この入力操作された画像ファイル名を持つ画像を画像記憶部231dから取り出し、この取り出した画像をSV出力部25に再生表示する。これによって前記オペレータは、所望の作業者NSに対する画像を参照できる。
 そして、第4実施形態では、画像は、イベント情報にも紐付けられているので、イベントの種別に検索することもできる。この場合では、前記オペレータは、SV入力部24から検索キーとして前記所望のイベント情報(本実施形態では起床、離床、転倒、転落およびナースコールのうちの1または複数)を入力し、検索開始の指示を入力する。
 管理サーバ装置SVdは、検索キーのイベント情報と検索開始の指示を受け付けると、SV制御処理部22dによって、画像記憶部231dに記憶されている各画像の中から、前記検索キーのイベント情報を持つ画像を検索し、SV出力部25に出力する。より具体的には、検索キーのイベント情報;「転倒」を受け付けると、SV制御処理部22dは、画像記憶部231dに記憶されている検知イベント付き画像情報テーブルITのイベント種別フィールド2316に、前記受け付けたイベント情報;「転倒」を登録するレコードを抽出し、この抽出したレコードにおける各フィールド2311、2315、2316、2312(23121、23122)、2313、2317、2314に登録されている画像ID、イベント検知時刻、イベント情報、記録時刻(撮像開始時刻、撮像終了時刻)、画像ファイル名、部屋名および作業者IDを取り出し、この取り出した画像ID、イベント検知時刻、イベント情報、記録時刻(撮像開始時刻、撮像終了時刻)、画像ファイル名、部屋名および作業者IDを、例えば、図27に示すように、一覧表形式でSV出力部25に表示する。この図27には、図26と同様の各表示欄621~627を持つ他の一例の抽出結果表示画面62bが示されている。そして、画像ファイル名表示欄625に表示された画像ファイル名をSV入力部24から入力操作すると、SV制御処理部22dは、この入力操作された画像ファイル名を持つ画像を画像記憶部231dから取り出し、この取り出した画像をSV出力部25に再生表示する。これによって前記オペレータは、所望のイベントの種別に対する、作業者ID表示欄627に表示されている作業者IDを持つ作業者NSの画像を参照できる。
 以上説明したように、第4実施形態における、画像記録システムを組み込んだ被監視者監視支援システムMSdは、第1実施形態と同様の作用効果を奏する(第2実施形態をベースとする場合には、第2実施形態と同様の作用効果を奏する、第3実施形態をベースとする場合には、第3実施形態と同様の作用効果を奏する)。
 上記被監視者監視支援システムMSdは、さらに、前記画像を、前記第1特定情報(本実施形態では作業者ID)およびセンサ装置SUから直近に受信した検知結果に紐付けて画像記憶部231dに記憶する。このため、上記被監視者監視支援システムMSdは、所望(目的)の作業者に対する画像をより簡単に抽出できるだけでなく、検知結果の種別ごとにも画像をより簡単に抽出できる。このため、作業者の上司は、前記検知結果の種別ごとに、作業者NSに対する画像を参照することで、前記作業者NSにおける仕事に対する手際や適切さや丁寧さ等を前記検知結果の種別ごとに把握でき、前記検知結果の種別ごとに前記作業者NSの実態を把握した上で、前記作業者NSを指導できる。前記上司は、前記検知結果の種別で画像を抽出できるので、複数の作業者NS間で、仕事に対する手際や適切さや丁寧さ等を比較することもできる。前記上司は、前記検知結果の種別で画像を抽出できるので、作業者NSが種別に応じた手順で対処しているか否かも確認できる。
 本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。
 一態様にかかる画像記録システムは、所定の撮像対象に対応して設けられ、前記撮像対象を撮像して画像を生成する撮像部と、前記撮像部で生成された画像を記憶する画像記憶部と、前記撮像部で生成された画像を前記画像記憶部に記憶させる画像記憶処理部と、所定の作業者が撮像対象の領域に入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る読取部と、前記第1および第2特定情報のうちの他方の特定情報を予め持ち、前記読取部によって前記一方の特定情報を読み取った場合に、前記他方の特定情報と前記読取部で読み取った前記一方の特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を前記画像記憶処理部へ出力する生成部とを備え、前記撮像部は、予め自機の第2特定情報を持ち、前記生成した画像を前記自機の第2特定情報と共に前記画像記憶処理部へ出力し、前記画像記憶処理部は、前記撮像部からの前記第2特定情報および前記生成部からの前記紐付け情報に基づいて、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第1特定情報を記憶するICカード(RFタグ)または磁気カードから前記第1特定情報を読み取り、前記読み取った前記第1特定情報を有線通信または無線通信で前記生成部へ通知するカードリーダである。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第1特定情報を表す1次元コード(バーコード)または2次元コードから前記第1特定情報を読み取り、前記読み取った前記第1特定情報を有線通信または無線通信で前記生成部へ通知するコードリーダである。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第1特定情報を記憶する携帯電話装置、スマートフォンまたはタブレット端末装置から無線通信で前記第1特定情報を読み取り、前記読み取った前記第1特定情報を有線通信または無線通信で前記生成部へ通知するリーダである。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第1特定情報を記憶する携帯電話装置、スマートフォンまたはタブレット端末装置から無線通信で前記第1特定情報を読み取り、前記読み取った前記第1特定情報を有線通信または無線通信で前記生成部へ通知するタブレット端末装置である。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第2特定情報を表す1次元コード(バーコード)または2次元コードから前記第2特定情報を読み取るコードリーダの機能を備える携帯電話装置、スマートフォンまたはタブレット端末装置であり、前記携帯電話装置、スマートフォンまたはタブレット端末装置は、前記生成部をさらに備え、前記生成部は、前記機能で読み取った前記第2特定情報と予め持っている前記第1特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を無線通信で前記画像記憶処理部へ出力する。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第2特定情報を記憶するICカード(RFタグ)または磁気カードから前記第2特定情報を読み取るカードリーダの機能を備える携帯電話装置、スマートフォンまたはタブレット端末装置であり、前記携帯電話装置、スマートフォンまたはタブレット端末装置は、前記生成部をさらに備え、前記生成部は、前記機能で読み取った前記第2特定情報と予め持っている前記第1特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を無線通信で前記画像記憶処理部へ出力する。好ましくは、上述の画像記録システムにおいて、前記読取部は、前記第2特定情報を記憶するタブレット端末装置から無線通信で前記第2特定情報を読み取る携帯電話装置、スマートフォンまたはタブレット端末装置であり、前記携帯電話装置、スマートフォンまたはタブレット端末装置は、前記生成部をさらに備え、前記生成部は、前記読み取った前記第2特定情報と予め持っている前記第1特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を無線通信で前記画像記憶処理部へ出力する。好ましくは、上述の画像記録システムにおいて、前記生成部は、前記読取部で読み取った前記一方の特定情報を管理する管理部と、前記管理部で管理されている前記一方の特定情報が有る場合に、前記紐付け情報を生成し、前記生成した紐付け情報を前記画像記憶処理部へ出力する通知部とを備える。
 このような画像記録システムは、所定の作業者が撮像対象の領域に入場すると、前記第1および第2特定情報のうちの一方の特定情報を読み取って他方の特定情報に紐付けることによって前記第1および第2特定情報を互いに紐付けた紐付け情報を生成し、一方、前記撮像部から画像とその第2特定情報とを得る。そして、上記画像記録システムは、前記撮像部からの前記第2特定情報および前記生成部からの前記紐付け情報に基づいて、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する。すなわち、上記画像記録システムは、前記生成部からの前記紐付け情報から、前記撮像部からの前記第2特定情報に対応する前記第1特定情報を得て、この得られた前記第1特定情報に前記撮像部からの画像を紐付けて前記画像記憶部に記憶する。したがって、上記画像記録システムは、前記画像に紐付けられた前記第1特定情報を参照することで、所望(目的)の作業者に対する画像をより簡単に抽出できる。このため、作業者の上司は、前記作業者に対する画像を参照することで、前記作業者における仕事に対する手際や適切さや丁寧さ等を把握でき、前記作業者の実態を把握した上で、前記作業者を指導できる。
 他の一態様では、上述の画像記録システムにおいて、前記読取部は、さらに、前記作業者が前記撮像対象の領域から退場する場合に、前記第1および第2特定情報のうちの一方の特定情報を読み取り、前記読取部で読み取った前記一方の特定情報を管理し、既に管理している前記一方の特定情報が前記読取部でさらに読み取った場合に、前記既に管理している前記一方の特定情報の管理を解除する管理部と、前記管理部で管理されている前記一方の特定情報が有る場合に、撮像開始の指示を前記撮像部へ出力し、前記管理部で管理されている前記一方の特定情報が無くなった場合に、撮像終了の指示を前記撮像部へ出力する撮像制御部とをさらに備え、前記撮像部は、前記撮像制御部から前記撮像開始の指示を受けると、撮像を開始し、前記撮像制御部から前記撮像終了の指示を受けると、撮像を終了する。
 このような画像記録システムは、管理下の前記一方の特定情報が有る場合に、撮像開始の指示を前記撮像部へ出力し、管理下の前記一方の特定情報が無くなった場合に、撮像終了の指示を前記撮像部へ出力する。すなわち、上記画像記録システムは、前記撮像対象の領域に対し、作業者が入場すると前記撮像開始を指示し、少なくとも1人の作業者が所在している間、撮像を継続し、そして、作業者が退場すると、前記撮像終了を指示する。このため、上記画像記録システムは、少なくとも1人の作業者が前記撮像対象の領域内に所在する間の画像を画像記憶部に記憶でき、作業者の所在に無関係に連続的に撮像する場合(例えば24時間撮像)に較べて、画像のデータ容量を低減できる。前記作業者の上司も、速やかに前記作業者の仕事の様子を観察できる。
 他の一態様では、これら上述の画像記録システムにおいて、前記撮像対象に対応して設けられ、前記撮像対象の領域に対する入場の有無を検知する入場検知部をさらに備え、前記生成部は、さらに、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入場検知部で入場有りを検知した場合に、前記紐付き情報を前記画像記憶処理部へ出力する。好ましくは、上述の画像記録システムにおいて、前記入場検知部は、前記撮像対象の領域の境界に配置され、前記撮像対象の領域を検知領域とする赤外線型人感センサと、前記赤外線型人感センサの検知結果に応じて前記撮像対象の領域内への入場の有無を判定する入場判定部とを備える。
 撮像対象の領域に来たものの、状況の変化によって他の場所に向かう必要が生じた等のために、作業者は、前記読取部に前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に入場しない場合も有り得る。上記画像記録システムは、入場検知部をさらに備え、前記入場検知部で入場有りを検知した場合に、前記紐付き情報を前記画像記憶処理部へ出力する。すなわち、前記生成部は、前記読取部で前記一方の特定情報を読み取った場合であって、かつ、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入場検知部で入場有りを検知した場合に、前記紐付き情報を前記画像記憶処理部へ出力する。このため、作業者が読取部に前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に対し入場しなかった場合、前記紐付き情報が前記画像記憶処理部へ出力されない。したがって、上記画像記録システムは、前記撮像部からの画像に、前記第1特定情報を、より適切に紐付けられる。
 他の一態様では、上述の画像記録システムにおいて、前記撮像対象に対応して設けられ、前記撮像対象の領域に対する入退場の有無を検知する入退場検知部をさらに備え、前記撮像制御部は、さらに、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入退場検知部で入場有りを検知した場合に、前記撮像開始の指示を前記撮像部へ出力し、さらに、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入退場検知部で退場有りを検知した場合に、前記撮像終了の指示を前記撮像部へ出力する。好ましくは、上述の画像記録システムにおいて、前記入退場検知部は、前記撮像対象の領域の境界に、所定の高さ位置に入退場方向に沿って並置するように配設された複数の発光部と、前記複数の発光部から前記入退場方向と直交する直交方向で所定の幅(例えば人幅以上の長さ等)で離間するように、かつ、前記複数の発光部それぞれから発光された各光をそれぞれ受光するように配設された複数の受光部と、前記複数の受光部それぞれの各受光結果に応じて前記撮像対象の領域に対する入退場の有無を判定する入退場判定部とを備える。
 上述のように、作業者は、前記読取部に前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に入場しない場合も有り得る。一方、所定の作業が終了したと考えて、前記作業者は、前記読取部に前記一方の特定情報を読み取らせたものの、前記作業のやり残しに気づき、当該撮像対象の領域から退場しない場合も有り得る。上記画像記録システムは、入退場検知部をさらに備え、前記入退場検知部で入場有りを検知した場合に、前記撮像開始の指示を前記撮像部へ出力し、前記入退場検知部で退場有りを検知した場合に、前記撮像終了の指示を前記撮像部へ出力する。すなわち、前記撮像制御部は、前記読取部で前記一方の特定情報を読み取った場合であって、かつ、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入退場検知部で入場有りを検知した場合に、前記撮像開始の指示を前記撮像部へ出力し、再度、前記読取部で前記一方の特定情報を読み取った場合であって、かつ、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入退場検知部で退場有りを検知した場合に、前記撮像終了の指示を前記撮像部へ出力する。このため、作業者が読取部に前記一方の特定情報を読み取らせたものの、当該撮像対象の領域に対し入退場しなかった場合、前記撮像開始の指示や前記撮像終了の指示が行われない。したがって、上記画像記録システムは、より適切に、作業者の入退場に応じて画像を記憶(記録)できる。
 他の一態様にかかる画像記録方法は、所定の撮像対象に対応して設けられる撮像部で、前記撮像対象を撮像して画像を生成する撮像工程と、前記撮像工程で生成された画像を画像記憶部に記憶させる画像記憶処理工程と、所定の作業者が撮像対象の領域に対し入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る読取工程と、前記第1および第2特定情報のうちの他方の特定情報を予め持つ生成部で、前記他方の特定情報と前記読取工程で読み取った前記一方の特定情報とを互いに紐付けた紐付け情報を生成する生成工程とを備え、前記撮像部は、予め自機の第2特定情報を持ち、前記画像記憶処理工程は、前記撮像部によって前記撮像工程で生成された画像を、前記撮像部の前記第2特定情報および前記生成部によって前記生成工程で生成された前記紐付け情報に基づく前記第1特定情報に紐付けて前記画像記憶部に記憶する。
 このような画像記録方法は、所定の作業者が撮像対象の領域に入場すると、前記第1および第2特定情報のうちの一方の特定情報を読み取って他方の特定情報に紐付けることによって前記第1および第2特定情報を互いに紐付けた紐付け情報を生成し、一方、前記撮像部から画像とその第2特定情報とを得る。そして、上記画像記録方法は、前記撮像部からの前記第2特定情報および前記生成部からの前記紐付け情報に基づいて、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する。すなわち、上記画像記録方法は、前記生成部からの前記紐付け情報から、前記撮像部からの前記第2特定情報に対応する前記第1特定情報を得て、この得られた前記第1特定情報に前記撮像部からの画像を紐付けて前記画像記憶部に記憶する。したがって、上記画像記録方法は、前記画像に紐付けられた前記第1特定情報を参照することで、所望(目的)の作業者に対する画像をより簡単に抽出できる。このため、作業者の上司は、前記作業者に対する画像を参照することで、前記作業者における仕事に対する手際や適切さや丁寧さ等を把握でき、前記作業者の実態を把握した上で、前記作業者を指導できる。
 他の一態様にかかる被監視者監視支援システムは、監視領域に対応して設けられ、前記監視領域に所在する被監視者に関わる所定のイベントを検知するセンサ装置、前記センサ装置と通信可能に接続され前記センサ装置から受信した検知結果を管理する中央管理装置、および、前記中央管理装置と通信可能に接続され前記中央管理装置を介して前記検知結果を受信して表示する端末装置を備え、前記被監視者の監視を支援する被監視者監視支援システムであって、さらに、前記監視領域を前記撮像対象の領域とした、これら上述のいずれかの画像記録システムを備え、前記中央管理装置は、前記画像記憶部と、前記画像記憶処理部とを備え、前記画像記憶処理部は、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する際に、前記センサ装置から直近に受信した検知結果をさらに前記撮像部からの画像に紐付ける。好ましくは、上述の被監視者監視支援システムにおいて、前記センサ装置は、前記撮像部と、前記生成部とを備え、前記端末装置は、前記読取部で読み取り可能に前記第1特定情報を記憶する。好ましくは、上述の被監視者監視支援システムにおいて、前記センサ装置は、前記撮像部を備え、前記端末装置は、前記読取部と、前記生成部とを備える。好ましくは、上述の被監視者監視支援システムにおいて、前記所定のイベントは、前記被監視者における所定の行動を含む。好ましくは、前記所定の行動は、起床、離床、転倒および転落のうちの少なくとも1つを含む。好ましくは、上述の被監視者監視支援システムにおいて、前記所定のイベントは、ナースコールを含む。
 このような被監視者監視支援システムは、さらに、これら上述のいずれかの画像記録システムを備え、前記撮像部からの画像を、前記第1特定情報および前記センサ装置から直近に受信した検知結果に紐付けて前記画像記憶部に記憶する。このため、上記被監視者監視支援システムは、所望(目的)の作業者に対する画像をより簡単に抽出できるだけでなく、検知結果の種別ごとにも画像をより簡単に抽出できる。このため、作業者の上司は、前記検知結果の種別ごとに、前記作業者に対する画像を参照することで、前記作業者における仕事に対する手際や適切さや丁寧さ等を前記検知結果の種別ごとに把握でき、前記検知結果の種別ごとに前記作業者の実態を把握した上で、前記作業者を指導できる。前記上司は、前記検知結果の種別で画像を抽出できるので、複数の作業者間で、仕事に対する手際や適切さや丁寧さ等を比較することもできる。前記上司は、前記検知結果の種別で画像を抽出できるので、作業者が種別に応じた手順で対処しているか否かも確認できる。
 この出願は、2018年1月19日に出願された日本国特許出願特願2018-6948を基礎とするものであり、その内容は、本願に含まれるものである。
 本発明の実施形態が詳細に図示され、かつ、説明されたが、それは単なる図例及び実例であって限定ではない。本発明の範囲は、添付されたクレームの文言によって解釈されるべきである。
 本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
 本発明によれば、画像を記録する画像記録システムおよび画像記録方法、ならびに、前記画像記録システムを備え、監視対象である被監視者の監視を支援する被監視者監視支援システムが提供できる。

Claims (6)

  1.  所定の撮像対象に対応して設けられ、前記撮像対象を撮像して画像を生成する撮像部と、
     前記撮像部で生成された画像を記憶する画像記憶部と、
     前記撮像部で生成された画像を前記画像記憶部に記憶させる画像記憶処理部と、
     所定の作業者が撮像対象の領域に入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る読取部と、
     前記第1および第2特定情報のうちの他方の特定情報を予め持ち、前記読取部によって前記一方の特定情報を読み取った場合に、前記他方の特定情報と前記読取部で読み取った前記一方の特定情報とを互いに紐付けた紐付け情報を生成し、前記生成した紐付け情報を前記画像記憶処理部へ出力する生成部とを備え、
     前記撮像部は、予め自機の第2特定情報を持ち、前記生成した画像を前記自機の第2特定情報と共に前記画像記憶処理部へ出力し、
     前記画像記憶処理部は、前記撮像部からの前記第2特定情報および前記生成部からの前記紐付け情報に基づいて、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する、
     画像記録システム。
  2.  前記読取部は、さらに、前記作業者が前記撮像対象の領域から退場する場合に、前記第1および第2特定情報のうちの一方の特定情報を読み取り、
     前記読取部で読み取った前記一方の特定情報を管理し、既に管理している前記一方の特定情報が前記読取部でさらに読み取った場合に、前記既に管理している前記一方の特定情報の管理を解除する管理部と、
     前記管理部で管理されている前記一方の特定情報が有る場合に、撮像開始の指示を前記撮像部へ出力し、前記管理部で管理されている前記一方の特定情報が無くなった場合に、撮像終了の指示を前記撮像部へ出力する撮像制御部とをさらに備え、
     前記撮像部は、前記撮像制御部から前記撮像開始の指示を受けると、撮像を開始し、前記撮像制御部から前記撮像終了の指示を受けると、撮像を終了する、
     請求項1に記載の画像記録システム。
  3.  前記撮像対象に対応して設けられ、前記撮像対象の領域に対する入場の有無を検知する入場検知部をさらに備え、
     前記生成部は、さらに、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入場検知部で入場有りを検知した場合に、前記紐付き情報を前記画像記憶処理部へ出力する、
     請求項1または請求項2に記載の画像記録システム。
  4.  前記撮像対象に対応して設けられ、前記撮像対象の領域に対する入退場の有無を検知する入退場検知部をさらに備え、
     前記撮像制御部は、さらに、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入退場検知部で入場有りを検知した場合に、前記撮像開始の指示を前記撮像部へ出力し、さらに、前記作業者が入る撮像対象の領域における当該撮像対象に対応する前記入退場検知部で退場有りを検知した場合に、前記撮像終了の指示を前記撮像部へ出力する、
     請求項2に記載の画像記録システム。
  5.  所定の撮像対象に対応して設けられる撮像部で、前記撮像対象を撮像して画像を生成する撮像工程と、
     前記撮像工程で生成された画像を画像記憶部に記憶させる画像記憶処理工程と、
     所定の作業者が撮像対象の領域に対し入場する場合に、前記作業者を特定する第1特定情報および前記撮像対象に対応する撮像部を特定する第2特定情報のうちの一方の特定情報を読み取る読取工程と、
     前記第1および第2特定情報のうちの他方の特定情報を予め持つ生成部で、前記他方の特定情報と前記読取工程で読み取った前記一方の特定情報とを互いに紐付けた紐付け情報を生成する生成工程とを備え、
     前記撮像部は、予め自機の第2特定情報を持ち、
     前記画像記憶処理工程は、前記撮像部によって前記撮像工程で生成された画像を、前記撮像部の前記第2特定情報および前記生成部によって前記生成工程で生成された前記紐付け情報に基づく前記第1特定情報に紐付けて前記画像記憶部に記憶する、
     画像記録方法。
  6.  監視領域に対応して設けられ、前記監視領域に所在する被監視者に関わる所定のイベントを検知するセンサ装置、前記センサ装置と通信可能に接続され前記センサ装置から受信した検知結果を管理する中央管理装置、および、前記中央管理装置と通信可能に接続され前記中央管理装置を介して前記検知結果を受信して表示する端末装置を備え、前記被監視者の監視を支援する被監視者監視支援システムであって、
     さらに、前記監視領域を前記撮像対象の領域とした請求項1ないし請求項4のいずれか1項に記載の画像記録システムを備え、
     前記中央管理装置は、前記画像記憶部と、前記画像記憶処理部とを備え、
     前記画像記憶処理部は、前記撮像部からの画像を前記第1特定情報に紐付けて前記画像記憶部に記憶する際に、前記センサ装置から直近に受信した検知結果をさらに前記撮像部からの画像に紐付ける、
     被監視者監視支援システム。
PCT/JP2018/041040 2018-01-19 2018-11-05 画像記録システムおよび該方法ならびに被監視者監視支援システム WO2019142449A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019565728A JP7167946B2 (ja) 2018-01-19 2018-11-05 画像記録システムおよび該方法ならびに被監視者監視支援システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018006948 2018-01-19
JP2018-006948 2018-01-19

Publications (1)

Publication Number Publication Date
WO2019142449A1 true WO2019142449A1 (ja) 2019-07-25

Family

ID=67302099

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/041040 WO2019142449A1 (ja) 2018-01-19 2018-11-05 画像記録システムおよび該方法ならびに被監視者監視支援システム

Country Status (2)

Country Link
JP (1) JP7167946B2 (ja)
WO (1) WO2019142449A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071242A (ja) * 2006-09-15 2008-03-27 Sekisui Chem Co Ltd 施工現場管理システム
JP2015070384A (ja) * 2013-09-27 2015-04-13 アイホン株式会社 ナースコールシステム
JP2016015709A (ja) * 2014-06-12 2016-01-28 パナソニックIpマネジメント株式会社 作業員管理素子、作業員管理システム及び作業着
JP2017148504A (ja) * 2016-02-24 2017-08-31 コニカミノルタ株式会社 被監視者監視装置、該方法および該システム
WO2017145832A1 (ja) * 2016-02-24 2017-08-31 コニカミノルタ株式会社 被監視者監視装置、該方法および該システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071242A (ja) * 2006-09-15 2008-03-27 Sekisui Chem Co Ltd 施工現場管理システム
JP2015070384A (ja) * 2013-09-27 2015-04-13 アイホン株式会社 ナースコールシステム
JP2016015709A (ja) * 2014-06-12 2016-01-28 パナソニックIpマネジメント株式会社 作業員管理素子、作業員管理システム及び作業着
JP2017148504A (ja) * 2016-02-24 2017-08-31 コニカミノルタ株式会社 被監視者監視装置、該方法および該システム
WO2017145832A1 (ja) * 2016-02-24 2017-08-31 コニカミノルタ株式会社 被監視者監視装置、該方法および該システム

Also Published As

Publication number Publication date
JP7167946B2 (ja) 2022-11-09
JPWO2019142449A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
JP6988798B2 (ja) 見守りシステム
JP6150028B1 (ja) 被監視者監視システムの表示装置および表示方法ならびに被監視者監視システム
JPWO2017082037A1 (ja) 被監視者監視システムの中央処理装置および該方法ならびに前記被監視者監視システム
JP6798495B2 (ja) センサ装置及び介護支援システム
JP6696606B2 (ja) 介護支援システム、介護支援方法及びプログラム
WO2018230104A1 (ja) 被監視者監視支援システムの中央処理装置および中央処理方法ならびに被監視者監視支援システム
JP6950681B2 (ja) 見守りシステム
WO2019142449A1 (ja) 画像記録システムおよび該方法ならびに被監視者監視支援システム
JP6150025B1 (ja) 被監視者監視システムの表示装置および表示方法ならびに被監視者監視システム
WO2017179605A1 (ja) 見守りシステム及び管理サーバ
JP7120255B2 (ja) 被監視者監視支援システムおよび該方法
JP7425413B2 (ja) 被監視者監視支援装置、被監視者監視支援方法、被監視者監視支援システムおよび被監視者監視支援サーバ装置
WO2020100461A1 (ja) 被監視者監視支援システムのセンサ装置、監視画像保存方法および被監視者監視支援システム
JP6292363B2 (ja) 端末装置および端末装置の表示方法ならびに被監視者監視システム
JP2017151675A (ja) 被監視者監視システムの中央処理装置および中央処理方法、ならびに、前記被監視者監視システム
JP6172424B1 (ja) 端末装置および端末装置の制御方法ならびに被監視者監視システム
JP7264066B2 (ja) 被監視者監視支援システム
JP6135832B1 (ja) 被監視者監視システム、被監視者監視システムの作動方法および被監視者監視システムの中央処理装置
JP7247898B2 (ja) 被監視者監視システム
WO2017188156A1 (ja) 被監視者監視システムの端末装置および端末装置の制御方法ならびに被監視者監視システム
WO2017141629A1 (ja) 端末装置および端末装置の表示方法、センサ装置ならびに被監視者監視システム
JP2020188487A (ja) 中央処理装置、被監視者監視方法および被監視者監視システム
WO2017130684A1 (ja) 被監視者監視装置、該方法および該システム
JPWO2019008890A1 (ja) 被監視者監視支援システムの中央処理装置および該方法ならびに被監視者監視支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18900639

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019565728

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18900639

Country of ref document: EP

Kind code of ref document: A1