WO2021210657A1 - 表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体 - Google Patents

表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2021210657A1
WO2021210657A1 PCT/JP2021/015644 JP2021015644W WO2021210657A1 WO 2021210657 A1 WO2021210657 A1 WO 2021210657A1 JP 2021015644 W JP2021015644 W JP 2021015644W WO 2021210657 A1 WO2021210657 A1 WO 2021210657A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
target
output
display control
target video
Prior art date
Application number
PCT/JP2021/015644
Other languages
English (en)
French (fr)
Inventor
剣 程
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/917,287 priority Critical patent/US20230185850A1/en
Priority to JP2022515441A priority patent/JPWO2021210657A5/ja
Publication of WO2021210657A1 publication Critical patent/WO2021210657A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present disclosure relates to a display control device, a monitoring support system, a display control method, and a non-temporary computer-readable medium.
  • surveillance cameras have been used to monitor buildings and facilities.
  • Surveillance cameras are installed in a variety of locations, from large facilities used by the general public to public facilities, offices and unpopular warehouses, and private residences. Monitoring by such a surveillance camera is performed by displaying an image captured by the surveillance camera on a monitor.
  • Patent Document 1 describes a monitoring device that automatically switches images of a plurality of surveillance cameras and displays them on a monitor, and interrupts and displays images of surveillance cameras corresponding to the alarm signals on the monitor in response to the occurrence of an alarm signal.
  • Patent Document 2 discloses a monitoring support device that superimposes and displays a difference region of a plurality of changed images among images captured by a plurality of cameras.
  • the surveillance device described in Patent Document 1 has a problem that when alarm signals are generated for a plurality of surveillance cameras, the images of the plurality of surveillance cameras at the time when the alarm signals are generated cannot be displayed on the monitor. Further, the monitoring support device described in Patent Document 2 has a problem that when there are a large number of changed images at one time, the monitoring burden on the observer increases and the monitoring target may be overlooked.
  • an object of the present disclosure is a display control device, a monitoring support system, a display control method, and a non-temporary computer-readable medium that can reduce the monitoring burden on the observer and prevent oversight of the monitored object. Is to provide.
  • the display control device includes acquisition means, control means, and output means.
  • the acquisition means acquires video data captured by each of the plurality of imaging devices from each of the plurality of imaging devices.
  • the control means is the target video data which is the video data in which the target state is detected in response to the detection of the target state of the monitoring target from each of two or more of the video data among the plurality of the video data. Assign a time sequence of output to the display device for each of the above.
  • the output means sequentially outputs the target video data to the display device based on the assigned time order.
  • the monitoring support system in one aspect of the present disclosure includes a plurality of imaging devices, a display control device, and a display device.
  • the plurality of imaging devices image the monitored object and generate video data.
  • the display control device includes an acquisition means, a control means, and an output means.
  • the acquisition means acquires video data captured by each of the plurality of imaging devices from each of the plurality of imaging devices.
  • the control means is the target video data which is the video data in which the target state is detected in response to the detection of the target state of the monitoring target from each of two or more of the video data among the plurality of the video data. Assign a time sequence of output to the display device for each of the above.
  • the output means sequentially outputs the target video data to the display device based on the assigned time order.
  • the display device displays the target video data.
  • the video data captured by each of the plurality of imaging devices is acquired from each of the plurality of imaging devices, and each of the two or more of the video data among the plurality of the video data.
  • the time order of output to the display device is assigned to each of the target video data which is the video data for which the target state is detected, and the target video is assigned.
  • the data is sequentially output to the display device based on the assigned time order.
  • the non-temporary computer-readable medium in one aspect of the present disclosure stores a display control program that causes a computer to execute a display control method.
  • video data captured by each of the plurality of imaging devices is acquired from each of the plurality of imaging devices, and a target to be monitored from each of two or more of the video data among the plurality of the video data.
  • the time order of output to the display device is assigned to each of the target video data which is the video data in which the target state is detected, and the target video data is assigned.
  • the data is sequentially output to the display device based on the time order.
  • a display control device a monitoring support system, a display control method, and a non-temporary computer-readable medium that can reduce the monitoring burden on the observer and prevent oversight of the monitored object.
  • FIG. It is a block diagram which shows the structure of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the process of the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows an example of the structure of the monitoring support system which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows an example of the processing of the display control apparatus which concerns on Embodiment 2.
  • FIG. It is a figure for demonstrating an example of the processing of the display control apparatus which concerns on Embodiment 2.
  • FIG. It is a figure for demonstrating an example of the processing of the display control apparatus which concerns on Embodiment 2.
  • FIG. It is a figure for demonstrating an example of the processing of the display control apparatus which concerns on Em
  • FIG. It is a figure for demonstrating an example of the processing of the display control apparatus which concerns on Embodiment 2.
  • FIG. It is a figure for demonstrating an example of the processing of the display control apparatus which concerns on Embodiment 3.
  • FIG. It is a block diagram which shows an example of the structure of the display control device which concerns on Embodiment 4.
  • FIG. It is a flowchart which shows an example of the processing of the display control apparatus which concerns on Embodiment 4.
  • FIG. It is a figure for demonstrating an example of the processing of the display control apparatus which concerns on Embodiment 4.
  • FIG. It is the schematic block diagram of the computer which concerns on Embodiments 1-4.
  • FIG. 1 is a block diagram showing a configuration of a display control device 10 according to the first embodiment.
  • the display control device 10 includes an acquisition unit 11, a control unit 13, and an output unit 18.
  • the acquisition unit 11 is also called an acquisition means.
  • the acquisition unit 11 acquires video data captured by each of the plurality of imaging devices from each of the plurality of imaging devices.
  • the control unit 13 is also called a control means.
  • the control unit 13 outputs the target video data to the display device in a time order according to the detection of the target state of the monitoring target from each of two or more video data among the plurality of video data.
  • the target video data is video data in which the target state is detected.
  • the output unit 18 is also called an output means. The output unit 18 sequentially outputs the target video data to the display device based on the assigned time order.
  • FIG. 2 is a flowchart showing the processing of the display control device 10 according to the first embodiment.
  • the acquisition unit 11 acquires video data from each of the plurality of imaging devices.
  • the control unit 13 outputs the target video data to the display device for each of the target video data according to the detection of the target state from two or more of the acquired video data. Assign an order.
  • the output unit 18 sequentially outputs the target video data to the display device based on the assigned time order.
  • the display control device 10 allocates a time order for outputting the target video data, and sequentially outputs the target video data to the display device based on the time order. Therefore, the display control device 10 can reduce the monitoring burden of the observer who monitors the monitoring target and prevent the monitoring target from being overlooked.
  • FIG. 3 is a block diagram showing an example of the configuration of the monitoring support system 1 to which the display control device according to the second embodiment can be applied.
  • the monitoring support system 1 is a system that remotely monitors a monitoring target by using video data from an imaging device installed at each location in the monitoring target area.
  • the monitored area refers to an area to be monitored.
  • the monitoring target is a person, object, vehicle, animal, or the like to be monitored.
  • the monitoring target is a person.
  • the monitored area may be, for example, a school, a commercial facility at night, a managed place of a maintenance base of a security company, a warehouse, or the like.
  • the monitoring target may be a suspicious person or the like.
  • the monitored area may be a hospital, a long-term care facility, or the like.
  • the monitoring target may be a patient in a hospital or a resident of a long-term care facility.
  • the monitoring support system 1 includes a plurality of imaging devices 2-1 and 2, ... 2-n, a display device 4, and a display control device 20.
  • the image pickup devices 2-1, 2, ..., 2-n when the image pickup devices 2-1, 2, ..., 2-n are not distinguished, the image pickup devices 2-1, 2, 2, ... 2-n may be simply referred to as the image pickup device 2.
  • the image pickup device 2 is a surveillance camera installed at each location in the surveillance target area.
  • the image pickup device 2 takes an image of the monitored object at the installation location and generates video data.
  • the image pickup device 2 is communicably connected to the network 8 and transmits the generated video data to the display control device 20 in real time via the network 8.
  • the display control device 20 is a computer or the like that is communicably connected to the network 8.
  • the display control device 20 outputs the target video data, which is the video data in which the target state of the monitoring target is detected, to the display device 4 among the video data received from the image pickup device 2 via the network 8.
  • the target state is a state indicating an abnormality of the monitoring target, and in the second embodiment, a person may be moving as an example. That is, in the second embodiment, the display control device 20 outputs the target video data, which is the video data in which the moving object is detected, out of the video data received from the image pickup device 2 to the display device 4.
  • the display device 4 is a monitor that displays the target video data output from the display control device 20.
  • the display device 4 is a single monitor.
  • the display device 4 is connected to the network 8 via the display control device 20 in this figure, it may be directly connected to the network 8.
  • the network 8 includes various networks such as the Internet, a wide area network (WAN), and a local area network (LAN), or a combination thereof.
  • the network 8 may also include a dedicated line separated from the Internet.
  • FIG. 4 is a block diagram showing an example of the configuration of the display control device 20 according to the second embodiment.
  • the display control device 20 includes an acquisition unit 21, a detection unit 22, a control unit 23, a standby queue 26, and an output unit 28.
  • the acquisition unit 21 is an example of the acquisition unit 11 described above.
  • the acquisition unit 21 acquires the video data captured by each image pickup device 2 from each image pickup device 2.
  • Each video data has a plurality of frames having different shooting times.
  • the acquisition unit 21 supplies the acquired video data to the detection unit 22.
  • the detection unit 22 is also called a detection means.
  • the detection unit 22 detects the target state of the monitoring target for the video data of each image pickup device 2.
  • the target state to be monitored is a state in which a person is moving, that is, a moving body.
  • the detection unit 22 may detect a moving object captured in the video data based on the difference between the frames included in the video data.
  • the detection unit 22 defines the shooting time of the target video data in which the target state is detected, and supplies the target video data to the control unit 23 together with the shooting time.
  • the control unit 23 is an example of the control unit 13 described above.
  • the control unit 23 executes control for outputting the target video data supplied from the detection unit 22 to the display device 4.
  • the control unit 23 includes an allocation unit 24 and a standby unit 25.
  • the allocation unit 24 is also called an allocation means.
  • the allocation unit 24 outputs each of the target video data to the display device 4 in response to the detection of the target state of the monitoring target from the video data related to two or more imaging devices among the plurality of video data. Assign the time order of. That is, when the acquired video data includes two or more target video data, the allocation unit 24 allocates the output time order to each of the target video data.
  • the allocation unit 24 may allocate a time order so that a plurality of target video data are output to the display device 4 in a time division manner.
  • one unit of the time interval in which one target video data is output to the display device 4 is referred to as a time slot.
  • the control unit 23 assigns a time slot number for output to each of the target video data captured in the same time slot.
  • the length of each time slot may be predetermined.
  • the maximum length of the time slot may be 6 seconds.
  • the standby unit 25 is also called a standby means.
  • the standby unit 25 stores the target video data supplied from the detection unit 22 in the standby queue 26.
  • the standby unit 25 may sort the target video data based on the assigned time order and store it in the standby queue 26.
  • the standby unit 25 takes out the target video data from the standby queue 26 based on the assigned time order, and sequentially supplies the target video data to the output unit 28.
  • the standby unit 25 sequentially outputs the target video data from the standby queue 26 to the display device 4 via the output unit 28.
  • the standby queue 26 is a storage medium that temporarily stores the target video data to be output to the display device 4, that is, to be supplied to the output unit 28.
  • the output unit 28 is an example of the output unit 18 described above.
  • the output unit 28 outputs the target video data to the display device 4 in response to the supply of the target video data from the standby unit 25.
  • the output unit 28 sequentially outputs the target video data to the display device 4 based on the assigned time order.
  • the output unit 28 does not output the video data for which the target state is not detected among the video data related to the plurality of image pickup devices 2 to the display device 4.
  • FIG. 5 is a flowchart showing an example of processing of the display control device 20 according to the second embodiment. Note in this example, indicates the process of the display control device 20 in the initial state, it is assumed that there is no video data being outputted from the display control unit 20 to the display device 4 at initial time t 0.
  • step S20 the acquisition unit 21 of the display control device 20 acquires video data from each of the plurality of image pickup devices 2.
  • the acquisition unit 21 acquires video data from each of the plurality of image pickup devices 2 for each time slot TS. Therefore, if the time slot TS is short, the acquisition unit 21 acquires video data from each image pickup device 2 in substantially real time.
  • the video data in one time slot TS has a plurality of frames shot at different shooting times in the same time slot TS.
  • the acquisition unit 21 supplies the acquired video data to the detection unit 22.
  • the detection unit 22 performs detection processing of the target state of the monitoring target for each of the video data of the plurality of image pickup devices 2 captured in the same time slot TS, and the target state is detected. Determine if there is any video data.
  • the detection unit 22 detects a person area from each frame of the video data by using the person detector learned by machine learning, extracts the difference between the frames, and converts it into the video data. The movement of the captured person may be detected. Further, the detection unit 22 detects the posture of the person and the like by using the skeleton detector learned by machine learning, extracts the difference between the frames, and detects the motion of the person to be monitored in the image. You may.
  • the person detector or skeleton detector may include a convolutional neural network. For example, if the monitored area is a hospital, the person detector or skeletal detector may be trained to distinguish between the patient and the hospital staff and detect only the patient.
  • step S20 determines that the video data acquired in step S20 includes the video data (target video data) for which the target state has been detected (Yes in step S21). If the detection unit 22 determines that the video data acquired in step S20 includes the video data (target video data) for which the target state has been detected (Yes in step S21), the detection unit 22 proceeds to step S23. .. On the other hand, if this is not the case (No in step S21), the detection unit 22 proceeds to step S29.
  • step S23 the detection unit 22 determines whether or not the video data acquired in step S20, that is, the video data captured in the same time slot TS includes two or more target video data.
  • the detection unit 22 defines a shooting time for each of the target video data, and sends the target video data to the control unit 23 together with the shooting time.
  • the detection unit 22 may define the shooting time using the metadata attached to the video data, or may define the time when the target state is detected as the shooting time.
  • the detection unit 22 may define the same shooting time for the video data shot in the same time slot TS. Then, the detection unit 22 advances the process to step S25.
  • step S23 when the detection unit 22 does not determine that two or more target video data are included (No in step S23), that is, when there is only one target video data in the same time slot TS, the detection unit 22 controls the target video data.
  • the data is supplied to 23, and the process proceeds to step S24.
  • step S24 the control unit 23 determines whether or not there is video data currently being supplied or scheduled to be supplied from the standby unit 25 to the output unit 28. If the control unit 23 determines that there is video data currently being supplied or is scheduled to be supplied (Yes in step S24), the process proceeds to step S25, and if not (No in step S24), the control unit 23 outputs the target video data. The data is supplied to the unit 28, and the process proceeds to step S28. Note Since in the initial time t 0 is not video data of current supply, processing at initial time t 0 is advanced to step S28.
  • step S25 the allocation unit 24 of the control unit 23 allocates a time order to each of the target video data.
  • the allocation unit 24 assigns a time slot number for output to each of the target video data.
  • the allocation unit 24 may allocate the time order so that the numbers assigned in advance to each of the image pickup devices 2 are output to the display device 4 first from the target video data of the image pickup device 2.
  • the allocation unit 24 may allocate the time order based on the shooting time of the target video data. That is, the allocation unit 24 may allocate the time order so that the target video data having the earlier defined shooting time is output to the display device 4. As a result, the display control device 20 can display the target video data in chronological order. Further, in this case, the allocation unit 24 may reassign the time order to all the target video data including the new target video data and update the time order. The allocation unit 24 supplies the latest information of the allocated time order to the standby unit 25 of the control unit 23, and proceeds to the process in step S26.
  • step S26 the standby unit 25 sorts the target video data based on the assigned time order and stores it in the standby queue 26.
  • step S27 the standby unit 25 takes out the target video data having the youngest time order from the standby queue 26 according to the assigned time order, and supplies the target video data to the output unit 28. At this time, the standby unit 25 may delete the extracted target video data from the standby queue 26.
  • step S28 the output unit 28 outputs the target video data supplied from the standby unit 25 to the display device 4.
  • step S29 the display control device 20 determines whether or not to end a series of processes.
  • the case of terminating a series of processes is, for example, the case where the monitoring support system 1 is stopped, the case where the processing is terminated by the operation of the observer, and the like.
  • the display control device 20 does not determine that the series of processing is completed (No in step S29)
  • the display control device 20 returns the processing to step S20.
  • the display control device 20 determines that the series of processes is to be completed (Yes in step S29)
  • the display control device 20 ends the processes.
  • FIGS. 6 to 8 are diagrams for explaining an example of the processing of the display control device 20 according to the second embodiment.
  • FIG. 6 shows a case where the target state is not detected in each video data in the time slot TS1 including the initial time t 0.
  • FIG. 7 shows a case where the target state is detected in the video data of one imaging device in the time slot TS1.
  • FIG. 8 shows a case where the target state is detected in the video data of two or more imaging devices in the time slot TS1 and the target state is detected in the video data of one imaging device in the time slot TS2.
  • the acquisition unit 21 of the display control device 20 has a plurality of image pickup devices 2-1, 2, 2-3, 2-4 in the time slot TS1 including the initial time t 0.
  • Video data is acquired from each (TS1; step S20).
  • the target state is not detected in any of the video data (No in step S21). Therefore, the display control device 20 does not store the video data in the standby queue 26, and does not output any video data to the display device 4. Then, the display control device 20 returns the process to step S20 in order to perform the process in the next time slot TS2 (No in step S29).
  • the acquisition unit 21 of the display control device 20 acquires a plurality of video data in the time slot TS1 including the initial time t 0 (TS1; step S20).
  • the target state is detected only in the video data of one imaging device 2-3, and the detection unit 22 supplies the target video data 1-3 related to this video data to the control unit 23 (Yes, in step S21, Yes, No in step S23).
  • the control unit 23 supplies the target video data 1-3 to the output unit 28 (No in step S24).
  • the output unit 28 supplies the target video data 1-3 to the display device 4 (step S28).
  • the display control device 20 advances the processing to step S20 in the time slot TS2 in order to perform the processing in the next time slot TS2 (No in step S29).
  • the acquisition unit 21 of the display control device 20 acquires a plurality of video data in the time slot TS1 including the initial time t 0 (TS1; step S20).
  • the target state is detected in each of the video data of the two imaging devices 2-1 and 2, and the detection unit 22 controls the target video data 1-1, 1-3 together with the shooting time. (Yes in step S21, Yes in step S23).
  • the allocation unit 24 for example, the target video data 1-1 of the imaging device 2-1 having a young identification number is in the first time slot, and the target video data 1-3 of the imaging device 2-3 is in the second time slot. Allocate the time order so that it is output (step S25).
  • the standby unit 25 stores the target video data 1-1 in the storage location where the target video data 1-1 is first retrieved in the standby queue 26, and stores the target video data 1-3 in the storage location where the target video data 1-3 is second retrieved in the standby queue 26. (Step S26). Then, the standby unit 25 takes out the target video data 1-1 assigned to the first time slot from the standby queue 26 and outputs the target video data 1-1 to the display device 4 via the output unit 28 (steps S27 to 28). At this time, the standby unit 25 causes the standby queue 26 to wait for the target video data 1-3 to be supplied until the output of the target video data 1-1 is completed (time shift). When the output of the target video data 1-1 is completed, the standby unit 25 may move the target video data 1-3 to the storage location where the target video data 1-3 is first taken out in the standby queue 26.
  • the display control device 20 acquires a plurality of video data in the next time slot TS2 (TS2; step S20).
  • the target state is detected only in the video data of one imaging device 2-2, and the detection unit 22 supplies the target video data 2-2 related to this video data to the control unit 23 ( Yes in step S21, No in step S23).
  • the allocation unit 24 updates the allocation in the time order. Specifically, the allocation unit 24 allocates the time order of the target video data 2-2 next to the target video data 1-3 having the earliest shooting time.
  • the standby unit 25 may store the target video data 2-2 in the storage location second to be taken out in the standby queue 26 (step S26). After extracting and outputting the target video data 1-3 (steps S27 to 28), the display control device 20 advances the process to step S20 in the time slot TS3.
  • the detection unit 22 is included in the display control device 20.
  • the detection unit 22 may be included in another device (not shown) communicatively connected to the display control device 20.
  • the acquisition unit 21 may receive the target video data which is the detection result and the shooting time thereof from another device, and supply the received information to the control unit 23.
  • the control unit 23 when there is only one target video data and there is no video data being supplied or scheduled to be supplied (No in step S23, No in step S24), the control unit 23 outputs the target video data. It was supposed to be supplied to 28. However, in this case, the control unit 23 may supply the target video data to the output unit 28 via the standby queue 26.
  • the time required for processing one cycle is set to one time slot, but the time slot is not limited to this.
  • the acquisition unit 21 acquires the video data of the next time slot after the target video data for one time slot is output to the display device 4, but the output is output. You may acquire the video data without waiting.
  • the output processing of the target video data shown in steps S27 and 28 may be performed independently of other processing including the acquisition processing shown in step S20.
  • the display control device 20 has a standby unit 25 that temporarily waits until the output timing of the target video data. Therefore, the display control device 20 can time-shift the output of the target video data other than the target video data being output even when there are a plurality of target video data for which the target state has been detected at one time. As a result, the display control device 20 can sequentially output the target video data. Therefore, the display control device 20 can reduce the monitoring burden of the observer who monitors the monitoring target and prevent the monitoring target from being overlooked.
  • the display control device 20 does not output the video data that has not been detected based on the detection of the target state, it is not necessary for the observer to always pay attention to the display device 4, and the monitoring burden is reduced.
  • the third embodiment is characterized in that the allocation of the time order is determined based on the priority information in addition to the shooting time of the target video data.
  • the display control device 20 according to the third embodiment has basically the same configuration and function as the display control device 20 according to the second embodiment.
  • the display control device 20 according to the third embodiment is implemented in that the allocation unit 24 of the control unit 23 allocates the time order based on the predetermined priority information in addition to the shooting time of the target video data. It is different from the display control device 20 according to the second embodiment.
  • the priority information is information indicating the priority of output between the video data applied to the plurality of imaging devices 2.
  • the priority information may be determined according to the type of priority reason. For example, for priority reasons such as the target state being detected in each of the video data of the image pickup device 2 installed in different places, the priority information is a predetermined output based on the place where the image pickup device 2 is installed. May indicate the priority of. Further, regarding the priority reason such as the operation of the monitoring target being detected in the video data, the priority information may indicate the priority of the output determined according to the type of the detected operation of the monitoring target. When a plurality of priority reasons occur, it may be predetermined in advance which priority reason the priority information is prioritized when allocating the time order. When there are a plurality of target video data shot in the same time slot TS, the allocation unit 24 determines the time order of these based on the priority information.
  • FIG. 9 is a diagram for explaining an example of processing of the display control device 20 according to the third embodiment.
  • the target state is detected in each of the video data of the two imaging devices 2-1 and 2-3 in the time slot TS1 including the initial time t 0, as in the example shown in FIG. ing.
  • the priority information in which the video data of the image pickup device 2-3 is output with priority over the video data of the image pickup device 2-1 is predetermined.
  • the allocation unit 24 determines that the target video data 1-3 of the imaging device 2-3 is the first time slot and the target video data 1 of the imaging device 2-1 is based on the priority information. Allocate the time order so that 1 is output in the second time slot. Then, the target video data 1-3 is output in the time slot TS1, and the target video data 1-1 is output in the time slot TS2.
  • the display control device 20 determines the time order based on the predetermined priority, and sequentially outputs the target video data based on the time order. Therefore, the observer can immediately confirm the situation of the place where the focus should be on monitoring, and can take an appropriate action immediately according to the output video.
  • the fourth embodiment is characterized in that the specific target video data having a high priority is interrupted and output during the output of the target video data based on the time order.
  • FIG. 10 is a block diagram showing an example of the configuration of the display control device 40 according to the fourth embodiment.
  • the display control device 40 according to the fourth embodiment has basically the same configuration and function as the display control device 20 according to the second to third embodiments.
  • the display control device 40 according to the fourth embodiment is different in that it has a control unit 43 instead of the control unit 23.
  • the control unit 43 includes an interrupt processing unit 47 in addition to the configuration and functions of the control unit 23.
  • the interrupt processing unit 47 is also called an interrupt processing means.
  • the interrupt processing unit 47 interrupts the supply of the target video data currently being supplied to the output unit 28 to the standby unit 25 in response to the detection of the target state in the video data of the imaging device 2 having a high priority. Let me. That is, the interrupt processing unit 47 interrupts the output of the target video data currently being output to the display device 4.
  • This priority is a priority determined based on the interrupt event.
  • the interrupt event here may be the same as the priority reason, or may be a reason determined separately from the priority reason, which is more serious than the priority reason of the third embodiment.
  • the interrupt processing unit 47 may postpone the supply of the target video data to be supplied next, instead of interrupting the target video data currently being supplied. Then, the interrupt processing unit 47 supplies the output unit 28 with the video data of the image pickup device 2 having a high priority. That is, the interrupt processing unit 47 causes the display device 4 to output the target video data having a high priority.
  • FIG. 11 is a flowchart showing an example of processing of the display control device 40 according to the fourth embodiment.
  • the process shown in FIG. 11 includes steps S30 to 39 instead of steps S23 to 28 shown in FIG.
  • the same processing as that of the step shown in FIG. 5 is designated by the same symbol and the description thereof will be omitted.
  • step S30 the interrupt processing unit 47 of the control unit 43 determines whether or not an interrupt event has occurred in response to the detection unit 22 detecting the target state from the video data in step S21. For example, the interrupt processing unit 47 may determine that an interrupt event has occurred in response to the detection of the target video data related to the specific imaging device 2 having a higher priority than the target video data currently being supplied. Further, the interrupt processing unit 47 may determine that the interrupt event has occurred in response to the detection of a specific state corresponding to the interrupt event in the target video data. When the interrupt processing unit 47 determines that an interrupt event has occurred (Yes in step S30), the interrupt processing unit 47 proceeds to the process in step S32. On the other hand, when the interrupt processing unit 47 determines that the interrupt event has not occurred (No in step S30), the interrupt processing unit 47 proceeds to the process in step S39.
  • step S32 the interrupt processing unit 47 suspends or postpones the supply of the target video data currently being supplied or scheduled to be supplied from the standby queue 26 to the output unit 28 to the standby unit 25. That is, the standby unit 25 suspends or postpones the output of the target video data currently being supplied or scheduled to be supplied to the display device 4 via the output unit 28. If there is no target video data currently being supplied or scheduled to be supplied next, this step is omitted.
  • step S34 the interrupt processing unit 47 outputs the target video data to be interrupted to the display device 4 via the output unit 28.
  • step S36 the interrupt processing unit 47 determines whether or not to terminate the interrupt processing. If the interrupt processing unit 47 determines that the interrupt processing is to be terminated (Yes in step S36), the process proceeds to step S38, and if not (No in step S36), the process shown in step S34 is repeated.
  • step S38 the interrupt processing unit 47 causes the standby unit 25 to resume supplying the target video data whose supply has been interrupted from the standby queue 26 to the output unit 28. Then, the output unit 28 outputs the target video data supplied from the standby unit 25 to the display device 4, and proceeds to the process in step S29. If step S32 is omitted, this step is also omitted.
  • the interrupt processing unit 47 may proceed with normal processing in step S39.
  • the normal process may be the process shown in steps S23 to S28 of FIG. 5 as an example.
  • FIG. 12 is a diagram for explaining an example of processing of the display control device 40 according to the fourth embodiment.
  • FIG. 12 shows an example in which the target state is detected in each of the video data of the two imaging devices 2-1 and 2-3 in the time slot TS1 including the initial time t 0 as in FIG. Therefore, in the time slot TS1, the display control device 40 performs the same processing as the processing described with reference to FIG.
  • the example shown in FIG. 12 is different from the example shown in FIG. 8 in that an interrupt event occurs in the time slot TS2.
  • the target state is detected in the video data of the image pickup apparatus 2-2, and the detection unit 22 supplies the target video data 2-2 related to the video data to the control unit 23 (Yes in step S21).
  • the detection unit 22 may also supply the information regarding the image pickup apparatus 2-2 and the detection result information regarding the detection result of the target video data 2-2 to the control unit 23.
  • the interrupt processing unit 47 of the control unit 23 determines that an interrupt event has occurred based on the information supplied from the detection unit 22 (Yes in step S30).
  • the interrupt processing unit 47 interrupts the supply of the target video data 1-3 currently being supplied to the output unit 28 to the standby unit 25, and causes the unsupplied target video data 1-3 to stand by in the standby queue 26 (step). S32). That is, the interrupt processing unit 47 switches the target video data that was being output to the display device 4 to time-shift output. Then, the interrupt processing unit 47 outputs the target video data 2-2 to be interrupted to the display device 4 via the output unit 28 (step S34). Then, the interrupt processing unit 47 restarts the supply of the target video data 1-3 whose supply is interrupted to the standby unit 25 in response to the completion of the output of the target video data 2-2 (Yes in step S36). (Step S38).
  • the interrupt processing unit 47 interrupts the supply of the target video data currently being supplied or is scheduled to be supplied, and performs the interrupt processing shown in steps S32 to 38. good.
  • the display control device 40 executes interrupt processing as exception processing. Therefore, even if there is target video data currently being supplied or scheduled to be supplied, the display control device 40 obtains this specific target video data when the specific target video data having a high priority is acquired later. It can be displayed preferentially. As a result, the observer can confirm the situation of the place to be monitored in an emergency more immediately, and can take an appropriate response more immediately according to the output video. For example, in the case of use in a hospital, when a nurse who notices a change in the surveillance image determines that the information shown in the surveillance image is information about the patient, other nurses need to take appropriate measures. You can rush to. In addition, the nurse can immediately contact the guards when the information displayed in the surveillance video is information regarding the intrusion of a suspicious person. In addition, when the information displayed in the surveillance video is information related to other emergencies, the nurse can take appropriate emergency response.
  • the monitoring support system including the display control device according to the first to fourth embodiments can be used especially for monitoring a school or a commercial facility at night, or for monitoring by a maintenance base of a security company.
  • the staff can confirm the entrance and exit of the premises and the school building without fail.
  • cameras are installed at the school gate and the entrances and exits of each school building, and monitors are installed in the staff room. Since the top priority here is to prevent trespassers, the output priority is set in advance for the cameras installed at the school gate, and the output is output for the cameras installed at the entrances and exits of each school building. The priority of is set in advance with a low priority.
  • the image of the school gate may be interrupted and displayed.
  • the staff who confirmed the video of the school gate can prevent trespassing or accidents by promptly taking actions such as heading to the school gate or contacting the police with multiple people. Since the video of the students is time-shifted and displayed on the monitor, it is possible to prevent oversight of the video of the entrance and exit of the school building during the period when the video of the school gate is interrupted.
  • students who are shown at the entrance to the school building during class can be given appropriate guidance by dispatching another staff member or having an interview at a later date.
  • the display control device may register photos of staff, students, and entry / exit traders in advance, and if it detects that these persons have entered or exited the school gate, it may not output the image to the monitor. good.
  • the surveillance support system of the present disclosure By introducing the surveillance support system of the present disclosure in a commercial facility where a large number of surveillance cameras are installed, the burden on surveillance can be reduced.
  • the output priority is set to high priority in advance so that interrupts are output preferentially even when other surveillance images are output to the monitor. Set with. This makes it possible to efficiently monitor the intrusion of suspicious persons.
  • the images of other surveillance cameras are displayed on the monitor by the time-shift output, so that the observer can prevent oversight.
  • the same effect can be obtained by introducing the monitoring support system of the present disclosure for monitoring multi-tenant buildings and warehouses at night.
  • the computer is composed of a computer system including a personal computer, a word processor, and the like.
  • the computer may be composed of a LAN (local area network) server, a computer (personal computer) communication host, a computer system connected to the Internet, and the like. It is also possible to distribute the functions to each device on the network and configure the computer in the entire network.
  • FIG. 13 is an example of a configuration diagram of the computer 1900 according to the first to fourth embodiments.
  • the computer 1900 includes a control processing unit 1000 for controlling the entire system.
  • An input device 1050, a storage device 1200, a storage medium drive device 1300, a communication control device 1400, and an input / output I / F 1500 are connected to the control processing unit 1000 via a bus line such as a data bus.
  • the control processing unit 1000 includes a processor 1010, a ROM 1020, and a RAM 1030.
  • the processor 1010 performs various information processing and control according to a program stored in various storage units such as the ROM 1020 and the storage device 1200.
  • the ROM 1020 is a read-only memory in which various programs and data for the processor 1010 to perform various controls and calculations are stored in advance.
  • the RAM 1030 is a random access memory used as a working memory by the processor 1010. In the RAM 1030, various areas for performing various processes according to the first to fourth embodiments can be secured.
  • the input device 1050 is an input device that accepts input from users such as a keyboard, mouse, and touch panel.
  • the keyboard is provided with various keys such as a numeric keypad, function keys for executing various functions, and cursor keys.
  • the mouse is a pointing device, and is an input device that specifies a corresponding function by clicking a key, an icon, or the like displayed on the display device 1100.
  • the touch panel is an input device arranged on the surface of the display device 1100. It identifies a user's touch position corresponding to various operation keys displayed on the screen of the display device 1100, and an operation displayed corresponding to the touch position. Accepts key input.
  • the display device 1100 for example, a CRT, a liquid crystal display, or the like is used.
  • the display device displays the input result by the keyboard and the mouse, and displays the finally searched image information. Further, the display device 1100 displays an image of operation keys for performing various necessary operations from the touch panel according to various functions of the computer 1900.
  • the display device 1100 corresponds to the display device 4 of the first to fourth embodiments.
  • the storage device 1200 includes a readable and writable storage medium and a drive device for reading and writing various information such as programs and data to and from the storage medium.
  • a storage medium used in the storage device 1200 a hard disk or the like is mainly used, but a non-temporary computer-readable medium used in the storage medium drive device 1300 described later may be used.
  • the storage device 1200 has a data storage unit 1210, a program storage unit 1220, and other storage units (for example, a storage unit for backing up programs and data stored in the storage device 1200) and the like (for example, a storage unit for backing up programs and data stored in the storage device 1200). ing.
  • the program storage unit 1220 stores programs for realizing various processes according to the first to fourth embodiments.
  • the data storage unit 1210 stores various data of various databases according to the first to fourth embodiments.
  • the storage medium drive device 1300 is a drive device for the processor 1010 to read data including computer programs and documents from an external storage medium (external storage medium).
  • the external storage medium means a non-temporary computer-readable medium in which computer programs, data, and the like are stored.
  • Non-transient computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs.
  • the various programs may also be supplied to the computer by various types of transient computer readable medium.
  • Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • various programs can be supplied to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path and a storage medium driving device 1300.
  • the processor 1010 of the control processing unit 1000 reads various programs from the external storage medium set in the storage medium driving device 1300 and stores them in each part of the storage device 1200.
  • the computer 1900 executes various processes, the corresponding program is read from the storage device 1200 into the RAM 1030 and executed.
  • the computer 1900 can also read and execute the program directly from the external storage medium into the RAM 1030 by the storage medium driving device 1300 instead of from the storage device 1200.
  • various programs and the like may be stored in the ROM 1020 in advance, and the processor 1010 may execute the programs.
  • the computer 1900 may download various programs and data from another storage medium via the communication control device 1400 and execute the programs and data.
  • the communication control device 1400 is a control device for connecting the computer 1900 to various external electronic devices such as other personal computers and word processors via a network.
  • the communication control device 1400 makes it possible to access the computer 1900 from these various external electronic devices.
  • the input / output I / F 1500 is an interface for connecting various input / output devices via a parallel port, a serial port, a keyboard port, a mouse port, and the like.
  • a CPU Central Processing Unit
  • a GPU Graphics Processing Unit
  • an FPGA field-programmable gate array
  • DSP digital signal processor
  • ASIC application specific integrated circuit
  • the display control device can be used to monitor a person or an object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

表示制御装置(10)は、取得部(11)と、制御部(13)と、出力部(18)とを備える。取得部(11)は、複数の撮像装置の各々により撮像された映像データを複数の撮像装置の各々から取得する。制御部(13)は、複数の映像データのうち2以上の映像データの各々から監視対象の対象状態が検出されたことに応じて、対象状態が検出された映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる。出力部(18)は、対象映像データを、割り当てられた時間順序に基づいて表示装置に順次出力する。

Description

表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体
 本開示は、表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体に関する。
 近年、情報社会におけるセキュリティ対策として、建物や施設等において監視カメラによる監視が行われている。監視カメラは、不特定多数が利用する大型施設から公共施設、オフィスや人気のない倉庫、また個人の邸宅に至るまで様々な場所に設置されている。このような監視カメラによる監視は、監視カメラが撮像した映像をモニタに表示させることによって行われている。
 たとえば特許文献1には、複数の監視カメラの映像を自動的に切り替えてモニタに表示させるとともに、アラーム信号の発生に応じて、アラーム信号に対応する監視カメラの映像をモニタに割り込み表示させる監視装置が開示されている。
 また特許文献2には、複数のカメラが撮像した映像のうち、変化があった複数の映像の差分領域を重畳表示させる監視支援装置が開示されている。
特開平07-168991号公報 特開2010-206475号公報
 しかし特許文献1に記載の監視装置では、複数の監視カメラについてアラーム信号が発生した場合に、アラーム信号の発生時点での複数の監視カメラの映像をモニタに表示させることができないという問題がある。
 また特許文献2に記載の監視支援装置では、変化があった映像が一度に多数ある場合に、監視者の監視負担が増大し、監視対象の見落としが発生する可能性があるという問題がある。
 本開示の目的は、上述した課題を鑑み、監視者の監視負担を軽減させ、監視対象の見落としを防止することができる表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体を提供することにある。
 本開示の一態様における表示制御装置は、取得手段と、制御手段と、出力手段とを備える。前記取得手段は、複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得する。前記制御手段は、複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる。前記出力手段は、前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する。
 本開示の一態様における監視支援システムは、複数の撮像装置と、表示制御装置と、表示装置とを備える。前記複数の撮像装置は、監視対象を撮像し、映像データを生成する。前記表示制御装置は、取得手段と、制御手段と、出力手段とを有する。前記取得手段は、複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得する。前記制御手段は、複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる。前記出力手段は、前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する。前記表示装置は、前記対象映像データを表示する。
 本開示の一態様における表示制御方法は、複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得し、複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当て、前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する。
 本開示の一態様における非一時的なコンピュータ可読媒体は、表示制御方法をコンピュータに実行させる表示制御プログラムが格納されている。前記表示制御方法は、複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得し、複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当て、前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する。
 本開示により、監視者の監視負担を軽減させ、監視対象の見落としを防止することができる表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体を提供することができる。
実施形態1にかかる表示制御装置の構成を示すブロック図である。 実施形態1にかかる表示制御装置の処理を示すフローチャートである。 実施形態2にかかる監視支援システムの構成の一例を示すブロック図である。 実施形態2にかかる表示制御装置の構成の一例を示すブロック図である。 実施形態2にかかる表示制御装置の処理の一例を示すフローチャートである。 実施形態2にかかる表示制御装置の処理の一例を説明するための図である。 実施形態2にかかる表示制御装置の処理の一例を説明するための図である。 実施形態2にかかる表示制御装置の処理の一例を説明するための図である。 実施形態3にかかる表示制御装置の処理の一例を説明するための図である。 実施形態4にかかる表示制御装置の構成の一例を示すブロック図である。 実施形態4にかかる表示制御装置の処理の一例を示すフローチャートである。 実施形態4にかかる表示制御装置の処理の一例を説明するための図である。 実施形態1~4にかかるコンピュータの概略構成図である。
 以下、実施形態を通じて本開示を説明するが、請求の範囲にかかる開示を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
 <実施形態1>
 まず図1~2を用いて、本開示の実施形態1について説明する。図1は、実施形態1にかかる表示制御装置10の構成を示すブロック図である。表示制御装置10は、取得部11と、制御部13と、出力部18とを備える。
 取得部11は、取得手段とも呼ばれる。取得部11は、複数の撮像装置の各々により撮像された映像データを複数の撮像装置の各々から取得する。
 制御部13は、制御手段とも呼ばれる。制御部13は、複数の映像データのうち2以上の映像データの各々から監視対象の対象状態が検出されたことに応じて、対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる。ここで対象映像データは、対象状態が検出された映像データである。
 出力部18は、出力手段とも呼ばれる。出力部18は、対象映像データを、割り当てられた時間順序に基づいて表示装置に順次出力する。
 図2は、実施形態1にかかる表示制御装置10の処理を示すフローチャートである。
 まずステップS10において、取得部11は、複数の撮像装置の各々から映像データを取得する。
 次にステップS15において、制御部13は、取得した映像データのうち2以上の映像データから対象状態が検出されたことに応じて、対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる。
 次にステップS18において、出力部18は、対象映像データを、割り当てられた時間順序に基づいて表示装置に順次出力する。
 このように実施形態1によれば、表示制御装置10は、対象映像データを出力する時間順序を割り当て、時間順序に基づいて対象映像データを表示装置に順次出力する。したがって表示制御装置10は、監視対象を監視する監視者の監視負担を軽減させ、監視対象の見落としを防止することができる。
 <実施形態2>
 次に図3~8を用いて、本開示の実施形態2について説明する。図3は、実施形態2にかかる表示制御装置が適用されることができる監視支援システム1の構成の一例を示すブロック図である。監視支援システム1は、監視対象領域の各場所に設置された撮像装置からの映像データを用いて、監視対象を遠隔で監視するシステムである。
 ここで監視対象領域は、監視の対象となる領域を指す。また監視対象は、監視の対象となる人物、物、車両又は動物等である。本実施形態2では監視対象は、人物である。
 監視対象領域は、一例として学校、夜間の商業施設、警備会社の保守拠点の管理対象場所または倉庫等であってよい。このとき監視対象は、不審人物等であってよい。また監視対象領域は、病院または介護施設等であってもよい。このとき監視対象は、病院の患者または介護施設の入居者であってよい。
 ここで監視支援システム1は、複数の撮像装置2-1,2-2,…2-nと、表示装置4と、表示制御装置20とを備える。以下では、撮像装置2-1,2-2,…,2-nを区別しない場合、撮像装置2-1,2-2,…2-nを単に撮像装置2と呼ぶことがある。
 撮像装置2は、監視対象領域の各場所に設置される監視カメラである。撮像装置2は、その設置場所において監視対象を撮像し、映像データを生成する。撮像装置2は、ネットワーク8に通信可能に接続され、生成された映像データを、ネットワーク8を介してリアルタイムで表示制御装置20に送信する。
 表示制御装置20は、ネットワーク8に通信可能に接続されるコンピュータ等である。表示制御装置20は、ネットワーク8を介して撮像装置2から受信した映像データのうち、監視対象の対象状態が検出された映像データである対象映像データを表示装置4に出力する。ここで対象状態は、監視対象の異常を示す状態であり、本実施形態2では一例として人物が動いている状態であってよい。つまり本実施形態2では表示制御装置20は、撮像装置2から受信した映像データのうち、動体が検出された映像データである対象映像データを表示装置4に出力する。
 表示装置4は、表示制御装置20から出力された対象映像データを表示するモニタである。本実施形態2では表示装置4は、単一のモニタである。なお本図では表示装置4は、表示制御装置20を介してネットワーク8に接続される構成をとるが、ネットワーク8に直接接続されていてもよい。
 ネットワーク8は、インターネット、広域ネットワーク(WAN)、ローカルエリアネットワーク(LAN)等の各種ネットワークまたはその組み合わせを含んで構成される。またネットワーク8は、インターネットと分離された専用回線を含んでもよい。
 次に図4を用いて、表示制御装置20の構成について説明する。図4は、実施形態2にかかる表示制御装置20の構成の一例を示すブロック図である。
 表示制御装置20は、取得部21と、検出部22と、制御部23と、待機キュー26と、出力部28とを有する。
 取得部21は、上述した取得部11の一例である。取得部21は、各撮像装置2により撮像された映像データを各撮像装置2から取得する。映像データは、それぞれ、撮影時刻が異なる複数のフレームを有する。取得部21は、取得した映像データを検出部22に供給する。
 検出部22は、検出手段とも呼ばれる。検出部22は、各撮像装置2の映像データに対して、監視対象の対象状態を検出する。本実施形態2で監視対象の対象状態は、人物が動いている状態、すなわち動体である。たとえば検出部22は、映像データに含まれるフレーム間の差分に基づいて、映像データに撮像された動体を検出してよい。
 なお、検出部22は、対象状態が検出された対象映像データに対して、その撮影時刻を定義し、撮影時刻とともに対象映像データを制御部23に供給する。
 制御部23は、上述した制御部13の一例である。制御部23は、検出部22から供給される対象映像データを表示装置4へ出力するための制御を実行する。制御部23は、割当部24と、待機部25とを含む。
 割当部24は、割当手段とも呼ばれる。割当部24は、複数の映像データのうち2以上の撮像装置にかかる映像データから監視対象の対象状態が検出されたことに応じて、対象映像データの各々に対して、表示装置4への出力の時間順序を割り当てる。すなわち割当部24は、取得した映像データに2以上の対象映像データが含まれる場合、対象映像データの各々に対して出力の時間順序を割り当てる。割当部24は、複数の対象映像データが時分割で表示装置4へ出力されるように時間順序を割り当ててよい。ここで1つの対象映像データが表示装置4へ出力される時間区間の一単位をタイムスロットと呼ぶこととする。この場合、制御部23は、同じタイムスロット中に撮影された対象映像データの各々に対して、出力のためのタイムスロットの番号を割り当てる。本実施形態2で各タイムスロットの長さは、予め定められてよい。なお、タイムスロットの長さは最長6秒であってよい。
 待機部25は、待機手段とも呼ばれる。待機部25は、検出部22から供給された対象映像データを待機キュー26に格納する。このとき待機部25は、対象映像データを割り当てられた時間順序に基づいて並べ替え、待機キュー26に格納してよい。そして待機部25は、割り当てられた時間順序に基づいて対象映像データを待機キュー26から取り出し、対象映像データを出力部28に順次供給する。これにより、待機部25は、対象映像データを、待機キュー26から出力部28を介して表示装置4に順次出力させる。
 待機キュー26は、表示装置4に出力する、すなわち出力部28に供給する予定の対象映像データを一時的に記憶する記憶媒体である。
 出力部28は、上述した出力部18の一例である。出力部28は、待機部25から対象映像データが供給されたことに応じて、対象映像データを表示装置4に出力する。結果的に、出力部28は、対象映像データを、割り当てられた時間順序に基づいて表示装置4に順次出力する。なお本実施形態2では、出力部28は、複数の撮像装置2にかかる映像データのうち対象状態が検出されなかった映像データについては、表示装置4に出力しない。
 次に、図5を用いて実施形態2にかかる表示制御装置20の処理を説明する。図5は、実施形態2にかかる表示制御装置20の処理の一例を示すフローチャートである。なお本例においては、初期状態における表示制御装置20の処理を示し、初期時刻tにおいて表示制御装置20から表示装置4へ出力中の映像データはないものとする。
 まずステップS20において、表示制御装置20の取得部21は、複数の撮像装置2の各々から映像データを取得する。本例においては説明の便宜上、取得部21は、タイムスロットTSごとに複数の撮像装置2の各々から映像データを取得するものとする。したがってタイムスロットTSが短ければ、取得部21は実質的にリアルタイムで各撮像装置2から映像データを取得することとなる。なお1つのタイムスロットTSにおける映像データは、同一タイムスロットTS内の異なる撮影時刻において撮影された複数のフレームを有する。取得部21は、取得した映像データを検出部22に供給する。
 次にステップS21において、検出部22は、同じタイムスロットTSにおいて撮影された複数の撮像装置2にかかる映像データの各々に対して、監視対象の対象状態の検出処理を行い、対象状態が検出された映像データがあるか否かを判定する。ここで本実施形態2では、検出部22は、機械学習により学習された人物検出器を用いて、映像データの各フレームから人物領域を検出し、フレーム間の差分を抽出して、映像データに撮像された人物の動きを検出してよい。また、検出部22は、機械学習により学習された骨格検出器を用いて、人物の姿勢等を検出し、フレーム間の差分を抽出して、映像に映る人物の監視対象となる動作を検出してもよい。なお人物検出器または骨格検出器は、畳み込みニューラルネットワークを含んでよい。たとえば監視対象領域が病院である場合は、人物検出器または骨格検出器は、患者と病院職員とを区別し、患者のみを検出するように学習されてよい。
 検出部22は、ステップS20にて取得された映像データに、対象状態が検出された映像データ(対象映像データ)が含まれると判定した場合は(ステップS21でYes)、処理をステップS23に進める。一方、検出部22は、そうでない場合は(ステップS21でNo)、処理をステップS29に進める。
 ステップS23において、検出部22は、ステップS20にて取得された映像データ、すなわち同じタイムスロットTSにおいて撮影された映像データに、2以上の対象映像データが含まれるか否かを判定する。検出部22は、2以上の対象映像データが含まれると判定した場合(ステップS23でYes)、対象映像データの各々に対して撮影時刻を定義し、撮影時刻とともに対象映像データを制御部23に供給する。ここで検出部22は、映像データに付随するメタデータを用いて撮影時刻を定義してもよく、対象状態を検出した時刻を撮影時刻として定義してもよい。なお検出部22は、同じタイムスロットTSにおいて撮影された映像データに対しては、同じ撮影時刻として定義してもよい。そして検出部22は、処理をステップS25に進める。
 一方、検出部22は、2以上の対象映像データが含まれると判定しない場合(ステップS23でNo)、すなわち同じタイムスロットTSにおいて対象映像データが1つであった場合、対象映像データを制御部23に供給し、処理をステップS24に進める。
 ステップS24において、制御部23は、待機部25から出力部28へ現在供給中または供給予定の映像データがあるか否かを判定する。制御部23は、現在供給中または供給予定の映像データがあると判定した場合は(ステップS24でYes)、処理をステップS25に進め、そうでない場合(ステップS24でNo)、対象映像データを出力部28に供給し、処理をステップS28に進める。なお初期時刻tにおいては現在供給中の映像データ等はないので、初期時刻tにおいて処理はステップS28に進められる。
 ステップS25において、制御部23の割当部24は、対象映像データの各々に対して時間順序を割り当てる。本実施形態2では割当部24は、対象映像データの各々に対して、出力するためのタイムスロットの番号を割り当てる。
 このとき割当部24は、撮像装置2の各々に予め付与された番号が若い撮像装置2の対象映像データから先に表示装置4に出力されるように、時間順序を割り当ててよい。
 なお割当部24は、現在時刻において現在供給中または供給予定の対象映像データがある場合等は、対象映像データの撮影時刻に基づいて、時間順序を割り当ててよい。すなわち割当部24は、定義された撮影時刻が早い対象映像データから表示装置4に出力されるように、時間順序を割り当ててよい。これにより表示制御装置20は、時系列で対象映像データを表示させることが可能となる。
 またこの場合は、割当部24は、新たな対象映像データを含めたすべての対象映像データに対して時間順序を割り当て直し、時間順序を更新してもよい。
 割当部24は、割り当てた時間順序の最新の情報を制御部23の待機部25に供給し、処理をステップS26に進める。
 ステップS26において、待機部25は、割り当てられた時間順序に基づいて対象映像データを並べ替え、待機キュー26に格納する。
 次にステップS27において、待機部25は、割り当てられた時間順序に従って、時間順序が最も若い対象映像データを待機キュー26から取り出し、当該対象映像データを出力部28に供給する。このとき待機部25は、取り出した対象映像データを待機キュー26から削除してよい。
 次にステップS28において、出力部28は、待機部25から供給された対象映像データを表示装置4に出力する。
 そしてステップS29において、表示制御装置20は、一連の処理を終了させるか否かを判定する。一連の処理を終了させる場合とは、たとえば監視支援システム1が停止される場合や、監視者の操作により処理を終了させる場合などである。表示制御装置20は、一連の処理を終了させると判定しない場合(ステップS29でNo)、処理をステップS20に戻す。表示制御装置20は、一連の処理を終了させると判定した場合(ステップS29でYes)、処理を終了させる。
 ここで、図5のステップS20~29に示す処理の具体例を、図6~8を用いて説明する。図6~8は、実施形態2にかかる表示制御装置20の処理の一例を説明するための図である。図6は、初期時刻tを含むタイムスロットTS1において、各映像データに対象状態が検出されなかった場合を示す。また図7は、タイムスロットTS1において、1つの撮像装置の映像データに対象状態が検出された場合を示す。また図8は、タイムスロットTS1において、2以上の撮像装置の映像データに対象状態が検出され、タイムスロットTS2において、1つの撮像装置の映像データに対象状態が検出された場合を示す。
 まず図6に示すように、表示制御装置20の取得部21は、初期時刻tが含まれるタイムスロットTS1において、複数の撮像装置2-1,2-2,2-3,2-4の各々から映像データを取得する(TS1;ステップS20)。しかし本例ではいずれの映像データにおいても対象状態が検出されない(ステップS21でNo)。したがって表示制御装置20は、待機キュー26には映像データを格納せず、表示装置4にはいずれの映像データも出力させない。そして表示制御装置20は、次のタイムスロットTS2における処理を行うべく(ステップS29でNo)、処理をステップS20に戻す。
 また図7に示すように、表示制御装置20の取得部21は、初期時刻tが含まれるタイムスロットTS1において、複数の映像データを取得する(TS1;ステップS20)。本例では1つの撮像装置2-3の映像データにのみ対象状態が検出され、検出部22は、この映像データにかかる対象映像データ1-3を制御部23に供給する(ステップS21でYes、ステップS23でNo)。図7に示す例においては、現在供給中または供給予定の映像データはないため、制御部23は、対象映像データ1-3を出力部28に供給する(ステップS24でNo)。そして出力部28は、対象映像データ1-3を表示装置4に供給する(ステップS28)。表示制御装置20は、次のタイムスロットTS2における処理を行うべく(ステップS29でNo)、処理をタイムスロットTS2におけるステップS20に進める。
 また図8に示すように、表示制御装置20の取得部21は、初期時刻tが含まれるタイムスロットTS1において、複数の映像データを取得する(TS1;ステップS20)。本例では2つの撮像装置2-1,2-3の映像データの各々に対象状態が検出され、検出部22は、これらの対象映像データ1-1,1-3を撮影時刻とともに制御部23に供給する(ステップS21でYes、ステップS23でYes)。そして割当部24は、たとえば識別番号が若い撮像装置2-1の対象映像データ1-1が1番目のタイムスロットで、撮像装置2-3の対象映像データ1-3が2番目のタイムスロットで出力されるように、時間順序を割り当てる(ステップS25)。ここで、待機部25は、対象映像データ1-1を待機キュー26において1番目に取り出される格納場所に格納させ、対象映像データ1-3を待機キュー26において2番目に取り出される格納場所に格納させる(ステップS26)。そして、待機部25は、待機キュー26から1番目のタイムスロットに割り当てられる対象映像データ1-1を取り出し、出力部28を介して表示装置4に出力する(ステップS27~28)。このとき待機部25は、対象映像データ1-1の出力が終わるまで、供給予定である対象映像データ1-3を待機キュー26に待機させる(タイムシフト)。待機部25は、対象映像データ1-1の出力が終わると、対象映像データ1-3を待機キュー26において1番目に取り出される格納場所に繰り上げさせてよい。
 そして表示制御装置20は、次のタイムスロットTS2において、複数の映像データを取得する(TS2;ステップS20)。図8に示す例においては、1つの撮像装置2-2の映像データにのみ対象状態が検出され、検出部22は、この映像データにかかる対象映像データ2-2を制御部23に供給する(ステップS21でYes、ステップS23でNo)。本例では、対象映像データ1-3が供給中または供給予定であるため(ステップS24でYes)、割当部24は、時間順序の割り当てを更新する。具体的には割当部24は、対象映像データ2-2の時間順序を撮影時刻が早い対象映像データ1-3の次に割り当てる。そして待機部25は、対象映像データ2-2を待機キュー26において2番目に取り出される格納場所に格納させてよい(ステップS26)。対象映像データ1-3の取り出しおよび出力を経て(ステップS27~28)、表示制御装置20は処理をタイムスロットTS3におけるステップS20に進める。
 なお本実施形態2では検出部22が表示制御装置20に含まれるとした。しかし検出部22は、表示制御装置20に通信可能に接続された他の装置(不図示)に含まれていてもよい。この場合、取得部21は、検出結果である対象映像データと、その撮影時刻とを他の装置から受信し、受信した情報を制御部23に供給してよい。
 また本実施形態2では、対象映像データが1つであり、かつ供給中または供給予定の映像データがない場合(ステップS23でNo、ステップS24でNo)、制御部23は対象映像データを出力部28に供給するとした。しかしこの場合制御部23は、対象映像データを、待機キュー26を介して出力部28に供給してもよい。
 なお本実施形態2では、説明の便宜上、1サイクルの処理に要する時間を1タイムスロットとしたが、これに限らない。また本実施形態2では、説明の便宜上、取得部21は、1タイムスロット分の対象映像データが表示装置4に出力された後に、次のタイムスロットの映像データを取得するとしたが、当該出力を待たずに映像データを取得してよい。たとえばステップS27および28に示す対象映像データの出力処理は、ステップS20に示す取得処理を含む他の処理と独立して行われてもよい。
 このように実施形態2によれば、表示制御装置20は、対象映像データを出力のタイミングまで一時的に待機させる待機部25を有する。したがって表示制御装置20は、対象状態が検出された対象映像データが一度に複数ある場合であっても、出力中の対象映像データ以外の対象映像データの出力をタイムシフトさせることが可能となる。これにより表示制御装置20は、対象映像データを順次出力することができる。したがって表示制御装置20は、監視対象を監視する監視者の監視負担を軽減させ、監視対象の見落としを防止することができる。
 なお表示制御装置20は、対象状態の検出を基準として、検出がされなかった映像データについては出力しないため、監視者が常に表示装置4を注視する必要はなくなり、監視負担が軽減される。
 <実施形態3>
 次に図9を用いて、本開示の実施形態3について説明する。実施形態3は、時間順序の割当が対象映像データの撮影時刻に加えて、優先度情報に基づいて決定されることに特徴を有する。なお実施形態3にかかる表示制御装置20は、実施形態2にかかる表示制御装置20と基本的に同様の構成および機能を有する。
 ただし、実施形態3にかかる表示制御装置20は、制御部23の割当部24が、対象映像データの撮影時刻に加え、予め定められた優先度情報に基づいて、時間順序を割り当てる点で、実施形態2にかかる表示制御装置20と異なる。
 優先度情報は、複数の撮像装置2にかかる映像データ間の出力の優先度を示す情報である。優先度情報は、優先事由の種別に応じて定められてよい。たとえば異なる場所に設置された撮像装置2の映像データの各々に対象状態が検出された等の優先事由については、優先度情報は、撮像装置2が設置される場所に基づいて予め定められた出力の優先度を示してよい。また映像データに監視対象の動作が検出された等の優先事由については、優先度情報は、検出した監視対象の動作の種別に応じて定められる出力の優先度を示してよい。なお複数の優先事由が発生した場合には、時間順序の割り当てにあたり、どの優先事由に基づく優先度情報を優先させるかについても予め定められていてよい。
 割当部24は、同じタイムスロットTSに撮影された対象映像データが複数ある場合は、優先度情報に基づいてこれらの時間順序を決定する。
 図9は、実施形態3にかかる表示制御装置20の処理の一例を説明するための図である。図9に示す例では、図8に示す例と同様に、初期時刻tが含まれるタイムスロットTS1において、2つの撮像装置2-1,2-3の映像データの各々に対象状態が検出されている。ここで本例では、撮像装置2-3の映像データが撮像装置2-1の映像データよりも優先的に出力される優先度情報が予め定められていたとする。この場合タイムスロットTS1において、割当部24は、優先度情報に基づいて、撮像装置2-3の対象映像データ1-3が1番目のタイムスロットで、撮像装置2-1の対象映像データ1-1が2番目のタイムスロットで出力されるように時間順序を割り当てる。そしてタイムスロットTS1において対象映像データ1-3が出力され、タイムスロットTS2において対象映像データ1-1が出力される。
 このように実施形態3によれば、表示制御装置20は、予め定められた優先度に基づいて時間順序を決定し、当該時間順序に基づいて対象映像データを順次出力する。したがって監視者は、より監視に注力すべき場所の状況を即座に確認することができ、出力映像に従って即座に適切な対応をとることができる。
 <実施形態4>
 次に図10~12を用いて、本開示の実施形態4について説明する。実施形態4は、優先度の高い特定の対象映像データが、時間順序に基づく対象映像データの出力中に割り込んで出力されることに特徴を有する。
 図10は、実施形態4にかかる表示制御装置40の構成の一例を示すブロック図である。実施形態4にかかる表示制御装置40は、実施形態2~3にかかる表示制御装置20と基本的に同様の構成および機能を有する。ただし実施形態4にかかる表示制御装置40は、制御部23に代えて制御部43を有する点で相違する。
 制御部43は、制御部23の構成および機能に加えて、割り込み処理部47を含む。
 割り込み処理部47は、割り込み処理手段とも呼ばれる。割り込み処理部47は、優先度が高い撮像装置2の映像データに対象状態が検出されたことに応じて、待機部25に対して出力部28に現在供給している対象映像データの供給を中断させる。すなわち割り込み処理部47は、表示装置4に現在出力している対象映像データの出力を中断させる。この優先度は、割込みイベントに基づいて定められる優先度である。ここでの割込みイベントは、優先事由と同じであってもよく、実施形態3の優先事由よりも重大な、優先事由とは別個に定められた事由であってもよい。なお割り込み処理部47は、現在供給中の対象映像データの中断に代えて、次に供給予定である対象映像データの供給の延期を行ってもよい。そして割り込み処理部47は、優先度が高い撮像装置2の映像データを出力部28に供給させる。すなわち、割り込み処理部47は、優先度が高い対象映像データを表示装置4に出力させる。
 図11は、実施形態4にかかる表示制御装置40の処理の一例を示すフローチャートである。ここで図11に示す処理は、図5に示すステップS23~28に代えて、ステップS30~39を有する。なお図5に示すステップと同様の処理については、同一の記号を付して説明を省略する。
 ステップS30において、制御部43の割り込み処理部47は、ステップS21で検出部22が映像データから対象状態を検出したことに応じて、割込みイベントが発生したか否かを判定する。たとえば割り込み処理部47は、現在供給中の対象映像データよりも優先度の高い特定の撮像装置2にかかる対象映像データが検出されたことに応じて、割込みイベントが発生したと判定してよい。また割り込み処理部47は、対象映像データに割込みイベントに対応する特定の状態が検出されたことに応じて、割込みイベントが発生したと判定してよい。割り込み処理部47は、割込みイベントが発生したと判定した場合(ステップS30でYes)、処理をステップS32に進める。一方、割り込み処理部47は、割込みイベントが発生していないと判定した場合(ステップS30でNo)、処理をステップS39に進める。
 ステップS32において、割り込み処理部47は、待機部25に対して、現在供給中または次に供給予定である対象映像データを待機キュー26から出力部28へ供給することを中断または延期させる。つまり、待機部25は、現在供給中または次に供給予定である対象映像データを、出力部28を介して表示装置4に出力することを中断または延期させる。なお、現在供給中または次に供給予定の対象映像データがない場合には、本ステップは省略される。
 次にステップS34において、割り込み処理部47は、割込みにかかる対象映像データを、出力部28を介して表示装置4に出力する。
 次にステップS36において、割り込み処理部47は、割込み処理を終了させるか否かを判定する。割り込み処理部47は、割込み処理を終了させると判定した場合(ステップS36でYes)、処理をステップS38に進め、そうでない場合(ステップS36でNo)、ステップS34に示す処理を繰り返す。
 ステップS38において、割り込み処理部47は、待機部25に対して、供給が中断された対象映像データを待機キュー26から出力部28へ供給することを再開させる。そして出力部28は、待機部25から供給された対象映像データを表示装置4に出力し、処理をステップS29に進める。なおステップS32が省略された場合は、本ステップも省略される。
 割り込み処理部47は、割込みイベントが発生していないと判定した場合(ステップS30でNo)、ステップS39において通常処理を進めてよい。ここで通常処理は、一例として図5のステップS23~ステップS28に示す処理であってよい。
 ここで図11に示す処理の具体例を、図12を用いて説明する。図12は、実施形態4にかかる表示制御装置40の処理の一例を説明するための図である。図12は、図8と同様に初期時刻tを含むタイムスロットTS1おいて2つの撮像装置2-1,2-3の映像データの各々に対象状態が検出される例を示す。したがってタイムスロットTS1においては、表示制御装置40は図8で説明した処理と同様の処理を行う。ただし図12に示す例は、タイムスロットTS2において、割込みイベントが発生する点で図8に示す例と相違する。
 タイムスロットTS2において、複数の映像データを取得する(TS2;ステップS20)。本例では撮像装置2-2の映像データに対象状態が検出され、検出部22は、この映像データにかかる対象映像データ2-2を制御部23に供給する(ステップS21でYes)。このとき検出部22は、撮像装置2-2に関する情報および対象映像データ2-2の検出結果に関する検出結果情報も制御部23に供給してよい。そして制御部23の割り込み処理部47は、検出部22から供給された情報に基づいて割込みイベントが発生したと判定する(ステップS30でYes)。割り込み処理部47は、待機部25に対して現在出力部28へ供給中の対象映像データ1-3の供給を中断させ、未供給の対象映像データ1-3を待機キュー26に待機させる(ステップS32)。つまり、割り込み処理部47は、表示装置4へ出力中であった対象映像データをタイムシフト出力に切り替える。そして割り込み処理部47は、割込みにかかる対象映像データ2-2を、出力部28を介して表示装置4に出力させる(ステップS34)。そして割り込み処理部47は対象映像データ2-2の出力が完了したことに応じて(ステップS36でYes)、待機部25に対して、供給中断中の対象映像データ1-3の供給を再開させる(ステップS38)。
 なお割り込み処理部47は、同一スロット中に後発的に割り込みイベントが検出された場合も、現在供給中または供給予定の対象映像データの供給を中断させ、ステップS32~38に示す割込み処理を行ってよい。
 このように実施形態4によれば、表示制御装置40は、割込みイベントが発生した場合、例外処理として割込み処理を実行する。したがって、表示制御装置40は、現在供給中または供給予定の対象映像データがあったとしても、優先度が高い特定の対象映像データを後発的に取得した場合には、この特定の対象映像データを優先的に表示させることができる。これにより監視者は、緊急で監視すべき場所の状況をより即座に確認することができ、出力映像に従ってより即座に適切な対応をとることができる。
 たとえば病院における利用の場合、監視映像の変化に気付いた看護師が、監視映像に映る情報が患者に関する情報であると判断したとき、他の看護師が適切な対処をするために患者のもとへ急行することができる。また看護師は、監視映像に映る情報が不審者の侵入に関する情報であったときは、警備員に即座に連絡することができる。また看護師は、監視映像に映る情報がその他の緊急事態に関する情報であったときは、相応の緊急対応に取り掛かることができる。
 <他の実施形態>
 実施形態1~4にかかる表示制御装置を備える監視支援システムは、特に学校若しくは夜間の商業施設等の監視、または警備会社の保守拠点による監視のために利用可能である。
 (学校)
 たとえば学校において授業時間など人の出入りが少ない時間帯に本開示の監視支援システムによる監視を実施すれば、職員は敷地内および校舎の入退場者を取りこぼし無く確認できる。設置例としては、カメラを校門と各校舎の出入口とに設置し、モニタを職員室に設置しておく。ここでは不法侵入者の阻止が最優先の目的であるため、校門の設置のカメラに対しては出力の優先度を予め高優先度で設定し、各校舎出入口の設置のカメラに対しては出力の優先度を予め低優先度で設定しておく。例えば、モニタに校舎出入口の生徒の移動が写しだされている間に、校門で人の入場が検知された場合は、校門の映像が割り込みされて映し出されてよい。校門の映像を確認した職員は、複数人で校門に向かうまたは警察への連絡など行動を迅速に行うことで、未然に不法侵入または事故を防ぐことができる。生徒の映像はタイムシフトされてモニタに映し出されるため、校門の映像が割り込まれている期間の校舎出入口の映像は見落としを防ぐことができる。また授業中に校舎出入口で写し出された生徒には、別の職員を派遣若しくは後日面談を行うことで適切な指導ができる。また表示制御装置は、職員・生徒・出入り業者の写真を事前に登録しておき、これらの者が校門において入退場したと検出した場合には、その映像をモニタに出力しないなどを行ってもよい。
 (夜間の商業施設)
 監視カメラが多数設置された商業施設において、本開示の監視支援システムを導入することで、監視に対する負担を軽減することができる。ここで従業員出入口などの監視カメラ映像に対しては、他の監視映像がモニターに出力されている場合であっても優先的に割り込み出力されるように、出力の優先度を予め高優先度で設定しておく。これによって不審人物の侵入を効率的に監視することが可能となる。またこのとき他の監視カメラの映像については、タイムシフト出力でモニタに映し出されるため、監視者が見落としを防ぐことができる。なお夜間の雑居ビルや倉庫の監視に対しても本開示の監視支援システムを導入し、同様の効果を得ることができる。
 (警備会社の保守拠点)
 本開示の監視支援システムを警備会社の保守拠点の数に合わせて適用し、監視支援システムを管理する場所を効率的に集約させることで、緊急対応時に係る現地への出動時間の短縮が望める。このように監視負荷を分散することで、本システムを導入する監視対象場所においては、日常的な監視に係る費用削減につながる。
 上述の実施形態1~4ではコンピュータは、パーソナルコンピュータやワードプロセッサ等を含むコンピュータシステムで構成される。しかしこれに限らず、コンピュータは、LAN(ローカル・エリア・ネットワーク)のサーバ、コンピュータ(パソコン)通信のホスト、インターネット上に接続されたコンピュータシステム等によって構成されることも可能である。また、ネットワーク上の各機器に機能分散させ、ネットワーク全体でコンピュータを構成することも可能である。
 なお上述の実施形態1~4では、この開示をハードウェアの構成として説明したが、この開示は、これに限定されるものではない。この開示は、上述の表示制御処理を、後述するプロセッサ1010にコンピュータプログラムを実行させることにより実現することも可能である。
 図13は、実施形態1~4にかかるコンピュータ1900の構成図の一例である。図13に示すように、コンピュータ1900は、システム全体を制御するための制御処理部1000を備えている。この制御処理部1000には、データバス等のバスラインを介して、入力装置1050、記憶装置1200、記憶媒体駆動装置1300、通信制御装置1400、および入出力I/F1500が接続されている。
 制御処理部1000は、プロセッサ1010と、ROM1020と、RAM1030とを備えている。
 プロセッサ1010は、ROM1020や記憶装置1200等の各種記憶部に記憶されたプログラムに従って、各種の情報処理や制御を行う。
 ROM1020は、プロセッサ1010が各種制御や演算を行うための各種プログラムやデータが予め格納されたリードオンリーメモリである。
 RAM1030は、プロセッサ1010にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM1030には、本実施形態1~4による各種処理を行うための各種エリアが確保可能になっている。
 入力装置1050は、キーボード、マウスおよびタッチパネル等のユーザからの入力を受け付ける入力装置である。たとえばキーボードは、テンキー、各種機能を実行するための機能キーおよびカーソルキー等の各種キーが配置されている。マウスは、ポインティングデバイスであり、表示装置1100に表示されたキーやアイコン等をクリックすることで対応する機能の指定を行う入力装置である。タッチパネルは、表示装置1100の表面に配置される入力機器で、表示装置1100に画面表示された各種操作キーに対応した、ユーザのタッチ位置を特定し、当該タッチ位置に対応して表示された操作キーの入力を受け付ける。
 表示装置1100は、例えばCRTや液晶ディスプレイ等が使用される。この表示装置には、キーボードやマウスによる入力結果が表示されたり、最終的に検索されたイメージ情報が表示されたりするようになっている。また表示装置1100は、コンピュータ1900の各種機能に応じて、タッチパネルから必要な各種操作を行うための操作キーを画像表示する。なお表示装置1100は、実施形態1~4の表示装置4に対応する。
 記憶装置1200は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置で構成されている。
 この記憶装置1200に使用される記憶媒体は、主としてハードディスク等が使用されるが、後述の記憶媒体駆動装置1300で使用される非一時的なコンピュータ可読媒体を使用するようにしてもよい。
 記憶装置1200は、データ格納部1210、プログラム格納部1220および図示しないその他の格納部(例えば、この記憶装置1200内に格納されているプログラムやデータ等をバックアップするための格納部)等を有している。プログラム格納部1220には、本実施形態1~4における各種処理を実現するためのプログラムが格納されている。データ格納部1210には、本実施形態1~4にかかる各種データベースの各種データを格納する。
 記憶媒体駆動装置1300は、プロセッサ1010が外部の記憶媒体(外部記憶媒体)からコンピュータプログラムや文書を含むデータ等を読み込むための駆動装置である。
 ここで、外部記憶媒体とは、コンピュータプログラムやデータ等が記憶される非一時的なコンピュータ可読媒体をいう。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また各種プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路並びに記憶媒体駆動装置1300を介して、各種プログラムをコンピュータに供給できる。
 つまりコンピュータ1900は、制御処理部1000のプロセッサ1010が、記憶媒体駆動装置1300にセットされた外部の記憶媒体から各種プログラムを読み込んで、記憶装置1200の各部に格納する。
 そして、コンピュータ1900が各種処理を実行する場合、記憶装置1200から該当プログラムをRAM1030に読み込み、実行するようになっている。但しコンピュータ1900は、記憶装置1200からではなく、記憶媒体駆動装置1300により外部の記憶媒体からRAM1030に直接プログラムを読み込んで実行することも可能である。また、コンピュータによっては各種プログラム等を予めROM1020に記憶させておき、これをプロセッサ1010が実行するようにしてもよい。さらに、コンピュータ1900は、各種プログラムやデータを、通信制御装置1400を介して他の記憶媒体からダウンロードし、実行するようにしてもよい。
 通信制御装置1400は、コンピュータ1900と他のパーソナルコンピュータやワードプロセッサ等の各種外部電子機器との間をネットワーク接続するための制御装置である。通信制御装置1400は、これら各種外部電子機器からコンピュータ1900にアクセスすることを可能とする。
 入出力I/F1500は、パラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続するためのインターフェースである。
 なお、プロセッサ1010として、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(digital signal processor)およびASIC(application specific integrated circuit)等が用いられてもよい。また、これらのうち複数個を並列に用いてもよい。
 請求の範囲、明細書、および図面中において示したシステムおよび方法における各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのではない限り、任意の順序で実現しうる。請求の範囲、明細書および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。
 以上、実施の形態を参照して本開示を説明したが、本開示は上記によって限定されるものではない。本開示の構成や詳細には、趣旨を逸脱しない範囲で適宜変更することが可能である。
 この出願は、2020年4月16日に出願された日本出願特願2020-073276を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本開示にかかる表示制御装置は、人物や物体を監視するために利用可能である。
 1 監視支援システム
 2 撮像装置
 4 表示装置
 8 ネットワーク
 10,20,40 表示制御装置
 11,21 取得部
 13,23,43 制御部
 18,28 出力部
 22 検出部
 24 割当部
 25 待機部
 26 待機キュー
 47 割り込み処理部
 1000 制御処理部
 1010 プロセッサ
 1020 ROM
 1030 RAM
 1050 入力装置
 1100 表示装置
 1200 記憶装置
 1210 データ格納部
 1220 プログラム格納部
 1300 記憶媒体駆動装置
 1400 通信制御装置
 1500 入出力I/F
 1900 コンピュータ

Claims (10)

  1.  複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得する取得手段と、
     複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる制御手段と、
     前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する出力手段と、
     を備える表示制御装置。
  2.  前記制御手段は、前記対象映像データを待機キューに格納し、割り当てられた前記時間順序に基づいて前記対象映像データを、前記待機キューから前記出力手段を介して前記表示装置に順次出力させる待機手段を有する、
     請求項1に記載の表示制御装置。
  3.  前記制御手段は、前記対象映像データの撮影時刻に基づいて、前記時間順序を割り当てる、
     請求項1または2に記載の表示制御装置。
  4.  前記制御手段は、前記複数の撮像装置にかかる映像データ間の出力の優先度を示す予め定められた優先度情報に基づいて、前記時間順序を割り当てる、
     請求項1から3のいずれか一項に記載の表示制御装置。
  5.  前記制御手段は、出力の優先度が高い対象映像データを取得したことに応じて、前記表示装置に現在出力している対象映像データの出力を中断させ、前記出力の優先度が高い対象映像データを、前記出力手段を介して前記表示装置に出力させる割込み処理手段を有する
     請求項1から4のいずれか一項に記載の表示制御装置。
  6.  前記出力手段は、前記複数の撮像装置にかかる映像データのうち前記対象状態が検出されなかった映像データを前記表示装置に出力しない、
     請求項1から5のいずれか一項に記載の表示制御装置。
  7.  監視対象を撮像し、映像データを生成する複数の撮像装置と、
     前記複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得する取得手段と、複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当てる制御手段と、前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する出力手段と、を有する表示制御装置と、
     前記対象映像データを表示する表示装置と、
     を備える監視支援システム。
  8.  前記制御手段は、前記対象映像データを待機キューに格納し、割り当てられた前記時間順序に基づいて前記対象映像データを、前記待機キューから前記出力手段を介して前記表示装置に順次出力させる待機手段を含む、
     請求項7に記載の監視支援システム。
  9.  複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得し、
     複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当て、
     前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する、表示制御方法。
  10.  複数の撮像装置の各々により撮像された映像データを前記複数の撮像装置の各々から取得し、
     複数の前記映像データのうち2以上の前記映像データの各々から監視対象の対象状態が検出されたことに応じて、前記対象状態が検出された前記映像データである対象映像データの各々に対して、表示装置への出力の時間順序を割り当て、
     前記対象映像データを、割り当てられた前記時間順序に基づいて前記表示装置に順次出力する、表示制御方法を、コンピュータに実行させるための表示制御プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2021/015644 2020-04-16 2021-04-15 表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体 WO2021210657A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/917,287 US20230185850A1 (en) 2020-04-16 2021-04-15 Display control device, surveillance support system, display control method, and non-transitory computer-readable medium
JP2022515441A JPWO2021210657A5 (ja) 2021-04-15 表示制御装置、監視支援システム、表示制御方法および表示制御プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020073276 2020-04-16
JP2020-073276 2020-04-16

Publications (1)

Publication Number Publication Date
WO2021210657A1 true WO2021210657A1 (ja) 2021-10-21

Family

ID=78083610

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015644 WO2021210657A1 (ja) 2020-04-16 2021-04-15 表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体

Country Status (2)

Country Link
US (1) US20230185850A1 (ja)
WO (1) WO2021210657A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10290447A (ja) * 1997-04-16 1998-10-27 Omron Corp 画像出力制御装置、監視用システム、画像出力制御方法および記憶媒体
JP2001045474A (ja) * 1999-07-28 2001-02-16 Optex Co Ltd ディジタル画像記録システム
JP2007199840A (ja) * 2006-01-24 2007-08-09 Denso Corp 車両用盗難防止システム、車両用盗難防止装置、車両用盗難防止プログラム及び管理装置
JP2012025327A (ja) * 2010-07-27 2012-02-09 Fujitsu Ten Ltd 画像表示システム、画像処理装置及び画像表示方法
JP2013097094A (ja) * 2011-10-31 2013-05-20 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2020047069A (ja) * 2018-09-20 2020-03-26 株式会社日立製作所 情報処理システム、情報処理システムを制御する方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10290447A (ja) * 1997-04-16 1998-10-27 Omron Corp 画像出力制御装置、監視用システム、画像出力制御方法および記憶媒体
JP2001045474A (ja) * 1999-07-28 2001-02-16 Optex Co Ltd ディジタル画像記録システム
JP2007199840A (ja) * 2006-01-24 2007-08-09 Denso Corp 車両用盗難防止システム、車両用盗難防止装置、車両用盗難防止プログラム及び管理装置
JP2012025327A (ja) * 2010-07-27 2012-02-09 Fujitsu Ten Ltd 画像表示システム、画像処理装置及び画像表示方法
JP2013097094A (ja) * 2011-10-31 2013-05-20 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2020047069A (ja) * 2018-09-20 2020-03-26 株式会社日立製作所 情報処理システム、情報処理システムを制御する方法及びプログラム

Also Published As

Publication number Publication date
US20230185850A1 (en) 2023-06-15
JPWO2021210657A1 (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
US11150778B2 (en) System and method for visualization of history of events using BIM model
US10402659B2 (en) Predicting external events from digital video content
US20180239953A1 (en) Smart-security digital system, method and program
US9934663B2 (en) Apparatus and method for improved live monitoring and alarm handling in video surveillance systems
US20210398659A1 (en) Methods and systems for contact tracing of occupants of a facility
US10733231B2 (en) Method and system for modeling image of interest to users
US20210202052A1 (en) Patient safety using virtual observation
JP2010140164A (ja) 作業モニタリング方法、作業モニタリング装置、及びサーバ
EP3121799A1 (en) Digital loss-defense security system, method, and program
Atrey et al. Effective multimedia surveillance using a human-centric approach
US20200296153A1 (en) Monitoring a building management system
EP3633986A1 (en) Headcount management device, and headcount management method and program
JP6373217B2 (ja) 情報処理装置、プログラム、情報提供方法
JP6268497B2 (ja) 警備システム、及び人物画像表示方法
WO2021210657A1 (ja) 表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体
US20150341375A1 (en) Presenting locations of users and status of devices
US20230343193A1 (en) Generation of follow-up action based on information security risks
US11610403B2 (en) Graphical management system for interactive environment monitoring
EP4164215A1 (en) Video playback method and apparatus, and electronic device and computer-readable storage medium
KR102544147B1 (ko) 영상분석 기반 1인 낙상 감지 시스템 및 방법
US20130014058A1 (en) Security System
Palivcova et al. Susy: Surveillance system for hospitals
JP6732324B1 (ja) 情報処理装置、制御プログラム、及び混雑状況判定方法
WO2022030547A1 (ja) 監視情報処理装置、監視情報処理方法及び監視情報処理プログラム
AU2011203344B2 (en) A Security System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21789168

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022515441

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21789168

Country of ref document: EP

Kind code of ref document: A1