WO2020039898A1 - 駅監視装置、駅監視方法及びプログラム - Google Patents

駅監視装置、駅監視方法及びプログラム Download PDF

Info

Publication number
WO2020039898A1
WO2020039898A1 PCT/JP2019/030536 JP2019030536W WO2020039898A1 WO 2020039898 A1 WO2020039898 A1 WO 2020039898A1 JP 2019030536 W JP2019030536 W JP 2019030536W WO 2020039898 A1 WO2020039898 A1 WO 2020039898A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
monitoring
image
priority
station
Prior art date
Application number
PCT/JP2019/030536
Other languages
English (en)
French (fr)
Inventor
実 向谷
Original Assignee
株式会社音楽館
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社音楽館 filed Critical 株式会社音楽館
Priority to JP2020538276A priority Critical patent/JP7107597B2/ja
Priority to CN201980054351.1A priority patent/CN112640444A/zh
Publication of WO2020039898A1 publication Critical patent/WO2020039898A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning, or like safety means along the route or between vehicles or vehicle trains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a station monitoring device, a station monitoring method, and a program.
  • Patent Document 1 describes a technique in which a monitoring device receives a video of a platform of a station from each of a plurality of video distribution devices and displays a composite video obtained by compositing the received video.
  • the priority of monitoring individual videos that appear in the composite video varies. For example, monitoring of images associated with a line where a vehicle is approaching, a line where a vehicle is approaching soon, a line where a vehicle is passing quickly, a line where a vehicle in which a passenger in a wheelchair is entering, etc. Priority seems to be high.
  • Patent Literature 1 if the priority of monitoring individual videos is made to appear in the composite video, the observer should monitor which part of the displayed composite video with priority. Since it can be easily recognized whether or not there is, the burden of monitoring is reduced.
  • the present invention has been made in view of the above problems, and one of the objects thereof is to provide a station monitoring device and a station monitoring apparatus that enable a monitor to easily recognize a portion to be monitored mainly from a displayed composite image. It is to provide a method and a program.
  • a station monitoring device is a station monitoring device that monitors a platform of a station, and includes a video acquisition unit that acquires a plurality of videos each representing a different monitoring target state, and a track associated with the video.
  • a monitoring priority determining unit that determines a priority of monitoring the video based on a situation of a vehicle entering the vehicle, and a composite video that generates a composite video that is a composite of the plurality of videos and that indicates the priority of the monitoring. It includes a generation unit and a display control unit for displaying the composite video.
  • the monitoring priority determining means determines the monitoring priority of the video image associated with the line based on the distance between the station where the line is located and the vehicle.
  • the monitoring priority determining means determines a monitoring priority of a video image associated with the line based on an estimated time until the vehicle arrives at the line.
  • the monitoring priority determining means determines a monitoring priority of a video image associated with the track based on a speed of the vehicle when passing through the track.
  • the monitoring priority determining means determines, based on an attribute of a passenger of a vehicle entering the track, the monitoring priority of the video image associated with the track.
  • the station monitoring method is a station monitoring method for monitoring a platform of a station, wherein a step of acquiring a plurality of images each representing a different monitoring target is provided, and Determining a priority of monitoring the video based on a situation of a vehicle entering the vehicle, generating a composite video combining the plurality of videos, in which the priority of the monitoring is expressed; and Is displayed.
  • the program according to the present invention provides a computer for monitoring a platform of a station, a procedure for acquiring a plurality of images each representing a state of a different monitoring target, and a situation of a vehicle entering a line associated with the image. And determining a monitoring priority of the video, generating a composite video in which the plurality of videos are displayed, and displaying the composite video.
  • FIG. 9 is a diagram illustrating an example of an area specifying result image. It is a figure showing an example of a photography picture.
  • FIG. 9 is a diagram illustrating an example of an area specifying result image.
  • FIG. 4 is a diagram schematically illustrating an example of a relationship between shooting of a shot image, image recognition for the shot image, and tracking of a target area.
  • FIG. 4 is a diagram illustrating an example of a composite image.
  • FIG. 4 is a diagram illustrating an example of a composite image. It is a figure which shows an example of the relationship between a station and a vehicle typically.
  • FIG. 4 is a diagram illustrating an example of a composite image. It is a figure which shows an example of the relationship between a station and a vehicle typically.
  • It is a functional block diagram showing an example of a function of a station monitoring system concerning one embodiment of the present invention.
  • It is a flowchart which shows an example of the flow of the process performed in the video transmission system concerning one Embodiment of this invention.
  • It is a flow figure showing an example of the flow of processing performed by the central monitoring device concerning one embodiment of the present invention.
  • It is a figure showing an example of a reference photography picture.
  • FIG. 9 is a diagram illustrating an example of an area specifying result image.
  • FIG. 9 is a diagram illustrating an example of an area specifying result image.
  • FIG. 1 is a diagram showing an example of the overall configuration of a station monitoring system 1 according to an embodiment of the present invention.
  • the station monitoring system 1 according to the present embodiment includes a central monitoring device 10 and a plurality of video transmission systems 12.
  • the central monitoring device 10 and the plurality of video transmission systems 12 are connected to a computer network 14 such as the Internet. Therefore, the central monitoring device 10 and the video transmission system 12 can communicate with each other via the computer network 14.
  • the central monitoring device 10 is a computer such as a personal computer. As shown in FIG. 1, the central monitoring device 10 includes a processor 10a, a storage unit 10b, a communication unit 10c, an overall monitoring monitor 10d, and an individual monitoring monitor 10e.
  • the processor 10a is a program control device such as a CPU that operates according to a program installed in the central monitoring device 10, for example.
  • the storage unit 10b is a storage element such as a ROM or a RAM, or a hard disk drive.
  • the storage unit 10b stores a program executed by the processor 10a and the like.
  • the communication unit 10c is a communication interface such as a network board for exchanging data with the video transmission system 12, for example.
  • the central monitoring device 10 transmits and receives information to and from the video transmission system 12 via the communication unit 10c.
  • the overall monitoring monitor 10d and the individual monitoring monitor 10e are, for example, display devices such as a liquid crystal display, and display various images according to instructions from the processor 10a.
  • FIG. 2 is a diagram illustrating an example of a configuration of the video transmission system 12 according to the present embodiment.
  • the video transmission system 12 according to the present embodiment includes a camera 20, a video analysis device 22, a down converter 24, a platform monitor 26, and a station building monitor 28.
  • the video analysis device 22 according to the present embodiment is connected to a camera 20, a down converter 24, and a station building monitor 28.
  • the camera 20 according to the present embodiment is connected to a platform monitor 26.
  • the camera 20 is a photographing device such as a digital camera.
  • the platform monitor 26 and the station building monitor 28 are display devices such as a liquid crystal display, for example.
  • the down converter 24 is, for example, a device that lowers the resolution of a received video and outputs the video.
  • the video analysis device 22 is a computer such as a personal computer, for example. As shown in FIG. 2, the video analysis device 22 according to the present embodiment includes a processor 22a, a storage unit 22b, and a communication unit 22c.
  • the processor 22a is a program control device such as a CPU that operates according to a program installed in the video analysis device 22, for example.
  • the storage unit 22b is a storage element such as a ROM or a RAM, or a hard disk drive.
  • the storage unit 22b stores a program executed by the processor 22a and the like.
  • the communication unit 22c is a communication interface such as a network board for exchanging data with the central monitoring device 10, for example.
  • the video analysis device 22 transmits and receives information to and from the central monitoring device 10 via the communication unit 22c.
  • the station monitoring system 1 includes nine video transmission systems 12 (12a to 12i) will be described as an example.
  • the number of video transmission systems 12 included in the station monitoring system 1 is not limited to nine, of course.
  • FIG. 3 is a diagram illustrating an example of one frame image included in a captured video of a monitoring target such as a station platform 30 generated by the camera 20 included in the video transmission system 12e according to the present embodiment.
  • a frame image included in a captured video is referred to as a captured image 32.
  • FIG. 4 is a diagram illustrating an example of another captured image 32 included in the captured video.
  • the camera 20 generates the captured image 32 at a predetermined frame rate.
  • it is assumed that the captured image 32 shown in FIG. 4 is generated in a frame subsequent to the frame in which the captured image 32 shown in FIG. 3 is generated.
  • a captured video is generated by the camera 20 included in the video transmission system 12.
  • the captured video generated by the camera 20 may be displayed on a platform monitor 26 installed on a platform 30 monitored by the camera 20.
  • each of the nine video transmission systems 12 (12a to 12i) is arranged at a different station, and the platform 30 of the station is monitored by one camera 20 at one station. I do.
  • the image analysis device 22 performs an image recognition process on the captured image 32 using a known image recognition technique, and determines whether a given object appears in the captured image 32. .
  • the image recognition processing may be executed using a learned machine learning model.
  • the given object is referred to as a target object 34.
  • the target object 34 include an object for which it is desirable to pay special attention, such as a person holding a white cane or a service dog such as a guide dog or a hearing dog.
  • the target object 34 does not need to be one type of object, and may be a plurality of types of objects.
  • the target object 34 does not appear in the captured image 32 shown in FIG.
  • the target object 34 appears in the captured image 32 shown in FIG. Therefore, it is determined that the target object 34 is not shown for the captured image 32 shown in FIG. 3, and it is determined that the target object 34 is shown for the captured image 32 shown in FIG.
  • the region where the target object 34 appears is specified.
  • an area where the target object 34 appears is referred to as a target area.
  • FIG. 5 is a diagram illustrating an example of the area specifying result image 36 that is an example of the target area information.
  • a frame-shaped target area image 38 surrounding the target object 34 is superimposed on the photographed image 32 shown in FIG.
  • FIG. 6 is a diagram illustrating an example of the captured image 32 generated by the camera 20 in a frame subsequent to the frame in which the captured image 32 illustrated in FIG. 4 is generated.
  • the target object 34 also appears in the captured image 32 shown in FIG.
  • the video analysis device 22 executes a known tracking process for tracking the target region specified in the image recognition process on the captured image 32 shown in FIG.
  • An area may be specified.
  • an area specifying result image 36 illustrated in FIG. 7 indicating the target area specified in this way may be generated.
  • a frame-shaped target area image 38 surrounding the target object 34 is superimposed on the photographed image 32 shown in FIG.
  • FIG. 8 is a diagram schematically illustrating an example of a relationship between shooting of the shot image 32, image recognition for the shot image 32, and tracking of a target area in the present embodiment, focusing on 16 frames.
  • the 16 frames will be referred to as first to sixteenth frames.
  • the above-described image recognition processing is implemented using a machine learning model, and execution of the processing takes time.
  • the above-described tracking processing is implemented by a pattern matching technique using a feature amount such as a distribution of pixel values of pixels in a target area, and the execution time of the processing for one image is shorter than the above-described image recognition processing. Is short.
  • image recognition processing for one captured image 32 takes time corresponding to three frames, and tracking processing for one captured image 32 takes longer than time corresponding to one frame. It takes only a short time.
  • the captured image 32 captured in the n-th frame is represented as p (n) (n is an integer of 1 or more and 16 or less).
  • the result of image recognition for the captured image 32 (p (n)) captured in the n-th frame is expressed as r (p (n)).
  • the region specifying result image 36 illustrated in FIG. 5 corresponds to an example of the image recognition result r (p (n)).
  • the image recognition result (r (p (1))) of the captured image 32 (p (1)) of the first frame is the same as that of the captured image 32 (p (4)) of the fourth frame. It is specified at the shooting timing.
  • image recognition is performed on the captured image 32 (p (4)) of the fourth frame. Then, the image recognition result (r (p (4))) is specified at the photographing timing of the photographed image 32 (p (7)) of the seventh frame.
  • the image recognition result (r (p (10))) of the captured image 32 (p (10)) of the tenth frame is the same as that of the captured image 32 (p (13)) of the thirteenth frame.
  • the timing is specified.
  • the image recognition result (r (p (13))) of the photographed image 32 (p (13)) of the thirteenth frame is specified at the photographing timing of the photographed image 32 (p (16)) of the sixteenth frame. .
  • a process of tracking the target area specified by the latest image recognition result available at the shooting timing of the shot image 32 is executed on the shot image 32, so that the shot image 32 A target area within 32 is identified.
  • the captured images 32 of the fourth to sixth frames (p (4) to p (6)) are specified by the image recognition result (r (p (1))) of the captured image 32 of the first frame.
  • a process of tracking the target area that has been set is executed.
  • the result of this tracking processing is t (p (4), r (p (1))), t (p (5), r (p (1))), t (p (6), r (p (1))).
  • the area specifying result image 36 illustrated in FIG. 7 corresponds to an example of the result t of the tracking processing.
  • the result of image recognition for the captured image 32 of the fourth frame (r (p (4))
  • the processing for tracking the target area specified by () is executed.
  • the result of this tracking processing is t (p (7), r (p (4))), t (p (8), r (p (4))), t (p (9), r (p (4))).
  • the process of tracking the target area is performed for the captured images 32 of the tenth frame and thereafter.
  • the process of tracking the target region specified by the latest image recognition result available at the shooting timing of the shot image 32 is performed on the shot image 32, thereby executing the process.
  • a target area in the captured image 32 is specified. Therefore, in the present embodiment, it is possible to specify the target area in the captured image 32 in a short time after the captured image 32 is captured.
  • transmission data indicating a low-resolution video obtained by reducing the resolution of a captured video and a result of determining whether the target object 34 appears in the captured video is generated.
  • a video including a low-resolution image as a frame image which is an image obtained by reducing the resolution of the area specifying result image 36 shown in FIG. May be generated as
  • the low-resolution image is also a frame image of the low-resolution video obtained by reducing the resolution of the captured video, and is also an image indicating the result of determining whether the target object 34 appears in the captured image 32.
  • a flag indicating whether or not the target image 34 of each of the captured images 32 included in the captured video is included in the header or the like while including the captured video with a low-resolution video obtained by reducing the resolution.
  • the low-resolution video includes a low-resolution image obtained by reducing the resolution of the captured image 32 as a frame image.
  • the flag included in the transmission data indicates the result of the determination as to whether or not the target object 34 appears in the captured video.
  • a low-resolution image obtained by reducing the resolution of a captured image and transmission data including target area information may be generated.
  • the target area information includes, for example, the position and shape of the target area in the low-resolution image of the low-resolution image in which the target object 34 appears, among the low-resolution images that are frame images included in the low-resolution video. May be indicated.
  • the target area information may be information indicating coordinate values of four corner positions of a frame corresponding to the target area in the low resolution image.
  • the target area information may be information in the form of an image such as the target area image 38.
  • the target area information included in the transmission data indicates the result of the determination as to whether or not the target object 34 appears in the captured video.
  • the captured image 32 or a low-resolution image obtained by reducing the resolution of the area specifying result image 36 in which the captured image 32 and the target area image 38 are superimposed is referred to as a low-resolution image associated with the captured image 32. It shall be.
  • the transmission data generated in this manner is transmitted to the central monitoring device 10.
  • the transmission data generated by the other video transmission systems 12 (12a to 12d and 12f to 12i) is transmitted to the central monitoring apparatus 10 also.
  • a photographed image or a low-resolution image may be displayed on the station building monitor 28 installed in the station building.
  • the target area may be shown in a frame image included in the video displayed on the station building monitor 28.
  • a video including a series of area specifying result images 36 as frame images may be displayed on the station building monitor 28.
  • the central monitoring device 10 receives the above-described transmission data transmitted from each of the plurality of video transmission systems 12 (12a to 12i).
  • FIGS. 9 and 10 are diagrams each showing an example of a composite image 40 that is one frame image included in the composite video.
  • FIG. 9 illustrates an example of the composite image 40 in a case where the result of the above-described determination indicates that the target object 34 does not appear in all the transmission data to be received.
  • FIG. 10 illustrates an example of the composite image 40 in a case where the result of the above determination indicates that the target object 34 appears in the two pieces of transmission data to be received.
  • the composite image 40 includes, for example, a plurality of individual image regions 42 that are associated with different video transmission systems 12, respectively.
  • the composite image 40 illustrated in FIGS. 9 and 10 includes nine individual image areas 42 (42a to 42i) respectively associated with the nine video transmission systems 12 (12a to 12i).
  • the video transmission system 12e including the camera 20 that has captured the captured image 32 illustrated in FIGS. 3, 4, and 6 is associated with the individual image area 42e.
  • a low-resolution image that is a frame image included in the low-resolution video indicated by the transmission data received from the video transmission system 12 is arranged in the individual image area 42 associated with the video transmission system 12.
  • the central monitoring apparatus 10 determines whether the target object 34 appears in the captured image 32 associated with the low-resolution image arranged in the individual image area 42. Identify the result of the determination.
  • the result of the determination may be specified based on a flag included in the transmission data.
  • the transmission data includes target area information indicating the position and shape of the target area in the low resolution image obtained by reducing the resolution of the captured image 32
  • the target object 34 appears in the captured image 32. May be determined.
  • a process of detecting the target area image 38 from the low resolution image indicated by the transmission data may be executed. Then, when the target area image 38 can be detected, it may be determined that the target object 34 appears in the captured image 32 before the low-resolution image is reduced in resolution.
  • a composite image 40 indicating the result of the above-described determination is generated.
  • a composite image 40 in which a frame-shaped determination identification image 44 surrounding the individual image region 42 in which the target object 34 is determined to appear in the captured image 32 associated with the low-resolution image to be arranged is superimposed. May be generated.
  • FIG. 10 shows, as an example, a judgment identification image 44a surrounding the individual image region 42e and a judgment identification image 44b surrounding the individual image region 42g.
  • the target area in which the target object 34 appears in the low-resolution image is shown in the individual image area 42 in which the low-resolution image is arranged.
  • the area specifying result image 46 may be displayed in the individual image area 42 as information representing the target area.
  • the area specifying result image 46 may be, for example, an image obtained by reducing the resolution of the area specifying result image 36.
  • the area specifying result image 46 may be, for example, a frame-shaped image having a corner represented by a position represented by the coordinate value indicated by the target area information.
  • the priority of video monitoring may be determined based on the situation of a vehicle entering a track associated with transmission data.
  • the line associated with the transmission data is monitored by, for example, a line at a station where the video transmission system 12 that transmits the transmission data is arranged, or by the camera 20 of the video transmission system 12 that transmits the transmission data. It means a track or the like adjacent to the platform 30.
  • One camera 20 may be associated with one line, or one camera 20 may be associated with a plurality of lines.
  • the monitoring priority of the video may be determined for the individual image area 42 determined to have the target object 34 appearing in the captured image 32.
  • FIG. 11 schematically shows an example of the relationship between the stations where the nine video transmission systems 12 (12a to 12i) are arranged and the vehicles operating between these stations.
  • FIG. 11 shows nine station objects 50 (50a to 50i) respectively associated with stations in which nine video transmission systems 12 (12a to 12i) are arranged, and four vehicles associated with operating vehicles.
  • Objects 52 52a to 52d are shown.
  • the traveling direction of the vehicle is represented by an arrow.
  • the position of the vehicle at the photographing timing of the photographed image 32 associated with the composite image 40 illustrated in FIG. 10 is shown in FIG. 11 as the position of the vehicle object 52.
  • the length between the station object 50e and the vehicle object 52c is shorter than the length between the station object 50g and the vehicle object 52d.
  • the distance between the station where the video transmission system 12e is located and the vehicle approaching the station is the distance between the station where the video transmission system 12g is located and the vehicle approaching the station.
  • the priority of monitoring the video captured by the camera 20 included in the video transmission system 12e is higher than the priority of monitoring the video captured by the camera 20 included in the video transmission system 12g. May be determined.
  • the determination identification image 44 in a mode according to the video monitoring priority determined as described above is arranged in the composite image 40.
  • an aspect according to the video monitoring priority is predetermined.
  • the mode having the highest priority is a solid pattern such as the determination identification image 44a
  • the mode having the next highest priority is a hatch pattern such as the determination identification image 44b. Therefore, in the example of FIG. 10, the judgment identification image 44a is arranged so as to surround the individual image area 42e, and the judgment identification image 44b is arranged so as to surround the individual image area 42g.
  • the monitoring priority of the video is determined based on the distance between the vehicle and the station having the track corresponding to the transmission data.
  • the priority of video monitoring may be determined based on the estimated time until the vehicle arrives at the track associated with the transmission data. For example, the shorter the estimation time is, the higher the priority may be determined.
  • the priority of video monitoring may be determined based on the speed of the vehicle when passing through a track associated with the transmission data. For example, the higher the speed, the higher the priority may be determined.
  • the priority of video monitoring may be determined based on the attributes of the passengers of the vehicle when entering the track associated with the transmission data.
  • examples of the attributes of the passengers of the vehicle include attributes such as using a wheelchair and accompanying an assisting dog.
  • the priority may be determined to be higher than otherwise.
  • the aspect according to the video monitoring priority is not limited to the pattern shown in FIG.
  • the judgment identification image 44 of the color corresponding to the video monitoring priority may be arranged in the composite image 40.
  • an individual image area 42 having a size corresponding to the video monitoring priority may be arranged in the composite image 40.
  • an individual image area 42 having a larger priority may be arranged in the composite image 40.
  • the state of the vehicle described above may be managed by, for example, a known operation management system. Then, the central monitoring device 10 may specify the status of the vehicle such as the above-described distance, estimated time, speed, and attributes of the passenger based on various data acquired from the operation management system. Further, in the present embodiment, the monitoring priority of the video may be determined based on a plurality of combinations of the distance, the estimated time, the speed, and the attribute of the passenger.
  • the central monitoring device 10 may transmit a request for transmitting a captured video to the video transmission system 12. For example, in response to an operation of designating an individual image area 42 by a monitor (a user of the central monitoring apparatus 10) monitoring the composite image 40, an image as a transmission source of transmission data associated with the individual image area 42
  • the transmission request of the captured video may be transmitted to the transmission system 12.
  • a request for transmitting a captured video may be transmitted to the video transmission system 12 that is determined based on the video monitoring priority.
  • a request to transmit a captured video may be transmitted to the video transmission system 12 including the camera 20 that captures the video with the highest monitoring priority.
  • the video transmission system 12 that has received the request for transmitting the captured video may transmit the captured video to the central monitoring apparatus 10 in response to the transmission request.
  • the central monitoring apparatus 10 may display the received captured video on the individual monitoring monitor 10e. In this way, the observer can monitor the high-resolution captured video in the central monitoring device 10 in detail.
  • the video transmission system 12 may transmit the substitute transmission data indicating the captured video and the result of the above determination to the central monitoring apparatus 10 in response to receiving the transmission request. Then, the central monitoring apparatus 10 may cause the individual monitoring monitor 10e to display the captured video indicated by the alternative transmission data, which indicates the result of the above determination indicated by the alternative transmission data.
  • the video including the area specifying result image 36 generated based on the captured image 32 included in the captured video as a frame image is transmitted from the video transmission system 12 to the central monitoring apparatus 10 as alternative transmission data. Is also good. Then, the video may be displayed on the individual monitoring monitor 10e.
  • the analysis accuracy of the video is ensured. Since the transmitted video is a low-resolution video, the load on the computer network 14 can be reduced. As described above, according to the present embodiment, the load on the computer network 14 due to transmission can be reduced while ensuring the analysis accuracy of the video of the platform 30 at the station.
  • the monitoring priority of the video is determined for the individual image area 42 in which it is determined that the target object 34 appears in the captured image 32.
  • the video monitoring priority may be determined for all the individual image areas 42.
  • FIG. 12 is a diagram showing another example of the composite image 40.
  • FIG. 13 schematically shows another example of the relationship between the stations in which each of the nine video transmission systems 12 (12a to 12i) is arranged and the vehicles operating between these stations. .
  • the traveling direction of the vehicle is represented by an arrow.
  • FIG. 13 it is assumed that the position of the vehicle at the photographing timing of the photographed image 32 associated with the composite image 40 illustrated in FIG. 12 is indicated as the position of the vehicle object 52.
  • the length between the station object 50g and the vehicle object 52d is shorter than the length between the station object 50c and the vehicle object 52b.
  • the length between the station object 50f and the vehicle object 52c is shorter than the length between the station object 50g and the vehicle object 52d.
  • the length between the station object 50b and the vehicle object 52a is shorter than the length between the station object 50f and the vehicle object 52c.
  • the individual image area 42b, the individual image area 42f, the individual image area 42g, and the individual image area 42c may be determined in descending order of the video monitoring priority.
  • FIG. 12 shows the determination identification image 44 in a mode according to the video monitoring priority determined as described above.
  • an aspect according to the video monitoring priority is predetermined.
  • the mode with the highest priority is a solid pattern like the determination identification image 44a
  • the mode with the next highest priority is a hatched pattern like the determination identification image 44b
  • the mode with the next highest priority Is a white pattern like the determination identification image 44c.
  • the determination identification image 44 is not arranged in the individual image area 42 having the fourth or higher priority. Therefore, in the example of FIG.
  • the judgment identification image 44a is arranged so as to surround the individual image region 42b
  • the judgment identification image 44b is arranged so as to surround the individual image region 42f
  • the judgment identification image 44c is arranged so as to surround the individual image region 42g. It will be arranged so as to surround it.
  • the monitoring priority of the video is determined based on the distance between the vehicle and the station having the track corresponding to the transmission data.
  • video monitoring is performed based on the estimated time until the vehicle arrives at the line, the speed of the vehicle when passing through the line, the attributes of the passenger of the vehicle when entering the line, and the like. May be determined.
  • the mode according to the video monitoring priority is not limited to the pattern shown in FIG.
  • the observer can easily recognize a portion to be monitored with priority from the displayed composite video.
  • FIG. 14 is a functional block diagram illustrating an example of functions implemented in the central monitoring device 10 and the video transmission system 12 included in the station monitoring system 1 according to the present embodiment that monitors the platform 30 of the station.
  • the central monitoring device 10 and the video transmission system 12 according to the present embodiment it is not necessary to implement all of the functions illustrated in FIG. 14, and functions other than the functions illustrated in FIG. No problem.
  • the central monitoring device 10 functionally includes, for example, a transmission data receiving unit 60, a video obtaining unit 62, a vehicle situation data obtaining unit 64, a monitoring priority determining unit 66, A composite video generating unit 68, a captured video transmission requesting unit 70, a captured video receiving unit 72, and a display control unit 74 are included.
  • the transmission data receiving unit 60, the photographed image transmission requesting unit 70, and the photographed image receiving unit 72 are implemented mainly by the communication unit 10c.
  • the video acquisition unit 62, the vehicle situation data acquisition unit 64, the monitoring priority determination unit 66, and the composite video generation unit 68 are implemented mainly by the processor 10a.
  • the display control unit 74 is mainly implemented with the processor 10a, the overall monitoring monitor 10d, and the individual monitoring monitor 10e.
  • the central monitoring device 10 plays a role as a station monitoring device that monitors the platform 30 of the station in the present embodiment.
  • the above functions may be implemented by executing a program including instructions corresponding to the above functions installed in the central monitoring device 10 as a computer by the processor 10a.
  • This program may be supplied to the central monitoring device 10 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet. .
  • the video transmission system 12 functionally includes, for example, a captured video acquisition unit 80, a determination unit 82, a transmission data generation unit 84, a transmission data transmission unit 86, a transmission request reception Unit 88 and a photographed video transmission unit 90.
  • the determination unit 82 includes an image recognition unit 82a and a tracking unit 82b.
  • the captured video acquisition unit 80 is mainly implemented with the camera 20 and the processor 22a of the video analysis device 22.
  • the determination unit 82 is mainly implemented by the processor 22a of the video analysis device 22.
  • the transmission data generation unit 84 is mainly implemented by the processor 22a, the communication unit 22c, and the down converter 24 of the video analysis device 22.
  • the transmission data transmission unit 86, the transmission request reception unit 88, and the captured video transmission unit 90 are implemented mainly by the communication unit 22c of the video analysis device 22.
  • the video analysis device 22 according to the present embodiment plays a role as a transmission device that transmits transmission data to the central monitoring device 10.
  • the above functions may be implemented by executing a program including instructions corresponding to the above functions, which is installed in the video analysis device 22 as a computer, on the processor 22a.
  • This program may be supplied to the video analysis device 22 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, a flash memory, or via the Internet. .
  • the transmission data generation unit 84 may be implemented by hardware such as the down converter 24 and software operating on the video analysis device 22. Further, the transmission data generation unit 84 may be implemented only with hardware such as the down converter 24 or only with software operating on the video analysis device 22.
  • the transmission data receiving unit 60 receives a plurality of the above-described transmission data transmitted from the different video transmission systems 12.
  • the transmission data indicates the low-resolution video obtained by reducing the resolution of the captured video and the result of determining whether the target object 34 appears in the captured video.
  • the video acquisition unit 62 acquires a plurality of videos each representing a different monitoring target.
  • the video acquisition unit 62 may acquire the low-resolution video indicated by each of the plurality of transmission data received by the transmission data receiving unit 60.
  • one platform 30 is photographed by one camera 20.
  • different parts of one platform 30 may be photographed by different cameras 20, respectively.
  • a part of the platform 30 photographed by one camera 20 and another part of the platform 30 photographed by another camera 20 are different monitoring targets.
  • a plurality of platforms 30 may be photographed by one camera 20. In this case, the plurality of platforms 30 correspond to one monitoring target.
  • the vehicle status data obtaining unit 64 obtains vehicle status data indicating the status of the vehicle entering the line associated with the video representing the state of the monitoring target.
  • the vehicle situation data acquisition unit 64 may acquire the vehicle situation data from a known operation management system.
  • the monitoring priority determination unit 66 determines the monitoring priority of the video based on the situation of the vehicle entering the line associated with the video representing the state of the monitoring target.
  • the video monitoring priority may be determined based on the vehicle situation data acquired by the vehicle situation data acquisition unit 64.
  • the monitoring priority determination unit 66 determines the priority of monitoring of the video associated with the line based on the distance between the station and the vehicle having the line associated with the image representing the state of the monitoring target. The degree may be determined.
  • the monitoring priority determination unit 66 determines the monitoring priority of the video associated with the line based on the estimated time until the vehicle arrives at the line associated with the video representing the state of the monitoring target. You may.
  • the monitoring priority determining unit 66 determines the priority of monitoring the video associated with the line based on the speed of the vehicle when passing through the line associated with the image representing the state of the monitoring target. Is also good.
  • the monitoring priority determining unit 66 determines the monitoring priority of the video associated with the line based on the attribute of the passenger of the vehicle entering the line associated with the image representing the state of the monitoring target. Is also good.
  • the monitoring priority determination unit 66 may determine the video monitoring priority based on a plurality of combinations of the above-described distance, estimated time, speed, and passenger attributes.
  • the composite video generation unit 68 generates a composite video in which a plurality of videos each representing a different monitoring target are combined.
  • the composite video generation unit 68 may generate a composite video indicating the priority of video monitoring.
  • the composite video generation unit 68 may generate a composite video obtained by compositing the low-resolution video indicated by each of the plurality of transmission data.
  • the composite video generation unit 68 may generate a composite video obtained by compositing the video acquired by the video acquisition unit 62.
  • the composite video generation unit 68 may generate a composite video in which a result of the above-described determination indicated by at least one of the plurality of pieces of transmission data is represented.
  • the composite video generation unit 68 indicates the result of the above-described determination indicated by each of the plurality of pieces of transmission data in a manner according to the situation of the vehicle entering the track associated with the video transmission system 12 that transmits the transmission data.
  • a composite video may be generated.
  • the photographed image transmission request unit 70 transmits a request for transmitting a photographed image of the platform 30 on which the image transmission system 12 is installed to the image transmission system 12.
  • a request for transmitting a captured video may be transmitted to the video transmission system 12 specified by a user such as a monitor.
  • a request for transmitting a captured video may be transmitted to the video transmission system 12 that is determined based on the video monitoring priority.
  • a request for transmitting a captured video may be transmitted to the video transmission system 12 including the camera 20 that captures the video with the highest monitoring priority.
  • the captured video receiving unit 72 receives a captured video transmitted by the video transmission system 12 in response to receiving a transmission request for a captured video.
  • the display control unit 74 displays the composite video generated by the composite video generation unit 68.
  • the display control unit 74 displays a captured image received by the captured image receiving unit 72.
  • the display control unit 74 displays the composite video on the overall monitoring monitor 10d and displays the captured video on the individual monitoring monitor 10e.
  • the display control unit 74 may switch and display a plurality of captured images. For example, a plurality of captured images having a high monitoring priority may be automatically and repeatedly switched and displayed at predetermined time intervals. Further, the photographed video transmission request unit 70 may change the video transmission system 12, which is the transmission destination of the photographed video transmission request, according to the switching timing of the display.
  • the captured video acquisition unit 80 acquires a captured video of the monitoring target.
  • a captured video of the platform 30 on which the video transmission system 12 is installed may be acquired.
  • the determination unit 82 determines whether or not a given object appears in the captured video based on the captured video acquired by the captured video acquisition unit 80.
  • the above-described target object 34 corresponds to the given object.
  • the image recognition unit 82a specifies an area where the target object 34 appears in the captured image 32 by executing an image recognition process on the captured image 32.
  • the tracking unit 82b defines an area where the target object 34 appears in the captured image 32, and an area specified by the image recognition unit 82a for the captured image 32 captured before the captured image 32. Identify by tracking.
  • the transmission data generation unit 84 generates transmission data indicating a low-resolution video obtained by reducing the resolution of the captured video and the result of the determination based on the captured video and the result of the above determination. .
  • the transmission data transmission unit 86 transmits the transmission data generated by the transmission data generation unit 84 to the central monitoring device 10, for example.
  • the transmission request receiving unit 88 receives, for example, a transmission request of a captured image transmitted by the captured image transmission requesting unit 70 of the central monitoring device 10.
  • the photographed video transmitting unit 90 transmits the photographed video to the central monitoring device 10 in response to the reception of the photographed video transmission request by the transmission request receiving unit 88.
  • the captured video transmission unit 90 may transmit the captured video acquired by the captured video acquisition unit 80 to the central monitoring device 10.
  • the captured video transmitting unit 90 may transmit, to the central monitoring apparatus 10, alternative transmission data indicating the captured video and the result of the above determination, in response to the reception of the captured video transmission request by the transmission request receiving unit 88.
  • alternative transmission data indicating the captured video and the result of the above determination
  • a video including, as a frame image, the area specifying result image 36 generated based on the captured image 32 included in the captured video may be transmitted as alternative transmission data.
  • the display control unit 74 of the central monitoring device 10 displays, in response to the reception of the substitute transmission data, the captured image indicated by the substitution transmission data, which indicates the result of the above-described determination indicated by the substitution transmission data. You may.
  • the display control unit 74 of the central monitoring apparatus 10 may display a video including the area specifying result image 36 as a frame image.
  • the captured video acquisition unit 80 acquires the captured image 32 (S101).
  • the captured image 32 acquired here is a frame image of the frame in the captured video.
  • the captured video acquisition unit 80 determines whether image recognition by the image recognition unit 82a is possible (S102).
  • image recognition unit 82a is performing image recognition on the captured image 32 obtained in a frame earlier than the frame, it is determined that image recognition is not possible.
  • image recognition unit 82a has not performed image recognition on the captured image 32, it is determined that image recognition is possible.
  • the image recognition unit 82a executes the image recognition process on the captured image 32 acquired in the process shown in S101.
  • the process starts (S103).
  • a target area in which the target object 34 appears in the captured image 32 is specified.
  • the above-described region specifying result image 36 may be generated.
  • target area information indicating the position and shape of the target area may be generated.
  • the tracking unit 82b determines whether the result of specifying the available target area, which is the result of the image recognition processing in the processing shown in S103, is not possible. It is confirmed whether or not there is (S104). Similarly, after the processing shown in S103 is performed, the tracking unit 82b confirms whether there is a result of specifying an available target area, which is a result of the image recognition processing in the processing shown in S103 (S104). ).
  • the tracking unit 82b executes a tracking process (S105).
  • a tracking process As described with reference to FIG. 8, for example, the latest available specification result in the image recognition processing in the processing shown in S103 is specified. Then, by tracking the target area in the captured image 32 indicated by the specification result, the target area in which the target object 34 appears in the captured image 32 acquired in the process illustrated in S101 is specified.
  • the above-described region specifying result image 36 may be generated. Further, for example, target area information indicating the position and shape of the target area may be generated.
  • the tracking unit 82b determines whether or not the target object 34 appears in the captured image 32 acquired in the processing shown in S101. A determination is made (S106). Similarly, when the processing shown in S105 ends, the tracking unit 82b determines whether the target object 34 appears in the captured image 32 acquired in the processing shown in S101 (S106). Here, for example, when the target area is specified in the processing shown in S105, it is determined that the target object 34 appears in the captured image 32. If tracking cannot be performed in the processing shown in S105 and the target area has not been specified, it is determined that the target object 34 does not appear in the captured image 32. Also, when it is confirmed that there is no target area identification result that can be used in the processing shown in S104, it is determined that the given object does not appear in the captured image 32.
  • the transmission data generation unit 84 generates a low-resolution image by reducing the resolution of the captured image 32 obtained in the process shown in S101 (S107).
  • a low-resolution image may be generated by reducing the resolution of the area specifying result image 36.
  • the transmission data generation unit 84 generates transmission data based on the result of the determination in the processing shown in S106 and the low resolution image generated in the processing shown in S107 (S108).
  • transmission data that includes the region identification result image 36 whose resolution has been reduced and that is generated in the process illustrated in S107 may be generated.
  • transmission data including a flag indicating a result of the determination in the process illustrated in S106 may be generated in a header or the like.
  • transmission data including a low-resolution image obtained by reducing the resolution of the captured image 32 and target region information indicating the position and shape of the target region in the low-resolution image may be generated.
  • the transmission data transmitting unit 86 transmits the transmission data generated in the processing shown in S108 to the central monitoring device 10 (S109), and returns to the processing shown in S101.
  • the processing shown in S101 to S109 is repeatedly executed at a predetermined frame rate.
  • transmission of transmission data is performed every frame.
  • a plurality of generated transmission data are collectively centrally monitored. It may be transmitted to the device 10.
  • the transmission data receiving unit 60 buffers transmission data received from each of the video transmission systems 12.
  • the video acquiring unit 62 acquires a plurality of transmission data in the frame from the buffer of the transmission data receiving unit 60 (S201).
  • the plurality of transmission data are transmitted from each of the plurality of video transmission systems 12.
  • the transmission data includes a frame number, and the video acquisition unit 62 can specify a plurality of transmission data in the frame.
  • the composite video generation unit 68 specifies the result of the determination as to whether or not the target object 34 appears in the captured image 32 associated with the transmission data. (S202). As described above, for example, the determination is performed based on the detection result of the target area image 38 from the low resolution image indicated by the transmission data, the determination result indicated by the flag included in the transmission data, the target area information included in the transmission data, and the like. Is determined.
  • the vehicle status data obtaining unit 64 obtains vehicle status data indicating the status of the vehicle in the frame (S203).
  • the monitoring priority determining unit 66 determines the video monitoring priority for each of the plurality of transmission data obtained in the process shown in S201 based on the vehicle situation data obtained in the process shown in S203 (S204). ).
  • the priority of video monitoring may be determined only for the transmission data for which it is determined that the target object 34 appears in the captured image 32 in S202.
  • the composite video generation unit 68 generates the composite image 40 in the frame (S205).
  • the combining is performed. An image 40 is generated.
  • the display control unit 74 causes the composite image 40 generated in the processing shown in S205 to be displayed (S206), and returns to the processing shown in S201.
  • the processing shown in S201 to S206 is repeatedly executed at a predetermined frame rate.
  • an image of a specific place may be taken in response to detection of the target object 34 at a specific place such as a ticket gate.
  • a specific place such as a ticket gate.
  • the image of the place where the target object 34 is detected which is captured in accordance with the detection of the target object 34 and is captured in this manner, is referred to as a reference captured image 92.
  • the reference photographed image 92 is photographed by a camera 20 different from the camera 20 that photographs a monitoring target such as the platform 30 of the station.
  • FIG. 17 shows an example of the reference photographed image 92a of the target object 34 photographed from the front of the ticket gate.
  • FIG. 18 shows an example of a reference photographed image 92b of the target object 34 photographed from behind the ticket gate.
  • a plurality of reference photographed images 92 may be photographed from different directions according to the detection of the IC tag.
  • a sensor that detects an IC tag embedded in a white cane, an IC card carried by a person holding the white cane, an IC card hanging on an assisting dog, or the like, at a specific location such as a ticket gate. It may be installed in. Then, one or a plurality of reference photographed images 92 may be photographed in accordance with the detection of the IC tag or the IC card by the sensor. Note that the target object 34 may be detected by a method different from detection of an IC tag or an IC card.
  • the location where the target object 34 is detected is not limited to the ticket gate.
  • the above-mentioned sensor may be installed in a home door or the like. Then, in response to the detection of the target object 34 by the sensor, the reference photographed image 92 of the home door and the surrounding area may be photographed.
  • the photographed video acquisition unit 80 may acquire the reference photographed image 92 photographed in this manner.
  • the captured video acquisition unit 80 may acquire a plurality of reference captured images 92 captured from different directions.
  • the image recognizing unit 82a may execute an image recognition process on the above-described reference photographed image 92 by a known image recognition technique, and specify a target area where the target object 34 appears in the reference photographed image 92. . Then, the image recognition unit 82a may generate the above-described target area information indicating the target area.
  • FIG. 19 is a diagram illustrating an example of an area specifying result image 94a that is an example of target area information generated based on the reference captured image 92a illustrated in FIG.
  • FIG. 20 is a diagram illustrating an example of an area specifying result image 94b that is an example of target area information generated based on the reference captured image 92b illustrated in FIG.
  • the determination unit 82 may determine whether or not the target object 34 appears in the captured video based on the reference captured image 92 and the captured video of the monitoring target such as the platform 30 of the station. Here, based on the plurality of reference captured images 92 captured from different directions and the captured video, it may be determined whether or not the target object 34 appears in the captured video.
  • the image recognition unit 82a performs an image recognition process on the captured image 32 using the target region specified based on the reference captured image 92, and thereby the region where the target object 34 appears in the captured image 32 is displayed. It may be specified.
  • the tracking unit 82b may specify an area where the target object 34 appears in the captured image 32 by tracking the target area specified by the image recognition unit 82a with respect to the reference captured image 92 described above.
  • the target object 34 is clearly displayed in the reference photographed image 92 photographed in response to the detection of the target object 34. Therefore, by performing the above, the target object 34 can be detected more accurately from the captured image 32 of the monitoring target such as the platform 30 of the station.
  • the role sharing between the central monitoring device 10 and the video transmission system 12 is not limited to the above.
  • the video transmission system 12 may specify the status of the vehicle entering the line associated with the video representing the state of the monitoring target. Then, vehicle status data indicating the status of the vehicle may be transmitted from the video transmission system 12 to the central monitoring device 10. Then, the central monitoring device 10 may determine the monitoring priority of the video based on the vehicle situation data received from the video transmission system 12.
  • one video transmission system 12 may monitor a plurality of stations to be monitored.
  • one video transmission system 12 includes a plurality of cameras 20 installed at a plurality of different stations. Then, one video transmission system 12 may generate transmission data associated with the video based on the video captured by each of the plurality of cameras 20.
  • Some or all of the functions of the central monitoring device 10 may be implemented in one video transmission system 12. Further, for example, one video transmission system 12 may monitor platforms 30 of a plurality of stations. Further, for example, one video transmission system 12 may monitor a plurality of platforms 30 installed in a station where the video transmission system 12 is arranged. As described above, the present invention is applicable not only to monitoring of a plurality of stations in the central monitoring apparatus 10 but also to monitoring of a plurality of platforms 30 in one station.

Abstract

表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できる駅監視装置、駅監視方法及びプログラムを提供する。映像取得部(62)は、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する。監視優先度決定部(66)は、映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する。合成映像生成部(68)は、監視の優先度が表された、複数の映像を合成した合成映像を生成する。表示制御部(74)は、合成映像を表示させる。

Description

駅監視装置、駅監視方法及びプログラム
 本発明は、駅監視装置、駅監視方法及びプログラムに関する。
 特許文献1には、監視装置が複数の映像配信装置のそれぞれから駅のプラットホームを撮影した映像を受信して、受信した複数の映像を合成した合成映像を表示させる技術が記載されている。
特開2014-192844号公報
 合成映像に表れている個々の映像の監視の優先度は様々である。例えば近くまで車両が来ている番線、まもなく車両が進入する番線、通過する際の車両の速度が速い番線、車いすの乗客が乗車している車両が進入する番線などに対応付けられる映像の監視の優先度は高いものと思われる。
 ここで特許文献1に記載の技術において、個々の映像の監視の優先度が合成映像に表れるようにすると、監視者は表示されている合成映像を見るとどの部分を重点的に監視すべきであるかを容易に認識できるため、監視の負担が軽減される。
 本発明は上記課題に鑑みてなされたものであって、その目的の1つは、表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できる駅監視装置、駅監視方法及びプログラムを提供することにある。
 本発明に係る駅監視装置は、駅のプラットホームを監視する駅監視装置であって、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する映像取得手段と、前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する監視優先度決定手段と、前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する合成映像生成手段と、前記合成映像を表示させる表示制御手段と、を含む。
 本発明の一態様では、前記監視優先度決定手段は、前記番線がある駅と前記車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
 また、本発明の一態様では、前記監視優先度決定手段は、前記番線に前記車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
 また、本発明の一態様では、前記監視優先度決定手段は、前記番線を通過する際の前記車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
 また、本発明の一態様では、前記監視優先度決定手段は、前記番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する。
 また、本発明に係る駅監視方法は、駅のプラットホームを監視する駅監視方法であって、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得するステップと、前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定するステップと、前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成するステップと、前記合成映像を表示させるステップと、を含む。
 また、本発明に係るプログラムは、駅のプラットホームを監視するコンピュータに、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する手順、前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する手順、前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する手順、前記合成映像を表示させる手順、を実行させる。
本発明の一実施形態に係る駅監視システムの全体構成の一例を示す図である。 本発明の一実施形態に係る映像送信システムの構成の一例を示す図である。 撮影画像の一例を示す図である。 撮影画像の一例を示す図である。 領域特定結果画像の一例を示す図である。 撮影画像の一例を示す図である。 領域特定結果画像の一例を示す図である。 撮影画像の撮影、撮影画像に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。 合成画像の一例を示す図である。 合成画像の一例を示す図である。 駅と車両との関係の一例を模式的に示す図である。 合成画像の一例を示す図である。 駅と車両との関係の一例を模式的に示す図である。 本発明の一実施形態に係る駅監視システムの機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る映像送信システムで行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係る中央監視装置で行われる処理の流れの一例を示すフロー図である。 参照撮影画像の一例を示す図である。 参照撮影画像の一例を示す図である。 領域特定結果画像の一例を示す図である。 領域特定結果画像の一例を示す図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1は、本発明の一実施形態に係る駅監視システム1の全体構成の一例を示す図である。図1に示すように、本実施形態に係る駅監視システム1には、中央監視装置10、及び、複数の映像送信システム12、が含まれている。
 中央監視装置10と、複数の映像送信システム12とは、インターネット等のコンピュータネットワーク14に接続されている。そのため、中央監視装置10と映像送信システム12とはコンピュータネットワーク14を介して互いに通信可能となっている。
 中央監視装置10は、例えばパーソナルコンピュータなどのコンピュータである。図1に示すように中央監視装置10には、プロセッサ10a、記憶部10b、通信部10c、全体監視モニタ10d、及び、個別監視モニタ10eが含まれる。
 プロセッサ10aは、例えば、中央監視装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。通信部10cは、例えば映像送信システム12との間でデータを授受するためのネットワークボードなどの通信インタフェースである。中央監視装置10は、通信部10cを経由して映像送信システム12との間で情報の送受信を行う。全体監視モニタ10d、及び、個別監視モニタ10eは、例えば、液晶ディスプレイ等の表示デバイスであって、プロセッサ10aの指示に従って各種の画像を表示する。
 図2は、本実施形態に係る映像送信システム12の構成の一例を示す図である。図2に示すように、本実施形態に係る映像送信システム12には、カメラ20と、映像解析装置22と、ダウンコンバータ24と、プラットホームモニタ26と、駅舎モニタ28と、が含まれている。本実施形態に係る映像解析装置22は、カメラ20、ダウンコンバータ24、駅舎モニタ28と接続されている。また本実施形態に係るカメラ20は、プラットホームモニタ26と接続されている。
 カメラ20は、例えばデジタルカメラなどの撮影デバイスである。プラットホームモニタ26、及び、駅舎モニタ28は、例えば、液晶ディスプレイ等の表示デバイスである。ダウンコンバータ24は、例えば受け付ける映像を低解像度化して出力する機器である。
 映像解析装置22は、例えばパーソナルコンピュータなどのコンピュータである。図2に示すように、本実施形態に係る映像解析装置22には、プロセッサ22a、記憶部22b、通信部22c、が含まれる。プロセッサ22aは、例えば、映像解析装置22にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部22bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22bには、プロセッサ22aによって実行されるプログラムなどが記憶される。通信部22cは、例えば中央監視装置10との間でデータを授受するためのネットワークボードなどの通信インタフェースである。映像解析装置22は、通信部22cを経由して中央監視装置10との間で情報の送受信を行う。
 以下、一例として、駅監視システム1に、9個の映像送信システム12(12a~12i)が含まれる場合について説明する。なお、駅監視システム1に含まれる映像送信システム12の数はもちろん9個には限定されない。
 図3は、本実施形態に係る映像送信システム12eに含まれるカメラ20が生成する、駅のプラットホーム30等の監視対象を撮影した撮影映像に含まれる1つのフレーム画像の一例を示す図である。以下、撮影映像に含まれるフレーム画像を撮影画像32と呼ぶこととする。図4は、当該撮影映像に含まれる別の1つの撮影画像32の一例を示す図である。本実施形態では例えば、カメラ20が所定のフレームレートで撮影画像32を生成する。そしてここでは例えば、図3に示す撮影画像32が生成されたフレームよりも後のフレームにおいて、図4に示す撮影画像32が生成されることとする。
 本実施形態では例えば、9個の映像送信システム12(12a~12i)のそれぞれにおいて、当該映像送信システム12に含まれるカメラ20により撮影映像が生成される。カメラ20により生成される撮影映像は、当該カメラ20が監視するプラットホーム30に設置されたプラットホームモニタ26に表示されてもよい。
 以下の説明では、9個の映像送信システム12(12a~12i)のそれぞれは、互いに異なる駅に配置されており、1つの駅では1つのカメラ20によって当該駅のプラットホーム30が監視されることとする。
 そして本実施形態では例えば、映像解析装置22において撮影画像32に対して公知の画像認識技術による画像認識処理が実行され、当該撮影画像32に所与のオブジェクトが表れているか否かが判定される。なお当該画像認識処理が、学習済の機械学習モデルを用いて実行されてもよい。以下、当該所与のオブジェクトをターゲットオブジェクト34と呼ぶこととする。ターゲットオブジェクト34の例としては、白杖を持った人物や、盲導犬や聴導犬等の補助犬など、重点的に注意を向けることが望ましいオブジェクトが挙げられる。なおターゲットオブジェクト34は、1つの種類のオブジェクトである必要はなく、複数の種類のオブジェクトであっても構わない。
 ここで図3に示す撮影画像32には、ターゲットオブジェクト34は表れていない。一方、図4に示す撮影画像32には、ターゲットオブジェクト34が表れている。そのため図3に示す撮影画像32についてはターゲットオブジェクト34が表されていないと判定され、図4に示す撮影画像32についてはターゲットオブジェクト34が表れていると判定される。
 そして本実施形態では例えば、ターゲットオブジェクト34が表れていると判定された撮影画像32については、ターゲットオブジェクト34が表れている領域が特定される。以下、ターゲットオブジェクト34が表れている領域をターゲット領域と呼ぶこととする。
 そして本実施形態では例えば、ターゲット領域を示すターゲット領域情報が生成される。図5は、ターゲット領域情報の一例である領域特定結果画像36の一例を示す図である。図5に示す領域特定結果画像36では、図4に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。
 図6は、図4に示す撮影画像32が生成されたフレームよりも後のフレームにおいてカメラ20によって生成される撮影画像32の一例を示す図である。図6に示す撮影画像32についてもターゲットオブジェクト34が表れている。
 ここで例えば、映像解析装置22において、図4に示す撮影画像32に対する画像認識処理において特定されたターゲット領域を追尾する公知の追尾処理を実行することによって、図6に示す撮影画像32内におけるターゲット領域が特定されてもよい。そしてこのようにして特定されるターゲット領域を示す、図7に例示する領域特定結果画像36が生成されてもよい。図7に示す領域特定結果画像36では、図6に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。
 図8は、16個のフレームに着目した、本実施形態における、撮影画像32の撮影、撮影画像32に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。以下、当該16個のフレームを、第1フレーム~第16フレームと呼ぶこととする。
 本実施形態では例えば、上述の画像認識処理が、機械学習モデルを用いて実装されており、その処理の実行には時間がかかることとする。一方、上述の追尾処理は、ターゲット領域内の画素の画素値の分布などといった特徴量を用いたパターンマッチング技術などによって実装されており、上述の画像認識処理よりも1つの画像に対する処理の実行時間が短いこととする。以下の説明では、一例として、1つの撮影画像32に対する画像認識処理には、3フレームに相当する時間がかかることとし、1つの撮影画像32に対する追尾処理には、1フレームに相当する時間よりも短い時間しかかからないこととする。
 図8では、第nフレームで撮影される撮影画像32がp(n)と表現されている(nは1以上16以下の整数)。また第nフレームで撮影される撮影画像32(p(n))に対する画像認識の結果は、r(p(n))と表現されている。例えば、図5に例示する領域特定結果画像36が、画像認識の結果r(p(n))の一例に相当する。
 図8に示すように、第1フレームの撮影画像32(p(1))の画像認識の結果(r(p(1)))は、第4フレームの撮影画像32(p(4))の撮影タイミングに特定される。
 そしてその後、本実施形態では例えば、第4フレームの撮影画像32(p(4))に対して画像認識が実行される。そして当該画像認識の結果(r(p(4)))は、第7フレームの撮影画像32(p(7))の撮影タイミングに特定される。
 以下、同様にして、第10フレームの撮影画像32(p(10))に対する画像認識の結果(r(p(10)))は、第13フレームの撮影画像32(p(13))の撮影タイミングに特定される。また第13フレームの撮影画像32(p(13))に対する画像認識の結果(r(p(13)))は、第16フレームの撮影画像32(p(16))の撮影タイミングに特定される。
 そして本実施形態では例えば、撮影画像32に対して、当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。例えば第4フレーム~第6フレームの撮影画像32(p(4)~p(6))については、第1フレームの撮影画像32に対する画像認識の結果(r(p(1)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(4),r(p(1)))、t(p(5),r(p(1)))、t(p(6),r(p(1)))と表現されている。例えば、図7に例示する領域特定結果画像36が、追尾処理の結果tの一例に相当する。
 同様にして、例えば第7フレーム~第9フレームの撮影画像32(p(7)~p(9))については、第4フレームの撮影画像32に対する画像認識の結果(r(p(4)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(7),r(p(4)))、t(p(8),r(p(4)))、t(p(9),r(p(4)))と表現されている。以下、同様にして、第10フレーム以降の撮影画像32についても、ターゲット領域を追尾する処理が実行される。
 本実施形態では以上のようにして、撮影画像32に対して当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。そのため本実施形態では、撮影画像32の撮影から短い時間で当該撮影画像32内におけるターゲット領域の特定が可能となる。
 そして本実施形態では例えば、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とを示す送信データが生成される。
 ここで例えば、撮影画像32にターゲット領域画像38が重畳された、図7に示す領域特定結果画像36をダウンコンバータ24によって低解像度化した画像である低解像度画像をフレーム画像として含む映像が送信データとして生成されてもよい。この場合は、当該低解像度画像は、撮影映像を低解像度化した低解像度映像のフレーム画像でもあり、撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を示す画像でもあることとなる。
 また例えば、撮影映像を低解像度化した低解像度化映像と含むとともに、ヘッダ等に、撮影映像に含まれるそれぞれの撮影画像32についてのターゲットオブジェクト34が表れているか否かの判定の結果を示すフラグを含む送信データが生成されてもよい。この場合、当該低解像度映像は、撮影画像32を低解像度化した低解像度化画像をフレーム画像として含むこととなる。またこの場合は、送信データに含まれるフラグが、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。
 また例えば、撮影映像を低解像度化した低解像度化映像、及び、ターゲット領域情報を含む送信データが生成されてもよい。ここでターゲット領域情報は、例えば、低解像度化映像に含まれるフレーム画像である低解像度画像のうち、ターゲットオブジェクト34が表れている低解像度画像について、当該低解像度画像内におけるターゲット領域の位置や形状を示す情報であってもよい。例えばターゲット領域情報が、低解像度画像内におけるターゲット領域に相当する枠の4つの角の位置の座標値を示す情報であってもよい。またターゲット領域情報は、ターゲット領域画像38のような画像の形式の情報であってもよい。この場合は、送信データに含まれるターゲット領域情報が、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。
 以下、撮影画像32、又は、当該撮影画像32とターゲット領域画像38とが重畳された領域特定結果画像36を低解像度化した低解像度画像を、当該撮影画像32に対応付けられる低解像度画像と呼ぶこととする。
 そして本実施形態ではこのようにして生成される送信データが中央監視装置10に送信される。同様にして、他の映像送信システム12(12a~12d、及び、12f~12i)からも、当該映像送信システム12で生成される送信データが中央監視装置10に送信される。
 また本実施形態において例えば、撮影映像、又は、低解像度映像が、駅舎に設置された駅舎モニタ28に表示されてもよい。ここで駅舎モニタ28に表示される映像に含まれるフレーム画像にターゲット領域が示されていてもよい。例えば、一連の領域特定結果画像36をフレーム画像として含む映像が駅舎モニタ28に表示されてもよい。
 本実施形態では例えば、中央監視装置10が、複数の映像送信システム12(12a~12i)のそれぞれから送信される上述の送信データを受信する。
 そして中央監視装置10において、当該複数の送信データに基づいて、当該複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された、当該複数の送信データのそれぞれが示す低解像度映像を合成した合成映像が生成される。そして生成された合成映像が全体監視モニタ10dに表示される。図9及び図10は、それぞれ、合成映像に含まれる1つのフレーム画像である合成画像40の一例を示す図である。
 図9には、受信するすべての送信データにおいてターゲットオブジェクト34が表れていないことが上述の判定の結果として示されている場合における合成画像40の一例が示されている。図10には、受信する2つの送信データにおいてターゲットオブジェクト34が表れていることが上述の判定の結果として示されている場合における合成画像40の一例が示されている。
 合成画像40には、例えばそれぞれ互いに異なる映像送信システム12に対応付けられる複数の個別画像領域42が含まれている。図9及び図10に例示されている合成画像40には、9個の映像送信システム12(12a~12i)にそれぞれ対応付けられる、9つの個別画像領域42(42a~42i)が含まれている。ここで例えば、図3、図4、及び、図6に示す撮影画像32を撮影したカメラ20を含む映像送信システム12eは、個別画像領域42eに対応付けられることとなる。
 本実施形態では例えば、映像送信システム12から受信した送信データが示す低解像度映像に含まれるフレーム画像である低解像度画像が、当該映像送信システム12に対応付けられる個別画像領域42に配置される。
 そして本実施形態では例えば、中央監視装置10が、複数の個別画像領域42のそれぞれについて、当該個別画像領域42に配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する。ここで例えば、送信データに含まれるフラグに基づいて、当該判定の結果が特定されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報が送信データに含まれている場合に、当該撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。また例えば、送信データが示す低解像度画像からターゲット領域画像38を検出する処理が実行されるようにしてもよい。そしてターゲット領域画像38が検出できた場合に、当該低解像度画像が低解像度化される前の撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。
 そして本実施形態では例えば、上述の判定の結果が表された合成画像40が生成される。ここで例えば、配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42を囲む枠状の判定識別画像44が重畳された合成画像40が生成されてもよい。図10には、一例として、個別画像領域42eを囲む判定識別画像44a、及び、個別画像領域42gを囲む判定識別画像44bが示されている。
 また本実施形態では例えば、図10に示すように、低解像度画像内においてターゲットオブジェクト34が表れているターゲット領域が、当該低解像度画像が配置される個別画像領域42に示される。ここで例えば、図10に示すように、領域特定結果画像46がターゲット領域を表す情報として個別画像領域42に示されるようにしてもよい。ここで領域特定結果画像46は、例えば、領域特定結果画像36を低解像度化した画像であってもよい。あるいは、領域特定結果画像46は、例えば、ターゲット領域情報が示す座標値によって表現される位置を角とする枠状の画像であってもよい。
 また本実施形態において例えば、送信データに対応付けられる番線に進入する車両の状況に基づいて、映像の監視の優先度が決定されてもよい。ここで送信データに対応付けられる番線とは、例えば、送信データを送信する映像送信システム12が配置されている駅にある番線や、送信データを送信する映像送信システム12のカメラ20によって監視されるプラットホーム30に隣接する番線などを意味する。なお1つのカメラ20に1つの番線が対応付けられてもよいし、1つのカメラ20に複数の番線が対応付けられてもよい。また、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにしてもよい。
 以下、映像の監視の優先度の決定の一例について説明する。
 図11には、9個の映像送信システム12(12a~12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の一例が模式的に示されている。図11には、9個の映像送信システム12(12a~12i)が配置されている駅にそれぞれ対応付けられる9つの駅オブジェクト50(50a~50i)と、運行する車両に対応付けられる4つの車両オブジェクト52(52a~52d)が示されている。また図11には、車両の進行方向が矢印で表現されている。ここでは例えば、図10に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として図11に示されていることとする。
 ここで例えば、駅オブジェクト50eと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。このことは、映像送信システム12eが配置されている駅と当該駅に接近する車両との間の距離が、映像送信システム12gが配置されている駅と当該駅に接近する車両との間の距離よりも短いことを意味する。例えばこのような場合に、映像送信システム12eに含まれるカメラ20により撮影される映像の監視の優先度が、映像送信システム12gに含まれるカメラ20により撮影される映像の監視の優先度よりも高いと決定されてもよい。
 図10には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が合成画像40に配置される。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様であることとする。そのため図10の例では、判定識別画像44aは、個別画像領域42eを囲むよう配置され、判定識別画像44bは、個別画像領域42gを囲むよう配置されることとなる。
 なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、送信データに対応付けられる番線に車両が到着するまでの推定時間に基づいて、映像の監視の優先度が決定されてもよい。例えば当該推定時間が短いものほど優先度が高く決定されてもよい。
 また例えば、送信データに対応付けられる番線を通過する際の車両の速度に基づいて、映像の監視の優先度が決定されてもよい。例えば当該速度が速いものほど優先度が高く決定されてもよい。
 また例えば、送信データに対応付けられる番線に進入する際の車両の乗客の属性に基づいて、映像の監視の優先度が決定されてもよい。ここで車両の乗客の属性の例としては、車いすを使用している、補助犬を連れている、などの属性が挙げられる。ここで例えば、次に番線に進入する車両に車いすを使用している乗客や補助犬を連れている乗客がいる場合は、そうでない場合よりも優先度が高く決定されてもよい。
 また映像の監視の優先度に応じた態様は図10に示すような模様には限定されない。例えば、映像の監視の優先度に応じた色の判定識別画像44が合成画像40に配置されてもよい。また例えば、映像の監視の優先度に応じた大きさの個別画像領域42が合成画像40内に配置されてもよい。この場合例えば、優先度が高いほど大きな個別画像領域42が合成画像40に配置されてもよい。
 以上で説明した車両の状況は、例えば、公知の運行管理システムによって管理されていてもよい。そして、中央監視装置10は、運行管理システムから取得する各種のデータに基づいて、上述した距離、推定時間、速度、乗客の属性、などといった車両の状況を特定してもよい。また本実施形態において、距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度が決定されてもよい。
 また本実施形態において、中央監視装置10は、映像送信システム12に、撮影映像の送信要求を送信してもよい。例えば、合成画像40を監視している監視者(中央監視装置10のユーザ)による個別画像領域42を指定する操作に応じて、当該個別画像領域42に対応付けられる送信データの送信元である映像送信システム12に、撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。
 そして撮影映像の送信要求を受信した映像送信システム12は、当該送信要求に応じて撮影映像を中央監視装置10に送信してもよい。そして中央監視装置10は、受信した撮影映像を個別監視モニタ10eに表示させてもよい。このようにすれば監視者が高解像度の撮影映像を中央監視装置10において詳細に監視できることとなる。
 ここで例えば、映像送信システム12は、送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。そして中央監視装置10は、代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を個別監視モニタ10eに表示させてもよい。ここで例えば、撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして映像送信システム12から中央監視装置10に送信されるようにしてもよい。そして当該映像が個別監視モニタ10eに表示されるようにしてもよい。
 撮影映像の解像度が高いほど当該撮影映像の解析精度は高くなる。ここで例えば白杖を持った人物や補助犬などがプラットホーム30にいるかどうかの判定や白杖を持った人物や補助犬が撮影映像内において表れている領域の特定などといった精細な解析を行う場合は、解像度が高い映像を解析する必要がある。一方で、解像度が高い撮影映像が映像送信システム12から中央監視装置10に送信されるとコンピュータネットワーク14に負荷がかかる。
 本実施形態では、映像の解析は高解像度の撮影映像に対して実行されるので、映像の解析精度は確保される。また送信される映像は低解像度映像なので、コンピュータネットワーク14の負荷は軽減できる。このようにして本実施形態によれば、駅のプラットホーム30を撮影した映像の解析精度を確保しつつ送信によりかかるコンピュータネットワーク14の負荷を低減できることとなる。
 以上の説明では、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにした。ここで例えば、撮影画像32にターゲットオブジェクト34が表れていると判定されたか否かに関係なく、すべての個別画像領域42について、映像の監視の優先度が決定されてもよい。
 図12は、合成画像40の別の一例を示す図である。図13は、9個の映像送信システム12(12a~12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の別の一例が模式的に示されている。また図13には、車両の進行方向が矢印で表現されている。図13には、図12に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として示されていることとする。
 ここで図13に示すように、駅オブジェクト50gと車両オブジェクト52dとの間の長さは、駅オブジェクト50cと車両オブジェクト52bとの間の長さよりも短い。また駅オブジェクト50fと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。また駅オブジェクト50bと車両オブジェクト52aとの間の長さは、駅オブジェクト50fと車両オブジェクト52cとの間の長さよりも短い。例えばこのような場合に、映像の監視の優先度が高い方から順に、個別画像領域42b、個別画像領域42f、個別画像領域42g、個別画像領域42cと決定されてもよい。
 図12には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が示されている。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様で、その次に優先度が高い態様が判定識別画像44cのような白抜きの模様であることとする。また優先度が4番目以降である個別画像領域42には、判定識別画像44が配置されないこととする。そのため図12の例では、判定識別画像44aは、個別画像領域42bを囲むよう配置され、判定識別画像44bは、個別画像領域42fを囲むよう配置され、判定識別画像44cは、個別画像領域42gを囲むよう配置されることとなる。
 なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、上述したように、番線に車両が到着するまでの推定時間、番線を通過する際の車両の速度、番線に進入する際の車両の乗客の属性、などに基づいて、映像の監視の優先度が決定されてもよい。また上述したように、映像の監視の優先度に応じた態様は図12に示すような模様には限定されない。
 合成映像に表れている個々の映像の監視の優先度は様々であるにも関わらず、優先度が合成映像に表れていないと重点的に監視すべき部分を監視者が容易に認識できない。
 本実施形態によれば、以上のようにすることで、表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できることとなる。
 以下、本実施形態に係る駅監視システム1の機能、並びに、本実施形態に係る駅監視システム1で実行される処理についてさらに説明する。
 図14は、駅のプラットホーム30を監視する本実施形態に係る駅監視システム1に含まれる、中央監視装置10、及び、映像送信システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る中央監視装置10、及び、映像送信システム12で、図14に示す機能のすべてが実装される必要はなく、また、図14に示す機能以外の機能が実装されていても構わない。
 図14に示すように、本実施形態に係る中央監視装置10には、機能的には例えば、送信データ受信部60、映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68、撮影映像送信要求部70、撮影映像受信部72、表示制御部74、が含まれる。送信データ受信部60、撮影映像送信要求部70、撮影映像受信部72は、通信部10cを主として実装される。映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68は、プロセッサ10aを主として実装される。表示制御部74は、プロセッサ10a、全体監視モニタ10d、及び、個別監視モニタ10eを主として実装される。中央監視装置10は、本実施形態における、駅のプラットホーム30を監視する駅監視装置としての役割を担うこととなる。
 以上の機能は、コンピュータである中央監視装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して中央監視装置10に供給されてもよい。
 図14に示すように、本実施形態に係る映像送信システム12には、機能的には例えば、撮影映像取得部80、判定部82、送信データ生成部84、送信データ送信部86、送信要求受信部88、撮影映像送信部90、が含まれる。また判定部82には、画像認識部82aと、追尾部82bと、が含まれる。撮影映像取得部80は、カメラ20、及び、映像解析装置22のプロセッサ22aを主として実装される。判定部82は、映像解析装置22のプロセッサ22aを主として実装される。送信データ生成部84は、映像解析装置22のプロセッサ22a、通信部22c、及び、ダウンコンバータ24を主として実装される。送信データ送信部86、送信要求受信部88、撮影映像送信部90は、映像解析装置22の通信部22cを主として実装される。本実施形態に係る映像解析装置22は、送信データを中央監視装置10に送信する送信装置としての役割を担うこととなる。
 以上の機能は、コンピュータである映像解析装置22にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ22aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して映像解析装置22に供給されてもよい。
 また、送信データ生成部84が、ダウンコンバータ24等のハードウェア及び映像解析装置22で動作するソフトウェアで実装されてもよい。また、送信データ生成部84が、ダウンコンバータ24等のハードウェアのみ、あるいは、映像解析装置22で動作するソフトウェアのみにより実装されてもよい。
 送信データ受信部60は、本実施形態では例えば、それぞれ互いに異なる映像送信システム12から送信される複数の上述の送信データを受信する。ここで上述のように、送信データには、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とが示されている。
 映像取得部62は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する。ここで映像取得部62は、送信データ受信部60が受信する複数の送信データのそれぞれが示す低解像度映像を取得してもよい。
 以上の説明では、1つのプラットホーム30は1つのカメラ20によって撮影されていた。ここで例えば1つのプラットホーム30の互いに異なる部分がそれぞれ別のカメラ20によって撮影されてもよい。この場合、1つのカメラ20によって撮影されるプラットホーム30の一部と、別のカメラ20によって撮影される当該プラットホーム30の別の一部とは、互いに異なる監視対象であることとなる。また1つのカメラ20によって複数のプラットホーム30が撮影されてもよい。この場合、当該複数のプラットホーム30が1つの監視対象に相当することとなる。
 車両状況データ取得部64は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況を示す車両状況データを取得する。ここで上述のように、車両状況データ取得部64は、公知の運行管理システムから車両状況データを取得してもよい。
 監視優先度決定部66は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する。ここで例えば、車両状況データ取得部64が取得する車両状況データに基づいて、映像の監視の優先度が決定されてもよい。
 上述のように、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線がある駅と車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
 また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
 また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線を通過する際の車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
 また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。
 また、監視優先度決定部66は、上述の距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度を決定してもよい。
 合成映像生成部68は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を合成した合成映像を生成する。ここで合成映像生成部68は、映像の監視の優先度が表された合成映像を生成してもよい。
 また合成映像生成部68は、複数の送信データのそれぞれが示す低解像度映像を合成した合成映像を生成してもよい。ここで合成映像生成部68は、映像取得部62が取得する映像を合成した合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのそれぞれが示す上述の判定の結果が当該送信データを送信する映像送信システム12に対応付けられる番線に進入する車両の状況に応じた態様で表された合成映像を生成してもよい。
 撮影映像送信要求部70は、本実施形態では例えば、映像送信システム12に当該映像送信システム12が設置されているプラットホーム30を撮影した撮影映像の送信要求を送信する。ここで例えば監視者等のユーザによって指定された映像送信システム12に撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。ここで例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。
 撮影映像受信部72は、本実施形態では例えば、撮影映像の送信要求の受信に応じて映像送信システム12が送信する撮影映像を受信する。
 表示制御部74は、本実施形態では例えば、合成映像生成部68が生成する合成映像を表示させる。また表示制御部74は、本実施形態では例えば、撮影映像受信部72が受信する撮影映像を表示させる。上述の例では表示制御部74は、合成映像を全体監視モニタ10dに表示させ、撮影映像を個別監視モニタ10eに表示させる。
 また表示制御部74は、複数の撮影映像を切替表示させてもよい。例えば監視の優先度の高い複数の撮影映像が、自動的に所定の時間ずつ繰り返し切替表示されるようにしてもよい。また撮影映像送信要求部70が、表示の切替タイミングに応じて、撮影映像の送信要求の送信先である映像送信システム12を変更するようにしてもよい。
 撮影映像取得部80は、本実施形態では例えば、監視対象を撮影した撮影映像を取得する。ここで例えば、映像送信システム12が設置されているプラットホーム30を撮影した撮影映像が取得されてもよい。
 判定部82は、本実施形態では例えば、撮影映像取得部80が取得する撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定する。ここで例えば上述のターゲットオブジェクト34が当該所与のオブジェクトに相当する。
 画像認識部82aは、本実施形態では例えば、撮影画像32に対する画像認識処理を実行することによって当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定する。
 追尾部82bは、本実施形態では例えば、撮影画像32内においてターゲットオブジェクト34が表れている領域を、当該撮影画像32よりも前に撮影された撮影画像32について画像認識部82aが特定した領域を追尾することにより特定する。
 送信データ生成部84は、本実施形態では例えば、撮影映像と上述の判定の結果とに基づいて、当該撮影映像を低解像度化した低解像度映像と当該判定の結果とを示す送信データを生成する。
 送信データ送信部86は、本実施形態では例えば、送信データ生成部84が生成する送信データを中央監視装置10に送信する。
 送信要求受信部88は、本実施形態では例えば、中央監視装置10の撮影映像送信要求部70が送信する撮影映像の送信要求を受信する。
 撮影映像送信部90は、本実施形態では例えば、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像を中央監視装置10に送信する。ここで撮影映像送信部90は、撮影映像取得部80が取得する撮影映像を中央監視装置10に送信してもよい。
 また撮影映像送信部90は、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。ここで上述のように、例えば撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして送信されてもよい。
 この場合、中央監視装置10の表示制御部74は、代替送信データの受信に応じて、当該代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を表示させてもよい。例えば中央監視装置10の表示制御部74は、領域特定結果画像36をフレーム画像として含む映像を表示させてもよい。
 以下、本実施形態に係る映像送信システム12において所定のフレームレートで繰り返し行われる処理の流れの一例を、図15に例示するフロー図を参照しながら説明する。
 まず、撮影映像取得部80が、撮影画像32を取得する(S101)。ここで取得される撮影画像32は、撮影映像における当該フレームのフレーム画像である。
 そして、撮影映像取得部80が、画像認識部82aによる画像認識が可能であるか否かを判定する(S102)。ここで例えば当該フレームよりも前のフレームで取得された撮影画像32に対する画像認識を画像認識部82aが実行中である場合は、画像認識が可能でないことが判定される。一方、撮影画像32に対する画像認識を画像認識部82aが実行していない場合は、画像認識が可能であることが判定される。
 画像認識部82aによる画像認識が可能であると判定された場合は(S102:Y)、画像認識部82aは、S101に示す処理で取得された撮影画像32に対して、画像認識処理の実行を開始する(S103)。当該画像認識処理によって、当該撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定されることとなる。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。
 画像認識部82aによる画像認識が可能でないと判定された場合は(S102:N)、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。S103に示す処理が実行された後も同様に、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。
 ここで特定結果があることが確認された場合は(S104:Y)、追尾部82bは、追尾処理を実行する(S105)。ここでは図8を参照して説明したように、例えばS103に示す処理での画像認識処理における最新の利用可能な特定結果が特定される。そして当該特定結果が示す撮影画像32内におけるターゲット領域を追尾することにより、S101に示す処理で取得された撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定される。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。
 利用可能なターゲット領域の特定結果がないことが確認された場合は(S104:N)、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。S105に示す処理が終了した場合も同様に、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。ここでは例えば、S105に示す処理でターゲット領域が特定された場合は、撮影画像32にターゲットオブジェクト34が表れていると判定される。また、S105に示す処理で追尾できず、ターゲット領域が特定されなかった場合は、撮影画像32にターゲットオブジェクト34が表れていないと判定される。また、S104に示す処理で利用可能なターゲット領域の特定結果がないことが確認された場合も、撮影画像32に所与のオブジェクトが表れていないと判定される。
 そして送信データ生成部84は、S101に示す処理で取得された撮影画像32を低解像度化することにより、低解像度画像を生成する(S107)。ここで上述のように、領域特定結果画像36を低解像度化することにより低解像度画像が生成されてもよい。
 そして送信データ生成部84は、S106に示す処理での判定の結果とS107に示す処理で生成された低解像度画像とに基づいて、送信データを生成する(S108)。ここでは例えばS107に示す処理で生成された、低解像度化された領域特定結果画像36を含む送信データが生成されてもよい。また例えば、ヘッダ等に、S106に示す処理での判定の結果を示すフラグを含む送信データが生成されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像と、当該低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報と、を含む送信データが生成されてもよい。
 そして送信データ送信部86は、S108に示す処理で生成された送信データを中央監視装置10に送信して(S109)、S101に示す処理に戻る。
 本処理例では、S101~S109に示す処理が所定のフレームレートで繰り返し実行される。なお上述の処理例に示す処理では、送信データの送信が毎フレーム行われるが、例えば、S101~S108に示す処理が複数回繰り返し実行された後に、生成された複数の送信データがまとめて中央監視装置10に送信されてもよい。
 以下、本実施形態に係る中央監視装置10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図16に例示するフロー図を参照しながら説明する。なお本処理例に示す処理では、送信データ受信部60は、複数の映像送信システム12のそれぞれから受信する送信データをバッファすることとする。
 まず、映像取得部62が、当該フレームにおける複数の送信データを送信データ受信部60のバッファから取得する(S201)。当該複数の送信データは、複数の映像送信システム12のそれぞれから送信されたものである。なお本処理例では、送信データにはフレーム番号が含まれており、当該フレームにおける複数の送信データは映像取得部62が特定できることとする。
 そして、合成映像生成部68が、S201に示す処理で取得した複数の送信データのそれぞれについて、当該送信データに対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する(S202)。上述したように例えば、送信データが示す低解像度画像からのターゲット領域画像38の検出結果、送信データに含まれるフラグが示す判定の結果、送信データに含まれるターゲット領域情報、などに基づいて、判定の結果は特定される。
 そして車両状況データ取得部64が、当該フレームにおける車両の状況を示す車両状況データを取得する(S203)。
 そして監視優先度決定部66が、S203に示す処理で取得した車両状況データに基づいて、S201に示す処理で取得された複数の送信データのそれぞれについて、映像の監視の優先度を決定する(S204)。ここでS202において撮影画像32にターゲットオブジェクト34が表れていると判定された送信データについてのみ、映像の監視の優先度が決定されてもよい。
 そして合成映像生成部68が、当該フレームにおける合成画像40を生成する(S205)。ここでは例えば、S201に示す処理で取得された送信データに含まれる低解像度映像、S202に示す処理で特定された判定の結果、及び、S204に示す処理で決定された優先度に基づいて、合成画像40が生成される。
 そして表示制御部74が、S205に示す処理で生成された合成画像40を表示させて(S206)、S201に示す処理に戻る。
 本処理例では、S201~S206に示す処理が所定のフレームレートで繰り返し実行される。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えば、図17及び図18に示すように、改札口などの特定の場所におけるターゲットオブジェクト34の検出に応じて当該特定の場所の画像が撮影されてもよい。以下、このようにして撮影される、ターゲットオブジェクト34の検出に応じて撮影される当該ターゲットオブジェクト34が検出された場所の画像を参照撮影画像92と呼ぶこととする。ここで参照撮影画像92は、例えば、駅のプラットホーム30等の監視対象を撮影するカメラ20とは異なるカメラ20により撮影される。
 図17には、ターゲットオブジェクト34を改札口において前方から撮影した参照撮影画像92aの一例が示されている。図18には、ターゲットオブジェクト34を改札口において後方から撮影した参照撮影画像92bの一例が示されている。このように、ICタグの検出に応じて互いに異なる方向から複数の参照撮影画像92が撮影されるようにしてもよい。
 ここで例えば白杖に埋め込まれたICタグ、白杖を持った人物が持参しているICカード、補助犬にぶらさげられているICカード、などを検出するセンサが、改札口などの特定の場所に設置されていてもよい。そして当該センサによるICタグやICカードの検出に応じて、1または複数の参照撮影画像92が撮影されるようにしてもよい。なおターゲットオブジェクト34がICタグやICカードの検出とは異なる方法で検出されてもよい。
 なおターゲットオブジェクト34の検出が行われる場所は、改札口には限定されない。例えば、ホームドアなどに上述のセンサが設置されていてもよい。そして当該センサによるターゲットオブジェクト34の検出に応じて、ホームドア及びその周辺の場所の参照撮影画像92が撮影されるようにしてもよい。
 そして撮影映像取得部80が、このようにして撮影される参照撮影画像92を取得してもよい。ここで撮影映像取得部80が、互いに異なる方向から撮影される複数の参照撮影画像92を取得してもよい。
 そして画像認識部82aが、上述の参照撮影画像92に対して公知の画像認識技術による画像認識処理を実行し、当該参照撮影画像92においてターゲットオブジェクト34が表れているターゲット領域を特定してもよい。そして画像認識部82aが、当該ターゲット領域を示す上述のターゲット領域情報を生成してもよい。
 図19は、図17に示す参照撮影画像92aに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94aの一例を示す図である。図20は、図18に示す参照撮影画像92bに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94bの一例を示す図である。
 図19に示す領域特定結果画像94aでは、図17に示す参照撮影画像92aにターゲットオブジェクト34を囲む枠状のターゲット領域画像96aが重畳されている。図20に示す領域特定結果画像94bでは、図18に示す参照撮影画像92bにターゲットオブジェクト34を囲む枠状のターゲット領域画像96bが重畳されている。
 そして判定部82が、参照撮影画像92と、駅のプラットホーム30等の監視対象を撮影した撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かを判定してもよい。ここで互いに異なる方向から撮影される複数の参照撮影画像92と、撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かが判定されてもよい。
 例えば画像認識部82aが、参照撮影画像92に基づいて特定されるターゲット領域を用いて撮影画像32に対する画像認識処理を実行することによって、当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定してもよい。
 あるいは、追尾部82bが、撮影画像32内においてターゲットオブジェクト34が表れている領域を、上述の参照撮影画像92について画像認識部82aが特定したターゲット領域を追尾することにより特定してもよい。
 ターゲットオブジェクト34の検出に応じて撮影される参照撮影画像92には、ターゲットオブジェクト34が鮮明に表れている可能性が高い。そのため以上のようにすることで、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。
 またここで互いに異なる方向から複数の参照撮影画像92が撮影されるようにすることで、より多くの情報を用いて駅のプラットホーム30等の監視対象を撮影した撮影画像32に対する画像認識処理や追尾処理が実行できる。そのため、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。
 また例えば中央監視装置10と映像送信システム12との役割分担は上述のものには限定されない。例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況は、映像送信システム12において特定されてもよい。そして当該車両の状況を示す車両状況データが映像送信システム12から中央監視装置10に送信されてもよい。そして中央監視装置10が、映像送信システム12から受信した車両状況データに基づいて、映像の監視の優先度を決定してもよい。
 また例えば、1つの映像送信システム12で複数の駅の監視対象を監視してもよい。この場合は、1つの映像送信システム12は、互いに異なる複数の駅に設置される複数のカメラ20を含むこととなる。そして1つの映像送信システム12が、当該複数のカメラ20のそれぞれが撮影する映像に基づいて、当該映像に対応付けられる送信データを生成してもよい。
 また中央監視装置10の機能の一部又は全部が、1つの映像送信システム12に実装されてもよい。また例えば1つの映像送信システム12が、複数の駅のプラットホーム30を監視してもよい。また例えば1つの映像送信システム12が、当該映像送信システム12が配置されている駅に設置されている複数のプラットホーム30を監視してもよい。このように本発明は、中央監視装置10における複数の駅の監視のみならず、1つの駅における複数のプラットホーム30の監視にも適用可能である。
 また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。

Claims (7)

  1.  駅のプラットホームを監視する駅監視装置であって、
     それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する映像取得手段と、
     前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する監視優先度決定手段と、
     前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する合成映像生成手段と、
     前記合成映像を表示させる表示制御手段と、
     を含むことを特徴とする駅監視装置。
  2.  前記監視優先度決定手段は、前記番線がある駅と前記車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
     ことを特徴とする請求項1に記載の駅監視装置。
  3.  前記監視優先度決定手段は、前記番線に前記車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
     ことを特徴とする請求項1又は2に記載の駅監視装置。
  4.  前記監視優先度決定手段は、前記番線を通過する際の前記車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
     ことを特徴とする請求項1から3のいずれか一項に記載の駅監視装置。
  5.  前記監視優先度決定手段は、前記番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定する、
     ことを特徴とする請求項1から4のいずれか一項に記載の駅監視装置。
  6.  駅のプラットホームを監視する駅監視方法であって、
     それぞれ互いに異なる監視対象の様子を表す複数の映像を取得するステップと、
     前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定するステップと、
     前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成するステップと、
     前記合成映像を表示させるステップと、
     を含むことを特徴とする駅監視方法。
  7.  駅のプラットホームを監視するコンピュータに、
     それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する手順、
     前記映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する手順、
     前記監視の優先度が表された、前記複数の映像を合成した合成映像を生成する手順、
     前記合成映像を表示させる手順、
     を実行させることを特徴とするプログラム。
PCT/JP2019/030536 2018-08-20 2019-08-02 駅監視装置、駅監視方法及びプログラム WO2020039898A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020538276A JP7107597B2 (ja) 2018-08-20 2019-08-02 駅監視装置、駅監視方法及びプログラム
CN201980054351.1A CN112640444A (zh) 2018-08-20 2019-08-02 车站监控装置、车站监控方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-153983 2018-08-20
JP2018153983 2018-08-20

Publications (1)

Publication Number Publication Date
WO2020039898A1 true WO2020039898A1 (ja) 2020-02-27

Family

ID=69593032

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030536 WO2020039898A1 (ja) 2018-08-20 2019-08-02 駅監視装置、駅監視方法及びプログラム

Country Status (3)

Country Link
JP (1) JP7107597B2 (ja)
CN (1) CN112640444A (ja)
WO (1) WO2020039898A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188528A1 (ja) * 2022-03-30 2023-10-05 株式会社日立製作所 列車走行支援装置及び列車走行支援方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104189A (ja) * 2000-09-28 2002-04-10 Matsushita Electric Ind Co Ltd 列車運転支援システム及び列車運転支援用地上側装置並びに列車運転支援用車両側装置
JP2005292879A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd 撮影情報サーバおよび撮影情報送信システム
JP2007081553A (ja) * 2005-09-12 2007-03-29 Hitachi Kokusai Electric Inc カメラシステムの表示方法及びカメラシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5774506B2 (ja) * 2012-01-17 2015-09-09 株式会社日立ビルシステム 映像監視システム
JP5789230B2 (ja) * 2012-08-23 2015-10-07 株式会社日立ビルシステム 映像監視システム
JP2015032995A (ja) * 2013-08-02 2015-02-16 株式会社日立ビルシステム 映像監視システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104189A (ja) * 2000-09-28 2002-04-10 Matsushita Electric Ind Co Ltd 列車運転支援システム及び列車運転支援用地上側装置並びに列車運転支援用車両側装置
JP2005292879A (ja) * 2004-03-31 2005-10-20 Fujitsu Ltd 撮影情報サーバおよび撮影情報送信システム
JP2007081553A (ja) * 2005-09-12 2007-03-29 Hitachi Kokusai Electric Inc カメラシステムの表示方法及びカメラシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188528A1 (ja) * 2022-03-30 2023-10-05 株式会社日立製作所 列車走行支援装置及び列車走行支援方法

Also Published As

Publication number Publication date
JP7107597B2 (ja) 2022-07-27
CN112640444A (zh) 2021-04-09
JPWO2020039898A1 (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
US9477891B2 (en) Surveillance system and method based on accumulated feature of object
US9842259B2 (en) Captured image recognition device, captured image recognition system, and captured image recognition method
WO2010101227A1 (ja) 物体位置推定用情報作成装置、物体位置推定用情報作成方法およびプログラム
US9031862B2 (en) Advertisement delivery target identifying apparatus, advertisement delivery apparatus, advertisement delivery target identifying method, advertisement delivery method, program, and recording medium
JP2016187162A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2010128727A (ja) 画像処理装置
JP2015103104A (ja) 情報処理装置、情報処理方法、情報処理システム
WO2020039897A1 (ja) 駅監視システム及び駅監視方法
US11599974B2 (en) Joint rolling shutter correction and image deblurring
CN110084765A (zh) 一种图像处理方法、图像处理装置及终端设备
US10462448B2 (en) Image generation system and image generation method
WO2020039898A1 (ja) 駅監視装置、駅監視方法及びプログラム
CN113610835B (zh) 看护摄像机的人形检测方法
US11537814B2 (en) Data providing system and data collection system
JP4882577B2 (ja) 物体追跡装置およびその制御方法、物体追跡システム、物体追跡プログラム、ならびに該プログラムを記録した記録媒体
US11917335B2 (en) Image processing device, movable device, method, and program
CN112287805A (zh) 运动物体的检测方法、装置、可读存储介质及电子设备
CN115601738B (zh) 停车信息获取方法、装置、设备、存储介质及程序产品
JP2023100805A (ja) 撮像装置、撮像方法及び撮像プログラム
KR20190079511A (ko) 차량 탑재 시스템 및 그 제어 방법
CN112313944A (zh) 图像处理方法、装置、设备及存储介质
CN115115530A (zh) 一种图像去模糊的方法、装置、终端设备及介质
JPH1115981A (ja) 広域監視装置及び広域監視システム
JP2012212235A (ja) 物体検出システム、物体検出方法、及びプログラム
WO2019210978A1 (en) Image processing apparatus and method for an advanced driver assistance system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19851335

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020538276

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19851335

Country of ref document: EP

Kind code of ref document: A1