WO2016132769A1 - 撮影装置、撮影装置の制御方法、および制御プログラム - Google Patents

撮影装置、撮影装置の制御方法、および制御プログラム Download PDF

Info

Publication number
WO2016132769A1
WO2016132769A1 PCT/JP2016/050669 JP2016050669W WO2016132769A1 WO 2016132769 A1 WO2016132769 A1 WO 2016132769A1 JP 2016050669 W JP2016050669 W JP 2016050669W WO 2016132769 A1 WO2016132769 A1 WO 2016132769A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature information
transmission destination
moving body
information
imaging
Prior art date
Application number
PCT/JP2016/050669
Other languages
English (en)
French (fr)
Inventor
裕文 嶋田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2016132769A1 publication Critical patent/WO2016132769A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an imaging device used in a monitoring system including a plurality of imaging devices.
  • Patent Document 1 A technique for detecting an object photographed by analyzing an image photographed by a surveillance camera is conventionally known.
  • Patent Document 1 when a feature amount of a person detected from an image captured by a monitoring device is compared with a feature amount of a suspicious person received from another monitoring device, the feature information matches. Describes that suspicious person information is transmitted to a portable terminal and other monitoring devices. Thereby, it becomes possible to track a suspicious person using a plurality of monitoring devices and a portable terminal.
  • JP 2013-153304 Released on August 8, 2013
  • the monitoring device when a suspicious person is detected by a certain monitoring device, the monitoring device transmits suspicious person information to all of the other monitoring devices.
  • This configuration is considered effective for tracking a suspicious person whose movement destination is difficult to predict.
  • the number of tracking targets increases, there is a problem that the number of communication times in the system and the amount of information transmitted and received increase.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus or the like that can narrow down the transmission destination of feature information to an imaging apparatus that is highly likely to image a moving body. is there.
  • an imaging device is an imaging device of a monitoring system including a plurality of imaging devices, and a moving body captured by the own device among the plurality of imaging devices.
  • a transmission destination determining unit that determines a transmission destination of characteristic information of the moving body obtained by analyzing an image obtained by shooting the moving body with an imaging apparatus according to the moving direction of the moving body;
  • An information transmission unit that transmits to the transmission destination determined by the destination determination unit.
  • a method for controlling an imaging device the method for controlling an imaging device of a monitoring system including a plurality of imaging devices,
  • the imaging device corresponding to the moving direction of the moving object imaged by the imaging apparatus that executes the control method is determined as the transmission destination of the feature information of the moving object obtained by analyzing the video obtained by imaging the moving object.
  • FIG. 1 It is a block diagram which shows an example of a principal part structure of the imaging device which concerns on Embodiment 1 of this invention. It is a figure which shows the outline
  • FIG. 2 is a diagram showing an overview of the monitoring system 5.
  • the monitoring system 5 is a system that monitors a vehicle, a passerby, etc. using an imaging device.
  • the monitoring system 5 includes imaging devices 1a to 1e and a server 2.
  • photographing devices 1a to 1e when there is no need to distinguish between the photographing devices 1a to 1e, they are simply referred to as photographing devices 1.
  • the monitoring system 5 only needs to include at least two imaging devices 1, and the number of imaging devices 1 is not limited to the example illustrated.
  • the imaging device 1 has a function of capturing video (moving image) and generating moving image data, and also analyzing the generated moving image data to generate feature information of an object in the video.
  • a function of communicating with the image capturing apparatus 1 and the server 2 is provided.
  • Each of the photographing devices 1a to 1e is given unique identification information (camera IDs 1 to 5). With this identification information, each of the photographing devices 1a to 1e and the server 2 can select which photographing device is the communication partner. Can be identified.
  • the server 2 communicates with each imaging device 1 and acquires feature information of the object in the video captured by each imaging device 1. As a result, the server 2 accumulates the feature information generated by each imaging device 1.
  • the imaging device 1 transmits the feature information of the captured moving body to the imaging device 1 in the moving direction of the moving body.
  • the imaging device 1 generates feature information according to which imaging device 1 the transmission destination is.
  • the image capturing apparatus 1 that has received the feature information, when the feature information generated from the video of the mobile object itself is the same feature information of the mobile object as the received feature information, This is characteristic information of the moving object.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a main part of the photographing apparatus 1a.
  • the photographing apparatuses 1b to 1e have the same configuration.
  • the photographing apparatus 1 a includes a control unit 10, a storage unit 20, a communication unit 30, and a photographing unit 40.
  • the control unit 10 controls the overall operation of the photographing apparatus 1a, and the storage unit 20 stores various data used by the photographing apparatus 1a.
  • the communication unit 30 is for the photographing apparatus 1a to communicate with other apparatuses (in this example, the other photographing apparatus 1 and the server 2).
  • the photographing unit 40 is for photographing a video, and the video photographed by the photographing unit 40 is stored in the video storage unit 21 of the storage unit 20 as moving image data.
  • the control unit 10 includes a feature information transmission unit (information transmission unit) 11, a feature information acquisition unit (detection unit) 12, a feature information generation unit 13, a transmission destination identification unit (transmission destination determination unit) 14, and an additional information generation unit.
  • a section (information generation section) 15 and a feature information management section 16 are included.
  • the storage unit 20 stores a video storage unit 21 that stores moving image data generated by the imaging unit 40, and a feature information storage that stores feature information generated by the imaging device 1a or acquired from another imaging device 1. Part 22 is included.
  • the feature information transmitting unit 11 transmits the feature information to the transmission destination device (in this example, the other photographing device 1 and the server 2) determined by the transmission destination specifying unit 14. The contents of the feature information to be transmitted will be described later.
  • the feature information acquisition unit 12 acquires feature information (first feature information) from another device (in this example, another imaging device 1), and stores the acquired feature information in the feature information storage unit 22.
  • the feature information generation unit 13 analyzes the video captured by the imaging unit 40 (more specifically, moving image data stored in the video storage unit 21), and features information (second feature) of the moving object in the video. Information).
  • This feature information is information indicating the characteristics of the mobile object, and can also be said to be information indicating the mobile object itself.
  • the transmission destination specifying unit 14 determines the imaging device 1 corresponding to the moving direction of the moving body imaged by the imaging unit 40 among the plurality of imaging devices 1 as the transmission destination of the feature information of the moving body.
  • the additional information generation unit 15 analyzes the video of the moving body and generates feature information.
  • the feature information generated by the additional information generation unit 15 includes feature information corresponding to the transmission destination (the transmission destination determined by the transmission destination specifying unit 14).
  • the feature information management unit 16 manages the feature information acquired by the feature information acquisition unit 12 and the feature information generated by the feature information generation unit 13. Specifically, the feature information management unit 16 determines whether or not the feature information generated by the feature information generation unit 13 is the same feature information of the moving body as the feature information acquired by the feature information acquisition unit 12. . And when it determines with it being the feature information of the same mobile body, both of these feature information are managed as the feature information of the said mobile body.
  • FIG. 3 is a diagram for explaining a video imaged by the imaging device 1a installed at a position overlooking the road and a recognition target area in the video image.
  • photography apparatus 1a camera ID1
  • photography apparatus 1 is also the same.
  • the photographing apparatus 1a is installed at a position overlooking the road so that vehicles or the like passing directly under it are within the photographing range. Further, when the photographing apparatus 1a is installed near the center of an intersection, the photographing apparatus 1a has a wide photographing range so that each approach path of the intersection enters the photographing range. By applying, for example, an omnidirectional camera as the photographing unit 40, such a wide range of photographing can be performed.
  • the photographing apparatus 1 having such a wide photographing range when used, the size of the moving body in the image becomes smaller as it approaches the end of the photographing range, and the moving body is too small in the image near the end. Not enough information is available. For this reason, for example, the image inside the second circle from the outside in the figure is set as the analysis target range (recognition target region), and the region outside it (the end region of the shooting range) is also excluded from the analysis target. Good.
  • the vicinity of the center of the shooting range is an image shot almost directly above, it is difficult to obtain information such as the vehicle license plate. For this reason, when detecting the vehicle number or the like, the vicinity of the center of the shooting range (for example, the video inside the innermost circle in the “camera ID1 video”) may be excluded from the analysis. That is, when the vehicle number or the like is used as the feature information, a donut-shaped area excluding the outer edge and the center of the circular shooting range may be set as the recognition target area.
  • the moving body enters the photographing range ("IN” in the figure) and comes closest to the photographing apparatus 1a ("NEAR” in the figure).
  • NEAR photographing apparatus 1a
  • an image when entering the shooting range (or recognition target area) is an IN image
  • an image when approaching closest is a NEAR image
  • an image when leaving the shooting range (or recognition target area) is an OUT image.
  • the installation location and arrangement of the imaging device 1a may be any installation location and arrangement capable of imaging a moving mobile body (may be a vehicle or a non-vehicle such as a pedestrian) It is not restricted to the example of illustration.
  • FIG. 4 is a diagram illustrating an example of feature information.
  • the illustrated feature information is feature information of one moving body that has been photographed, and includes the following information (1) to (13).
  • ID Information for identifying a moving body, which is given to each moving body detected from a captured video.
  • ID with CAM1-0023234 is stored.
  • head portion (CAM1) of this ID is also identification information of the photographing apparatus 1 that detected this moving body.
  • Type The type specified by analyzing the video of the moving body.
  • the moving body is classified into one of three types: a vehicle, a light vehicle (including a two-wheeled vehicle such as a motorcycle or a bicycle), and a pedestrian, In the illustrated example, it is a vehicle.
  • a vehicle a light vehicle (including a two-wheeled vehicle such as a motorcycle or a bicycle), and a pedestrian
  • category a mobile body should just determine according to what kind of use is used for characteristic information, and is not restricted to this example.
  • Size Information indicating the size of the moving body specified by analyzing the video of the moving body. As the information indicating the size, the length, width, height, etc. of the moving body estimated from the size of the moving body in the video may be used.
  • the length (4 m) of the vehicle body is used as information indicating the size.
  • Information indicating a relative size may be used.
  • the size of the moving object may be classified as large, medium, or small according to the ratio of the area occupied by the moving object in the NEAR image.
  • Color Information indicating the color of the moving body specified by analyzing the video of the moving body. When there are a plurality of colors of the moving object, each color may be included in the feature information, or a main color (a color that occupies the largest area in the moving object in the video) may be included in the feature information.
  • IN image a still image obtained by cutting an image when the moving body enters the shooting range (or the analysis range of the feature information) from the moving body video (moving image data).
  • the image at the head (front surface) is an IN image.
  • NEAR image a still image obtained by cutting out an image when the moving body is closest to the photographing apparatus 1 from the video (moving image data) of the moving body.
  • OUT image A still image obtained by cutting out an image when the moving body leaves the shooting range (or the analysis range of the feature information) from the moving body video (moving image data).
  • the rear portion (rear surface) image is an IN image.
  • Speed Information indicating the speed of the moving body specified by analyzing the video of the moving body.
  • the speed at any timing in the video may be used as the feature information.
  • the speed is 30 (km / h).
  • Peripheral object information Information indicating an object around the moving object detected by analyzing the video of the moving object.
  • another moving body is assumed as the surrounding object, but the surrounding object may be an object that is not a moving body, for example, a guardrail or the like.
  • the peripheral object information is “none”.
  • Lane Information indicating the traveling lane (lane) of the moving body specified by analyzing the video of the moving body. For example, numbers may be set in ascending order from the left in the traveling direction of the moving object, and the numbers may be used as lane information. In the example shown in the figure, the lane is 1, and it can be seen that the mobile body traveled on the leftmost (road shoulder side) lane.
  • the information indicating the lane is preferably used as information indicating the traveling lane when the moving body leaves the imaging range (or the recognition target area) because it is used in the next imaging apparatus 1.
  • the traveling lane (passing area) of a moving body in one photographing apparatus 1 is an image area in which the moving body is expected to be photographed in the next photographing apparatus 1. It becomes the feature information which shows.
  • the video area in which the moving body is expected to be shot in the next shooting apparatus 1 includes the position when the moving body exits from the shooting range of a certain shooting apparatus 1, the shooting range of the next shooting apparatus 1, and the road. You may specify based on the situation of this.
  • Estimated arrival time Information indicating a time at which the moving object is expected to enter the imaging range (or recognition target area) of the next imaging apparatus 1. Although the details will be described later, the estimated arrival time is calculated according to the next imaging device 1 (the imaging device 1 that is the transmission destination of the characteristic information).
  • Expected image expected photographed image: an image that is expected to be photographed when the moving body enters the photographing range (or the analysis range of the feature information) of the next photographing apparatus 1, and the moving body image It is a still image obtained by cutting out (moving image) and rotating it as necessary.
  • the predicted image is also generated according to the next imaging device 1 (the imaging device 1 that is the destination of the feature information).
  • FIG. 5 is a diagram illustrating an example in which the feature information is transmitted to the imaging device 1 that is the destination of the moving object.
  • the moving body photographed by the photographing apparatus 1a (camera ID1) passes straight through the intersection where the photographing apparatus 1a is installed.
  • the transmission destination specifying unit 14 of the photographing apparatus 1a determines which photographing apparatus 1 will photograph the moving object next depending on in which direction the moving object has passed the intersection. , Stored in advance. That is, the moving body that passes this intersection in the right direction in the figure is next photographed by the imaging device 1 (imaging apparatus 1b) of the camera ID2, and the moving body that passes this intersection in the upward direction in the figure is In addition, it is stored that the image is taken by the image taking device 1 (the image taking device 1d) with the camera ID4.
  • the traveling direction of the moving body will be described in the vertical and horizontal directions (the vertical and horizontal directions in the captured image).
  • the transmission destination specifying unit 14 of the image capturing apparatus 1a analyzes the video imaged by the image capturing apparatus 1a, and specifies that the moving body has proceeded in the right direction in FIG. Then, the transmission destination specifying unit 14 determines the imaging device 1b that next captures the moving body as the transmission destination of the feature information. Thereby, the characteristic information obtained by analyzing the video imaged by the imaging device 1a is transmitted to the imaging device 1b. Since the imaging device 1b receives the feature information before the moving body enters the imaging range, the imaging device 1b can narrow down the analysis target and quickly detect the moving body.
  • FIG. 6 is a diagram illustrating an example of an image captured by the image capturing device 1b and an example of feature information generated by analyzing the image.
  • (A) of the figure has shown typically the image
  • the photographing apparatus 1b generates the feature information shown in FIG.
  • This feature information differs from the example in FIG. 4 in the ID, size, speed, number, expected arrival time, and predicted image.
  • the IDs are different because the imaging device 1b generates the IDs.
  • the difference in size and speed is based on the difference in the video to be analyzed, and the number information is obtained due to the difference in the video to be analyzed.
  • the predicted arrival time and predicted image are newly calculated and generated in accordance with the imaging device 1 that captures the moving body after the imaging device 1b, and thus are different from the example of FIG. Specifically, the imaging device 1 that captures the moving body next from the direction in which the moving body leaves the imaging range is identified as the imaging device 1e (camera ID 5) (see FIG. 2). For this reason, the estimated arrival time at the point of the photographing apparatus 1e is calculated, and a predicted image in the photographing apparatus 1e is generated. In this case, since the moving body enters from the lower end of the photographing area of the photographing apparatus 1e upward, the predicted image is an image in which the leading portion of the moving body is directed upward. Such an image cannot be obtained from the video of a). For this reason, the IN image cut out from the video in FIG. 6A is rotated 90 degrees counterclockwise to generate an expected image.
  • FIG. 7 is a diagram illustrating an example of the feature information obtained by adding the generated feature information to the feature information received from the other imaging device 1.
  • the feature information management unit 16 of the imaging device 1b has the same feature of the moving body as the feature information received by the feature information acquisition unit 12 from the imaging device 1a. Determine if it is information. Specifically, when the information on the type, size, color, number, etc. of the feature information matches, it is determined that the feature information is the same mobile object. As described above, the size may vary somewhat depending on the captured video. Also, the color may vary due to factors such as the degree of light hit. Therefore, for such feature information, when other feature information is used together and the other feature information is the same, even if the color and size differ to some extent, the same moving body It is preferable to determine.
  • both of the feature information are used as the feature information of the mobile object. Accordingly, both of the feature information are transmitted as the feature information of the moving body to the imaging apparatus 1 that next captures the moving body.
  • the generated features are included in the feature information received from another imaging device.
  • a data table to which information is added (merged) may be generated.
  • the feature information in FIG. 7 is information including the feature information record generated by the image capturing device 1a and the feature information record generated by the image capturing device 1b as they are.
  • the feature information management unit 16 may cancel the addition. In this case, the received feature information is transmitted to the next photographing apparatus 1. Further, only new information included in the generated feature information may be added. For example, in the example of FIG. 7, only the size, the NEAR image, the speed, the number, the estimated arrival time, and the predicted image may be added, and the type and color may not be added.
  • the feature information (feature information generated by the image capturing device 1a and the image capturing device 1b is added to the image capturing device 1 corresponding to the moving direction of the moving body) in the same manner as in the example of FIG. Both of the generated feature information) are transmitted. Also, in the photographing apparatus 1 that has received this feature information, the feature information of the moving object is generated. If the generated feature information and the received feature information are the same feature information of the moving object, these are detected. Feature information.
  • FIG. 8 is a diagram illustrating an example of movement of a moving object and an example of an image in which the photographing apparatus 1e images the moving object.
  • FIG. 9 is a diagram illustrating an example of the feature information obtained by adding the feature information generated by the imaging device 1e to the feature information received from the imaging device 1b in the imaging device 1e.
  • the photographing device 1e receives feature information from the photographing device 1b (camera ID 2).
  • the image capturing apparatus 1e captures an image as shown in FIG. 5B, and the image capturing apparatus 1e analyzes the image to generate feature information of the captured moving body.
  • the feature information management unit 16 of the imaging device 1e determines whether the generated feature information and the received feature information are the same mobile feature information.
  • the feature information management unit 16 of the photographing apparatus 1e determines that the feature information is the same moving object
  • the feature information management unit 16 sets these as feature information of the moving object.
  • feature information including each of the feature information generated by the photographing apparatuses 1a, 1b, and 1e as a record is generated.
  • the feature information generated by the image capturing device 1e is the feature information shown in FIG. 7 (the data table in which the feature information generated by the image capturing device 1a and the feature information generated by the image capturing device 1b are merged). More records have been added. In the added record, the lane information is not included because the traveling lane cannot be detected. The reason why the predicted arrival time and the predicted image are not included is that no other photographing apparatus 1 is installed in the traveling direction of the moving body.
  • FIG. 10 is a flowchart illustrating an example of a process for transmitting feature information to another imaging apparatus 1.
  • feature information is transmitted to the next photographing apparatus 1 only for a detected moving body among the detected moving bodies.
  • the feature information transmitted / received between the imaging devices 1 can be narrowed down to the feature information of the moving body that is considered to be particularly required to be monitored.
  • the feature information generation unit 13 analyzes the moving image data captured by the imaging unit 40 and stored in the video storage unit 21, and may be within the recognition target area (in the imaging range. The same applies to the following processing.
  • generation of feature information of the moving body is started (S1). Specifically, the feature information generation unit 13 assigns an ID to the detected mobile object. Then, the position of the moving body in the video is tracked. For tracking the position, coordinate values set on the video may be used. Further, the feature information generation unit 13 analyzes the video, specifies the size, color, and type of the moving object, and also detects the number if it can be detected.
  • the feature information generation unit 13 determines whether a predetermined event has occurred regarding the moving body (S2).
  • the predetermined event is an event set in advance to determine a moving object to be monitored, and it is determined that a predetermined event has occurred when the moving state of the moving object changes in a predetermined pattern. it can. For example, it is determined that a predetermined event has occurred when the moving object behaves abnormally such as colliding with another object or meandering. In addition, what is necessary is just to set a predetermined event suitably according to what mobile body is made into monitoring object, and you may set two or more predetermined events.
  • the feature information generation unit 13 sets the moving object as a monitoring target (S3), and proceeds to the process of S4.
  • a predetermined notification destination for example, the server 2
  • the process proceeds to S4 without setting the moving body as a monitoring target.
  • the feature information generation unit 13 determines whether the moving body has moved out of the recognition target area.
  • the process returns to S2.
  • the feature information generation unit 13 moves the mobile object out of the recognition target area.
  • the feature information determined by doing so is further added (S5). Specifically, the feature information generation unit 13 adds the speed, travel lane, and surrounding object information when the mobile body goes out of the recognition target area as feature information. Also, an IN image, a NEAR image, and an OUT image are added as feature information. Then, the feature information generation unit 13 organizes the feature information and the previously generated feature information, and stores them in the feature information storage unit 22 as feature information of one moving body.
  • the feature information generation unit 13 notifies the transmission destination specifying unit 14 of the traveling direction when the mobile body goes out of the recognition target region for the mobile body set as the monitoring target, and the transmission destination specifying unit 14 determines the notified photographing device 1 in the traveling direction as the transmission destination of the feature information (S6, transmission destination determination step).
  • the transmission destination specifying unit 14 of the image capturing apparatus 1 a determines the image capturing apparatus 1 b as the transmission destination, and the moving object moves upward. If it is performed, the photographing apparatus 1d is determined as the transmission destination.
  • the transmission destination specifying unit 14 notifies the determined transmission destination to the additional information generation unit 15, and the additional information generation unit 15 generates characteristic information corresponding to the notified imaging device 1 and generates the generated characteristic information.
  • the additional information generation unit 15 notifies the mobile object based on the notified distance to the imaging device 1, the speed at which the mobile object moves out of the recognition target area, and the current time.
  • the estimated arrival time at the photographing apparatus 1 is calculated and added to the feature information.
  • a predicted image corresponding to the connection mode of the road to the installation location of the imaging device 1 that has been notified is generated, and this is also added to the feature information.
  • the transmission destination specifying unit 14 determines the photographing apparatus 1b as a transmission destination
  • a road from the left to the right in the figure is located at the intersection where the photographing apparatus 1b is installed. Since they are connected, an expected image of the moving body from the left to the right of the video is generated. In this case, the IN image generated by the feature information generation unit 13 may be used as the predicted image as it is.
  • the imaging apparatus 1a of FIG. 2 when the transmission destination specifying unit 14 determines the imaging apparatus 1d as the transmission destination, a road is located from the bottom to the top at the intersection where the imaging apparatus 1d is installed.
  • the IN image generated by the feature information generation unit 13 may be rotated by 90 degrees to obtain a predicted image.
  • what imaging device 1 is installed in the traveling direction of the moving body may be stored in advance in each imaging device 1. The same applies to the distance between the image capturing apparatuses 1 and the road connection mode.
  • the additional information generating unit 15 to which the feature information has been added as described above notifies the transmission destination specifying unit 14 to that effect, and the transmission destination specifying unit 14 that has received the notification transmits the determined transmission destination to the feature information transmitting unit. 11 is notified. Then, the feature information transmission unit 11 reads the feature information stored in the feature information storage unit 22 and transmits the feature information to the notified transmission destination via the communication unit 30 (S8, information transmission step), thereby performing processing. finish.
  • the feature information of the moving object that has not been set as the monitoring target is not transmitted to the other photographing apparatus 1.
  • the feature information that has not been transmitted in this way can also be used as an index for searching for a scene in which a specific moving body is shown from, for example, captured moving image data.
  • FIG. 11 is a flowchart illustrating an example of processing (information management method) when receiving feature information. Similar to the example of FIG. 10, an example will be described in which feature information of a moving body set as a monitoring target among the generated feature information is transmitted to another imaging device 1.
  • the feature information acquisition unit 12 receives the feature information of the mobile body set as the monitoring target (S10, information acquisition step), stores it in the feature information storage unit 22, and notifies the feature information management unit 16 of this fact. .
  • the feature information generation unit 13 searches for a moving object by analyzing the moving image data stored in the video storage unit 21 (S11). When a moving body is detected (YES in S11), generation of feature information of the moving body is started (S12).
  • the feature information management unit 16 that has received the notification that the feature information to be monitored has been stored, uses the feature information to select a candidate (monitoring) from among the moving objects that the feature information generation unit 13 has started generating. Narrowing down (candidates for which it is determined whether or not the object is a moving object) is performed (S13). Specifically, the feature information management unit 16 excludes a moving object whose difference between the estimated arrival time of the feature information received in S10 and the time when the moving object is detected in S11 is a predetermined time or more from the candidates. In addition, about the mobile body excluded from the candidate, it is excluded from the determination object of subsequent S14.
  • the mobile body is excluded from the candidates.
  • the moving body having the appearance that differs from the moving body of the predicted image of the feature information received in S10 by more than a predetermined level is also excluded from the candidates.
  • it may be determined whether or not to be excluded from candidates based on the type, size, color, peripheral object information, and the like.
  • a moving body as a candidate may be determined. For example, a moving body having an appearance that matches a predetermined degree or more with the moving body of the predicted image may be set as a candidate.
  • the feature information management unit 16 determines whether or not the moving body that has not been excluded from the candidates in S13 (or has been set as a candidate) is a moving body set as a monitoring target in the previous photographing apparatus 1 ( S14). That is, here, it is determined whether or not the feature information generated by the own device is the same feature information as the feature information received in S10 (ie, a moving subject set as a monitoring target).
  • the process returns to S11. If the mobile body detected in S11 is excluded from the candidates in S13, the determination in S14 is omitted and the process returns to S11.
  • the feature information management unit 16 instructs the feature information generation unit 13 to display the feature information that has been generated in S12 in S10. It adds to the received feature information (S15, information management step). Thereby, both the feature information that has been generated in S12 and the feature information that has been received in S10 are handled as the feature information of the moving object that is the monitoring target in the previous photographing apparatus 1, and the process ends.
  • the feature information (the feature that has been generated in S ⁇ b> 12 is sent to the imaging device 1). Both the information and the feature information received in S10) are transmitted. If it is determined that there is no other photographing apparatus 1 at the destination of the moving object to be monitored, the feature information is transmitted to the server 2.
  • the determination of S2 in FIG. 10 (determination of whether or not a predetermined event has occurred) is also performed for the mobile body detected in S11, and a predetermined event has occurred. If it is determined, it is set as a monitoring target. Then, the feature information of the moving body newly set as the monitoring target is also transmitted to the imaging apparatus 1 that is the moving destination of the moving body by the processing of S5 to S8 in FIG.
  • the estimated arrival time is calculated by, for example, the feature information management unit 16 from the reception time of the feature information, the speed included in the received feature information, and the distance to the imaging device 1 that is the transmission source of the feature information. May be. In this case, it is not necessary for the additional information generation unit 15 to calculate the estimated arrival time in S7 of FIG.
  • the transmission destination of the feature information is not limited to this example.
  • the feature information may be transmitted to the photographing apparatus 1 in the direction in which the moving body has come.
  • the imaging device 1 which received this characteristic information may transmit feature information to the further previous imaging device 1.
  • the feature information can be accumulated retroactively to the photographing apparatus 1 that first photographed the moving body.
  • the image capturing apparatus 1 that has first imaged may transmit the accumulated feature information to the server 2.
  • FIG. 12 is a block diagram illustrating an example of a main configuration of a server (information management apparatus) 200 included in the monitoring system 500 of the present embodiment.
  • the monitoring system 500 includes photographing apparatuses 100 a and 100 b and a server 200.
  • each imaging apparatus 1 manages feature information.
  • the server 200 manages feature information.
  • the imaging devices 100a and 100b like the imaging device 1 of the above-described embodiment, images a moving body, analyzes moving image data obtained by the imaging, and generates feature information of the moving body. Then, the generated feature information is transmitted to the server 200. Similar to the imaging device 1 of the above-described embodiment, the feature information of the mobile body that is the monitoring target (the mobile body in which the abnormal behavior is detected) is the transmission target, and the feature information of the mobile body that is not the monitoring target is You may make it not transmit. Also, the number of imaging devices included in the monitoring system 500 may be three or more.
  • the server 200 includes a control unit 210 that controls the operation of the server 200 in an integrated manner, a storage unit 220 that stores various data used by the server 200, and a communication for the server 200 to communicate with other devices.
  • the unit 230 is provided.
  • the control unit 210 includes a feature information acquisition unit (information acquisition unit) 211 and a feature information management unit (information management unit) 212.
  • the storage unit 220 stores a feature information storage unit 221 that stores feature information. Is provided.
  • the feature information acquisition unit 211 receives feature information from the imaging devices 100a and 100b via the communication unit 230, and sends the received feature information to the feature information management unit 212. Then, the feature information management unit 212 determines that the feature information generated by the imaging device 100a and the feature information generated by the imaging device 100b received from the feature information management unit 212 are the same mobile feature information. In this case, both of the feature information are used as the feature information of the mobile object.
  • the feature information management unit 212 when receiving the feature information from the feature information management unit 212, stores the feature information in the feature information storage unit 221. Then, when feature information is received from the feature information management unit 212 (information acquisition step), the received feature information and the feature information stored in the feature information storage unit 221 are feature information of the same moving object. It is determined whether or not. Note that when the newly received feature information and the feature information stored in the feature information storage unit 221 are photographed by the same photographing device, the above determination is not performed. This is because the characteristic information of the same moving object is not transmitted twice from one photographing apparatus.
  • the feature information management unit 212 stores them in the feature information storage unit 221 as the feature information of another mobile object.
  • the feature information management unit 212 adds the newly received feature information to the previously stored feature information of the mobile object (information Management step).
  • the newly received feature information is the same feature information of the moving body as the previously stored feature information, the newly received feature information is stored in the previously stored movement. Add to body feature information.
  • the feature information storage unit 221 of the server 200 stores the feature information of the same moving body among the feature information individually generated by the photographing apparatuses 100a and 100b as a single piece of data. Therefore, feature information can be accumulated for each moving object.
  • the apparatus that performs photographing and the apparatus that generates feature information may be separate devices. That is, the same function as that of the photographing apparatus 1 can be realized even when the photographing apparatus and the information management apparatus are combined.
  • the information management device may generate feature information by acquiring moving image data through wired or wireless communication with the imaging device.
  • the generated feature information may be managed by a device that generates feature information as in the first embodiment, or may be managed by a server as in the second embodiment.
  • the example in which the feature information is transmitted to the server 2 when it is determined that there is no other photographing apparatus 1 at the destination of the moving object to be monitored has been described.
  • the example in which the feature information generated by the imaging devices 100a and 100b is accumulated in the server 200 has been described.
  • the feature information accumulated in the server 2 or 200 in this way may be transmitted to the imaging device 1 or 100a and 100b, or may be transmitted simultaneously to a plurality of imaging devices that can communicate with the server 2 or 200. Also good.
  • the moving body to be monitored subsequently enters the imaging range of any of the imaging devices, this can be detected quickly and accurately. This is particularly effective for monitoring a moving body that may once come out of the monitoring range and return to the monitoring range again, such as a suspicious person or a suspicious vehicle.
  • control blocks (particularly, the control unit 10 and the control unit 210) of the imaging device 1 and the server 200 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU (Central Processing). Unit) and may be realized by software.
  • a logic circuit hardware
  • IC chip integrated circuit
  • CPU Central Processing
  • the photographing apparatus 1 and the server 200 include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only Only) in which the program and various data are recorded so as to be readable by the computer (or CPU).
  • Memory or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • An imaging device (1) according to aspect 1 of the present invention is an imaging device of a monitoring system (5) including a plurality of imaging devices, and among the plurality of imaging devices, the moving direction of a moving body imaged by the own device
  • a transmission destination determination unit transmission destination specifying unit 14 that determines a transmission destination of characteristic information of the moving body obtained by analyzing a video obtained by shooting the moving body using the imaging device according to Is transmitted to the transmission destination determined by the transmission destination determination unit (feature information transmission unit 11).
  • the imaging device corresponding to the moving direction of the moving body that has obtained the feature information among the plurality of imaging devices is determined as the transmission destination of the feature information. Therefore, the transmission destination of the feature information can be narrowed down to an imaging apparatus that has a high possibility of imaging the moving body.
  • the imaging device is the above-described aspect 1, wherein the detection unit (feature information generation unit 13) that detects a mobile body whose motion state has changed in a predetermined pattern among the mobile bodies captured by the own apparatus.
  • the transmission destination determination unit determines the transmission destination of the feature information of the moving body detected by the detection unit.
  • the mobile object whose motion state has changed in a predetermined pattern is detected, and the transmission destination of the feature information of the mobile object is determined. Therefore, it is possible to transmit the feature information of the moving body whose motion state has changed in a predetermined pattern to an imaging apparatus that has a high possibility of shooting the moving body. Accordingly, it is possible to track a moving body whose movement state has changed in a predetermined pattern, and for example, it is possible to track a vehicle that has caused an accident.
  • the imaging device (1) is an imaging device of a monitoring system (5) including a plurality of imaging devices, and is obtained by analyzing an image captured by the own device of a moving body.
  • the transmission destination determination unit transmission destination specifying unit 14
  • the transmission destination determination unit determined from among a plurality of the imaging devices
  • An information generation unit (additional information generation unit 15) that generates characteristic information corresponding to the transmission destination is provided.
  • the feature information corresponding to the imaging device that is the transmission destination of the feature information among the plurality of imaging devices is generated. Therefore, it is possible to transmit the feature information corresponding to the image capturing device to the image capturing device of the transmission destination and execute processing corresponding to the feature information.
  • the feature information to be transmitted is not particularly limited as long as the transmission destination imaging device can be used when analyzing a moving body image.
  • the imaging apparatus is the imaging apparatus according to aspect 3, in which the information generation unit is configured to calculate the moving speed of the moving object in the video captured by the apparatus and the distance to the transmission destination determined by the transmission destination determination unit. The calculated estimated time when the moving body enters the shooting range of the transmission destination is used as the feature information.
  • the estimated time when the moving body enters the shooting range of the transmission destination is transmitted as the feature information.
  • the transmission apparatus can narrow down the candidates for the moving body, so that the moving body can be easily detected.
  • the information generation unit is configured to detect an expected captured image of the moving body at the transmission destination determined by the transmission destination determination unit from a video captured by the own device.
  • the feature information is cut out and used as the feature information.
  • the predicted captured image of the moving body at the transmission destination is cut out from the video captured by the own device as the feature information and transmitted.
  • the transmission apparatus can narrow down the candidates for the moving body, so that the moving body can be easily detected.
  • the predicted captured image that has been cut out may be used as feature information as it is, or may be used as feature information after processing such as rotation on the predicted captured image.
  • the imaging device is the imaging device according to any one of Aspects 3 to 5, wherein the information generation unit is the transmission destination determination unit according to a passing area of the moving body in a video captured by the device itself.
  • the feature information is information indicating a video region in which the moving body is expected to be photographed at the transmission destination determined by.
  • the transmission apparatus can narrow down the candidates for the moving body, so that the moving body can be easily detected.
  • An imaging device control method is a method for controlling an imaging device of a monitoring system including a plurality of imaging devices, and among the plurality of imaging devices, an imaging device that executes the control method performs imaging.
  • a transmission destination determination step for determining a transmission destination of the feature information of the moving body obtained by analyzing an image obtained by shooting the moving body with an imaging device corresponding to the moving direction of the moving body, and the feature information
  • an information transmission step of transmitting to the transmission destination determined in the transmission destination determination step is a method for controlling an imaging device of a monitoring system including a plurality of imaging devices, and among the plurality of imaging devices, an imaging device that executes the control method performs imaging.
  • a transmission destination determination step for determining a transmission destination of the feature information of the moving body obtained by analyzing an image obtained by shooting the moving body with an imaging device corresponding to the moving direction of the moving body, and the feature information
  • an information transmission step of transmitting to the transmission destination determined in the transmission destination determination step is an effect similar to the imaging device of the said aspect 1.
  • An imaging apparatus control method is an imaging apparatus control method for a monitoring system including a plurality of imaging apparatuses, and the imaging apparatus that executes the control method analyzes an image captured of a moving body.
  • the feature information to be transmitted to the transmission destination determined in the transmission destination determination step and the transmission destination determination step in the transmission destination determination step And an information generation step of generating feature information corresponding to the transmission destination.
  • the photographing apparatus may be realized by a computer.
  • the photographing apparatus is realized by the computer by causing the computer to operate as each unit (software element) included in the photographing apparatus.
  • a control program for the photographing apparatus and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention can be used for a monitoring system using a plurality of photographing devices.
  • Imaging Device 11 Feature Information Transmitter (Information Transmitter) 13 Feature information generator (detector) 14 Destination specifying unit (Destination determining unit) 15 Additional information generation unit (information generation unit) 5 Monitoring system

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 特徴情報の送信先を、移動体を撮影する可能性の高い撮影装置に絞る。 撮影装置(1a)は、撮影装置(1b~1e)のうち、撮影装置(1a)が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先特定部(14)と、上記特徴情報を上記送信先に送信する特徴情報送信部(11)と、を備えている。

Description

撮影装置、撮影装置の制御方法、および制御プログラム
 本発明は、複数の撮影装置を含む監視システムで用いられる撮影装置等に関する。
 監視カメラで撮影した映像を解析して撮影された対象物を検出する技術が従来から知られている。例えば、下記の特許文献1には、監視装置で撮影された映像から検出した人物の特徴量、他の監視装置から受信した、不審者の特徴量と照合し、これらの特徴情報が一致した場合に、不審者情報を携帯端末および他の監視装置に送信することが記載されている。これにより、複数の監視装置と携帯端末を用いて不審者を追跡することが可能になる。
日本国公開特許公報「特開2013-153304号」(2013年8月8日公開)
 ここで、上述のような従来技術では、ある監視装置で不審者を検出した場合、その監視装置は、不審者情報を他の監視装置の全てに送信する。この構成は、移動先の予想が困難な不審者の追跡には有効と考えられるが、追跡対象が増えた場合に、システム内の通信回数と送受信される情報量が増大するという問題がある。
 本発明は、上記課題に鑑みてなされたものであり、その目的は、特徴情報の送信先を、移動体を撮影する可能性の高い撮影装置に絞ることのできる撮影装置等を提供することにある。
 上記の課題を解決するために、本発明の一態様に係る撮影装置は、複数の撮影装置を含む監視システムの撮影装置であって、複数の上記撮影装置のうち、自装置が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先決定部と、上記特徴情報を、上記送信先決定部が決定した送信先に送信する情報送信部と、を備えている。
 また、本発明の一態様に係る撮影装置の制御方法は、上記の課題を解決するために、複数の撮影装置を含む監視システムの撮影装置の制御方法であって、複数の上記撮影装置のうち、上記制御方法を実行する撮影装置が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先決定ステップと、上記特徴情報を、上記送信先決定ステップで決定した送信先に送信する情報送信ステップと、を含む。
 本発明の上記各態様によれば、特徴情報の送信先を、移動体を撮影する可能性の高い撮影装置に絞ることができるという効果を奏する。
本発明の実施形態1に係る撮影装置の要部構成の一例を示すブロック図である。 上記撮影装置を含む監視システムの概要を示す図である。 道路を見下ろす位置に設置した撮影装置にて撮影される映像と、該映像における認識対象領域を説明する図である。 上記撮影装置が生成する特徴情報の一例を示す図である。 移動体の移動先の撮影装置に特徴情報を送信する例を示す図である。 撮影装置で撮影された映像の例と、該映像を解析して生成された特徴情報の例を示す図である。 他の撮影装置から受信した特徴情報に生成した特徴情報を追加することで得られた特徴情報の一例を示す図である。 移動体の移動例と、該移動体を撮影した映像の例を示す図である。 他の撮影装置から受信した特徴情報に生成した特徴情報を追加して得た特徴情報の一例を示す図である。 特徴情報を他の撮影装置に送信する処理の一例を示すフローチャートである。 特徴情報の受信時の処理の一例を示すフローチャートである。 本発明の実施形態2に係るサーバの要部構成の一例を示すブロック図である。
 〔実施形態1〕
 以下、本発明の実施の形態について、詳細に説明する。まず、図2に基づいて、本実施形態に係る監視システム5の概要を説明する。図2は、監視システム5の概要を示す図である。監視システム5は、撮影装置を用いて車両や通行者等を監視するシステムであり、図示のように、監視システム5には、撮影装置1a~1eとサーバ2が含まれる。なお、以下では、各撮影装置1a~1eを区別する必要がないときには、単に撮影装置1と記載する。また、監視システム5には、少なくとも2台の撮影装置1が含まれていればよく、撮影装置1の台数は図示の例に限られない。
 撮影装置1は、映像(動画像)を撮影して動画像データを生成する機能を備えていると共に、生成した動画像データを解析して映像中のオブジェクトの特徴情報を生成する機能や、他の撮影装置1およびサーバ2と通信する機能等を備えている。また、各撮影装置1a~1eには、固有の識別情報(カメラID1~5)が付与されており、この識別情報により、各撮影装置1a~1eおよびサーバ2は、通信相手が何れの撮影装置であるかを識別することができるようになっている。
 サーバ2は、各撮影装置1と通信して、各撮影装置1が撮影した映像中のオブジェクトの特徴情報を取得する。これにより、サーバ2には、各各撮影装置1が生成した特徴情報が集積される。
 詳細は後述するが、以上の構成を備える監視システム5は、以下の3つの主要な特徴を有している。
(1)撮影装置1は、撮影した移動体の特徴情報を、その移動体の移動方向の撮影装置1に送信する。
(2)撮影装置1は、送信先が何れの撮影装置1であるかに応じた特徴情報を生成する。(3)特徴情報を受信した撮影装置1は、自ら移動体を撮影した映像から生成した特徴情報が、受信した特徴情報と同一の移動体の特徴情報である場合に、これら双方の特徴情報を当該移動体の特徴情報とする。
 〔撮影装置の構成〕
 続いて、撮影装置1の構成を図1に基づいて説明する。図1は、撮影装置1aの要部構成の一例を示すブロック図である。なお、撮影装置1b~1eも同様の構成である。図示のように、撮影装置1aは、制御部10、記憶部20、通信部30、および撮影部40を備えている。
 制御部10は、撮影装置1aの動作を統括して制御するものであり、記憶部20は撮影装置1aが使用する各種データを格納するものである。また、通信部30は、撮影装置1aが他の装置(この例では他の撮影装置1およびサーバ2)と通信するためのものである。そして、撮影部40は、映像を撮影するためのものであり、撮影部40が撮影した映像は、動画像データとして記憶部20の映像格納部21に格納される。
 また、制御部10には、特徴情報送信部(情報送信部)11、特徴情報取得部(検出部)12、特徴情報生成部13、送信先特定部(送信先決定部)14、追加情報生成部(情報生成部)15、および特徴情報管理部16が含まれている。そして、記憶部20には、撮影部40が生成した動画像データを格納する映像格納部21、および撮影装置1aが生成したかあるいは他の撮影装置1から取得した特徴情報を格納する特徴情報格納部22が含まれている。
 特徴情報送信部11は、送信先特定部14が決定した送信先の装置(この例では他の撮影装置1およびサーバ2)に特徴情報を送信する。なお、送信する特徴情報の内容については後述する。
 特徴情報取得部12は、他の装置(この例では他の撮影装置1)から特徴情報(第1特徴情報)を取得し、取得した特徴情報を特徴情報格納部22に格納する。
 特徴情報生成部13は、撮影部40が撮影した映像(より詳細には映像格納部21に格納されている動画像データ)を解析して、該映像中の移動体の特徴情報(第2特徴情報)を生成する。この特徴情報は、移動体の特徴を示す情報であり、移動体自体を示す情報であるとも言える。
 送信先特定部14は、複数の撮影装置1のうち、撮影部40が撮影した移動体の移動方向に応じた撮影装置1を、当該移動体の特徴情報の送信先に決定する。
 追加情報生成部15は、移動体の映像を解析して特徴情報を生成する。追加情報生成部15の生成する特徴情報には、その送信先(送信先特定部14が決定した送信先)に応じた特徴情報が含まれている。
 特徴情報管理部16は、特徴情報取得部12が取得した特徴情報と、特徴情報生成部13が生成した特徴情報を管理する。具体的には、特徴情報管理部16は、特徴情報生成部13が生成した特徴情報が、特徴情報取得部12が取得した特徴情報と同一の移動体の特徴情報であるか否かを判定する。そして、同一の移動体の特徴情報であると判定した場合に、これら特徴情報の双方を当該移動体の特徴情報として管理する。
 〔撮影される映像について〕
 次に、撮影装置1にて撮影される映像について、図3に基づいて説明する。図3は、道路を見下ろす位置に設置した撮影装置1aにて撮影される映像と、該映像における認識対象領域を説明する図である。なお、ここでは撮影装置1a(カメラID1)を例示しているが、他の撮影装置1で撮影される映像も同様である。
 図示のように、撮影装置1aは、道路を見下ろす位置に設置されており、直下を通行する車両等がその撮影範囲に入るようになっている。また、撮影装置1aは、交差点の中心部付近に設置した場合に、該交差点の各進入路が撮影範囲に入る程度に広い撮影範囲を有している。撮影部40として例えば全方位カメラを適用することにより、このような広い範囲の撮影が可能になる。
 ただし、このように広い撮影範囲を有する撮影装置1を用いた場合、撮影範囲の端部に近付くにつれて映像中の移動体の大きさが小さくなり、端部付近の映像では移動体が小さすぎて十分な情報が得られない。このため、例えば、同図の外側から2番目の円の内部の映像を解析の対象範囲(認識対象領域)とし、それより外側の領域(撮影範囲の端部領域)は解析の対象外としてもよい。
 また、撮影範囲の中心部付近は、ほぼ真上から撮影された映像となるため、車両のナンバープレート等の情報は取得し難い。このため、車両のナンバー等の検出の際には、撮影範囲の中心部付近(例えば、「カメラID1映像」における最内周の円の内部の映像)も解析の対象外としてもよい。つまり、車両のナンバー等を特徴情報とする場合、円形の撮影範囲の外縁部と中心部とを除いたドーナツ状の領域を認識対象領域としてもよい。
 撮影装置1aを上述のような配置とすることにより、移動体(図示の例では車両)が撮影範囲に入り(同図の「IN」)、撮影装置1aに最も近づき(同図の「NEAR」)、撮影範囲から出ていく(同図「OUT」)までの映像を撮影することができる。以下では、撮影範囲(あるいは認識対象領域)に入ったときの画像をIN画像、最も接近したときの画像をNEAR画像、そして撮影範囲(あるいは認識対象領域)から出ていくときの画像をOUT画像と呼ぶ。なお、撮影装置1aの設置場所および配置は、通行する移動体(車両であってもよいし、歩行者等の非車両であってもよい)を撮影可能な設置場所および配置であればよく、図示の例に限られない。
 〔特徴情報の詳細〕
 次に、撮影装置1が生成する特徴情報の詳細を図4に基づいて説明する。図4は、特徴情報の一例を示す図である。図示の特徴情報は、撮影された1つの移動体の特徴情報であり、以下の(1)~(13)の情報を含む。
(1)ID:移動体を識別する情報であり、撮影した映像から検出された各移動体に付与される。図示の例では、CAM1-0023234とのIDが格納されている。また、このIDの先頭部分(CAM1)は、この移動体を検出した撮影装置1の識別情報にもなっている。
(2)種別:移動体の映像を解析することにより特定された種別である。ここでは、映像中の移動体の形状と大きさから、移動体を、車両、軽車両(バイクや自転車等の二輪車を含む)、および歩行者の3つの種別の何れかに分類しており、図示の例では車両となっている。なお、移動体をどのような種別に分類するかは、特徴情報をどのような用途に用いるかに応じて決めればよく、この例に限られない。
(3)大きさ:移動体の映像を解析することにより特定された移動体の大きさを示す情報である。大きさを示す情報としては、映像中の移動体の大きさから推定される、移動体の長さ、幅、高さ等を用いてもよい。なお、移動体が車両である場合、幅はどのような車両であっても大差はなく、高さは直上からの撮影映像の解析では正確に求めることが困難であるから、図示の例では、大きさを示す情報として車体の長さ(4m)を用いている。また、相対的な大きさを示す情報を用いてもよい。例えば、NEAR画像における移動体の占める領域の割合により、当該移動体の大きさを大、中、小の何れかに分類してもよい。
(4)色:移動体の映像を解析することにより特定された移動体の色を示す情報である。移動体の色が複数ある場合には、各色を特徴情報に含めてもよいし、主な色(映像中の移動体において最も占める面積が広い色)を特徴情報に含めてもよい。
(5)IN画像:移動体が撮影範囲(あるいは特徴情報の解析範囲)に入ったときの画像を、移動体の映像(動画像データ)から切り出した静止画像である。移動体が車両である場合、先頭(前面)部分の画像がIN画像となる。
(6)NEAR画像:移動体が撮影装置1に撮影最も接近したときの画像を、移動体の映像(動画像データ)から切り出した静止画像である。
(7)OUT画像:移動体が撮影範囲(あるいは特徴情報の解析範囲)から出るときの画像を、移動体の映像(動画像データ)から切り出した静止画像である。移動体が車両である場合、後尾部分(後面)の画像がIN画像となる。
(8)速度:移動体の映像を解析することにより特定された移動体の速度を示す情報である。映像中における何れのタイミングの速度を特徴情報としてもよいが、ここでは撮影範囲(あるいは特徴情報の解析範囲)から出るときの速度を特徴情報とする例を説明する。図示の例では、速度は30(km/h)となっている。
(9)周辺物体情報:移動体の映像を解析することにより検出された、移動体の周囲の物体を示す情報である。ここでは、周辺物体として他の移動体を想定しているが、周辺物体は、移動体ではないオブジェクトであってもよく、例えばガードレール等であってもよい。図示の例では、周辺物体情報は、「なし」となっている。
(10)ナンバー:移動体が車両(軽車両を含む)である場合に、そのナンバープレート部分の映像を解析することにより検出された車両特定番号である。車両と撮影装置1との位置関係、距離、車両の速度などの要因により、ナンバーの検出ができない場合には、図示の例のように、ナンバーの情報は格納されない。
(11)レーン:移動体の映像を解析することにより特定された移動体の走行レーン(車線)を示す情報である。例えば、移動体の進行方向に向かって左から昇順に番号を設定し、この番号をレーンの情報としてもよい。図示の例では、レーンが1であり、これにより、移動体は最も左側(路肩側)のレーンを走行したことが分かる。なお、レーンを示す情報は、次の撮影装置1で使用されるため、移動体が撮影範囲(あるいは認識対象領域)から出るときの走行レーンを示す情報とすることが好ましい。一般には、走行レーンを頻繁に変更することは少ないから、ある撮影装置1における移動体の走行レーン(通過領域)は、次の撮影装置1においてその移動体が撮影されると予想される映像領域を示す特徴情報となる。なお、次の撮影装置1においてその移動体が撮影されると予想される映像領域は、ある撮影装置1の撮影範囲から移動体が出る際の位置と、次の撮影装置1の撮影範囲、道路の状況等に基づいて特定してもよい。
(12)到着予想時刻:移動体が次の撮影装置1の撮影範囲(あるいは認識対象領域)に入ると予想される時刻を示す情報である。詳細は後述するが、到着予想時刻は、次の撮影装置1(特徴情報の送信先の撮影装置1)に応じて算出される。
(13)予想画像(予想撮影画像):移動体が次の撮影装置1の撮影範囲(あるいは特徴情報の解析範囲)に入ったときに撮影されると予想される画像であり、移動体の映像(動画像)から切り出し、必要に応じてこれを回転させて得た静止画像である。予想画像も到着予想時刻と同様に、次の撮影装置1(特徴情報の送信先の撮影装置1)に応じて生成される。
 〔特徴情報の送信先の決定〕
 次に、特徴情報の送信先を決定する方法について、図5に基づいて説明する。図5は、移動体の移動先の撮影装置1に特徴情報を送信する例を示す図である。図示の例では、撮影装置1a(カメラID1)に撮影された移動体が、この撮影装置1aの設置された交差点を直進で通過している。
 ここで、撮影装置1aの送信先特定部14は、移動体が上記交差点を何れの方向に通過したかに応じて、次に該移動体を撮影するのが何れの撮影装置1となるかを、予め記憶している。つまり、この交差点を同図の右方向に通過した移動体は、次にカメラID2の撮影装置1(撮影装置1b)に撮影され、この交差点を同図の上方向に通過した移動体は、次にカメラID4の撮影装置1(撮影装置1d)に撮影されることを記憶している。なお、ここでは、上下左右の方向(撮影された映像における上下左右の方向)で移動体の進行方向を説明するが、移動体の進行方向は方位等によって特定してもよい。
 よって、撮影装置1aの送信先特定部14は、撮影装置1aで撮影された映像を解析して、移動体が同図の右方向に進んだことを特定する。そして、送信先特定部14は、次に該移動体を撮影する撮影装置1bを特徴情報の送信先に決定する。これにより、撮影装置1aが撮影した映像の解析によって得られた特徴情報は、撮影装置1bに送信される。撮影装置1bは、その移動体が撮影範囲に入る前に、その特徴情報を受信しているから、解析対象を絞り込んで、速やかに上記移動体を検出することが可能になる。
 〔特徴情報を受信した撮影装置で生成される特徴情報について〕
 次に、特徴情報を受信した撮影装置1で生成される特徴情報について、図6に基づいて説明する。図6は、撮影装置1bで撮影された映像の例と、該映像を解析して生成された特徴情報の例を示す図である。同図の(a)は、撮影装置1aが送信した特徴情報を受信した撮影装置1b(カメラID2)が撮影した、交差点を左折して通過する移動体の映像を模式的に示している。
 図示の例では、撮影装置1bは、この映像を解析することによって同図の(b)に示す特徴情報を生成している。この特徴情報は、図4の例と比べて、ID、大きさ、速度、ナンバー、到着予想時刻、および予想画像が相違している。このうち、IDが相違するのは撮影装置1bがIDを生成しているためである。また、大きさおよび速度の相違は解析対象の映像の相違に基づき、ナンバーの情報が得られているのも解析対象の映像の相違による。
 そして、到着予想時刻および予想画像は、撮影装置1bの次に移動体を撮影する撮影装置1に応じて新たに算出および生成されたものであるから、図4の例と相違している。具体的には、移動体が撮影範囲から出た方向から、次に該移動体を撮影する撮影装置1は、撮影装置1e(カメラID5)と特定される(図2参照)。このため、撮影装置1eの地点への到着予想時刻が算出され、また撮影装置1eにおける予想画像が生成される。なお、この場合、移動体は、撮影装置1eの撮影領域の下端から上側に向かって入ることになるため、予想画像は移動体の先頭部分が上に向いた画像となるが、図6の(a)の映像からはこのような画像は得られない。このため、図6の(a)の映像から切り出したIN画像を反時計回りに90度回転させて予想画像を生成する。
 〔生成した特徴情報と受信した特徴情報の取り扱いについて〕
 次に、生成した特徴情報と受信した特徴情報の取り扱いについて、図7に基づいて説明する。図7は、他の撮影装置1から受信した特徴情報に生成した特徴情報を追加することで得られた特徴情報の一例を示す図である。
 撮影装置1bの特徴情報管理部16は、特徴情報生成部13および追加情報生成部15が特徴情報を生成すると、特徴情報取得部12が撮影装置1aから受信した特徴情報と同一の移動体の特徴情報であるか判定する。具体的には、特徴情報の種別、大きさ、色、ナンバー等の情報が一致している場合に、同一の移動体の特徴情報であると判定する。なお、上述のように、大きさは撮影された映像によって多少の変動が生じ得る。また、色も光の当たり具合等の要因で変動が生じ得る。よって、このような特徴情報については、他の特徴情報を併用して、他の特徴情報が一致している場合には、色や大きさがある程度相違していても同一の移動体であると判定することが好ましい。
 そして、特徴情報管理部16は、同一の移動体の特徴情報であると判定した場合には、これら特徴情報の双方を当該移動体の特徴情報とする。これにより、次に当該移動体を撮影する撮影装置1には、これら特徴情報の双方が、当該移動体の特徴情報として送信される。
 このように、異なる撮影装置1で生成された特徴情報を1つの移動体の特徴情報として管理する場合、例えば図7の例のように、他の撮影装置から受信した特徴情報に、生成した特徴情報を追加(マージ)したデータテーブルを生成してもよい。図7の特徴情報は、撮影装置1aが生成した特徴情報のレコードと、撮影装置1bが生成した特徴情報のレコードをそのまま含む情報である。なお、生成した特徴情報に新たな情報が含まれていない場合、特徴情報管理部16は、追加を見合せてもよい。この場合、受信した特徴情報を次の撮影装置1に送信する。また、生成した特徴情報に含まれる新たな情報のみを追加してもよい。例えば、図7の例では、大きさ、NEAR画像、速度、ナンバー、到着予想時刻、および予想画像のみを追加し、種別や色等は追加しないようにしてもよい。
 〔特徴情報のさらなる追加について〕
 以上のようにして特徴情報を追加した後は、図5の例と同様にして、移動体の移動方向に応じた撮影装置1に特徴情報(撮影装置1aが生成した特徴情報と撮影装置1bが生成した特徴情報の双方)が送信される。そして、この特徴情報を受信した撮影装置1においても、移動体の特徴情報が生成され、生成した特徴情報と受信した特徴情報とが同一の移動体の特徴情報であれば、これらを当該移動体の特徴情報とする。
 これについて、図8および図9に基づいて説明する。図8は、移動体の移動例と、撮影装置1eが該移動体を撮影した映像の例を示す図である。また、図9は、撮影装置1eにおいて、撮影装置1bから受信した特徴情報に、撮影装置1eにて生成した特徴情報を追加して得た特徴情報の一例を示す図である。
 図8の(a)に示すように、撮影装置1e(カメラID5)は、撮影装置1b(カメラID2)から特徴情報を受信する。そして、その後、移動体が、特徴情報を受信した撮影装置1eの撮影範囲に入り、そのまま直進して撮影範囲を抜けたとする。この場合、撮影装置1eでは、同図の(b)に示すような映像が撮影され、撮影装置1eはこの映像を解析して、撮影した移動体の特徴情報を生成する。そして、撮影装置1eの特徴情報管理部16は、生成した特徴情報と、受信した特徴情報とが、同一の移動体の特徴情報であるか判定する。
 ここで、撮影装置1eの特徴情報管理部16は、同一の移動体の特徴情報であると判定した場合には、これらを当該移動体の特徴情報とする。これにより、例えば、図9に示すように、撮影装置1a、1b、および1eで生成された特徴情報のそれぞれをレコードとして含む特徴情報が生成される。
 図9の例では、図7に示した特徴情報(撮影装置1aが生成した特徴情報と撮影装置1bが生成した特徴情報とがマージされたデータテーブル)に対し、撮影装置1eが生成した特徴情報のレコードがさらに追加されている。なお、追加されたレコードにおいて、レーンの情報が含まれていないのは、走行レーンが検出できなかったことによる。また、到着予想時刻および予想画像が含まれていないのは、移動体の進行方向には他の撮影装置1が設置されていないことによる。
 〔特徴情報を送信する処理の流れ〕
 次に、特徴情報を他の撮影装置1に送信する処理(撮影装置の制御方法)の流れを図10に基づいて説明する。図10は、特徴情報を他の撮影装置1に送信する処理の一例を示すフローチャートである。なお、本例では、検出された移動体のうち監視対象とする移動体についてのみ、特徴情報を次の撮影装置1に送信する例を説明する。これにより、撮影装置1間で送受信される特徴情報を、特に監視が必要と考えられる移動体の特徴情報に絞り込むことができる。無論、全ての移動体の特徴情報を送受信しても構わない。
 特徴情報生成部13は、撮影部40が撮影し、映像格納部21に格納された動画像データを解析し、認識対象領域内(撮影範囲内であってもよい。以下の処理においても同様。)において移動体を検出すると、その移動体の特徴情報の生成を開始する(S1)。具体的には、特徴情報生成部13は、検出した移動体にIDを付与する。そして、映像中におけるその移動体の位置を追跡する。なお、位置の追跡には、映像上に設定した座標値を用いてもよい。また、特徴情報生成部13は、映像を解析して、当該移動体の大きさ、色、および種別を特定し、検出可能であればナンバーも検出する。
 また、特徴情報生成部13は、移動体に関して所定の事象が発生したかを判定する(S2)。所定の事象とは、監視対象とする移動体を決定するために予め設定された事象であり、移動体の運動状態が所定のパターンで変化したときに所定の事象が発生したと判定することができる。例えば移動体が、他のオブジェクトに衝突した、蛇行している、等の異常な振る舞いをしたときに所定の事象が発生したと判定する。なお、所定の事象は、どのような移動体を監視対象とするかに応じて適宜設定すればよく、また、所定の事象を複数設定してもよい。
 ここで、所定の事象が発生したと判定した場合(S2でYES)には、特徴情報生成部13は、その移動体を監視対象に設定して(S3)、S4の処理に進む。なお、この場合、所定の事象が発生したことを所定の通知先(例えばサーバ2)に通知してもよい。これにより、所定の事象に対して速やかな対応を取ることが可能になる。一方、所定の事象が検出されなかった場合(S2でNO)には、その移動体を監視対象に設定することなくS4の処理に進む。
 S4では、特徴情報生成部13は、移動体が認識対象領域外に移動したか判定する。ここで、認識対象領域外に移動していない(認識対象領域内に移動体が存在している)と判定した場合(S4でNO)、処理はS2に戻る。一方、認識対象領域外に移動した(認識対象領域内に移動体が存在していない)と判定した場合(S4でYES)、特徴情報生成部13は、当該移動体が認識対象領域外に移動したことによって確定した特徴情報をさらに追加する(S5)。具体的には、特徴情報生成部13は、移動体が認識対象領域外に出ていくときの速度、走行レーン、および周辺物体情報を特徴情報として追加する。また、IN画像、NEAR画像、OUT画像も特徴情報として追加する。そして、特徴情報生成部13は、これらの特徴情報と、先に生成した特徴情報とを整理し、1つの移動体の特徴情報として特徴情報格納部22に格納する。
 次に、特徴情報生成部13は、監視対象に設定した移動体については、該移動体が認識対象領域外に出ていくときの進行方向を送信先特定部14に通知し、送信先特定部14は、通知された進行方向の撮影装置1を、特徴情報の送信先に決定する(S6、送信先決定ステップ)。例えば、図2の例において、撮影装置1aの送信先特定部14は、移動体が右方向に出て行った場合には、撮影装置1bを送信先に決定し、移動体が上方向に出て行った場合には、撮影装置1dを送信先に決定する。
 続いて、送信先特定部14は、決定した送信先を追加情報生成部15に通知し、追加情報生成部15は、通知された撮影装置1に応じた特徴情報を生成し、生成した特徴情報を特徴情報格納部22に格納済みの特徴情報に追加する(S7、情報生成ステップ)。具体的には、追加情報生成部15は、通知された撮影装置1までの距離と、移動体が認識対象領域外に出ていくときの速度と、現在の時刻とから、当該移動体の通知された撮影装置1への到着予想時刻を算出し、これを特徴情報に追加する。また、通知された撮影装置1の設置場所への道路の接続態様に応じた予想画像を生成し、これも特徴情報に追加する。
 例えば、図2の撮影装置1aにおいて、送信先特定部14が撮影装置1bを送信先と決定した場合、撮影装置1bの設置されている交差点には、同図の左から右に向かって道路が接続しているので、映像の左から右に向かう移動体の予想画像が生成される。なお、この場合、特徴情報生成部13が生成したIN画像をそのまま予想画像とすればよい。一方、図2の撮影装置1aにおいて、送信先特定部14が撮影装置1dを送信先と決定した場合、撮影装置1dの設置されている交差点には、同図の下から上に向かって道路が接続しているので、映像の下から上に向かう移動体の予想画像が生成される。この場合、特徴情報生成部13が生成したIN画像を90度回転させて予想画像とすればよい。なお、移動体の進行方向に何れの撮影装置1が設置されているかは、各撮影装置1に予め記憶させておけばよい。各撮影装置1間の距離や道路の接続態様についても同様である。
 以上のようにして特徴情報を追加した追加情報生成部15は、その旨を送信先特定部14に通知し、この通知を受けた送信先特定部14は、決定した送信先を特徴情報送信部11に通知する。そして、特徴情報送信部11は、特徴情報格納部22に格納されている特徴情報を読み出し、通知された送信先に通信部30を介して送信し(S8、情報送信ステップ)、これにより処理を終了する。
 なお、上記の例では、監視対象に設定されなかった移動体の特徴情報は、他の撮影装置1に送信していない。このように送信されなかった特徴情報は、例えば撮影された動画像データから特定の移動体が映っているシーンを検索するためのインデックスとして利用することもできる。
 〔特徴情報の受信時の処理の流れ〕
 次に、特徴情報の受信時の処理の流れを図11に基づいて説明する。図11は、特徴情報の受信時の処理(情報管理方法)の一例を示すフローチャートである。なお、図10の例と同様に、生成した特徴情報のうち監視対象に設定された移動体の特徴情報を他の撮影装置1に送信する例を説明する。
 特徴情報取得部12は、監視対象に設定された移動体の特徴情報を受信し(S10、情報取得ステップ)、特徴情報格納部22に格納して、この旨を特徴情報管理部16に通知する。一方、特徴情報生成部13は、映像格納部21に格納された動画像データを解析して移動体を探索している(S11)。そして、移動体を検出すると(S11でYES)、その移動体の特徴情報の生成を開始する(S12)。
 次に、監視対象の特徴情報を格納した旨の通知を受けた特徴情報管理部16は、その特徴情報を用いて、特徴情報生成部13が生成を開始した移動体の中から、候補(監視対象の移動体であるか否かを判定する対象とする候補)の絞り込みを行う(S13)。具体的には、特徴情報管理部16は、S10で受信した特徴情報の到着予想時刻と、S11で移動体を検出した時刻との差が所定時間以上である移動体を候補から外す。なお、候補から外した移動体については後続のS14の判定対象外とする。また、S10で受信した特徴情報のレーンと、S11で検出した移動体の走行レーンとが異なっている場合にも、その移動体を候補から外す。さらに、S10で受信した特徴情報の予想画像の移動体と所定の程度を超えて相違した外観の移動体も候補から外す。この他にも、種別、大きさ、色、周辺物体情報等に基づいて候補から外すか否かを決定してもよい。無論、候補から外す移動体を決定する代わりに、候補とする移動体を決定してもよい。例えば、予想画像の移動体と所定の程度以上に外観の一致する移動体を候補としてもよい。
 次に、特徴情報管理部16は、S13で候補から外さなかった(あるいは候補とした)移動体が、先の撮影装置1で監視対象に設定された移動体であるか否かを判定する(S14)。すなわち、ここでは、自装置で生成した特徴情報が、S10で受信した特徴情報と同一の移動体(監視対象に設定された移動体)の特徴情報であるか否かを判定する。
 ここで、S13で候補から外さなかった(あるいは候補とした)移動体が、監視対象に設定された移動体ではないと判定した場合(S14でNO)、処理はS11に戻る。なお、S11で検出した移動体がS13で候補から外れた場合には、S14での判定は省略してS11の処理に戻る。
 一方、監視対象とされた移動体であると判定した場合(S14でYES)、特徴情報管理部16は、特徴情報生成部13に指示して、S12で生成を開始した特徴情報を、S10で受信した特徴情報に追加させる(S15、情報管理ステップ)。これにより、S12で生成を開始した特徴情報とS10で受信した特徴情報の双方が、先の撮影装置1で監視対象とされた移動体の特徴情報として取り扱われることになり、処理は終了する。
 なお、図11には示していないが、監視対象の移動体がさらに他の撮影装置1の方向に向かって移動した場合には、その撮影装置1に上記特徴情報(S12で生成を開始した特徴情報とS10で受信した特徴情報の双方)を送信する。また、監視対象の移動体の移動先に、他の撮影装置1がないと判定した場合には、上記特徴情報をサーバ2に送信する。
 また、図11には示していないが、S11で検出した移動体についても、図10のS2の判定(所定の事象が発生したか否かの判定)が行われ、所定の事象が発生したと判定された場合には、監視対象に設定される。そして、新たに監視対象に設定された移動体の特徴情報も、図10のS5~S8の処理により、その移動体の移動先の撮影装置1に送信される。
 なお、上記の例では、受信した特徴情報に含まれる到着予想時刻から候補を絞り込んでいる。しかしながら、この到着予想時刻は、特徴情報の受信時刻と、受信した特徴情報に含まれる速度と、該特徴情報の送信元の撮影装置1までの距離とから、例えば特徴情報管理部16が算出してもよい。この場合、図10のS7において、追加情報生成部15が到着予想時刻を算出する必要はない。
 また、上記では、移動体の移動方向の撮影装置1に特徴情報を送信する例を説明したが、特徴情報の送信先はこの例に限られない。例えば、事故等によって停止した移動体を監視対象に設定した場合には、その移動体が来た方向の撮影装置1に特徴情報を送信してもよい。そして、この特徴情報を受信した撮影装置1は、さらに前の撮影装置1に特徴情報を送信してもよい。これにより、当該移動体を最初に撮影した撮影装置1まで遡って、特徴情報を集積することができる。なお、最初に撮影した撮影装置1は、集積した特徴情報をサーバ2に送信すればよい。
 〔実施形態2〕
 本発明の他の実施形態について、図12に基づいて説明する。図12は、本実施形態の監視システム500に含まれるサーバ(情報管理装置)200の要部構成の一例を示すブロック図である。図示のように、監視システム500には、撮影装置100a、100b、およびサーバ200が含まれる。上記実施形態の監視システム5では、各撮影装置1が特徴情報の管理を行っていたが、本実施形態での監視システム500では、サーバ200が特徴情報の管理を行う。
 撮影装置100aおよび100bは、上記実施形態の撮影装置1と同様に、移動体を撮影し、撮影によって得た動画像データを解析して、移動体の特徴情報を生成する。そして、生成した特徴情報をサーバ200に送信する。なお、上記実施形態の撮影装置1と同様に、監視対象とした移動体(異常な振る舞いが検出された移動体)の特徴情報を送信の対象とし、監視対象としなかった移動体の特徴情報は送信しないようにしてもよい。また、監視システム500に含まれる撮影装置の数は、3台以上であってもよい。
 サーバ200は、図示のように、サーバ200の動作を統括して制御する制御部210、サーバ200が使用する各種データを記憶する記憶部220、およびサーバ200が他の装置と通信するための通信部230を備えている。また、制御部210には特徴情報取得部(情報取得部)211と特徴情報管理部(情報管理部)212が含まれており、記憶部220には、特徴情報を格納する特徴情報格納部221が設けられている。
 特徴情報取得部211は、撮影装置100aおよび100bから、通信部230を介して特徴情報を受信し、受信した特徴情報を特徴情報管理部212に送る。そして、特徴情報管理部212は、特徴情報管理部212から受信した、撮影装置100aが生成した特徴情報と撮影装置100bが生成した特徴情報とが、同一の移動体の特徴情報であると判定した場合に、それらの特徴情報の双方を当該移動体の特徴情報とする。
 より詳細には、特徴情報管理部212は、特徴情報管理部212から特徴情報を受信すると、特徴情報格納部221に格納する。そして、次に特徴情報管理部212から特徴情報を受信する(情報取得ステップ)と、受信した特徴情報と、特徴情報格納部221に格納されている特徴情報とが、同一の移動体の特徴情報であるか否かを判定する。なお、新たに受信した特徴情報と、特徴情報格納部221に格納されている特徴情報とが、同一の撮影装置で撮影されている場合、上記の判定は行わない。これは、1つの撮影装置から、同一の移動体の特徴情報が2回送信されることがないためである。
 ここで、同一の移動体の特徴情報ではないと判定した場合には、特徴情報管理部212は、それらを別の移動体の特徴情報として特徴情報格納部221に格納する。一方、同一の移動体の特徴情報であると判定した場合には、特徴情報管理部212は、新たに受信した特徴情報を、先に格納されている当該移動体の特徴情報に追加する(情報管理ステップ)。この後も同様に、新たに受信した特徴情報が、先に格納されている特徴情報と同一の移動体の特徴情報であれば、新たに受信した特徴情報を、先に格納されている当該移動体の特徴情報に追加する。
 このように、サーバ200の特徴情報格納部221には、撮影装置100aおよび100bがそれぞれ個別に生成した特徴情報のうち、同じ移動体の特徴情報が、一つのまとまったデータとして格納される。よって、特徴情報を移動体ごとに集積することができる。
 〔実施形態3〕
 上記各実施形態では、撮影装置1が特徴情報の生成を行う例を説明したが、撮影を行う装置と特徴情報を生成する装置とは、別体の装置であってもよい。つまり、撮影装置と情報管理装置との組み合わせであっても、上記撮影装置1と同様の機能を実現できる。この場合、情報管理装置は、撮影装置と有線または無線通信して動画像データを取得することにより、特徴情報を生成すればよい。また、生成した特徴情報は、実施形態1のように特徴情報を生成する装置で管理してもよいし、実施形態2のようにサーバで管理してもよい。
 〔変形例〕
 実施形態1では、監視対象の移動体の移動先に、他の撮影装置1がないと判定した場合には、特徴情報をサーバ2に送信する例を説明した。また、実施形態2では、撮影装置100aおよび100bが生成した特徴情報をサーバ200に集積する例を説明した。このようにしてサーバ2または200に集積された特徴情報は、撮影装置1、または100aおよび100bに送信してもよいし、サーバ2または200と通信可能な複数の撮影装置に一斉に送信してもよい。これにより、その後で、監視対象の移動体が何れかの撮影装置の撮影範囲に入ったときに、そのことを迅速かつ正確に検出することが可能になる。これは、特に、不審者や不審車両等のように、一度監視範囲から出た後、再度監視範囲に戻ってくる可能性のある移動体の監視に有効である。
 〔ソフトウェアによる実現例〕
 撮影装置1およびサーバ200の制御ブロック(特に制御部10および制御部210)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、撮影装置1およびサーバ200は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る撮影装置(1)は、複数の撮影装置を含む監視システム(5)の撮影装置であって、複数の上記撮影装置のうち、自装置が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先決定部(送信先特定部14)と、上記特徴情報を、上記送信先決定部が決定した送信先に送信する情報送信部(特徴情報送信部11)と、を備えていることを特徴としている。
 上記の構成によれば、複数の撮影装置のうち、特徴情報を得た移動体の移動方向に応じた撮影装置を、該特徴情報の送信先に決定する。よって、特徴情報の送信先を、当該移動体を撮影する可能性の高い撮影装置に絞ることができる。
 本発明の態様2に係る撮影装置は、上記態様1において、自装置が撮影した移動体のうち、運動状態が所定のパターンで変化した移動体を検出する検出部(特徴情報生成部13)を備え、上記送信先決定部は、上記検出部が検出した移動体の特徴情報の送信先を決定することを特徴としている。
 上記の構成によれば、運動状態が所定のパターンで変化した移動体を検出し、該移動体の特徴情報の送信先を決定する。よって、運動状態が所定のパターンで変化した移動体の特徴情報を、その移動体を撮影する可能性の高い撮影装置に送信することができる。これにより、運動状態が所定のパターンで変化した移動体を追跡することができ、例えば事故を起こした車両を追跡することも可能になる。
 本発明の態様3に係る撮影装置(1)は、複数の撮影装置を含む監視システム(5)の撮影装置であって、自装置が移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先を、複数の上記撮影装置の中から決定する送信先決定部(送信先特定部14)と、上記送信先決定部が決定した送信先に送信する特徴情報として、当該送信先に応じた特徴情報を生成する情報生成部(追加情報生成部15)と、を備えていることを特徴としている。
 上記の構成によれば、複数の撮影装置のうち特徴情報の送信先とする撮影装置に応じた特徴情報を生成する。よって、送信先の撮影装置に、該撮影装置に応じた特徴情報を送信し、該特徴情報に応じた処理を実行させることが可能になる。なお、送信する特徴情報は、送信先の撮影装置が、移動体の映像を解析する際に利用可能なものであればよく、特に限定されない。
 本発明の態様4に係る撮影装置は、上記態様3において、上記情報生成部は、自装置が撮影した映像における移動体の移動速度と、上記送信先決定部が決定した送信先までの距離から算出した、当該送信先の撮影範囲に当該移動体が入る予想時刻を上記特徴情報とすることを特徴としている。
 上記の構成によれば、送信先の撮影範囲に当該移動体が入る予想時刻を特徴情報として送信する。これにより、送信先の撮影装置では、上記移動体の候補を絞り込むことができるので、当該移動体の検出が容易になる。
 本発明の態様5に係る撮影装置は、上記態様3または4において、上記情報生成部は、上記送信先決定部が決定した送信先における上記移動体の予想撮影画像を自装置が撮影した映像から切り出して上記特徴情報とすることを特徴としている。
 上記の構成によれば、送信先における移動体の予想撮影画像を自装置が撮影した映像から切り出して特徴情報とし、これを送信する。これにより、送信先の撮影装置では、上記移動体の候補を絞り込むことができるので、当該移動体の検出が容易になる。なお、切り出した予想撮影画像をそのまま特徴情報としてもよいし、予想撮影画像に回転等の加工を施した上で特徴情報としてもよい。
 本発明の態様6に係る撮影装置は、上記態様3から5の何れかにおいて、上記情報生成部は、自装置が撮影した映像中の上記移動体の通過領域に応じた、上記送信先決定部が決定した送信先において上記移動体が撮影されると予想される映像領域を示す情報を上記特徴情報とすることを特徴としている。
 上記の構成によれば、撮影した映像中の移動体の通過領域に応じた、送信先においてその移動体が撮影されると予想される映像領域を示す情報を特徴情報とし、これを送信する。これにより、送信先の撮影装置では、上記移動体の候補を絞り込むことができるので、当該移動体の検出が容易になる。
 本発明の態様7に係る撮影装置の制御方法は、複数の撮影装置を含む監視システムの撮影装置の制御方法であって、複数の上記撮影装置のうち、上記制御方法を実行する撮影装置が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先決定ステップと、上記特徴情報を、上記送信先決定ステップで決定した送信先に送信する情報送信ステップと、を含むことを特徴としている。該構成によれば、上記態様1の撮影装置と同様の作用効果を奏する。
 本発明の態様8に係る撮影装置の制御方法は、複数の撮影装置を含む監視システムの撮影装置の制御方法であって、上記制御方法を実行する撮影装置が移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先を、複数の上記撮影装置の中から決定する送信先決定ステップと、上記送信先決定ステップで決定した送信先に送信する特徴情報として、当該送信先に応じた特徴情報を生成する情報生成ステップと、を含むことを特徴としている。該構成によれば、上記態様3の撮影装置と同様の作用効果を奏する。
 本発明の各態様に係る撮影装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記撮影装置が備える各部(ソフトウェア要素)として動作させることにより上記撮影装置をコンピュータにて実現させる撮影装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、複数の撮影装置を用いた監視システムに利用することができる。
  1 撮影装置
 11 特徴情報送信部(情報送信部)
 13 特徴情報生成部(検出部)
 14 送信先特定部(送信先決定部)
 15 追加情報生成部(情報生成部)
  5 監視システム

Claims (10)

  1.  複数の撮影装置を含む監視システムの撮影装置であって、
     複数の上記撮影装置のうち、自装置が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先決定部と、
     上記特徴情報を、上記送信先決定部が決定した送信先に送信する情報送信部と、を備えていることを特徴とする撮影装置。
  2.  自装置が撮影した移動体のうち、運動状態が所定のパターンで変化した移動体を検出する検出部を備え、
     上記送信先決定部は、上記検出部が検出した移動体の特徴情報の送信先を決定することを特徴とする請求項1に記載の撮影装置。
  3.  複数の撮影装置を含む監視システムの撮影装置であって、
     自装置が移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先を、複数の上記撮影装置の中から決定する送信先決定部と、
     上記送信先決定部が決定した送信先に送信する特徴情報として、当該送信先に応じた特徴情報を生成する情報生成部と、を備えていることを特徴とする撮影装置。
  4.  上記情報生成部は、自装置が撮影した映像における移動体の移動速度と、上記送信先決定部が決定した送信先までの距離から算出した、当該送信先の撮影範囲に当該移動体が入る予想時刻を上記特徴情報とすることを特徴とする請求項3に記載の撮影装置。
  5.  上記情報生成部は、上記送信先決定部が決定した送信先における上記移動体の予想撮影画像を自装置が撮影した映像から切り出して上記特徴情報とすることを特徴とする請求項3または4に記載の撮影装置。
  6.  上記情報生成部は、自装置が撮影した映像中の上記移動体の通過領域に応じた、上記送信先決定部が決定した送信先において上記移動体が撮影されると予想される映像領域を示す情報を上記特徴情報とすることを特徴とする請求項3から5の何れか1項に記載の撮影装置。
  7.  複数の撮影装置を含む監視システムの撮影装置の制御方法であって、
     複数の上記撮影装置のうち、上記制御方法を実行する撮影装置が撮影した移動体の移動方向に応じた撮影装置を、当該移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先に決定する送信先決定ステップと、
     上記特徴情報を、上記送信先決定ステップで決定した送信先に送信する情報送信ステップと、を含むことを特徴とする撮影装置の制御方法。
  8.  複数の撮影装置を含む監視システムの撮影装置の制御方法であって、
     上記制御方法を実行する撮影装置が移動体を撮影した映像を解析することによって得られた当該移動体の特徴情報の送信先を、複数の上記撮影装置の中から決定する送信先決定ステップと、
     上記送信先決定ステップで決定した送信先に送信する特徴情報として、当該送信先に応じた特徴情報を生成する情報生成ステップと、を含むことを特徴とする撮影装置の制御方法。
  9.  請求項1に記載の撮影装置としてコンピュータを機能させるための制御プログラムであって、上記送信先決定部および上記情報送信部としてコンピュータを機能させるための制御プログラム。
  10.  請求項3に記載の撮影装置としてコンピュータを機能させるための制御プログラムであって、上記送信先決定部および上記情報生成部としてコンピュータを機能させるための制御プログラム。
PCT/JP2016/050669 2015-02-19 2016-01-12 撮影装置、撮影装置の制御方法、および制御プログラム WO2016132769A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-031109 2015-02-19
JP2015031109 2015-02-19

Publications (1)

Publication Number Publication Date
WO2016132769A1 true WO2016132769A1 (ja) 2016-08-25

Family

ID=56692468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050669 WO2016132769A1 (ja) 2015-02-19 2016-01-12 撮影装置、撮影装置の制御方法、および制御プログラム

Country Status (1)

Country Link
WO (1) WO2016132769A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109933A (ja) * 2017-01-04 2018-07-12 財團法人工業技術研究院Industrial Technology Research Institute 対象追跡システム及び対象追跡方法
WO2021084944A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 情報処理システム、情報処理方法、撮像装置、情報処理装置
JP2021128387A (ja) * 2020-02-10 2021-09-02 ソフトバンク株式会社 交通リスク低減システム、情報処理装置及びセンサ
WO2022208668A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ可読媒体
WO2023112286A1 (ja) * 2021-12-16 2023-06-22 日本電気株式会社 監視システム、監視方法、情報処理装置、及びコンピュータ可読媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092751A (ja) * 2000-09-18 2002-03-29 Matsushita Electric Ind Co Ltd 監視システム
JP2003324720A (ja) * 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd 監視システムと監視カメラ
JP2007208659A (ja) * 2006-02-01 2007-08-16 Canon Inc 連携カメラシステム
JP2010238188A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 警備システムおよび警備方法
WO2011114770A1 (ja) * 2010-03-15 2011-09-22 オムロン株式会社 監視カメラ端末
WO2012131816A1 (ja) * 2011-03-28 2012-10-04 日本電気株式会社 人物追跡装置、人物追跡方法および人物追跡プログラムを格納した非一時的なコンピュータ可読媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092751A (ja) * 2000-09-18 2002-03-29 Matsushita Electric Ind Co Ltd 監視システム
JP2003324720A (ja) * 2002-05-07 2003-11-14 Matsushita Electric Ind Co Ltd 監視システムと監視カメラ
JP2007208659A (ja) * 2006-02-01 2007-08-16 Canon Inc 連携カメラシステム
JP2010238188A (ja) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd 警備システムおよび警備方法
WO2011114770A1 (ja) * 2010-03-15 2011-09-22 オムロン株式会社 監視カメラ端末
WO2012131816A1 (ja) * 2011-03-28 2012-10-04 日本電気株式会社 人物追跡装置、人物追跡方法および人物追跡プログラムを格納した非一時的なコンピュータ可読媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109933A (ja) * 2017-01-04 2018-07-12 財團法人工業技術研究院Industrial Technology Research Institute 対象追跡システム及び対象追跡方法
US10252701B2 (en) 2017-01-04 2019-04-09 Industrial Technology Research Institute Object tracking system and method therewith
WO2021084944A1 (ja) * 2019-10-30 2021-05-06 ソニー株式会社 情報処理システム、情報処理方法、撮像装置、情報処理装置
EP4054171A1 (en) * 2019-10-30 2022-09-07 Sony Group Corporation Information processing system, information processing method, imaging device, and information processing device
EP4054171A4 (en) * 2019-10-30 2022-11-09 Sony Group Corporation INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, IMAGING DEVICE AND INFORMATION PROCESSING DEVICE
JP7491317B2 (ja) 2019-10-30 2024-05-28 ソニーグループ株式会社 情報処理システム、情報処理方法、撮像装置
JP2021128387A (ja) * 2020-02-10 2021-09-02 ソフトバンク株式会社 交通リスク低減システム、情報処理装置及びセンサ
JP7038152B2 (ja) 2020-02-10 2022-03-17 ソフトバンク株式会社 情報処理装置
WO2022208668A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ可読媒体
WO2023112286A1 (ja) * 2021-12-16 2023-06-22 日本電気株式会社 監視システム、監視方法、情報処理装置、及びコンピュータ可読媒体

Similar Documents

Publication Publication Date Title
US10977917B2 (en) Surveillance camera system and surveillance method
US10713490B2 (en) Traffic monitoring and reporting system and method
WO2016132769A1 (ja) 撮影装置、撮影装置の制御方法、および制御プログラム
US9946734B2 (en) Portable vehicle monitoring system
JP6815262B2 (ja) 交通違反検知装置、システム、交通違反検知方法およびプログラム
WO2019191142A1 (en) Smart area monitoring with artificial intelligence
KR101783982B1 (ko) 차량용 감시 카메라를 이용한 통합 관제 시스템 및 그 방법
JP6791200B2 (ja) 捜索支援システム、捜索支援装置、及び、捜索支援方法
WO2018047006A1 (en) Low-level sensor fusion
JP2020061079A (ja) 交通違反車両識別システム、サーバ、及び車両制御プログラム
US20150042815A1 (en) Monitoring blind spot using moving objects
KR101492473B1 (ko) 사용자 기반 상황 인지형 씨씨티비 통합관제시스템
US11738747B2 (en) Server device and vehicle
CN106529401A (zh) 一种车辆反跟踪方法、装置及系统
JP2010176302A (ja) 車両検知装置、車両検知システム、車両検知装置の車両検知方法および車両検知プログラム
JP7459916B2 (ja) 物体追跡方法、物体追跡装置、及びプログラム
JP2020126357A (ja) 交通管理システム、制御方法、及び車両
CN113111682A (zh) 目标对象感知方法和装置、感知基站、感知系统
KR101542564B1 (ko) 존-검지 체계 기반 교통안전 관리 시스템
KR20200026492A (ko) IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템
JP5597746B2 (ja) 車両検知システム、車両検知装置および車両検知システムの車両検知方法
WO2016132772A1 (ja) 情報管理装置、情報管理方法、および制御プログラム
JP7146371B2 (ja) 映像情報共有装置、映像情報共有システム及び映像情報共有方法
CN112435479B (zh) 目标物体违章检测方法、装置、计算机设备及系统
KR102105250B1 (ko) 영상 감시 시스템 및 이를 이용한 관제 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16752158

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16752158

Country of ref document: EP

Kind code of ref document: A1