WO2011114770A1 - 監視カメラ端末 - Google Patents

監視カメラ端末 Download PDF

Info

Publication number
WO2011114770A1
WO2011114770A1 PCT/JP2011/051048 JP2011051048W WO2011114770A1 WO 2011114770 A1 WO2011114770 A1 WO 2011114770A1 JP 2011051048 W JP2011051048 W JP 2011051048W WO 2011114770 A1 WO2011114770 A1 WO 2011114770A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
wireless communication
unit
camera terminal
imaging
Prior art date
Application number
PCT/JP2011/051048
Other languages
English (en)
French (fr)
Inventor
吉光裕司
内藤丈嗣
芹川正孝
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US13/634,711 priority Critical patent/US20130002868A1/en
Priority to EP11755960.9A priority patent/EP2549752A4/en
Priority to JP2012505545A priority patent/JPWO2011114770A1/ja
Priority to CN201180009393.7A priority patent/CN102754435A/zh
Publication of WO2011114770A1 publication Critical patent/WO2011114770A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a monitoring camera terminal that processes a frame image obtained by imaging a monitoring target area assigned to the own terminal and tracks a person located in the monitoring target area.
  • the present invention relates to a surveillance camera terminal that performs tracking of a person being tracked with another surveillance camera terminal that partially overlaps the surveillance target area, and tracks this person over a wide area.
  • a person such as a suspicious person who has taken an unusual action using a plurality of monitoring camera terminals (hereinafter, simply referred to as a suspicious person. ) And tracking of the detected suspicious person.
  • the monitoring camera terminal to be tracked is switched according to the movement of the suspicious person.
  • the suspicious person is handed over to the monitoring camera terminal taking over the tracking.
  • a part of the monitoring target area is overlapped between the monitoring camera terminals that can pass the suspicious person.
  • the surveillance camera which takes over tracking the suspicious person in the person being imaged using the frame image when the suspicious person is located in this overlapping area (hereinafter referred to as delivery area). It is made to identify to the terminal.
  • the surveillance camera terminal taking over tracking will track another person who is not the suspicious person who has been tracking so far. Therefore, tracking of a suspicious person fails.
  • each surveillance camera terminal uses a surveillance camera terminal that changes the imaging field of view according to the movement of a suspicious person. It is also performed to increase the monitoring target area to be assigned (see Patent Document 1).
  • wireless communication between both monitoring camera terminals may be performed not directly but through a wireless communication channel via another monitoring camera terminal.
  • a surveillance camera terminal tracking a suspicious person forms a wireless communication path with the surveillance camera terminal taking over tracking of the suspicious person, based on the reception intensity as a condition, wireless communication via another surveillance camera terminal Paths may be formed.
  • the delay time of communication between both terminals for passing a suspicious person becomes longer.
  • identification of a suspicious person in the delivery area is delayed, so that tracking of the suspicious person can not be performed in real time, and it is not possible to properly instruct a security guard or the like to cope with the suspicious person. That is, the suspicious person can not be caught and will be missed.
  • both surveillance camera terminals which deliver a suspicious person will image a suspicious person located in a delivery area by delay of identification of a suspicious person Can not obtain a frame image and fails to track a suspicious person.
  • the object of the present invention is to identify an object in a delivery area with a surveillance camera terminal taking over tracking of the object while the object is located in the delivery area, so that the tracking of the object is performed in real time
  • a surveillance camera terminal that can be
  • the surveillance camera terminal of the present invention is configured as follows.
  • the object extracting means processes a frame image obtained by imaging the monitoring target area assigned to the own terminal by the imaging means, and extracts the imaged object.
  • the tracking means tracks the object extracted by the object extraction means in the monitoring target area. For example, the frame images captured by the imaging means are processed in time series, and the position of the object is tracked as time passes.
  • the delivery means performs wireless communication with the other party terminal in which the monitoring target area assigned in part overlaps with the monitoring target area of the own terminal in part, and the tracking target area tracks the object, the monitoring target area Deliver in the delivery area where is duplicated. That is, when the tracked object moves from the monitoring target area of the own terminal to the monitoring target area of the opposite terminal, the remote terminal identifies the tracked object in the delivery area and takes over the tracking of the object.
  • the wireless communication path forming means forms a wireless communication path in which the wireless communication means directly communicates with the other party terminal which delivers the object when the delivery means delivers the object.
  • the delay of the wireless communication between the terminals at the time of delivery of the object is suppressed. Therefore, while the tracked object is located in the delivery area, the tracked terminal can be identified. As a result, object tracking can be performed in real time.
  • the wireless communication means is configured to have a first wireless communication unit having an omnidirectional antenna and a second wireless communication unit having a directional antenna, and the wireless communication path forming means is an object having a passing means as an object.
  • the first wireless communication unit transmits a delivery request to the other party's terminal to the other party's terminal performing the delivery, and the directivity of the directional antenna is suitable for direct communication with the other party's terminal. You may make it the structure changed into direction.
  • the opposite terminal receiving the delivery request is suitable for direct communication with the terminal transmitting the delivery request (the terminal tracking the object at this point) the directionality of the directivity of the directional antenna. It may be configured to change to the other direction.
  • the wireless communication between the terminals at the time of delivery of the object may be performed by the second wireless communication unit.
  • the reception strength of the wireless communication between the terminals at the time of the delivery of the object can be secured, and the delay of the communication due to the reduction of the throughput can also be suppressed.
  • prediction means may be provided for predicting a partner terminal to which the object being tracked is to be delivered based on the movement path of the object being tracked in the area to be monitored by the tracking means.
  • the wireless communication channel forming means may be configured to form a wireless communication channel that directly communicates with the opposite terminal predicted by the prediction means. As a result, it is possible to form a wireless communication path for direct communication between the terminals that deliver the object before the tracked object enters the delivery area.
  • the imaging unit may have a fixed imaging field of view, or may be configured to change the imaging field of view according to the position of the object being tracked by the tracking unit by the imaging field control unit.
  • identification of an object in the delivery area with the surveillance camera terminal taking over tracking of the object can be performed while the object is located in the delivery area, and tracking of the object is performed. It can be done in real time.
  • FIG. 1 is a schematic view showing the configuration of a wide area surveillance system using a surveillance camera terminal according to an embodiment of the present invention.
  • This wide area surveillance system is a network system having a plurality of surveillance camera terminals 1 (1A to 1H).
  • the wide area monitoring system is, for example, an ad hoc network system.
  • Data communication can be performed directly between the monitoring camera terminals 1 or via another monitoring camera terminal 1.
  • the data communication between the monitoring camera terminals 1 is performed by wireless communication.
  • the number of monitoring camera terminals 1 constituting the wide area monitoring system is not limited to eight illustrated here, and may be any number as long as it is plural. Further, a line connecting between the monitoring camera terminals 1 shown in FIG. 1 is a link. Further, in the following description, the monitoring camera terminals 1A to 1H are referred to as the monitoring camera terminal 1 when the monitoring camera terminals 1A to 1H are described without distinction.
  • FIG. 2 is a diagram showing the configuration of the main part of the monitoring camera terminal.
  • the monitoring camera terminal 1 includes a control unit 11, an imaging unit 12, a drive mechanism unit 13, an imaging field control unit 14, an image processing unit 15, a storage unit 16, a timer 17, and a first wireless communication unit.
  • a second wireless communication unit 19 and a directivity control unit 20 are provided.
  • the control unit 11 controls the operation of each unit of the main body.
  • the imaging unit 12 outputs about 30 frames per second of a frame image obtained by imaging the inside of the imaging field (imaging area).
  • the imaging unit 12 is attached to a camera platform (not shown) that individually rotates in the pan direction and the tilt direction.
  • the pan direction and the tilt direction are orthogonal to each other.
  • the imaging unit 12 also includes an optical system drive unit (not shown) that drives the imaging optical system, and can change the imaging magnification Zoom.
  • the drive mechanism unit 13 has a drive source such as a motor that rotates the camera platform to which the imaging unit 12 is attached in the pan direction and in the tilt direction.
  • the camera also has a sensor that detects a rotation angle ⁇ applied in the pan direction of the camera platform and a rotation angle ⁇ applied in the tilt direction.
  • the imaging view control unit 14 instructs the imaging unit 12 to perform imaging magnification Zoom.
  • the imaging unit 12 changes the imaging magnification Zoom in accordance with this instruction.
  • the imaging view field control unit 14 instructs the drive mechanism unit 13 about the rotation angle ⁇ applied in the pan direction of the camera platform to which the imaging unit 12 is attached and the rotation angle ⁇ applied in the tilt direction.
  • the drive mechanism unit 13 changes the rotation angle ⁇ applied in the pan direction of the camera platform to which the imaging unit 12 is attached and the rotation angle ⁇ applied in the tilt direction.
  • the imaging field of the imaging unit 12 changes with the changes of the rotation angle ⁇ applied in the pan direction of the camera platform, the rotation angle ⁇ applied in the tilt direction of the camera platform, and the imaging magnification Zoom.
  • a monitoring target area is defined in the monitoring camera terminal 1.
  • the monitoring target area is a range that can be imaged by changing the imaging field of the imaging unit 12.
  • the image processing unit 15 processes the frame image captured by the imaging unit 12, extracts the person being imaged, and attaches an ID to the person extracted here. This ID is a unique value that can identify a person.
  • the image processing unit 15 also receives an output of a sensor that detects a rotation angle ⁇ in the pan direction of the camera platform to which the imaging unit 12 is attached and a rotation angle ⁇ in the tilt direction. That is, the image processing unit 15 obtains the rotation angle ⁇ applied in the pan direction of the camera platform to which the imaging unit 12 is attached and the rotation angle ⁇ applied in the tilt direction from the output of the sensor. Further, the image processing unit 15 obtains the imaging magnification Zoom of the imaging unit 12 based on the signal of the imaging magnification Zoom input from the imaging unit 12.
  • the image processing unit 15 detects the imaging field of the imaging unit 12, that is, the position of the imaging area in the monitoring target area, according to the rotation angle ⁇ applied to the pan direction of the camera platform, the rotation angle ⁇ applied to the tilt direction, and the imaging magnification Zoom. You can get Therefore, the image processing unit 15 can convert the position of the person on the frame image captured by the imaging unit 12 into the position in the monitoring target area.
  • the image processing unit 15 instructs the imaging view control unit 14 to perform the imaging view of the imaging unit 12 according to the movement of the person being tracked.
  • the image processing unit 15 is configured to perform extraction and tracking of a person being imaged using, for example, a space-time MRF (Markov Random Field) model.
  • the space-time MRF model is an extension of the MRF model as a space-time model, focusing on the correlation in the time axis direction of the space-time image.
  • the space-time MRF model performs area division on a frame image to be processed into blocks of several pixels ⁇ several pixels (for example, 8 pixels ⁇ 8 pixels), and blocks each block between temporally consecutive frame images. It is a model that defines correlation in the time axis direction with reference to motion vectors of.
  • the storage unit 16 stores an operation program for operating the main body, setting data used at the time of operation, processing data generated at the time of operation, and the like.
  • the timer 17 clocks the current time.
  • the first wireless communication unit 18 is connected to the omnidirectional antenna 18 a and controls wireless communication with another monitoring camera terminal 1.
  • the directional antenna 20 a is connected to the second wireless communication unit 19 via the directivity control unit 20.
  • the directivity control unit 20 changes the direction of directivity of the directional antenna 20a.
  • the second wireless communication unit 19 also controls wireless communication with another monitoring camera terminal 1.
  • This wide area surveillance system is a system for tracking a person such as a suspicious person who has taken a unique action (hereinafter, simply referred to as a suspicious person).
  • the monitoring target area is assigned to each monitoring camera terminal 1. Further, as shown in FIG. 4, in the two adjacent monitoring camera terminals 1A and 1B, a part of the monitoring target area overlaps.
  • FIG. 4 exemplifies the monitoring target area for two adjacent monitoring camera terminals 1A and 1B, a part of the monitoring target area overlaps even in the combination of other two adjacent monitoring camera terminals 1 There is.
  • the overlapping area is a delivery area for delivering the suspicious person from one monitoring camera terminal 1A (or 1B) to the other monitoring camera terminal 1B (or 1A).
  • the surveillance camera terminal 1B when the suspicious person being tracked by the surveillance camera terminal 1A passes through the delivery area with the surveillance camera terminal 1B and enters the monitoring target area of the surveillance camera terminal 1B, the surveillance camera terminal 1B operates in this delivery area. It is an area for identifying a suspicious person and taking over tracking of the suspicious person from the monitoring camera terminal 1A.
  • the imaging field of view of the imaging unit 12 (a pivoting angle .theta.
  • the rotation angle ⁇ and the imaging magnification Zoom) are stored in the storage unit 16.
  • the imaging field of view of the imaging unit 12 at the time of passing a suspicious person includes a delivery area with the monitoring camera terminal 1 on the other side of the delivery of the suspicious person.
  • each monitoring camera terminal 1 has a two-dimensional coordinate system of a frame image captured by the image capturing unit 12 of the own terminal in the delivery area for each adjacent monitoring camera terminal 1 and the imaging unit 12 of the adjacent partner monitoring camera terminal 1
  • the coordinate conversion information indicating the relative positional relationship between the two-dimensional coordinate system of the frame image obtained by imaging the delivery area is stored in the storage unit 16.
  • the two-dimensional coordinate system of the frame image captured by the imaging field when the imaging unit 12 of the own terminal passes the suspicious person, and the imaging unit 12 of the adjacent partner monitoring camera terminal 1 adjacent to the suspicious person This is information for projective transformation of a two-dimensional coordinate system of a frame image captured in a field of view taken at the time of delivery to a common coordinate system.
  • a first coordinate conversion parameter and a second coordinate conversion parameter shown below are stored in the storage unit 16.
  • the imaging unit 12 of the adjacent partner monitoring camera terminal 1 is suspicious that the two-dimensional coordinate system of the frame image captured in the imaging view when the imaging unit 12 of the own terminal passes the suspicious person It is a parameter for projective transformation to a two-dimensional coordinate system of a frame image captured in a field of view when passing a person.
  • the imaging unit 12 of the own terminal is suspicious of the two-dimensional coordinate system of the frame image captured in the imaging view when the imaging unit 12 of the adjacent partner monitoring camera terminal 1 passes the suspicious person It is a parameter for projective transformation to a two-dimensional coordinate system of a frame image captured in a field of view when passing a person.
  • the coordinate conversion information may be only one of the first coordinate conversion parameter and the second coordinate conversion parameter.
  • the first coordinate conversion parameter and the second coordinate conversion parameter are values calculated using a frame image actually captured when the monitoring camera terminal 1 is installed.
  • the imaging unit 12 of the own terminal processes the frame image captured in the imaging view when passing the suspicious person, and detects the coordinate positions (x, y) of the four points marked on the frame image.
  • the eight constants of a0, b0, a1, b1, c1, a2, b2, c2, which are the solutions of this eight-element simultaneous equation, are the first coordinate transformation parameters with this adjacent remote monitoring camera terminal 1 is there.
  • the monitoring camera terminal 1 stores the first coordinate conversion parameter in the storage unit 16.
  • the identification of the person located in the delivery area acquires the coordinate position on the frame image for each person captured in the delivery area of the frame image captured by the own terminal. Further, the coordinate position on the frame image is acquired for each person captured in the delivery area of the frame image captured by the other party's terminal from the other party's terminal.
  • a combination pattern is created in which a person located in the delivery area captured by the own terminal and a person located in the delivery area captured by the other-party terminal are associated on a one-to-one basis.
  • the number of patterns created here is, for example, two if there are two persons located in the delivery area, and six if there are three persons located in the delivery area. It is street.
  • the monitoring camera terminal 1 converts the coordinate position of the person into the coordinate system of the opposite terminal using the first coordinate conversion parameter for each person located in the delivery area captured by the own terminal.
  • the monitoring camera terminal 1 calculates, for each combination pattern of persons, a first distance energy which is a sum of distances between corresponding persons in the coordinate system of the opposite terminal.
  • the monitoring camera terminal 1 also converts the coordinate position of the person into the coordinate system of the own terminal using the second coordinate conversion parameter for each person located in the delivery area captured by the other party terminal.
  • the monitoring camera terminal 1 calculates, for each combination pattern of persons, a second distance energy which is a sum of distances between corresponding persons in the coordinate system of the own terminal.
  • And surveillance camera terminal 1 is a person who is located in the delivery area in the combination pattern in which the sum of the first distance energy and the second distance energy is the smallest among the combinations of persons located in the delivery area. It is determined that the Therefore, if the suspicious person is located in the delivery area, the monitoring camera terminal 1 on the side taking over tracking of the suspicious person is the suspicious person who is the suspicious person among the persons located in the delivery area. The suspicious person can be identified by obtaining it from the monitoring camera terminal 1 which is tracking.
  • the identification of the suspicious person located in the delivery area, the monitoring camera terminal 1 tracking the suspicious person takes over the template information used for detecting the suspicious person, the monitoring camera terminal 1 taking over the tracking of the suspicious person , And the surveillance camera terminal 1 taking over tracking of the suspicious person may identify the suspicious person using the notified template information.
  • feature information used to detect a suspicious person for example, image data of the suspicious person cut out from the image, information identifying the suspicious person by shape, color, size, etc., or eyes, The shape of the face parts such as the nose and the mouth, the position, etc. may also be notified to the monitoring camera terminal 1 taking over tracking of the suspicious person.
  • FIG. 5 is a flowchart showing the operation of the monitoring camera terminal 1.
  • the monitoring camera terminal 1 starts search processing for searching for a suspicious person in the monitoring target area (S1). At this time, the surveillance camera terminal 1 has not tracked the suspicious person (the tracking process described later has not been performed).
  • the monitoring camera terminal 1 waits for a suspicious person to be detected in the search process started in S1 (S2) or a request for passing of the suspicious person from the adjacent monitoring camera terminal 1 is made (S3).
  • the search process started in S1 changes the imaging visual field of the imaging unit 12 every fixed time (several seconds). Specifically, based on predetermined conditions, the imaging view field control unit 14 rotates in the pan direction of the camera platform to which the imaging unit 12 is attached and the rotation angle in the tilt direction at predetermined time intervals. The movement angle ⁇ is instructed to the drive mechanism unit 13. This condition is set, for example, so that the imaging view field of the imaging unit 12 scans the entire monitoring target area.
  • the imaging magnification is a predetermined imaging magnification.
  • the image processing unit 15 processes the frame image captured by the imaging unit 12 and extracts a person being captured, and assigns an ID to the extracted person. At this time, the image processing unit 15 does not assign an ID to a person to whom an ID has already been assigned. Further, the image processing unit 15 creates an object map in which the ID is associated with the position in the monitoring target area for each of the extracted persons. A time stamped by the timer 17 at the time of creation is added as a time stamp to this object map. The image processing unit 15 analyzes the behavior of each person who has been given an ID, using a temporally continuous object map. Then, if there is a person whose person's action is unique (a person who is a predetermined action pattern), the person is detected as a suspicious person. In addition, the face image of the cautioned person is registered, and when the cautionary person is detected by comparison with the face image of the person captured by the imaging unit 12, the cautionary person is detected as a suspicious person. It may be configured.
  • the first wireless communication unit 18 waits for receiving a delivery request from another monitoring camera terminal 1 to the own terminal. Since the first wireless communication unit 18 is connected to the omnidirectional antenna 18a, the first wireless communication unit 18 may receive a passing request for another terminal. When receiving a passing request for this other terminal, it functions as a relay node. Specifically, the transfer destination of the passing request for the other terminal received this time is determined from among the terminals (including the terminal to which the passing request is sent) other than the terminal that has sent this passing request, and here Send to the determined terminal. For example, a passing request that monitoring camera terminal 1A shown in FIG.
  • monitoring camera terminal 1 transmits to monitoring camera terminal 1B is transmitted along a path of monitoring camera terminal 1A ⁇ 1F ⁇ 1C ⁇ 1B or monitoring camera terminal 1A ⁇ 1G ⁇ 1B It may be sent on the route of In this case, the monitoring camera terminals 1F, 1C, and 1G function as relay nodes.
  • the surveillance camera terminal 1 When the surveillance camera terminal 1 detects a suspicious person, it starts tracking processing (S4). Also, when receiving the passing request for the own terminal, the handover process is executed (S5).
  • the monitoring camera terminal 1 that executes the tracking process according to S4 is referred to as the delivery-side monitoring camera terminal 1
  • the monitoring camera terminal 1 that executes the handover process according to S5 is referred to as the handover-side monitoring camera terminal 1.
  • FIG. 6 is a flowchart showing this tracking process.
  • the image processing unit 15 of the delivery-side monitoring camera terminal 1 takes in the frame image captured by the imaging unit 12 (S11), processes this frame image, and the imaging field of view where the suspicious person becomes the center of the imaging unit 12
  • the rotation angle ⁇ applied in the pan direction and the rotation angle ⁇ applied in the tilt direction are calculated (S12).
  • the imaging magnification Zoom of the imaging unit 12 is a predetermined imaging magnification.
  • an ID is assigned to the suspicious person when it is detected.
  • the delivery-side monitoring camera terminal 1 adjusts the imaging view field of the imaging unit 12 to the imaging view field calculated in S12 (S13). That is, the rotation angle ⁇ applied in the pan direction of the camera platform and the rotation angle ⁇ applied in the tilt direction are adjusted to the angles calculated in S12. Specifically, the image processing unit 15 notifies the imaging view control unit 14 of the rotation angle ⁇ applied in the pan direction of the camera platform calculated here and the rotation angle ⁇ applied in the tilt direction. Based on the notification, the imaging view field control unit 14 changes the rotation angle ⁇ applied to the pan direction of the camera platform by the drive mechanism unit 13 and the rotation angle ⁇ applied to the tilt direction.
  • the delivery-side monitoring camera terminal 1 predicts another adjacent monitoring camera terminal 1 (takeover-side monitoring camera terminal 1) that takes over tracking of the suspicious person (S14).
  • the delivery-side monitoring camera terminal 1 determines whether the tracking suspicious person is located around the delivery area with the adjacent takeover-side monitoring camera terminal 1 predicted in S14 (S15). If the passing surveillance camera terminal 1 determines that the tracking suspicious person is not located around the delivery area with the handover surveillance camera terminal 1 predicted in S14, the processing returns to S11 and the above-described process is repeated.
  • the delivery-side monitoring camera terminal 1 tracks the suspicious person X while catching the suspicious person X substantially at the center of the imaging field of view of the imaging unit 12. be able to.
  • the image processing unit 15 also creates an object map in which the ID is associated with the position in the monitoring target area for the suspicious person also in this tracking process. Therefore, by using this object map, it is possible to obtain the movement direction of the suspicious person and the movement vector according to the movement speed.
  • the delivery-side surveillance camera terminal 1 predicts the handover-side surveillance camera terminal 1 taking over tracking of the suspicious person who is tracking in S14, using this movement vector.
  • a threshold of the distance from the delivery area with the takeover side monitoring camera terminal 1 is set in advance, and the position of the suspicious person and this delivery area (for example, the center or boundary of the delivery area) It may be determined based on whether the distance is less than or equal to this threshold. Also, in consideration of the movement speed of the suspicious person, the time required for the suspicious person being tracked to reach the delivery area with the takeover side monitoring camera terminal 1 is less than a predetermined time (for example, 2 to 3 seconds) It may be determined whether the suspicious person is located in the vicinity of the delivery area depending on whether it has become.
  • the handover monitoring camera terminal 1 When it is determined that the suspicious person being tracked at S15 is positioned around the delivery area with the handover monitoring camera terminal 1 predicted at S14, the handover monitoring camera terminal 1 sends a notification to the handover monitoring camera terminal 1. And transmit the transfer request (S16).
  • the delivery request for S16 is transmitted from the first wireless communication unit 18.
  • the handover request is not necessarily received directly by the handover-side monitoring camera terminal 1. That is, it may be received by the takeover side surveillance camera terminal 1 in a wireless communication channel via another surveillance camera terminal 1.
  • the handover-side monitoring camera terminal 1 that has received the delivery request for the own terminal executes the handover process in S5.
  • the directivity control unit 20 switches the direction of the directivity of the directional antenna 20a to the handover-side monitoring camera terminal 1 that has received the current delivery request. It is changed to the direction suitable for direct communication (S17).
  • the directivity control unit 20 stores, for each adjacent monitoring camera terminal 1, the directivity direction of the directivity antenna 20a suitable for direct communication.
  • the delivery-side monitoring camera terminal 1 changes the imaging magnification Zoom to the imaging magnification at the time of delivery (S18).
  • the image processing unit 15 takes in and processes the frame image captured by the imaging unit 12 (S19), and determines whether the suspicious person performs a frame out when the imaging view of the imaging unit 12 is set as the imaging view at the time of delivery. To do (S20).
  • the imaging view field in which the suspicious person fits (the rotation angle (.theta. In the pan direction of the camera platform) and the rotation angle in the tilt direction ⁇ )) is calculated (S21).
  • the imaging field of view may calculate an imaging field of view centered on the suspicious person, but it is preferable to shift the suspicious person from the center and to calculate an imaging field of view close to the imaging field of view at the time of delivery.
  • the delivery-side monitoring camera terminal 1 matches the imaging view field of the imaging unit 12 with the imaging view field calculated in S21 (S22), and returns to S17.
  • the delivery-side monitoring camera terminal 1 determines the imaging view of the imaging unit 12 as the imaging view at the time of delivery stored in the storage unit 16 (S23). The delivery-side monitoring camera terminal 1 adjusts the imaging view of the imaging unit 12 to the imaging view at the time of delivery (S24).
  • the handover-side monitoring camera terminal 1 that has received the suspicious person's delivery request sent by the delivery-side monitoring camera terminal 1 in S16 described above has started the handover process shown in FIG.
  • the handover-side monitoring camera terminal 1 changes the direction of the directivity of the directional antenna 20a to the direction suitable for direct communication with the passing-side monitoring camera terminal 1 by the directivity control unit 20 (S31).
  • the handover-side monitoring camera terminal 1 matches the imaging field of view of the imaging unit 12 with the imaging field of view at the time of passing a suspicious person with the delivery-side monitoring camera terminal 1 (S32). Wait for the synchronization signal from the (S33).
  • the second wireless communication unit It is in a state where linear communication can be performed at 19. Further, at this time, the handover-side monitoring camera terminal 1 matches the imaging view of the imaging unit 12 with the imaging view at the time of delivering the suspicious person with the delivery-side monitoring camera terminal 1.
  • the passing-side monitoring camera terminal 1 and the passing-side monitoring camera terminal 1 directly communicate with each other in the second wireless communication unit 19 until the handover of tracking of the suspicious person is completed.
  • the delivery-side monitoring camera terminal 1 When the delivery-side monitoring camera terminal 1 matches the imaging view at the time of passing the suspicious person with the takeover-side monitoring camera terminal 1 in S24, the suspicious person enters the delivery area. Wait for (S25). When the suspicious person enters the delivery area, the delivery-side monitoring camera terminal 1 transmits a synchronization signal to the handover-side monitoring camera terminal 1 (S26).
  • the synchronization signal may notify time, or may simply notify reference timing. Further, this synchronization signal is transmitted to the handover monitoring camera terminal 1 in the second wireless communication unit 19.
  • the delivery-side surveillance camera terminal 1 and the handover-side surveillance camera terminal 1 capture the frame image captured by the imaging unit 12 at the timing based on the synchronization signal (S27, S34).
  • the handover-side monitoring camera terminal 1 identifies the suspicious person being imaged based on the captured image obtained by imaging the delivery area with the delivery-side monitoring camera terminal 1 (S28, S35).
  • the identification of the suspicious person may be performed by a method using the first distance energy and the second distance energy described above.
  • the delivery-side monitoring camera terminal 1 and the handover-side monitoring camera terminal 1 directly communicate with each other via the second wireless communication unit 19 and the processing result of the frame image captured by the delivery-side monitoring camera terminal 1 in S27 (The takeover side monitoring camera terminal 1 is notified of the position (position on the frame image) of each person including the suspicious person being tracked, which is located within the delivery area.
  • the communication delay between the delivery side surveillance camera terminal 1 and the takeover side surveillance camera terminal 1 is sufficiently suppressed, and the identification of the suspicious person between the delivery side surveillance camera terminal 1 and the takeover side surveillance camera terminal 1 is It can be performed while the suspicious person is located in the delivery area. This enables tracking of suspicious persons in real time. In addition, it is possible to properly instruct the security guard etc. to respond to a suspicious person and be caught without missing the suspicious person.
  • the handover-side monitoring camera terminal 1 starts the tracking process in S4 described above. That is, it tracks the suspicious person taken over this time.
  • the delivery-side monitoring camera terminal 1 returns to S1 when the tracking process in S4 is completed.
  • each monitoring camera terminal 1 was demonstrated as a structure which can change an imaging visual field
  • an imaging visual field may be fixed.
  • the range imaged in the fixed imaging field of view is the monitoring target area.
  • the second wireless communication unit 19 communicates using the directional antenna 20a.
  • the second wireless communication unit 19, the directivity control unit 20, and the like may be used in an environment where sufficient reception strength can be obtained even in direct communication in the first wireless communication unit 18 using the nondirectional antenna 18a.
  • the directional antenna 20a may be unnecessary.
  • the tracking target has been described as a suspicious person, the tracking target is not limited to a person, and may be another type of mobile object such as a vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

オブジェクトの追跡を引き継ぐ監視カメラ端末(1)との間における受け渡しエリアでのオブジェクトの同定を、このオブジェクトが当該受け渡しエリアに位置している間に行うことで、当該オブジェクトの追跡がリアルタイムで行えるようにする。 受け渡し側監視カメラ端末(1)は、無線通信で、撮像したフレーム画像の処理結果を、引き継ぎ側監視カメラ端末(1)に通知する。ここで通知する処理結果は、受け渡しエリア内に位置する、追跡している不審者を含めた人物毎のフレーム画像上の位置である。受け渡し側監視カメラ端末(1)と引き継ぎ側監視カメラ端末(1)とは、第2の無線通信部(19)で直接通信する。したがって、受け渡し側監視カメラ端末(1)と引き継ぎ側監視カメラ端末(1)との間における通信遅延が十分に抑えられる。

Description

監視カメラ端末
 この発明は、自端末に割り当てられている監視対象エリアを撮像したフレーム画像を処理し、この監視対象エリアに位置する人物を追跡する監視カメラ端末に関する。特に、本発明は、監視対象エリアの一部が重複している他の監視カメラ端末との間で、追跡している人物の受け渡しを行い、この人物を広域にわたって追跡する監視カメラ端末に関する。
 従来、駅、ショッピングセンタ、繁華街等の不特定多数の人が集まる場所では、複数の監視カメラ端末を用いて、特異な行動をとった不審者等の人物(以下、単に不審者と言う。)の検出や、検出した不審者の追跡を行っている。複数の監視カメラ端末で不審者を広域にわたって追跡する場合、この不審者の移動に応じて、追跡する監視カメラ端末を切り替えている。不審者を追跡する監視カメラ端末を切り替えるときは、追跡を引き継ぐ監視カメラ端末に、当該不審者の受け渡しを行っている。不審者の受け渡しが行える監視カメラ端末間では、監視対象エリアの一部が重複している。不審者が、この重複しているエリア(以下、受け渡しエリアと言う。)に位置しているときのフレーム画像を用いて、撮像されている人物の中にいる不審者を、追跡を引き継ぐ監視カメラ端末に同定させている。
 なお、この不審者の同定に失敗すると、追跡を引き継いだ監視カメラ端末が、これまで追跡していた不審者でない別の人物を追跡することになる。したがって、不審者の追跡に失敗する。
 また、システム全体で使用する監視カメラ端末の台数を抑え、システムの構築にかかるコストを抑えるために、不審者の移動に応じて撮像視野を変更する監視カメラ端末を用い、個々の監視カメラ端末に割り当てる監視対象エリアを大きくすることも行われている(特許文献1参照)。
特開2006-310901号公報
 しかしながら、監視カメラ端末間で不審者を受け渡すとき、両監視カメラ端末間の無線通信が、直接ではなく、他の監視カメラ端末を介する無線通信路で行われることがある。例えば、不審者を追跡している監視カメラ端末が、この不審者の追跡を引き継ぐ監視カメラ端末との無線通信路を、受信強度を条件にして形成した場合に他の監視カメラ端末を介する無線通信路が形成されることがある。この無線通信路に位置する監視カメラ端末(所謂、中継ノード)が増加するにつれて、不審者の受け渡しを行う両端末間での通信の遅延時間が長くなる。その結果、受け渡しエリアでの不審者の同定に遅れが生じ、当該不審者の追跡がリアルタイムで行えず、警備員等に対する不審者への対応指示が適正に行えなくなる。すなわち、不審者を捕まえられず、取り逃がすことになる。
 なお、監視対象エリア内で撮像視野を変更する監視カメラ端末であれば、不審者の同定の遅れによって、不審者の受け渡しを行う両監視カメラ端末が、受け渡しエリアに位置している不審者を撮像したフレーム画像を得ることができず、不審者の追跡に失敗する。
 この発明の目的は、オブジェクトの追跡を引き継ぐ監視カメラ端末との間における受け渡しエリアでのオブジェクトの同定を、このオブジェクトが当該受け渡しエリアに位置している間に行うことで、当該オブジェクトの追跡がリアルタイムで行える監視カメラ端末を提供することにある。
 この発明の監視カメラ端末は、上記目的を達するために、以下のように構成している。
 オブジェクト抽出手段は、撮像手段が自端末に割り当てられている監視対象エリアを撮像したフレーム画像を処理し、撮像されているオブジェクトを抽出する。追跡手段は、オブジェクト抽出手段が抽出したオブジェクトを、監視対象エリア内において追跡する。例えば、撮像手段が撮像したフレーム画像を時系列に処理し、時間経過にともなうオブジェクトの位置を追跡する。受け渡し手段は、割り当てられている監視対象エリアが、その一部において自端末の監視対象エリアと重複している相手側端末と無線通信を行い、追跡手段が追跡しているオブジェクトを、監視対象エリアが重複している受け渡しエリアで受け渡す。すなわち、追跡しているオブジェクトが自端末の監視対象エリアから、相手側端末の監視対象エリアへ移動する場合、受け渡しエリアで相手側端末に追跡しているオブジェクトを同定させ、オブジェクトの追跡を引き継ぐ。
 さらに、無線通信路形成手段は、受け渡し手段がオブジェクトの受け渡しを行うとき、このオブジェクトを受け渡す相手側端末との間で、無線通信手段が直接通信する無線通信路を形成する。これにより、オブジェクトの受け渡し時における端末間での無線通信の遅延が抑えられる。したがって、この追跡しているオブジェクトが当該受け渡しエリアに位置している間に、相手側端末に追跡しているオブジェクトを同定させることができる。その結果、オブジェクトの追跡がリアルタイムで行える。
 また、無線通信手段を、無指向性アンテナを有する第1の無線通信部、および指向性アンテナを有する第2の無線通信部を有する構成にするとともに、無線通信路形成手段を、受け渡し手段がオブジェクトの受け渡しを行う相手側端末に対して、第1の無線通信部で当該相手側端末に受け渡し要求を送信するとともに、指向性アンテナの指向性の向きを当該相手側端末との直接通信に適した向きに変更する構成にしてもよい。この場合、受け渡し要求を受信した相手側端末は、指向性アンテナの指向性の向きを、この受け渡し要求を送信してきた端末(この時点でオブジェクトを追跡している端末。)との直接通信に適した向きに変更する構成にすればよい。オブジェクトの受け渡し時における端末間での無線通信は、第2の無線通信部で行えばよい。
 これにより、オブジェクトの受け渡し時における端末間での無線通信の受信強度を確保でき、スループットの低下にともなう、通信の遅延も抑えられる。
 また、追跡手段が監視対象エリア内で追跡しているオブジェクトの移動経路に基づいて、受け渡し手段により追跡しているオブジェクトを受け渡す相手側端末を予測する予測手段を設けてもよい。この場合、無線通信路形成手段は、この予測手段が予測した相手側端末と直接通信する無線通信路を形成する構成にすればよい。これにより、追跡しているオブジェクトが当該受け渡しエリアに進入する前に、オブジェクトの受け渡しを行う端末間で、直接通信する無線通信路を形成することができる。
 さらに、撮像手段は、撮像視野が固定されていてもよいし、撮像視野制御手段により追跡手段が追跡しているオブジェクトの位置に応じて撮像視野を変化させる構成であってもよい。
 この発明によれば、オブジェクトの追跡を引き継ぐ監視カメラ端末との間における受け渡しエリアでのオブジェクトの同定を、このオブジェクトが当該受け渡しエリアに位置している間に行うことができ、当該オブジェクトの追跡がリアルタイムで行える。
広域監視システムの構成を示す概略図である。 監視カメラ端末の主要部の構成を示すブロック図である。 監視カメラ端末における監視対象エリアと、撮像エリアとを説明する図である。 隣接する監視カメラ端末間における、監視対象エリアの関係を示す図である。 監視カメラ端末の動作を示すフローチャートである。 追跡処理を示すフローチャートである。 追跡処理時の撮像画像を示す図である。 引き継ぎ処理を示すフローチャートである。
 以下、この発明の実施形態である監視カメラ端末について説明する。
 図1は、この発明の実施形態にかかる監視カメラ端末を用いた、広域監視システムの構成を示す概略図である。この広域監視システムは、複数の監視カメラ端末1(1A~1H)を有するネットワークシステムである。この広域監視システムは、例えば、アドホック型のネットワークシステムである。監視カメラ端末1間では、直接、または他の監視カメラ端末1を介してデータ通信が行える。この監視カメラ端末1間のデータ通信は、無線通信で行われる。
 なお、この広域監視システムを構成する監視カメラ端末1の台数は、ここで例示している8台に限らず、複数台であれば何台であってもよい。また、図1に示した、監視カメラ端末1間を結ぶ線はリンクである。また、以下の説明では、特に監視カメラ端末1A~1Hを区別しないで説明する場合、監視カメラ端末1と示す。
 図2は、監視カメラ端末の主要部の構成を示す図である。監視カメラ端末1は、制御部11と、撮像部12と、駆動機構部13と、撮像視野制御部14と、画像処理部15と、記憶部16と、タイマ17と、第1の無線通信部18と、第2の無線通信部19と、指向性制御部20と、を備えている。制御部11は、本体各部の動作を制御する。
 撮像部12は、撮像視野内(撮像エリア)を撮像したフレーム画像を1秒間に30フレーム程度出力する。この撮像部12は、パン方向、およびチルト方向に、個別に回動する雲台(不図示)に取り付けている。パン方向と、チルト方向とは直交する方向である。また、撮像部12は、撮像光学系を駆動する光学系駆動部(不図示)を有し、撮像倍率Zoomを変化させることができる。
 駆動機構部13は、撮像部12を取り付けている雲台をパン方向、およびチルト方向に回動するモータ等の駆動源を有する。また、雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを検出するセンサを有する。
 撮像視野制御部14は、撮像部12に対して撮像倍率Zoomを指示する。撮像部12は、この指示にしたがって、撮像倍率Zoomを変化させる。また、撮像視野制御部14は、駆動機構部13に対して、撮像部12を取り付けている雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを指示する。駆動機構部13は、この指示にしたがって、撮像部12を取り付けている雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを変化させる。
 撮像部12は、雲台のパン方向にかかる回動角θ、雲台のチルト方向にかかる回動角φ、および撮像倍率Zoomの変化にともなって、その撮像視野が変化する。監視カメラ端末1には、図3に示すように、監視対象エリアが定められている。この監視対象エリアは、撮像部12の撮像視野を変化させることによって撮像可能な範囲である。
 また、画像処理部15は、撮像部12が撮像したフレーム画像を処理し、撮像されている人物を抽出し、ここで抽出した人物にIDを付す。このIDは、人物を識別できるユニークな値である。また、画像処理部15には、撮像部12を取り付けている雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを検出するセンサの出力が入力されている。すなわち、画像処理部15は、このセンサの出力により、撮像部12を取り付けている雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを得る。また、画像処理部15は、撮像部12から入力されている撮像倍率Zoomにかかる信号により、当該撮像部12の撮像倍率Zoomを得る。画像処理部15は、雲台のパン方向にかかる回動角θ、チルト方向にかかる回動角φ、および撮像倍率Zoomにより、撮像部12の撮像視野、すなわち監視対象エリアにおける撮像エリアの位置、を得ることができる。したがって、画像処理部15は、撮像部12が撮像したフレーム画像上における人物の位置を、監視対象エリアにおける位置に変換できる。画像処理部15は、追跡している人物の移動に応じて、撮像部12の撮像視野を撮像視野制御部14に指示する。
 この画像処理部15は、例えば時空間MRF(Markov Random Field) モデルを利用して、撮像されている人物の抽出や追跡を行う構成である。時空間MRFモデルは、公知のように、時空間画像の時間軸方向の相関関係に着目し、MRFモデルを時空間モデルとして拡張したものである。この時空間MRFモデルは、処理対象であるフレーム画像に対して数ピクセル×数ピクセル(例えば、8ピクセル×8ピクセル)のブロックでエリア分割を行い、時間的に連続するフレーム画像間でのブロック毎の動きベクトルを参照した時間軸方向の相関を定義するモデルである。
 記憶部16は、本体を動作させる動作プログラムや、動作時に利用する設定データ、動作時に発生した処理データ等を記憶する。タイマ17は、現在時刻を計時する。
 第1の無線通信部18は、無指向性アンテナ18aが接続されており、他の監視カメラ端末1との間における無線通信を制御する。
 第2の無線通信部19は、指向性制御部20を介して指向性アンテナ20aが接続されている。指向性制御部20は、指向性アンテナ20aの指向性の向きを変化させる。第2の無線通信部19も、他の監視カメラ端末1との間における無線通信を制御する。
 この広域監視システムは、特異な行動をとった不審者等の人物(以下、単に不審者と言う。)を追跡するシステムである。各監視カメラ端末1には、上述したように監視対象エリアが割り当てられている。また、図4に示すように、隣接する2つの監視カメラ端末1A、1Bは、監視対象エリアの一部が重なっている。図4は、隣接する2つの監視カメラ端末1A、1Bについて監視対象エリアを例示したものであるが、隣接する他の2つの監視カメラ端末1の組み合せにおいても、監視対象エリアの一部が重なっている。この重なっているエリアは、不審者を、一方の監視カメラ端末1A(または1B)から他方の監視カメラ端末1B(または1A)に受け渡すための受け渡しエリアである。例えば、監視カメラ端末1Aが追跡している不審者が、監視カメラ端末1Bとの受け渡しエリアを通って、監視カメラ端末1Bの監視対象エリアに入るときに、監視カメラ端末1Bが、この受け渡しエリアで不審者を同定し、この不審者の追跡を監視カメラ端末1Aから引き継ぐためのエリアである。
 監視カメラ端末1は、隣接する監視カメラ端末1毎に、その監視カメラ端末1との間で不審者を受け渡すときの撮像部12の撮像視野(パン方向にかかる回動角θ、チルト方向にかかる回動角φ、および撮像倍率Zoom)を記憶部16に記憶している。不審者を受け渡すときの撮像部12の撮像視野には、不審者の受け渡しを行う相手側の監視カメラ端末1との受け渡しエリアが含まれる。
 また、各監視カメラ端末1は、隣接する監視カメラ端末1毎に、自端末の撮像部12が受け渡しエリア撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が受け渡しエリアを撮像したフレーム画像の2次元座標系と、の相対的な位置関係を示す座標変換情報を記憶部16に記憶している。この座標変換情報は、自端末の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像の2次元座標系と、隣接する相手側監視カメラ端末1の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像の2次元座標系と、を共通の座標系に射影変換する情報である。ここでは、この座標変換情報として、以下に示す、第1の座標変換パラメータと、第2の座標変換パラメータと、を記憶部16に記憶している。第1の座標変換パラメータは、自端末の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像の2次元座標系を、隣接する相手側監視カメラ端末1の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像の2次元座標系に射影変換するパラメータである。第2の座標変換パラメータは、隣接する相手側監視カメラ端末1の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像の2次元座標系を、自端末の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像の2次元座標系に射影変換するパラメータである。
 なお、座標変換情報は、第1の座標変換パラメータ、または第2の座標変換パラメータのどちらか一方のみであってもよい。
 ここで、第1の座標変換パラメータ、および第2の座標変換パラメータについて説明しておく。この第1の座標変換パラメータ、および第2の座標変換パラメータは、監視カメラ端末1の設置時に、実際に撮像したフレーム画像を用いて算出した値である。
 まず、監視カメラ端末1の設置完了時に、テープ等を用いて、隣接する相手側監視カメラ端末1との受け渡しエリア内の床面に4点をマーキングする。そして、自端末の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像を処理し、このフレーム画像上におけるマーキングした4点の座標位置(x,y)を検出する。同様に、隣接する相手側監視カメラ端末1の撮像部12が不審者を受け渡すときの撮像視野で撮像したフレーム画像上におけるマーキングした4点の座標位置(X,Y)を、この相手側端末から取得する。そして、マーキングした点毎に、その座標位置を、
 X=(a1x+b1y+c1)/(a0x+b0y+1)
 Y=(a2x+b2y+c2)/(a0x+b0y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、a0,b0,a1,b1,c1,a2,b2,c2の8個の定数が、この隣接する相手側監視カメラ端末1との第1の座標変換パラメータである。監視カメラ端末1は、この第1の座標変換パラメータを記憶部16に記憶する。
 同様に、マーキングした点毎に、その座標位置を、
 x=(A1X+B1Y+C1)/(A0X+B0Y+1)
 y=(A2X+B2Y+C2)/(A0X+B0Y+1)
に代入し、8元連立方程式を得る。この8元連立方程式の解である、A0,B0,A1,B1,C1,A2,B2,C2の8個の定数が、この隣接する相手側監視カメラ端末1との第2の座標変換パラメータである。監視カメラ端末1は、この第2の座標変換パラメータを記憶部16に記憶する。
 受け渡しエリア内に位置している人物の同定は、自端末が撮像したフレーム画像の受け渡しエリアに撮像されている人物毎に、フレーム画像上の座標位置を取得する。また、相手側端末から、相手側端末が撮像したフレーム画像の受け渡しエリアに撮像されている人物毎に、フレーム画像上の座標位置を取得する。また、自端末が撮像した受け渡しエリアに位置する人物と、相手側端末が撮像した受け渡しエリアに位置する人物と、を1対1で対応付ける組み合せパターンを作成する。ここで作成される組み合せのパターン数は、例えば、受け渡しエリア内に位置している人物が2人であれば2通りであり、また受け渡しエリア内に位置している人物が3人であれば6通りである。
 また、監視カメラ端末1は、自端末が撮像した受け渡しエリアに位置する人物毎に、第1の座標変換パラメータを用いて、その人物の座標位置を相手側端末の座標系に変換する。監視カメラ端末1は、人物の組み合せパターン毎に、相手側端末の座標系での、対応する人物間の距離の総和である第1の距離エネルギーを算出する。また、監視カメラ端末1は、相手側端末が撮像した受け渡しエリアに位置する人物毎に、第2の座標変換パラメータを用いて、その人物の座標位置を自端末の座標系に変換する。監視カメラ端末1は、人物の組み合せパターン毎に、自端末の座標系での、対応する人物間の距離の総和である第2の距離エネルギーを算出する。
 そして、監視カメラ端末1は、受け渡しエリアに位置する人物の組合せの中で、第1の距離エネルギーと、第2の距離エネルギーとの和が最小である組み合せパターンを、受け渡しエリア内に位置する人物の適正な対応付けと判断する。したがって、不審者が受け渡しエリアに位置していれば、当該不審者の追跡を引き継ぐ側の監視カメラ端末1は、受け渡しエリア内に位置する人物の中で誰が不審者であるかを、この不審者を追跡している監視カメラ端末1から得ることで、不審者を同定することができる。
 なお、受け渡しエリア内に位置する不審者の同定は、この不審者を追跡している監視カメラ端末1が、不審者の検出に使用したテンプレート情報を、この不審者の追跡を引き継ぐ監視カメラ端末1に通知し、この不審者の追跡を引き継ぐ監視カメラ端末1が通知されたテンプレート情報を用いて不審者を同定してもよい。また、上述のテンプレート情報だけではなく、不審者の検出に利用した特徴情報(例えば、画像から切り出した不審者の画像データ、形状、色、大きさなどにより不審者を特定する情報、あるいは目、鼻、口等の顔部品の形状や、位置等)も不審者の追跡を引き継ぐ監視カメラ端末1に通知してもよい。
 次に、監視カメラ端末1の動作について説明する。図5は、この監視カメラ端末1の動作を示すフローチャートである。監視カメラ端末1は、監視対象エリア内における不審者の探索にかかる探索処理を開始する(S1)。監視カメラ端末1は、この時点では、不審者の追跡を行っていない(後述する追跡処理を実行していない。)。監視カメラ端末1は、S1で開始した探索処理で不審者が検出されるか(S2)、隣接する監視カメラ端末1からの不審者の受け渡し要求があるのを待つ(S3)。
 S1で開始する探索処理は、一定時間(数秒)毎に、撮像部12の撮像視野を変化させる。具体的には、撮像視野制御部14が、一定時間毎に、予め定められた条件に基づき、撮像部12を取り付けている雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを駆動機構部13に指示する。この条件は、例えば、撮像部12の撮像視野が、監視対象エリア全体を走査するように設定されている。また、撮像倍率は、予め定めた撮像倍率である。
 画像処理部15は、撮像部12が撮像したフレーム画像を処理し、撮像されている人物を抽出するとともに、抽出した人物にIDを付与する。このとき、画像処理部15は、すでにIDが付与されている人物については、IDを付与しない。また、画像処理部15は、抽出した人物毎に、IDと監視対象エリアにおける位置とを対応付けたオブジェクトマップを作成する。このオブジェクトマップには、作成時にタイマ17が計時していた時刻がタイムスタンプとして付与される。画像処理部15は、時間的に連続するオブジェクトマップを用いて、IDを付与した人物毎に、その行動を解析する。そして、その行動が特異な人物(予め定めた行動パターンである人物)がいれば、その人物を不審者として検出する。また、要注意人物の顔画像を登録しておき、撮像部12が撮像した人物の顔画像との照合により、要注意人物を検出したときに、この要注意人物を不審者として検出するように構成してもよい。
 S3では、第1の無線通信部18で、他の監視カメラ端末1から自端末に対する受け渡し要求を受信するのを待っている。第1の無線通信部18は、無指向性のアンテナ18aを接続しているので、他の端末に対する受け渡し要求を受信することもある。この他の端末に対する受け渡し要求を受信したときには、中継ノードとして機能する。具体的には、今回受信した他の端末に対する受け渡し要求の転送先を、この受け渡し要求を送信してきた端末以外の端末(受け渡し要求の送信先の端末を含む。)の中から決定し、ここで決定した端末に送信する。例えば、図1に示す監視カメラ端末1Aが、監視カメラ端末1Bに対して送信した受け渡し要求が、監視カメラ端末1A→1F→1C→1Bの経路で送信されたり、監視カメラ端末1A→1G→1Bの経路で送信されたりすることがある。この場合、監視カメラ端末1F、1C、1Gが中継ノードとして機能する。
 監視カメラ端末1は、不審者を検出すると、追跡処理を開始する(S4)。また、自端末に対する受け渡し要求を受信すると、引き継ぎ処理を実行する(S5)。
 以下の説明では、S4にかかる追跡処理を実行する監視カメラ端末1を受け渡し側監視カメラ端末1と言い、S5にかかる引き継ぎ処理を実行する監視カメラ端末1を引き継ぎ側監視カメラ端末1と言う。
 まず、S4にかかる追跡処理について説明する。図6は、この追跡処理を示すフローチャートである。受け渡し側監視カメラ端末1の画像処理部15は、撮像部12が撮像したフレーム画像を取り込み(S11)、このフレーム画像を処理し、不審者が撮像部12の中心になる撮像視野(雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φ)を算出する(S12)。このとき、撮像部12の撮像倍率Zoomは、予め定めた撮像倍率である。また、不審者には、検出された時点で、IDが付与されている。
 受け渡し側監視カメラ端末1は、撮像部12の撮像視野をS12で算出した撮像視野に合わせる(S13)。すなわち、雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを、S12で算出した角度に合わせる。具体的には、画像処理部15は、ここで算出した雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを撮像視野制御部14に通知する。撮像視野制御部14が、この通知に基づいて、駆動機構部13による雲台のパン方向にかかる回動角θ、およびチルト方向にかかる回動角φを変更する。
 受け渡し側監視カメラ端末1は、この不審者の追跡を引き継ぐ隣接する他の監視カメラ端末1(引き継ぎ側監視カメラ端末1)を予測する(S14)。受け渡し側監視カメラ端末1は、追跡している不審者がS14で予測した隣接する引き継ぎ側監視カメラ端末1との受け渡しエリア周辺に位置しているかどうかを判定する(S15)。受け渡し側監視カメラ端末1は、追跡している不審者がS14で予測した引き継ぎ側監視カメラ端末1との受け渡しエリア周辺に位置していないと判定すると、S11に戻り上述した処理を繰り返す。
 受け渡し側監視カメラ端末1は、S11~S15に示す処理を繰り返すことにより、図7に示すように、不審者Xを撮像部12の撮像視野の略中心にとらえながら、この不審者Xを追跡することができる。また、画像処理部15は、この追跡処理においても、不審者について、IDと監視対象エリアにおける位置とを対応付けたオブジェクトマップを作成している。したがって、このオブジェクトマップを用いることにより、不審者の移動方向や、移動速度にかかる移動ベクトルが得られる。受け渡し側監視カメラ端末1は、この移動ベクトルを用いて、S14で追跡している不審者の追跡を引き継ぐ引き継ぎ側監視カメラ端末1を予測する。
 また、S15にかかる判定は、引き継ぎ側監視カメラ端末1との受け渡しエリアからの距離の閾値を予め定めておき、不審者の位置と、この受け渡しエリア(例えば、受け渡しエリアの中心や境界)との距離が、この閾値以下になったかどうかにより判定すればよい。また、不審者の移動速度も考慮し、追跡している不審者が引き継ぎ側監視カメラ端末1との受け渡しエリアに到達するまでに要する時間が予め定めた時間(例えば、2~3秒)以下になったかどうかにより、不審者が受け渡しエリア周辺に位置しているかどうかを判定してもよい。
 受け渡し側監視カメラ端末1は、S15で追跡している不審者がS14で予測した引き継ぎ側監視カメラ端末1との受け渡しエリア周辺に位置していると判定すると、この引き継ぎ側監視カメラ端末1に対して受け渡し要求を送信する(S16)。S16にかかる受け渡し要求は、第1の無線通信部18から送信される。このため、この受け渡し要求は、引き継ぎ側監視カメラ端末1で直接受信されるとは限らない。すなわち、他の監視カメラ端末1を介した無線通信路で、引き継ぎ側監視カメラ端末1で受信されることもある。自端末に対する受け渡し要求を受信した引き継ぎ側監視カメラ端末1が、S5にかかる引き継ぎ処理を実行する。
 受け渡し側監視カメラ端末1は、S16で不審者の受け渡し要求を行うと、指向性制御部20が指向性アンテナ20aの指向性の向きを、今回の受け渡し要求を受信した引き継ぎ側監視カメラ端末1と直接通信するのに適した向きに変更する(S17)。指向性制御部20は、隣接する監視カメラ端末1毎に、直接通信するのに適した指向性アンテナ20aの指向性の向きを記憶している。
 また、受け渡し側監視カメラ端末1は、撮像倍率Zoomを受け渡し時の撮像倍率に変更する(S18)。画像処理部15は、撮像部12が撮像したフレーム画像を取り込んで処理し(S19)、撮像部12の撮像視野を受け渡し時の撮像視野にしたときに、不審者がフレームアウトするかどうかを判定する(S20)。
 受け渡し側監視カメラ端末1は、S20で不審者がフレームアウトすると判定すると、この不審者が収まる撮像視野(雲台のパン方向にかかる回動角(θ)、およびチルト方向にかかる回動角(φ))を算出する(S21)。S21では、撮像視野は、不審者が中心になる撮像視野を算出してもよいが、好ましくは、不審者を中心からずらし、受け渡し時の撮像視野に近い撮像視野を算出するのがよい。受け渡し側監視カメラ端末1は、撮像部12の撮像視野を、S21で算出した撮像視野に合わせ(S22)、S17に戻る。
 受け渡し側監視カメラ端末1は、S20で不審者がフレームアウトしないと判定すると、撮像部12の撮像視野を、記憶部16に記憶している受け渡し時の撮像視野に決定する(S23)。受け渡し側監視カメラ端末1は、撮像部12の撮像視野を受け渡し時の撮像視野に合わせる(S24)。
 上述したS16で受け渡し側監視カメラ端末1が行った不審者の受け渡し要求を受信した引き継ぎ側監視カメラ端末1は、図8に示す引き継ぎ処理を開始している。引き継ぎ側監視カメラ端末1は、指向性制御部20が指向性アンテナ20aの指向性の向きを、受け渡し側監視カメラ端末1と直接通信するのに適した向きに変更する(S31)。また、引き継ぎ側監視カメラ端末1は、撮像部12の撮像視野を、この受け渡し側監視カメラ端末1との間で不審者を受け渡すときの撮像視野に合わせ(S32)、受け渡し側監視カメラ端末1からの同期信号を待つ(S33)。
 したがって、受け渡し側監視カメラ端末1が、S24で撮像部12の撮像視野を、引き継ぎ側監視カメラ端末1との間で不審者を受け渡すときの撮像視野に合わせたときには、第2の無線通信部19で直線通信できる状態になっている。また、この時点で、引き継ぎ側監視カメラ端末1は、撮像部12の撮像視野を、この受け渡し側監視カメラ端末1との間で不審者を受け渡すときの撮像視野に合わせている。
 これ以降、不審者の追跡の引き継ぎが完了するまで、受け渡し側監視カメラ端末1と引き継ぎ側監視カメラ端末1とは、第2の無線通信部19で直接通信する。
 受け渡し側監視カメラ端末1は、S24で撮像部12の撮像視野を、引き継ぎ側監視カメラ端末1との間で不審者を受け渡すときの撮像視野に合わせると、不審者が受け渡し領域に進入するのを待つ(S25)。受け渡し側監視カメラ端末1は、不審者が受け渡し領域に進入すると、引き継ぎ側監視カメラ端末1に対して同期信号を送信する(S26)。この同期信号は、時刻を通知するものであってもよいし、単に基準タイミングを通知するものであってもよい。また、この同期信号は、第2の無線通信部19において、引き継ぎ側監視カメラ端末1に送信する。
 受け渡し側監視カメラ端末1、および引き継ぎ側監視カメラ端末1は、同期信号を基準にしたタイミングで、撮像部12が撮像したフレーム画像を取り込む(S27、S34)。引き継ぎ側監視カメラ端末1は、受け渡し側監視カメラ端末1との間で、受け渡しエリアを撮像した撮像画像を基に、撮像されている不審者を同定する(S28、S35)。この不審者の同定は、上述した第1の距離エネルギー、および第2の距離エネルギーを用いた手法で行えばよい。また、このとき、受け渡し側監視カメラ端末1と引き継ぎ側監視カメラ端末1とは、第2の無線通信部19で直接通信し、受け渡し側監視カメラ端末1がS27で撮像したフレーム画像の処理結果(受け渡しエリア内に位置する、追跡している不審者を含めた人物毎の位置(フレーム画像上の位置))を、引き継ぎ側監視カメラ端末1に通知する。
 したがって、受け渡し側監視カメラ端末1と引き継ぎ側監視カメラ端末1との間における通信遅延が十分に抑えられ、受け渡し側監視カメラ端末1と引き継ぎ側監視カメラ端末1との間における不審者の同定が、この不審者が当該受け渡しエリアに位置している間に行うことができる。これにより、不審者の追跡がリアルタイムで行える。また、警備員等に対する不審者への対応指示が適正に行え、この不審者を取り逃がすことなく、捕まえられる。
 引き継ぎ側監視カメラ端末1は、S5にかかる引き継ぎ処理が終了すると、上述したS4にかかる追跡処理を開始する。すなわち、今回引き継いだ不審者の追跡を行う。一方、受け渡し側監視カメラ端末1は、S4にかかる追跡処理を終了すると、S1に戻る。
 なお、上述の例では、各監視カメラ端末1は、撮像視野を変化させることができる構成として説明したが、撮像視野が固定されたものであってもよい。この場合には、固定された撮像視野で撮像される範囲が監視対象エリアになる。
 また、上述の例では、受け渡し側監視カメラ端末1と引き継ぎ側監視カメラ端末1との間における無線通信を直接行うために、第2の無線通信部19が指向性アンテナ20aを用いて通信する構成としたが、無指向性アンテナ18aを用いた第1の無線通信部18における直接通信でも、十分な受信強度が得られる環境であれば、第2の無線通信部19、指向性制御部20、および指向性アンテナ20aを不要にしてもよい。
 また、上述の例では、追跡対象を不審者として説明したが、この追跡対象は人に限らず、車両等の他の種類の移動体であってもよい。
1(1A~1H)…監視カメラ端末
11…制御部
 12…撮像部
 13…駆動機構部
 14…撮像視野制御部
 15…画像処理部
 16…記憶部
 17…タイマ
 18…第1の無線通信部
 18a…無指向性アンテナ
 19…第2の無線通信部
 20…指向性制御部
 20a…指向性アンテナ

Claims (5)

  1.  自端末の周辺に位置する別の端末との無線通信を、直接、または他の端末を介して行う無線通信手段と、
     自端末に割り当てられている監視対象エリアを撮像する撮像手段と、
     前記撮像手段が撮像したフレーム画像を処理し、撮像されているオブジェクトを抽出するオブジェクト抽出手段と、
     前記オブジェクト抽出手段が抽出したオブジェクトを、前記監視対象エリア内において追跡する追跡手段と、
     割り当てられている前記監視対象エリアが、その一部において自端末の前記監視対象エリアと重複している相手側端末との無線通信を前記無線通信手段で行い、前記追跡手段が追跡しているオブジェクトを、前記監視対象エリアが重複している受け渡しエリアで受け渡す受け渡し手段と、
     前記受け渡し手段がオブジェクトの受け渡しを行うとき、このオブジェクトを受け渡す相手側端末との間で、前記無線通信手段が直接通信する無線通信路を形成する無線通信路形成手段と、を備えた監視カメラ端末。
  2.  前記無線通信手段は、無指向性アンテナを有する第1の無線通信部、および指向性アンテナを有する第2の無線通信部を有し、
     前記無線通信路形成手段は、前記受け渡し手段がオブジェクトの受け渡しを行う相手側端末に対して、前記第1の無線通信部で当該相手側端末に受け渡し要求を送信するとともに、前記指向性アンテナの指向性の向きを当該相手側端末との直接通信に適した向きに変更し、
     前記受け渡し手段は、前記第2の無線通信部で相手側端末と無線通信を行う、請求項1に記載の監視カメラ端末。
  3.  前記受け渡し手段は、自端末、および相手側端末が前記受け渡しエリアを撮像したフレーム画像を用いて、前記追跡手段が追跡しているオブジェクトを相手側端末に同定させる、請求項1、または2に記載の監視カメラ端末。
  4.  前記追跡手段が前記監視対象エリア内で追跡しているオブジェクトの移動経路に基づいて、前記受け渡し手段がオブジェクトを受け渡す相手側端末を予測する予測手段、を備え、
     前記無線通信路形成手段は、前記予測手段が予測した相手側端末と直接通信する無線通信路を形成する、請求項1~3のいずれかに記載の監視カメラ端末。
  5.  前記追跡手段が前記監視対象エリア内で追跡しているオブジェクトの位置に応じて前記撮像手段の撮像視野を変化させる撮像視野制御手段を備えた請求項1~4のいずれかに記載の監視カメラ端末。
PCT/JP2011/051048 2010-03-15 2011-01-21 監視カメラ端末 WO2011114770A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/634,711 US20130002868A1 (en) 2010-03-15 2011-01-21 Surveillance camera terminal
EP11755960.9A EP2549752A4 (en) 2010-03-15 2011-01-21 TERMINAL FOR SURVEILLANCE CAMERA
JP2012505545A JPWO2011114770A1 (ja) 2010-03-15 2011-01-21 監視カメラ端末
CN201180009393.7A CN102754435A (zh) 2010-03-15 2011-01-21 监视摄像机终端

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-057122 2010-03-15
JP2010057122 2010-03-15

Publications (1)

Publication Number Publication Date
WO2011114770A1 true WO2011114770A1 (ja) 2011-09-22

Family

ID=44648879

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/051048 WO2011114770A1 (ja) 2010-03-15 2011-01-21 監視カメラ端末

Country Status (5)

Country Link
US (1) US20130002868A1 (ja)
EP (1) EP2549752A4 (ja)
JP (1) JPWO2011114770A1 (ja)
CN (1) CN102754435A (ja)
WO (1) WO2011114770A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102724773A (zh) * 2012-05-25 2012-10-10 西安电子科技大学 基于m2m通信的无线智能监控装置及方法
JP2013118561A (ja) * 2011-12-05 2013-06-13 Nikon Corp 電子カメラおよび電子カメラの制御方法
WO2016132769A1 (ja) * 2015-02-19 2016-08-25 シャープ株式会社 撮影装置、撮影装置の制御方法、および制御プログラム
CN106331653A (zh) * 2016-09-29 2017-01-11 浙江宇视科技有限公司 一种定位全景相机子画面显示区域的方法及装置
JP2017046023A (ja) * 2015-08-24 2017-03-02 三菱電機株式会社 移動体追跡装置及び移動体追跡方法及び移動体追跡プログラム
JP2017195617A (ja) * 2017-05-31 2017-10-26 株式会社ニコン カメラ

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5743221B2 (ja) * 2012-06-29 2015-07-01 カシオ計算機株式会社 無線同期システム、無線装置、センサ装置、無線同期方法、及びプログラム
JP6022886B2 (ja) * 2012-10-16 2016-11-09 株式会社日立国際電気 無線監視カメラシステム及び無線監視カメラ装置
CN103900554A (zh) * 2012-12-26 2014-07-02 联想(北京)有限公司 信息处理方法和引导设备
CN103702030A (zh) * 2013-12-25 2014-04-02 浙江宇视科技有限公司 一种基于gis地图的场景监控方法和移动目标追踪方法
CN105100577B (zh) * 2014-04-21 2019-03-26 浙江大华技术股份有限公司 一种图像处理方法及装置
WO2015178540A1 (ko) * 2014-05-20 2015-11-26 삼성에스디에스 주식회사 카메라간 핸드오버를 이용한 목표물 추적 장치 및 방법
JP6696422B2 (ja) 2014-06-27 2020-05-20 日本電気株式会社 異常検知装置及び異常検知方法
US10664705B2 (en) * 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
KR102174839B1 (ko) * 2014-12-26 2020-11-05 삼성전자주식회사 보안 시스템 및 그 운영 방법 및 장치
JP6631619B2 (ja) * 2015-03-27 2020-01-15 日本電気株式会社 映像監視システム及び映像監視方法
EP3089263B1 (de) * 2015-04-29 2022-04-13 Rohde & Schwarz GmbH & Co. KG Tragbare richtantenne, messanordnung und messverfahren
JP6631712B2 (ja) * 2015-08-28 2020-01-15 日本電気株式会社 解析装置、解析方法、及びプログラム
KR20170050028A (ko) * 2015-10-29 2017-05-11 삼성에스디에스 주식회사 객체의 위치 검색 시스템 및 방법
CN106791586A (zh) * 2015-11-19 2017-05-31 杭州海康威视数字技术股份有限公司 一种对移动目标进行监控的方法及监控设备、装置、系统
WO2018067058A1 (en) * 2016-10-06 2018-04-12 Modcam Ab Method for sharing information in system of imaging sensors
KR102575271B1 (ko) * 2016-10-17 2023-09-06 한화비전 주식회사 Pos 기기와 연동된 감시 카메라 및 이를 이용한 감시 방법
JP6992536B2 (ja) * 2018-01-19 2022-01-13 富士通株式会社 観測システムおよび観測方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136565A (ja) * 1999-11-09 2001-05-18 Mitsubishi Electric Corp 移動体通信装置
JP2002290962A (ja) * 2001-03-27 2002-10-04 Mitsubishi Electric Corp 侵入者自動追尾方法および装置並びに画像処理装置
JP2005244279A (ja) * 2004-02-24 2005-09-08 Matsushita Electric Ind Co Ltd 監視システム、監視装置および監視方法
JP2006310901A (ja) 2005-04-26 2006-11-09 Victor Co Of Japan Ltd 監視システム及び監視方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690374B2 (en) * 1999-05-12 2004-02-10 Imove, Inc. Security camera system for tracking moving objects in both forward and reverse directions
GB2393350B (en) * 2001-07-25 2006-03-08 Neil J Stevenson A camera control apparatus and method
JP4478510B2 (ja) * 2004-06-03 2010-06-09 キヤノン株式会社 カメラシステム、カメラ、及びカメラの制御方法
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
US7546624B2 (en) * 2006-01-18 2009-06-09 Vishloff T Lee Systems and methods for wireless digital video monitoring
US8432449B2 (en) * 2007-08-13 2013-04-30 Fuji Xerox Co., Ltd. Hidden markov model for camera handoff

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136565A (ja) * 1999-11-09 2001-05-18 Mitsubishi Electric Corp 移動体通信装置
JP2002290962A (ja) * 2001-03-27 2002-10-04 Mitsubishi Electric Corp 侵入者自動追尾方法および装置並びに画像処理装置
JP2005244279A (ja) * 2004-02-24 2005-09-08 Matsushita Electric Ind Co Ltd 監視システム、監視装置および監視方法
JP2006310901A (ja) 2005-04-26 2006-11-09 Victor Co Of Japan Ltd 監視システム及び監視方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP2549752A4
YASUHIDE HYODO ET AL.: "Robust Multiple-human Tracking against Occlusion through Camera Network", IPSJ SIG NOTES, 2008-CVIM-164, COMPUTER VISION AND IMAGE MEDIA, vol. 2008, no. 82, 29 August 2008 (2008-08-29), pages 171 - 176, XP008167429 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013118561A (ja) * 2011-12-05 2013-06-13 Nikon Corp 電子カメラおよび電子カメラの制御方法
CN102724773A (zh) * 2012-05-25 2012-10-10 西安电子科技大学 基于m2m通信的无线智能监控装置及方法
WO2016132769A1 (ja) * 2015-02-19 2016-08-25 シャープ株式会社 撮影装置、撮影装置の制御方法、および制御プログラム
JP2017046023A (ja) * 2015-08-24 2017-03-02 三菱電機株式会社 移動体追跡装置及び移動体追跡方法及び移動体追跡プログラム
CN106331653A (zh) * 2016-09-29 2017-01-11 浙江宇视科技有限公司 一种定位全景相机子画面显示区域的方法及装置
JP2017195617A (ja) * 2017-05-31 2017-10-26 株式会社ニコン カメラ

Also Published As

Publication number Publication date
EP2549752A4 (en) 2014-12-03
EP2549752A1 (en) 2013-01-23
JPWO2011114770A1 (ja) 2013-06-27
US20130002868A1 (en) 2013-01-03
CN102754435A (zh) 2012-10-24

Similar Documents

Publication Publication Date Title
WO2011114770A1 (ja) 監視カメラ端末
JP5325337B2 (ja) 監視カメラ端末
US8115814B2 (en) Mobile tracking system, camera and photographing method
US20200068632A1 (en) Wireless communication system, wireless relay device and wireless communication method
EP3772227B1 (en) Cellular telecommunications network
WO2005081530A1 (ja) 監視システム、監視装置および監視方法
US9930119B2 (en) Heterogeneous cellular object tracking and surveillance network
JP5470516B2 (ja) 移動体操作用無線通信装置および通信制御プログラムならびに移動体
JP7218321B2 (ja) 無人航空機のビューを生成するためのシステムおよび方法
US20240185707A1 (en) Automated Vehicle Control Distributed Network Apparatuses and Methods
US11812320B2 (en) Initiation of transfer of user equipment to base station according to visual data
KR101494884B1 (ko) 근거리 무선통신 액세스 포인트를 구비한 감시 카메라 시스템 및 그 구동 방법
KR100877227B1 (ko) 다중이동물체 자동추적용 지그비 다중카메라시스템 및 그 운영방법
JP4174448B2 (ja) 検知対象検知システム
JP4206052B2 (ja) 検知対象検知システム
CN103900554A (zh) 信息处理方法和引导设备
KR102093727B1 (ko) 카메라를 이용한 송신측 안테나 및 이를 이용한 무선전력 전송시스템 및 방법
KR102382503B1 (ko) Vlc 조명을 이용한 관제 로봇의 제어 시스템 및 방법
WO2023112501A1 (ja) 移動体端末、無線通信システム、および通信制御プログラム
JP2011135327A (ja) 無線通信システム,無線通信端末

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180009393.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11755960

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012505545

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13634711

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011755960

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE