WO2014136979A1 - 移動体を監視する装置及び方法 - Google Patents

移動体を監視する装置及び方法 Download PDF

Info

Publication number
WO2014136979A1
WO2014136979A1 PCT/JP2014/056184 JP2014056184W WO2014136979A1 WO 2014136979 A1 WO2014136979 A1 WO 2014136979A1 JP 2014056184 W JP2014056184 W JP 2014056184W WO 2014136979 A1 WO2014136979 A1 WO 2014136979A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking
monitoring
monitoring area
target
moving object
Prior art date
Application number
PCT/JP2014/056184
Other languages
English (en)
French (fr)
Inventor
滝口 昌宏
岩崎 哲也
賢次 坪根
Original Assignee
株式会社デンソーウェーブ
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013046602A external-priority patent/JP6182332B2/ja
Priority claimed from JP2013046600A external-priority patent/JP6174872B2/ja
Priority to NZ713004A priority Critical patent/NZ713004A/en
Priority to CA2904235A priority patent/CA2904235A1/en
Priority to SG11201507075VA priority patent/SG11201507075VA/en
Priority to BR112015021770A priority patent/BR112015021770A2/pt
Priority to GB1517772.8A priority patent/GB2529569A/en
Priority to CN201480012941.5A priority patent/CN105308955A/zh
Application filed by 株式会社デンソーウェーブ, 株式会社デンソー filed Critical 株式会社デンソーウェーブ
Priority to DE112014001201.7T priority patent/DE112014001201T5/de
Priority to US14/773,613 priority patent/US10043359B2/en
Priority to AU2014226830A priority patent/AU2014226830B2/en
Priority to KR1020157024931A priority patent/KR101742634B1/ko
Publication of WO2014136979A1 publication Critical patent/WO2014136979A1/ja
Priority to HK16107724.0A priority patent/HK1219827A1/zh
Priority to AU2016266013A priority patent/AU2016266013B2/en
Priority to US15/647,843 priority patent/US10026284B2/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an apparatus and method for monitoring a moving object while automatically tracking the moving object in a monitoring area.
  • Patent Document 1 discloses a security system in which the camera unit is made to follow the movement of an intruder, and the image data of the intruder is displayed.
  • Patent No. 3011121 gazette
  • the present invention has been made in view of the above circumstances, and it is possible to switch the tracking target even when there are a plurality of moving bodies in the monitoring area, and set the moving body desired by the observer as the tracking target
  • Another object of the present invention is to provide an apparatus and method for monitoring a body.
  • an apparatus and method for monitoring a mobile are provided.
  • an object is detected by scanning the inside of the monitoring area with the optical range finder, the moving object is specified among the detected objects, and the most recently specified moving object in the monitoring area is the tracking target
  • the camera device automatically tracks the moving object set as the tracking target. That is, when a moving object intrudes into the monitoring area, the moving object is set as a tracking target.
  • the monitoring area is set to a certain size as described above, the possibility that a plurality of mobile objects exist simultaneously is also high. Then, in a situation where one moving object is automatically tracked following the movement of the moving object, and the moving object is enlarged and imaged, the other moving objects are not to be monitored and the moving objects in the monitoring area are completely leaked. Monitoring can be difficult.
  • all mobiles are set by setting the mobile specified most recently in the monitoring area as the tracking target. It can be set as the tracking target.
  • a tracking target a moving object that has entered the monitoring area R1
  • the tracking target is set each time a moving object is newly identified, that is, since the tracking object is sequentially switched as the moving object moves, it is possible to monitor the moving object in the monitoring area without omission. it can.
  • a second aspect of the present invention provides a method of monitoring a mobile.
  • the inside of the monitoring area is scanned by the optical range finder to detect an object, the moving object is specified among the detected objects, and the specified moving object is set as the tracking target, and the camera device performs automatic tracking
  • the camera device performs automatic tracking
  • the camera device performs automatic tracking
  • the priority monitoring target in the monitoring area is included.
  • the focus monitoring area set in advance is enlarged and fixed point monitoring is performed by the camera device.
  • the monitoring area is set to a certain size as described above, the possibility that a plurality of mobile objects exist simultaneously is also high. Then, when one moving object is automatically tracked following the movement of the moving object to magnify the moving object for imaging, the other moving objects are not to be monitored, and the moving object in the monitoring area is It is difficult to monitor without omission.
  • FIG. 1 is a view schematically showing the configuration of a monitoring device according to a first embodiment
  • Fig. 2 is a diagram schematically showing a monitoring area to be monitored by the monitoring device
  • FIG. 3 is a diagram showing the flow of monitoring processing executed by the monitoring device
  • FIG. 4 is a diagram showing the flow of determination processing executed by the monitoring device
  • FIG. 5 schematically shows the positional relationship of the moving object at time t1
  • FIG. 6 is a view schematically showing the positional relationship of the moving object at time t2
  • FIG. 7 is a view schematically showing the positional relationship of the moving object at time t3.
  • FIG. 8 is a diagram schematically showing the positional relationship of mobiles in the monitoring area
  • FIG. 8 is a diagram schematically showing the positional relationship of mobiles in the monitoring area
  • FIG. 9 is a view schematically showing a key monitoring area set in the monitoring area;
  • FIG. 10 is a diagram showing the flow of monitoring processing executed by the monitoring device according to the second embodiment;
  • FIG. 11 is a view schematically showing the positional relationship of mobiles in the monitoring area;
  • FIG. 12 schematically shows the positional relationship of the moving object at time t1.
  • FIG. 13 schematically shows the positional relationship of the moving object at time t2;
  • FIG. 14 is a view schematically showing the positional relationship of the moving object at time t3.
  • FIG. 15 is a view schematically showing the positional relationship of the mobile unit after time t3 and the important point monitoring area set in the monitoring area.
  • FIG. 16 is a view schematically showing the configuration of a monitoring device according to a third embodiment;
  • FIG. 17 is a diagram showing the flow of monitoring processing executed by the monitoring device;
  • FIG. 18 is a diagram showing the flow of monitoring processing executed by the monitoring device according to the fourth embodiment.
  • the monitoring device 1 to which the control method of the present embodiment is applied includes an area sensor device 2, a camera device 3, and a monitor device 4.
  • the area sensor device 2 includes a control unit 10, a storage unit 11, an input / output unit 12, a laser scanning unit 13, an object detection unit 14, a moving object identification unit 15, a moving object counting unit 16, and tracking.
  • the target setting unit 17 and the like are provided.
  • the control unit 10 is configured by a microcomputer having a CPU, a ROM, a RAM, and the like (not shown), and controls the laser scanning unit 13 and the like by executing a computer program stored in the storage unit 11 and the like.
  • the object detection unit 14, the moving object identification unit 15, the moving object counting unit 16, and the tracking target setting unit 17 are realized as software by a computer program executed by the control unit 10.
  • the area sensor device 2 corresponds to the optical distance meter described in the claims.
  • the storage unit 11 is configured by a memory element (not shown) and the like, and stores various information such as a computer program and measurement results such as a detection distance and a detection angle of a detected object.
  • the input / output unit 12 functions as an input / output unit that performs input of a command signal from an upper control device (not shown), notification output of a detection result of an object, and the like.
  • the laser scanning unit 13 is predetermined to reflect the laser irradiation unit 13a, a mirror 13b that reflects the laser light emitted from the laser irradiation unit 13a toward the monitoring area and receives light reflected by an object in the monitoring area.
  • a motor 13c rotationally drives the mirror 13b with an angular resolution and a scanning cycle, and a laser light receiving unit 13d receiving the reflected light.
  • this structure is an example and the structure (The structure which does not utilize the reflective mirror 13b at the time of irradiation) which drives the laser irradiation part 13a may be sufficient.
  • the object detection unit 14 detects an object in a well-known manner based on the distance (the detection distance described above) and the scanning angle (the detection angle described above) when the laser light receiving unit 13 d receives the reflected light. Then, the moving object identification unit 15 determines whether the object is a moving object or not based on the time change of how the detection distance and the detection angle corresponding to the detected object change in a plurality of scans. It is identified.
  • the mobile counting unit 16 identifies the number of mobiles identified by the mobile identifying unit 15.
  • the tracking target setting unit 17 sets one of the moving objects as a tracking object when there are a plurality of specified moving objects.
  • the tracking target setting unit 17 is a mobile object closest to the priority monitoring target (in the present embodiment, the entrance G shown in FIG. 2) set in the monitoring area R1 among the plurality of mobile objects. Set as the tracking target.
  • the position information of the moving object set as the tracking target is transmitted to the camera device 3.
  • the position information includes the distance to the moving object obtained from the detection distance and the angle obtained from the detection angle.
  • the camera device 3 includes an imaging camera 20 and a movable stand 21. As shown in FIG. 2, the imaging camera 20 can change the angle of view (field of view) from an angle of view ⁇ at which the moving object can be discernably captured to an angle of view ⁇ for imaging the entire monitoring area R1. It has a so-called zoom function.
  • identifying the moving object means, for example, an extent that a person can recognize a face if the moving object is a person, and an extent to which the vehicle type, license plate or driver face can be recognized if the moving object is a vehicle. It means that.
  • imaging when imaging is performed at the angle of view ⁇ , it is possible to recognize, for example, the face of a person by looking at the imaged image (including a still image and a moving image).
  • imaged image including a still image and a moving image.
  • imaging at an angle of view ⁇ although it becomes somewhat difficult to identify individual moving objects (for example, recognizing a human face), it can be grasped that at least the moving objects are present, Furthermore, it becomes possible to roughly recognize the appearance of the moving object.
  • the imaging camera 20 is attached to the movable gantry 21 and is directed in the direction in which the moving object whose direction is set as the tracking target is present based on the position information of the moving object acquired from the area sensor device 2 , Control of the zoom function is performed. Then, each time the position of the moving body changes, control of the orientation of the imaging camera 20 and the zoom function is performed. In this manner, capturing a moving object by following the movement of the moving object corresponds to automatic tracking.
  • the monitor device 4 includes a display unit 30, and displays an image captured by the camera device 3.
  • the monitor device 4 is provided, for example, in a security room or the like (not shown), and is monitored by a security guard or the like.
  • the monitoring device 1 executes the monitoring process shown in FIG. 3, and when the process is started, first initializes a tracking period, a determination period, and variables M and N (A1). Although the details will be described later, the meaning of each item is as follows.
  • Tracking period A period from setting to the tracking target to setting the next tracking target. That is, it is a period until the tracking target is switched, which corresponds to a “period in which the same moving object is automatically tracked”.
  • the tracking period also includes a period in which the orientation of the imaging camera 20 is changed, and a period in which the zoom function is controlled.
  • Judgment period A preset period.
  • Variable M A variable for counting the number of times the tracking target has been switched within the determination period. As described later, when the value of the variable M exceeds the predetermined upper limit number of determinations, it is determined that the field of view of the imaging camera 20 is frequently switched.
  • Variable N A variable for counting the number of times the tracking period falls below the lower limit value. As described later, when the value of the variable N is equal to or more than the lower limit determination number (three times in the present embodiment), it is determined that the field of view of the imaging camera 20 is frequently switched in a state where the moving object can not be identified.
  • the lower limit is a period during which the orientation of the imaging camera 20 is changed, a period during which the zoom function is controlled, and a period during which it is expected to be necessary to identify the moving object from the image (for example It is set in consideration of the time required to recognize.
  • the monitoring device 1 scans the monitoring area R1 with the area sensor device 2 (A2), detects an object in the monitoring area R1, and specifies a moving body (A3). Then, the mobile unit closest to the emphasis monitoring target (the entrance G) is set as the tracking target (A4). At this time, as shown in FIG. 5, when a plurality of mobile objects M10 and M11 are specified in the monitoring area R1 (including the area) at time t1, the monitoring device 1 automatically performs the mobile object M10 closest to the entrance G.
  • FIG. 5 schematically shows the moving body by the symbol “o”, and indicates the time when the moving body is specified by the character (“t1” in the case of FIG. 5) in the symbol. . The same applies to FIGS. 6 and 7 to be described later.
  • the monitoring apparatus 1 sets the mobile object closest to the priority monitoring target as the tracking target with priority, thereby setting the desired mobile object considered to be monitored by a guard such as a guard as the tracking target. It is like that.
  • the moving object is set as the tracking object as the moving object closest to the entrance G.
  • This determination process is a process of determining whether or not the tracking cancellation condition for canceling the automatic tracking is satisfied based on the frequency at which the tracking target is switched, as described below. This is because when the tracking target is frequently switched, the field of view of the camera device 3 is also frequently switched, which makes it difficult to identify the moving object. Therefore, the monitoring device 1 determines whether or not to cancel the automatic tracking in this determination process.
  • the monitoring device 1 determines the frequency at which the tracking target has been switched based on the following determination criteria.
  • Judgment criterion A The number of times the tracking target is switched within a predetermined judgment period exceeds the judgment upper limit number.
  • Judgment criterion B The number of times the tracking period in which the same moving object is automatically tracked falls below the lower limit value set in advance is continuously equal to or more than the lower judgment number. In the present embodiment, whether or not the tracking period falls below the lower limit value three times in a row.
  • the monitoring apparatus 1 determines whether the tracking target has been switched (B1), and if the tracking target is not switched (B1: NO), whether the variable M has exceeded the determination upper limit number Determine (B2).
  • This variable M is incremented (B1: YES, B4) each time the tracking target is switched within a predetermined period, and is initialized when the determination period elapses (steps A9: YES, A10 in FIG. 3). Therefore, by referring to the value of the variable M, it is possible to grasp how many times the tracking target has been switched within the determination period, that is, how many times the field of view of the imaging camera 20 has been switched.
  • the monitoring device 1 determines whether to cancel the automatic tracking based on the determination reference A.
  • ⁇ About judgment criterion B> When the tracking target is switched (B1: YES), the monitoring device 1 increments the above-described variable M (B4), and then determines whether the tracking period falls below the lower limit (B5).
  • This tracking period is initialized (step A8 in FIG. 3) each time the automatic tracking is started, and is a period that has elapsed since the current point in time after the mobile object set as the tracking target was automatically tracked. It shows a period during which the same moving object is automatically tracked.
  • the monitoring device 1 sets the variable N to 0, assuming that the previous automatic tracking has been performed for a period necessary to identify the moving object. (B6). On the other hand, when the tracking period falls below the lower limit (B5: YES), the monitoring device 1 increments the variable N, assuming that the previous automatic tracking has not been performed for the period necessary to identify the moving object. (B7).
  • the monitoring apparatus 1 determines whether or not to cancel the automatic tracking in the determination process, and returns to the monitoring process based on the determination result.
  • the monitoring apparatus 1 determines whether the tracking cancellation condition is satisfied (A6), and if the tracking cancellation condition is not satisfied (A6: NO), the tracking target set in step A4 is selected. Automatic tracking is performed (A7), and the tracking period is initialized (A8). Thereafter, if the determination period has elapsed (A9: YES), the determination period and the variable M are initialized (A10), and the process proceeds to step A2. On the other hand, if the determination period has not elapsed (A9: NO), the process directly proceeds to step A2.
  • the monitoring device 1 identifies a plurality of mobile objects M10, M11, M12 in the monitoring area R1 (including the area). Therefore, the mobile unit closest to the entrance G (also the mobile unit M10 this time) is set as the tracking target, and the automatic tracking is started. In this case, since the mobile object M10 is automatically tracked continuously from the state at time t1, it is determined that the tracking target is not switched in the determination processing described above.
  • the monitoring device 1 moves closest to the entrance G.
  • a body in this case, the moving object M11
  • the tracking target is switched, it is determined whether the tracking period falls below the lower limit value.
  • This situation corresponds to, for example, a situation in which a moving body (for example, a person) enters and leaves at the entrance G in a short time, for example, when working or leaving work.
  • a moving body for example, a person
  • the mobile device Ma1 since the monitoring device 1 sets the mobile object closest to the entrance G as the tracking target, the mobile device Ma1 is initially automatically tracked, and the mobile object Ma2 is newly moved. When it comes closest to the entrance / exit G, the mobile unit Ma2 is automatically tracked as shown in FIG. In addition, when time passes and, for example, the moving body Ma4 newly intrudes into the monitoring area R1 and becomes closest to the entrance / exit G, the moving body Ma4 is set as a tracking target.
  • the tracking target is frequently switched within the determination period, or the tracking period is often less than the lower limit continuously. That is, in the situation as shown in FIG. 8, there is a high possibility that the judgment criterion A or the judgment criterion B is satisfied, and the judgment criterion A or the judgment criterion B is satisfied (step B2: YES Or B8: YES), it is determined that the tracking cancellation condition is satisfied.
  • the monitoring device 1 sets the priority monitoring area R2 preset in the monitoring area R1 as shown in FIG. To monitor the fixed point (A11).
  • the priority monitoring area R2 is set in the vicinity of the entrance / exit G as a range including the entrance / exit G to be subjected to the priority monitoring.
  • the size is set so as to simultaneously image a plurality of moving bodies, and when the moving body is a person, the size is set to be able to image the whole body of 3 to 4 people.
  • the angle of view of the imaging camera 20 at this time is larger than the angle of view ⁇ and smaller than the angle of view ⁇ .
  • the moving object closest to the key monitoring target (in the present embodiment, the entrance G) is set as the tracking target and the camera device 3 performs automatic tracking. It is possible to set the mobile object closest to the place to be operated, that is, the mobile object desired by the observer to be monitored as the tracking target.
  • the tracking target can be switched automatically and appropriately even when the mobile object moves and the positional relationship changes.
  • the tracking targets are sequentially switched as the moving objects move, so it is possible to monitor the moving objects in the monitoring area without omission.
  • the focus monitoring area R2 is enlarged and fixed point monitoring is performed by the camera device 3. As a result, the field of view of the camera device 3 is fixed, and the mobile object can be identified.
  • the focus monitoring area R2 is enlarged and the camera device is expanded. Since fixed point monitoring is performed in 3, the field of view of the camera device 3 is fixed, and a mobile can be identified. At this time, since the focus monitoring area R2 is set as a range including the focus monitoring target, that is, since the fixed point monitoring is performed with the focus monitoring target in view, the possibility that the monitoring performance is reduced is suppressed. Can.
  • the priority monitoring area R2 is set to a size that allows imaging of a plurality of mobile objects, that is, since it is set to a size that emphasizes identifying mobile objects in the priority monitoring area R2, a fixed point Even during monitoring, it is possible to identify a plurality of mobile objects existing in the vicinity of the focus monitoring area R2. Therefore, it is possible to suppress the possibility that the identification performance is reduced.
  • the size of the focus monitoring area is set according to the present embodiment. Can also be enlarged. That is, the size of the priority monitoring area R2 can be appropriately set based on the point that the observer places importance on.
  • FIGS. 10 to 15 a control method according to the second embodiment of the present invention will be described with reference to FIGS. 10 to 15.
  • the second embodiment is different from the first embodiment in which mobile object is set as a tracking target when a plurality of mobile objects are specified.
  • the configuration of the monitoring apparatus is the same as that of the first embodiment, so the same reference numerals will be assigned and described. Further, in the monitoring process shown in FIG. 10, detailed description of the process common to the monitoring process of the first embodiment shown in FIG. 3 will be omitted.
  • the monitoring device 1 executes the monitoring process shown in FIG. 10, and initializes the tracking period, the determination period, and the variables M and N (C1), and then scans the monitoring area R1 with the area sensor device 2 (C2) , Detects an object in the monitoring area R1 and specifies a mobile (C3). Subsequently, the latest mobile object or an untracked mobile object is set as a tracking target (C4).
  • the latest mobile object means the most newly identified mobile object among mobile objects newly identified in the monitoring area R1. That is, the monitoring apparatus 1 sets a moving object as a tracking target when a new moving object intrudes into the monitoring area R1 when the mobile object is newly specified in the monitoring area R1.
  • the untracked moving object means a moving object that has not been set as a tracking target yet among the newly identified moving objects.
  • the monitoring device 1 When a plurality of moving objects are newly specified in the monitoring area R1, it is necessary to select one of the moving objects and set it as a tracking target.
  • the monitoring device 1 When a plurality of moving objects are newly identified, the monitoring device 1 according to the present embodiment preferentially sets moving objects close to the boundary of the monitoring area R1 as tracking targets. For this reason, when a plurality of moving objects are specified at the same time, moving objects which are not set as tracking targets are present in the monitoring area R1. Therefore, if there is an untracked moving object, the monitoring device 1 sets it as a tracking target.
  • the monitoring device 1 determines whether the response time is longer than the predicted time (C5).
  • the response time is the time required to automatically track the mobile object newly set as the tracking target, and the prediction time is that the mobile object reaches the key monitoring target (exit G). It is the time that is expected to be needed.
  • the moving object Mb1 is specified first on the left end side of the monitoring area R1 in the figure, and the moving object Mb2 is newly specified in a state of automatically tracking the moving object Mb1. I suppose.
  • the zoom function is controlled to focus on the moving object Mb2, and the captured image is viewed It is necessary to identify the mobile.
  • the time required for this is the response time.
  • the time which is expected to be required for the mobile object Mb2 to reach the entrance / exit G is the prediction time.
  • the response time and the prediction time are calculated based on the fact that the size of the monitoring area R1 and the position of the entrance / exit G are determined in advance, and the distance between the mobile Mb2 and the entrance / exit G can be determined from position information. can do.
  • the monitoring device 1 executes the determination process shown in FIG. 4 (C6) as in the first embodiment, and the tracking cancellation condition is If not (C7: NO), the tracking target is automatically tracked (C8). Thereafter, the tracking period is initialized (C9), and if the determination period has not elapsed (C10: NO), if the determination period has elapsed (C10: YES), the determination period and variable M are initialized (C11) Then, the process proceeds to step C2. Then, the identification of the moving object, the setting of the tracking target, and the determination processing are repeated.
  • the field of view of the imaging camera 20 may be frequently switched. That is, although the number of imaging cameras 20 installed and the like are set according to the installation situation of the monitoring apparatus 1 indicating how many mobile bodies are assumed, etc. when there are more mobile bodies than expected In some cases, automatic tracking may not be in time. For example, as shown in FIG. 12, it is assumed that a moving object M21 is newly identified at time t1 during the automatic tracking of the moving object M20. In this case, the monitoring device 1 sets the moving object M20 as a tracking target and performs automatic tracking. Thereafter, as shown in FIG. 13, when mobile M22 is newly specified at time t2, mobile M22 is set as a tracking target and is automatically tracked, and thereafter, as shown in FIG. When the moving object M23 is specified, the moving object M23 is set as a tracking target to perform automatic tracking.
  • the monitoring apparatus 1 opens the determination process of step C6 every time the tracking object is set, and the tracking object is switched, so that the determination based on the above-described determination criterion A and determination criterion B is performed. Is going. Then, for example, when it is determined that the tracking release condition is satisfied at time t3 shown in FIG. 14 (C7: YES), the automatic tracking is released, and as shown in FIG. Then, the fixed point is monitored at a wide angle in the entire monitoring area R1 (C12). At this time, the angle of view of the imaging camera 20 is the angle of view ⁇ .
  • the emphasis monitoring area includes the entrance / exit G which is the emphasis monitoring target.
  • step C13 after NO, the process proceeds to step C12) as in the first embodiment.
  • the control method of the present embodiment described above the following effects can be obtained.
  • the most specific moving object is set as a tracking target and the camera device 3 performs automatic tracking, so that the moving object intruding into the monitoring area R1, ie, the observer A mobile object desired to be monitored can be set as a tracking target.
  • the tracking target by setting the most recently identified moving object as the tracking target, it is possible to monitor the moving object at the initial stage of the intrusion. It is assumed that it will take some time statistically for the moving object to reach a position that should be really protected, such as a focus monitoring target, so the tracking time should be fully used to generate a lot of information (information obtained by imaging) Therefore, the monitoring accuracy can be enhanced and the role as a monitoring device can be sufficiently performed.
  • the moving objects closer to the boundary of the monitoring area R1 are sequentially set as tracking objects and repeated automatic tracking. It can be set to
  • being close to the boundary of the monitoring area R1 means that it is easy to leave the monitoring area R1. Therefore, when a plurality of moving objects are specified, setting a tracking object from a moving object closer to the boundary of the monitoring area R1 to preferentially monitor moving objects likely to move out of the monitoring area R1 it can. As a result, even if a plurality of moving objects are identified simultaneously, it is possible to prevent the moving objects entering the monitoring area R1 from leaving the monitoring area R1 without being monitored.
  • the focus monitoring area is monitored at a wide angle by the camera device 3 at a wide angle, so at least the moving object is imaged even when the automatic tracking is not in time. It becomes possible.
  • the focus monitoring area R2 is enlarged and the fixed point is monitored by the camera device 3; As in the embodiment, the field of view of the camera device 3 is fixed, and the mobile object can be identified.
  • the focus monitoring area R2 is enlarged and the fixed point is monitored by the camera device 3 as in the first embodiment.
  • the field of view of the camera device 3 is fixed, and the mobile object can be identified. Since the key monitoring area R2 is set in the entire monitoring area R1, the entire monitoring area R1 can be monitored even if fixed point monitoring is performed, and the possibility of lowering the monitoring performance is suppressed. be able to.
  • the third embodiment is different from the second embodiment in that a desired moving body can be selected when performing fixed point monitoring at a wide angle.
  • symbol is attached
  • FIG. 17 detailed description of processing common to the monitoring processing of the second embodiment shown in FIG. 10 will be omitted.
  • a target selecting unit 31 is provided in the monitoring device 4.
  • the target selection unit 31 is for selecting which mobile object to be set as a tracking target among mobile objects present in the monitoring area R1, and an illustration in which a selection operation by a security guard or the like is input It is comprised by input means, such as a mouse
  • the selection of the tracking target is performed by selecting a desired moving object from the moving object (image of the imaging camera 20) displayed on the display unit 30. The flow of processing for selecting a tracking target will be described below.
  • the monitoring device 1 executes the monitoring process shown in FIG. 17 and, after initializing the tracking period, the determination period, and the variables M and N (D1), scans the monitoring area R1 with the area sensor device 2 (D2) Then, the object in the monitoring area R1 is detected and the moving object is specified (D3), and the tracking target is set (D4).
  • a mobile body closest to the entrance G may be set as in the first embodiment, or a latest mobile body may be set as in the second embodiment, or the monitoring area
  • the mobiles in R1 may be set in order or randomly.
  • the monitoring device 1 executes the determination process shown in FIG. 4 as in the first embodiment (D5), and if the tracking cancellation condition is not satisfied (D6: NO), the tracking object is automatically tracked (D6) D7). Thereafter, the tracking period is initialized (D8), and if the determination period has not elapsed (D9: NO), if the determination period has elapsed (D9: YES), the determination period and variable M are initialized (D10) Then, the process proceeds to step D2.
  • the process of identifying and judging the moving object is repeated, and when the tracking cancellation condition is satisfied (D6: YES), as shown in FIG.
  • Fixed points are monitored at a wide angle in the focus monitoring area (D11).
  • the monitoring device 1 sets the entire area of the monitoring area R1 as the priority monitoring area as in the second embodiment.
  • the monitoring device 1 determines whether the tracking target is selected (D12).
  • the object selection unit 31 is configured by a touch panel, it becomes possible to select a desired moving object by selecting one of the moving objects displayed on the display unit 30 by a touch operation.
  • the mobile unit ID (a unique number assigned when the mobile unit is specified by the area sensor device 2) may be displayed on the display unit 30, and a desired mobile unit ID may be selected by a keyboard or the like. In any case, as long as the mobile unit can be selected, any configuration may be used.
  • the monitoring device 1 When the tracking target is selected (D12: YES), the monitoring device 1 automatically tracks the selected tracking target (D7). At this time, fixed point monitoring is canceled. On the other hand, when the tracking target is not selected (D12: NO), fixed point monitoring is continued until the fixed point monitoring period ends (D13: after NO, the process proceeds to step D11). As described above, the monitoring device 1 can set a mobile object desired by the observer as a tracking target even when a plurality of mobile objects exist in the monitoring area R1.
  • the following effects can be obtained.
  • the fixed point monitoring of the focus monitoring area R2 is performed by the camera device 3 at a wide angle, the moving bodies in the focus monitoring area R2 are imaged It is possible to As a result, even when a plurality of mobile objects intrude into the monitoring area R1, it is possible to monitor at least mobile objects in the focus monitoring area R2.
  • moving bodies in a positional relationship in which the field of view is likely to switch may be collectively brought into the field of view by wide-angle viewing, so that the same image can be captured in a long time to easily identify the moving body of interest.
  • the focus monitoring area R2 is enlarged and the fixed point is monitored by the camera device 3;
  • the field of view of the camera device 3 is fixed, and the situation in the monitoring area can be grasped without omission, such as the moving situation of the moving object and how much object is present in the monitoring area.
  • fixed point monitoring is performed in a state in which the focus monitoring target is in the field of view, it is possible to suppress the possibility that the monitoring performance is degraded.
  • the focus monitoring area R2 is enlarged and the fixed point is monitored by the camera device 3 as in the first embodiment.
  • the field of view of the camera device 3 is fixed, and the situation in the monitoring area can be grasped without exception. Since the key monitoring area R2 is set in the entire monitoring area R1, the entire monitoring area R1 can be monitored even if fixed point monitoring is performed, and the possibility of lowering the monitoring performance is suppressed. be able to. Since the target setting unit is provided to enable selection of the mobile object to be set as the tracking target, the mobile object desired by the observer can be reliably set as the tracking target.
  • FIG. 4 a control method according to a fourth embodiment of the present invention will be described with reference to FIG.
  • the fourth embodiment is different from the first embodiment in the aspect of setting the tracking target.
  • the configuration of the monitoring apparatus 1 is the same as that of the first embodiment, and thus will be described with reference to FIG. Further, in the monitoring process shown in FIG. 18, detailed description of the process common to the monitoring process of the first embodiment shown in FIG. 3 will be omitted.
  • the monitoring device 1 executes the monitoring process shown in FIG. 18, scans the monitoring area R1 with the area sensor device 2 (E1), detects an object in the monitoring area R1, and identifies a moving object (E2) , Set tracking targets (E3).
  • a mobile body closest to the entrance G may be set as in the first embodiment, or a latest mobile body may be set as in the second embodiment, or the monitoring area
  • the mobiles in R1 may be set in order or randomly.
  • the monitoring device 1 determines whether the tracking release condition is satisfied (E4).
  • the monitoring device 1 sets the following determination criteria as the tracking cancellation condition in addition to the determination criteria A and the determination criteria B described above.
  • Judgment criterion C The response time required to automatically track a mobile object newly set as a tracking target is longer than the predicted time required for the mobile object newly set as a tracking target to reach the key monitoring target Long time.
  • Judgment criterion D The number of identified mobile objects exceeds the preset upper limit number of mobile objects.
  • the upper limit number of mobile objects can be set based on the size of the monitoring area R1 or the like. For example, assuming that the moving object is a person, the time required to cross the monitoring area R1 is assumed in advance based on the size of the monitoring area R1 and the walking speed of the person, and the assumed time and one automatic tracking It is conceivable to set the upper limit number of mobile objects, etc., from the minimum time required for
  • Judgment criteria E The period in which the focus monitoring target or the focus monitoring area R2 is not monitored exceeds the preset unmonitored upper limit value.
  • the monitoring apparatus 1 determines that the tracking release condition is satisfied when any of the above-described determination criteria A to E is satisfied.
  • the processing for the determination reference A and the determination reference B is common to the determination processing shown in FIG. 4 of the first embodiment, and the processing for the determination reference C is common to the processing at step C5 of the second embodiment. The description is omitted. Note that, in FIG. 18, the process of initializing the tracking period, the determination period, and the variables M and N is omitted.
  • the monitoring device 1 cancels the automatic tracking as the tracking cancellation condition is satisfied. This is because when the moving object upper limit number is exceeded, it can be predicted that switching of the field of view frequently occurs.
  • the process for the determination criterion D may be performed at the time of specifying the mobile body, that is, after step E2 and before step E3.
  • the monitoring device 1 cancels the automatic tracking because the tracking cancellation condition is satisfied when the period in which the focus monitoring target or the focus monitoring area R2 is not monitored exceeds the unmonitored upper limit set in advance. Do. For example, when automatically tracking the latest mobile unit as in the second embodiment, if a new mobile unit is specified, the tracking target is switched to the new mobile unit. For this reason, even if the moving object specified earlier intrudes into the emphasis monitoring area R2, the moving object located in the vicinity of the emphasis monitoring area R2 is not monitored since the moving object is not a tracking target .
  • the period in which the focus monitoring area R2 is not monitored becomes longer. Therefore, when the unmonitored upper limit value is exceeded, by monitoring the priority monitoring area R2 once, it is prevented that the period during which the priority monitoring area R2 is not monitored becomes long.
  • the monitoring apparatus 1 determines whether the tracking release condition is satisfied based on the above-described determination standard, and when the tracking release condition is not satisfied (E4: NO), automatically tracks the tracking target (E5). Then, the process goes to step E1 to repeat the processes of object detection, mobile object identification, and tracking target setting.
  • the monitoring device 1 enlarges the priority monitoring area R2 and performs fixed point monitoring as shown in FIG. 9 of the first embodiment (E6) The fixed point monitoring is continued until the fixed point monitoring period ends (E7: after NO, shift to step E1).
  • the monitoring device 1 expands the priority monitoring area R2 and performs fixed point monitoring, even if there are a plurality of moving objects in the monitoring area R1. It is possible to monitor the vicinity of the entrance G to be monitored in a focused manner.
  • the following effects can be obtained.
  • the focus monitoring area is expanded and fixed point monitoring is performed by the camera device 3, so movement existing in the vicinity of the focus monitoring target It is possible to identify the body and to prevent the deterioration of the monitoring performance in the area to be importantly monitored.
  • the inside of the focus monitoring area R2 is enlarged and imaged, it is possible to pick up the movable body in the focus monitoring area R2 in a distinguishable manner. As a result, even when a plurality of mobile objects intrudes into the monitoring area R1, at least the mobile objects in the priority monitoring area R2 desired by the monitor can be monitored.
  • the focus monitoring area R2 is enlarged and fixed point monitoring is performed by the camera device 3. As a result, the field of view of the camera device 3 is fixed, and the mobile object can be identified.
  • the focus monitoring area R2 is enlarged and the camera device is expanded. Since fixed point monitoring is performed in 3, the field of view of the camera device 3 is fixed, and a mobile can be identified.
  • the focus monitoring area R2 is enlarged and the fixed point is monitored by the camera device 3. Therefore, even if the automatic tracking is not in time, the focus is the same as in the first embodiment. It is possible to at least image the moving object located at the place to be monitored.
  • the focus monitoring area R2 is enlarged and fixed point monitoring is performed by the camera device 3. Therefore, even in a situation where automatic tracking is not in time
  • at least a mobile object located at a place to be intensively monitored can be imaged.
  • the focus monitoring area R2 When the period in which the focus monitoring area R2 is not monitored exceeds the unmonitored upper limit, the focus monitoring area R2 is expanded and fixed point monitoring is performed by the camera device 3, a period in which the focus monitoring target or the focus monitoring area R2 is not monitored Can prevent the monitoring condition from becoming worse.
  • a stationary state for example, a person moving a hand but not moving the position
  • tracking is temporarily performed as "not a moving body”.
  • the focus monitoring target or the focus monitoring area R2 can be monitored.
  • the present invention is not limited to what is illustrated in each embodiment, and can be modified or expanded as follows, for example.
  • the numerical values shown in each embodiment are merely examples, and the present invention is not limited thereto.
  • detection of an object and identification of a moving object may be performed based on data obtained by a plurality of scans instead of one scan.
  • the flow of processing waiting during the fixed point monitoring period is illustrated for simplification of the description, but the monitoring device 1 performs detection of an object and identification of a moving object even during the fixed point monitoring period.
  • the mobile object specified during the fixed point monitoring period is automatically tracked. If it is necessary for the observer to be aware, it is necessary to continue imaging the same moving object for about 2 seconds.
  • the monitor unit 4 is provided with a storage unit, the configuration can be used to reproduce captured images. Even if the period during which imaging of the same moving object is continued can be shortened, confirmation can be made later. Therefore, the response time and the tracking period can be appropriately set based on the configuration of the monitoring device 1 or the like.
  • the determination criteria A to E may be combined in any way. That is, although the determination criteria A and B are adopted in the first embodiment, the determination criteria C to E may be adopted, and only the determination criterion D is adopted, and the fixed point is monitored if the number of moving bodies is large. You may do so. Also in the second embodiment and the second embodiment, the determination criteria A to E may be combined in any way.
  • a mobile identified in the monitoring area includes a mobile that has stopped in the monitoring area and is determined to be “not a mobile” once, but then resumes moving. ing.
  • 1 is a monitoring device
  • 2 is an area sensor device (optical distance meter)
  • 3 is a camera device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

 エリアセンサ装置(2)(光学式距離計)により監視エリア内を走査して物体を検知する。この検知した物体のうち移動体を特定し、監視エリア内で最新の移動体を追尾対象に設定する。追尾対象に設定された移動体をカメラ装置(3)により自動追尾する。これにより、監視エリアに複数の移動体が存在する場合であっても追尾対象を切り替えことができるとともに、監視者が所望する移動体を追尾対象に設定することができる。

Description

移動体を監視する装置及び方法
 本発明は、監視エリア内の移動体を自動追尾しながら、その移動体を監視する装置及び方法に関する。
 従来、レーザ距離計などのエリアセンサ装置を用いて監視エリアを走査することで移動体を検知し、検知した移動体の移動に追従させてカメラ装置で継続的に移動体を撮像するシステムが知られている。例えば、特許文献1では、侵入者の移動に追従させてカメラ部を旋回させ、侵入者の画像データを表示する警備システムが開示されている。
特許第3011121号公報
 ところで、監視エリアは、一般にはカメラ装置で撮像可能なある程度の大きさの範囲が設定されており、その全域を撮像している状態では、個別の移動体を識別可能に撮像することは困難であることが多い。その一方、監視装置としては監視エリア内に存在する移動体をもれなく監視する必要があることから、複数の移動体が存在する場合には、追尾対象に設定する移動体の選択および切り替えが必要となる。
 しかしながら、上記した特許文献1の場合、監視エリアに複数の移動体が存在することを想定していないため、追尾対象に設定する移動体を選択することができず、また、追尾対象を切り替えることもできなかった。この場合、追尾対象を順次切り替えることも想定されるものの、追尾対象を単に切り替えるだけでは監視者が所望する移動体が追尾対象とならない可能性があり、移動体を識別可能に自動追尾するという監視装置としての役割を十分に果たすことができないおそれがある。
 また、追尾対象を単に切り替えるだけでは、監視エリア内の移動体をもれなく自動追尾することができず、監視装置としての役割を十分に果たすことができない(すなわち、監視性能が低下する)おそれがある。
 本発明は上記事情に鑑みてなされたものであり、監視エリアに複数の移動体が存在する場合であっても追尾対象を切り替えことができるとともに、監視者が所望する移動体を追尾対象に設定することができる、移動体を監視する装置及び方法を提供することを第1の目的とする。
 また、本発明は、上述した課題を解決するためになされたものであり、監視エリアに複数の移動体が存在する場合であっても、監視性能が低下することを防止することができる、移動体を監視する装置及び方法が提供することを第2の目的とする。
 上記第1の目的を達成するために、本発明に係る第1の態様は、移動体を監視する装置及び方法が提供される。この装置及び方法によれば、光学式距離計により監視エリア内を走査して物体を検知し、検知した物体のうち移動体を特定し、監視エリア内で最も新しく特定された移動体を追尾対象に設定し、追尾対象に設定された移動体をカメラ装置により自動追尾する。つまり、監視エリア内に移動体が侵入した時点で、その移動体が追尾対象に設定される。
 監視エリアは、上記したようにある程度の大きさに設定されていることから、複数の移動体が同時に存在する可能性も高くなる。そして、1つの移動体を自動追尾すなわち移動体の移動に追従して移動体を拡大して撮像している状況では、他の移動体が監視対象とならず、監視エリア内の移動体をもれなく監視することは困難になることがある。
 そこで、移動体は監視エリアに突然出現することはなく境界を経て侵入することを考慮して、監視エリア内で最も新しく特定された移動体を追尾対象に設定することにより、全ての移動体を追尾対象に設定できることになる。これにより、監視エリアR1内に侵入した移動体、すなわち、監視者が監視したいと所望する移動体を追尾対象に設定することができる。この場合、新たに移動体が特定されるごとに追尾対象を設定するので、すなわち、移動体の移動に伴って順次追尾対象が切り替わっていくので、監視エリア内の移動体をもれなく監視することができる。
 また、上記第2の目的を達成するために、本発明に係る第2に態様は、移動体を監視する方法を提供する。この方法によれば、光学式距離計により監視エリア内を走査して物体を検知し、検知した物体のうち移動体を特定し、特定した移動体を追尾対象に設定してカメラ装置により自動追尾する監視装置を制御する際、監視エリア内に複数の移動体が特定された場合には、自動追尾を解除するための追尾解除条件が成立したと判定すると、監視エリア内の重点監視対象を含む予め設定されている重点監視エリアを拡大してカメラ装置で定点監視する。
 監視エリアは、上記したようにある程度の大きさに設定されていることから、複数の移動体が同時に存在する可能性も高くなる。そして、1つの移動体を自動追尾すなわち移動体の移動に追従して移動体を拡大して撮像している場合には、他の移動体が監視対象とならず、監視エリア内の移動体をもれなく監視することは困難である。
 そこで、複数の移動体を特定した場合には重点監視エリアを定点監視することにより、重点監視エリアにおける移動体の移動状況等を少なくとも把握できるようにしている。これにより、監視エリアに複数の移動体が存在する場合であっても、重点監視対象の近傍に存在する移動体を識別することができ、重要的に監視すべき範囲における監視性能が低下することを防止できる。
 添付図面において:
図1は、第1実施形態による監視装置の構成を模式的に示す図、 図2は、監視装置が監視対象とする監視エリアを模式的に示す図、 図3は、監視装置で実行される監視処理の流れを示す図、 図4は、監視装置で実行される判定処理の流れを示す図、 図5、時刻t1における移動体の位置関係を模式的に示す図、 図6は、時刻t2における移動体の位置関係を模式的に示す図、 図7は、時刻t3における移動体の位置関係を模式的に示す図、 図8は、監視エリア内の移動体の位置関係を模式的に示す図、 図9は、監視エリア内に設定された重点監視エリアを模式的に示す図、 図10は、第2実施形態による監視装置で実行される監視処理の流れを示す図、 図11は、監視エリア内の移動体の位置関係を模式的に示す図、 図12は、時刻t1における移動体の位置関係を模式的に示す図、 図13は、時刻t2における移動体の位置関係を模式的に示す図、 図14は、時刻t3における移動体の位置関係を模式的に示す図、 図15は、時刻t3後における移動体の位置関係と、監視エリア内に設定された重点監視エリアとを模式的に示す図。 図16は、第3実施形態による監視装置の構成を模式的に示す図、 図17は、監視装置で実行される監視処理の流れを示す図、 図18は、第4実施形態による監視装置で実行される監視処理の流れを示す図、である。
 以下、本発明の複数の実施形態について図面を参照しながら説明する。なお、各実施形態において実質的に共通する構成については、同一の符号を付すとともに、その詳細な説明は省略する。
  (第1実施形態)
 以下、本発明の第1実施形態について、図1から図9を参照しながら説明する。
 図1に示すように、本実施形態の制御方法を適用する監視装置1は、エリアセンサ装置2、カメラ装置3、およびモニタ装置4から構成されている。
 このエリアセンサ装置2は、図1に示すように、制御部10、記憶部11、入出力部12、レーザ走査部13、物体検知部14、移動体特定部15、移動体計数部16および追尾対象設定部17などを備えている。制御部10は、図示しないCPUやROMおよびRAMなどを有するマイクロコンピュータにより構成されており、記憶部11などに記憶されているコンピュータプログラムを実行することによりレーザ走査部13などを制御する。なお、本実施形態では、物体検知部14、移動体特定部15、移動体計数部16および追尾対象設定部17は、制御部10により実行されるコンピュータプログラムによりソフトウェア的に実現されている。エリアセンサ装置2は、特許請求の範囲に記載した光学式距離計に相当する。
 記憶部11は、図示しないメモリ素子などにより構成されており、コンピュータプログラムなどの各種の情報や、検知した物体の検知距離や検知角度などの測定結果を記憶する。入出力部12は、図示しない上位の制御装置からの指令信号の入力や、物体の検出結果の報知出力などを行う入出力手段として機能する。
 レーザ走査部13は、レーザ照射部13a、レーザ照射部13aから照射されたレーザ光を監視エリアに向かって反射するとともに監視エリア内の物体で反射した光を受光するミラー13b、予め定められている角度分解能および走査周期にてミラー13bを回転駆動するモータ13c、反射光を受光するレーザ受光部13dを備えている。なお、この構成は一例であり、レーザ照射部13aを駆動する構成(照射時には反射ミラー13bを利用しない構成)であってもよい。このレーザ照射部13aからレーザ光を照射するとともにモータ13cにてミラー13bを回転駆動することにより、矢印Aにて示すように所定の走査方向(図2の場合、平面視で反時計方向)で走査エリアR0内にレーザ光が照射される。走査エリアR0内に存在する移動体(図2の場合、例えば移動体M1)で反射した反射光は、レーザ受光部13dにて受光される。
 物体検知部14は、レーザ受光部13dにて反射光を受光した際の距離(上記した検知距離)と走査角度(上記した検知角度)とに基づいて、周知のように物体を検知する。そして、検知された物体に対応する検知距離および検知角度が複数の走査でどのように変化しているかの時間変化に基づいて、その物体が移動体であるか否かが移動体特定部15によって特定される。
 移動体計数部16は、移動体特定部15によって特定された移動体の数を特定する。追尾対象設定部17は、特定された移動体が複数である場合、いずれかの移動体を追尾対象として設定する。本実施形態の場合、追尾対象設定部17は、複数の移動体のうち、監視エリアR1内に設定されている重点監視対象(本実施形態では、図2に示す出入り口G)に最も近い移動体を追尾対象に設定する。追尾対象に設定された移動体は、その位置情報がカメラ装置3に送信される。この位置情報には、検知距離から求めた移動体までの距離と、検知角度から求めた角度とが含まれている。
 カメラ装置3は、撮像カメラ20および可動式架台21を備えている。撮像カメラ20は、図2に示すように、移動体を識別可能に撮像できる画角αから、監視エリアR1の全域を撮像するための画角βまで、その画角(視野)を変更可能ないわゆるズーム機能を備えている。ここで、「移動体を識別可能」とは、例えば移動体が人であれば顔を認識できる程度、移動体が車両であればその車種やナンバープレートあるいは運転者の顔などを認識できる程度のことを意味している。
 このため、画角αで撮像した場合には、撮像された画像(静止画および動画を含む)を見れば、例えば人の顔を認識することなどが可能となる。一方、画角βで撮像した場合には、個別の移動体を識別すること(例えば人の顔の認識すること)は多少困難になるものの、少なくとも移動体が存在していることは把握でき、さらに、その移動体の外観を大まかに認識することなどが可能となる。
 この撮像カメラ20は、可動式架台21に取り付けられており、エリアセンサ装置2から取得した移動体の位置情報に基づいてその向きが追尾対象に設定された移動体が存在する方向に向けられるとともに、ズーム機能の制御が行われる。そして、移動体の位置が変化するごとに、撮像カメラ20の向きおよびズーム機能の制御が行われる。このように、移動体の移動に追従させてその移動体を撮像することが、自動追尾に相当する。
 モニタ装置4は、表示部30を備えており、カメラ装置3にて撮像した画像を表示する。このモニタ装置4は、例えば図示しない警備室等に設けられており、警備員などによって監視が行われている。
 次に、移動体を自動追尾するための制御方法について説明する。
 監視装置1は、図3に示す監視処理を実行しており、処理が開始されると、まず追尾期間、判定期間、変数M、Nを初期化する(A1)。詳細は後述するが、各項目の意味は以下の通りである。
 ・追尾期間:追尾対象に設定されてから次の追尾対象が設定されるまでの期間。つまり、追尾対象が切り替えられるまでの期間であり、「同一の移動体を自動追尾した期間」に相当する。なお、追尾期間には、撮像カメラ20の向きを変更する期間、および、ズーム機能を制御する期間も含まれる。
 ・判定期間:予め設定されている期間。
 ・変数M:判定期間内に追尾対象が切り替えられた回数を計数するための変数。後述するように、変数Mの値が予め定められている判定上限数を超えると撮像カメラ20の視野が頻繁に切り替わっていると判定される。
 ・変数N:追尾期間が下限値を下回った回数を計数するための変数。後述するように、変数Nの値が下限判定回数(本実施形態では3回)以上となると、移動体を識別できない状態で頻繁に撮像カメラ20の視野が切り替わっていると判定される。なお、下限値は、撮像カメラ20の向きを変更する期間、ズーム機能を制御する期間、および、画像から移動体を識別するのに要すると予想される期間(例えば、警備員が人の顔を認識するのに要する期間)を考慮して設定されている。
 続いて、監視装置1は、エリアセンサ装置2で監視エリアR1を走査し(A2)、監視エリアR1内の物体を検知するとともに、移動体を特定する(A3)。そして、重点監視対象(出入り口G)に最も近い移動体を追尾対象に設定する(A4)。このとき、図5に示すように時刻t1において監視エリアR1内(領域も含む)に複数の移動体M10、M11が特定された場合、監視装置1は、出入り口Gに最も近い移動体M10を自動追尾する。なお、図5は、移動体を「○」の記号にて模式的に示すとともに、その移動体が特定された時刻を記号の中に文字(図5の場合「t1」)にて示している。以下、後述する図6、7等も同様である。
 つまり、監視装置1は、重点監視対象に最も近い移動体を優先して追尾対象に設定することにより、警備員等の監視者が監視すべきと考える所望の移動体が追尾対象に設定されるようにしている。なお、ステップA4では、移動体が1つの場合にはその移動体が最も出入り口Gに近い移動体として追尾対象に設定されることになる。
 追尾対象を設定すると、監視装置1は、判定処理を実行する(A5)。この判定処理は、以下に説明するように、追尾対象が切り替えられた頻度に基づいて、自動追尾を解除するための追尾解除条件が成立したか否かを判定する処理である。追尾対象が頻繁に切り替えられると、カメラ装置3の視野も頻繁に切り替わってしまうことから移動体の識別が困難になるためである。そのため、監視装置1は、この判定処理において、自動追尾を解除するか否かの判定を行っている。
 このとき、監視装置1は、以下の判定基準に基づいて、追尾対象が切り替えられた頻度を判定している。
 ・判定基準A:予め定められている判定期間内に追尾対象が切り替えられた回数が判定上限数を超えたこと。
 ・判定基準B:同一の移動体を自動追尾した追尾期間が予め設定されている下限値を下回った回数が、連続して下限判定回数以上となったこと。本実施形態では、追尾期間が下限値を連続して3回下回ったか否か。
 なお、この判定処理は図3に示すように監視処理の流れの一部として実行されるものであるものの、説明の簡略化のために、判定基準Aおよび判定基準Bによる処理の流れをここで一度に説明しておく。
 <判定基準Aについて>
 監視装置1は、判定処理において、追尾対象が切り替えられたかを判定しており(B1)、追尾対象が切り替えられていない場合には(B1:NO)、変数Mが判定上限数を超えたかを判定する(B2)。この変数Mは、所定期間内で追尾対象が切り替えられるごとにインクリメント(B1:YES、B4)される一方、判定期間が経過すると初期化される(図3のステップA9:YES、A10)。このため、変数Mの値を参照することにより、判定期間内に何回追尾対象が切り替えられたか、すなわち、撮像カメラ20の視野が何回切り替えられたかを把握することができる。
 監視装置1は、変数Mが判定上限数を超えている場合には(B2:YES)、撮像カメラ20の視野が頻繁に切り替えられているとして、自動追尾を解除するための追尾解除条件が成立したと判定する(B9)。一方、監視装置1は、変数Mが判定上限数を超えていない場合には(B2:NO)、撮像カメラ20の視野が頻繁には切り替えられていないとして、追尾解除条件が不成立と判定する(B3)。このように、監視装置1は、判定基準Aに基づいて、自動追尾を解除するか否かを判定している。
 <判定基準Bについて>
 監視装置1は、追尾対象が切り替えられた場合には(B1:YES)、上記した変数Mをインクリメントした後(B4)、追尾期間が下限値を下回るかを判定する(B5)。この追尾期間は、自動追尾が開始されるごとに初期化(図3のステップA8)されるものであり、前回追尾対象に設定された移動体を自動追尾してから現時点までに経過した期間(同一の移動体を自動追尾した期間)を示している。
 監視装置1は、追尾期間が下限値を下回っていない場合には(B5:NO)、前回の自動追尾が移動体を識別するのに必要な期間行われていたとして、変数Nを0にする(B6)。一方、監視装置1は、追尾期間が下限値を下回る場合には(B5:YES)、前回の自動追尾が移動体を識別するのに必要な期間行われていなかったとして、変数Nをインクリメントする(B7)。
 そして、監視装置1は、判定処理が繰り返された際、追尾期間が下限値を下回った状態(変数Nが0にならない状態)が連続して発生し、変数Nが3(下限判定回数)以上となると(B8:YES)、移動体を識別するのに十分な期間が確保されていないとして、自動追尾を解除するための追尾解除条件が成立したと判定する(B9)。なお、変数Nが3未満の場合には(B8:NO)、ステップB2に移行する。
 このように、監視装置1は、判定処理において自動追尾を解除するか否かを判定し、その判定結果をもって監視処理にリターンする。
 判定処理からリターンすると、監視装置1は、追尾解除条件が成立したかを判定し(A6)、追尾解除条件が成立していなければ(A6:NO)、ステップA4にて設定された追尾対象を自動追尾し(A7)、追尾期間を初期化する(A8)。その後、判定期間が経過していれば(A9:YES)、判定期間および変数Mを初期化して(A10)、ステップA2に移行する。一方、判定期間が経過していなければ(A9:NO)、そのままステップA2に移行する。
 さて、図5に示す時刻t1の状態から、図6に示す時刻t2の状態になると、監視装置1は、監視エリアR1内(領域も含む)に複数の移動体M10、M11、M12が特定されるため、最も出入り口Gに最も近い移動体(今回も、移動体M10)を追尾対象に設定し、自動追尾を開始する。この場合、時刻t1の状態から継続して移動体M10が自動追尾されていることになるため、上記した判定処理では追尾対象が切り替えられていないと判定される。
 その後、図7に示すように時刻t3において監視エリアR1内(領域も含む)に複数の移動体M10、M11、M12、M13が特定された場合、監視装置1は、最も出入り口Gに最も近い移動体(今回は移動体M11)を追尾対象に設定し、自動追尾を開始する。この場合、判定処理において、追尾対象が切り替えられたことから、追尾期間が下限値を下回るかの判定が行われることになる。
 さて、例えば図8に示すように、監視エリアR1内に複数の移動体が特定され、その移動体が短期間に移動している状況を想定してみる。この状況は、例えば出勤時や退勤時において、出入り口Gに移動体(例えば人)が短期間に出入りする状況などが相当する。
 この場合、監視装置1は、出入り口Gに最も近い移動体を追尾対象に設定することから、当初は移動体Ma1を自動追尾しており、移動体Ma1が移動したことにより、新たに移動体Ma2が出入り口Gに最も近くなった場合には、図8のように移動体Ma2を自動追尾することになる。また、時間が経過し、例えば移動体Ma4が新たに監視エリアR1内に侵入して出入り口Gに最も近くなると、移動体Ma4が追尾対象として設定される。
 このため、移動体が短期間に出入り口Gの付近に集中し、最も出入り口Gに近い移動体が頻繁に入れ替わるような状況では、追尾対象を自動追尾すると、撮像カメラ20の視野が頻繁に切り替えられ、移動体の識別性能が低下するおそれ、すなわち、監視が不十分になるおそれがある。
 このように最も出入り口Gに近い移動体が頻繁に入れ替わった場合には、判定期間内に追尾対象が頻繁に切り替えられたり、追尾期間が下限値を連続して下回ったりすることが多くなる。すなわち、図8に示すような状況では、上記した判定基準Aまたは判定基準Bが満たされる可能性が高くなり、判定基準Aまたは判定基準Bが満たされた場合には(上記したステップB2:YES、または、B8:YES)、追尾解除条件が成立したと判定される。
 そのため、監視装置1は、図3に示す監視処理において、追尾解除条件が成立した場合には(A6:YES)、図9に示すように監視エリアR1内に予め設定されている重点監視エリアR2を拡大して定点監視する(A11)。この重点監視エリアR2は、重点監視対象である出入り口Gを含む範囲として、出入り口Gの近傍に設定されている。本実施形態では、複数の移動体を同時に撮像できる程度の大きさに設定されており、移動体が人であるとすると、3~4人の全身を撮像可能な程度に設定されている。このときの撮像カメラ20の画角は、画角αよりも大きく、且つ画角β以下となっている。つまり、定点監視している状態では、重点監視エリアR2の画像には出入り口G付近の複数の移動体が1つの画像内に撮像されるようになっている。また、撮像カメラ20は、その向きが固定されており、移動体の移動に追従することはない。すなわち、移動体の自動追尾が解除される。
 これにより、短期間に出入り口Gに移動体が集中した場合であっても、重点的に監視したい出入り口Gの近傍を監視することが可能となる。なお、定点監視は、予め定められている定点監視期間が終了するまで継続される(A12:NOの後、ステップA11に移行する)。このため、定点監視を開始した直後にまた視野が切り替わってしまうことが防止される。
 以上説明した本実施形態の制御方法によれば、次のような効果を奏する。
 監視エリアR1内に存在する移動体のうち、重点監視対象(本実施形態では、出入り口G)に最も近い移動体を追尾対象に設定してカメラ装置3により自動追尾するので、重点的に監視すべき場所に最も近い移動体、すなわち、監視者が監視対象として所望する移動体を、追尾対象に設定することができる。
 このとき、最も重点監視対象に近い移動体を追尾対象に設定することから、移動体が移動して位置関係が変化した場合であっても、追尾対象を自動で且つ適宜切り替えることができる。また、監視エリア内に複数の移動体が存在していたとしても、移動体の移動に伴って順次追尾対象が切り替わっていくので、監視エリア内の移動体をもれなく監視することができる。
 同一の移動体を自動追尾した追尾期間が下限値を連続して下回った回数が下限判定回数以上となった場合、すなわち、移動体が識別される前にカメラ装置3の視野が切り替わることが頻繁に起きた場合には重点監視エリアR2を拡大してカメラ装置3で定点監視する。これにより、カメラ装置3の視野が固定され、移動体を識別することができるようになる。
 判定期間内に追尾対象が切り替えられた回数が予め定められている判定上限数を超えた場合、すなわち、カメラ装置3の視野が頻繁に切り替わった場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、カメラ装置3の視野が固定され、移動体を識別することができる。
 このとき、重点監視エリアR2は重点監視対象を含めた範囲として設定されているので、すなわち、重点監視対象が視野に入った状態で定点監視することから、監視性能が低下するおそれを抑制することができる。
 重点監視エリアR2は、複数の移動体を撮像可能な大きさに設定されているので、つまり、重点監視エリアR2内の移動体を識別することを重視した大きさに設定されているので、定点監視中であっても、重点監視エリアR2の近傍に存在する複数の移動体を識別することができる。したがって、識別性能が低下するおそれを抑制することができる。
 この場合、カメラ装置3がズーム機能を有していることから、重点監視対象の近傍に移動体が存在しているか否かを重視する場合には、重点監視エリアの大きさを本実施形態よりも大きくすることができる。すなわち、重点監視エリアR2の大きさは、監視者が重視する点に基づいて、適宜設定することができる。
  (第2実施形態)
 以下、本発明の第2実施形態による制御方法について、図10から図15を参照しながら説明する。第2実施形態では、複数の移動体を特定した際にどの移動体を追尾対象に設定するかが、第1実施形態と異なっている。なお、監視装置の構成は第1実施形態と共通するので同一の符号を付して説明する。また、図10に示す監視処理において、図3に示した第1実施形態の監視処理と共通する処理については、詳細な説明は省略する。
 監視装置1は、図10に示す監視処理を実行しており、追尾期間、判定期間、変数M、Nを初期化した後(C1)、エリアセンサ装置2で監視エリアR1を走査し(C2)、監視エリアR1内の物体を検知するとともに移動体を特定する(C3)。続いて、最新の移動体、または未追尾の移動体を追尾対象に設定する(C4)。ここで、最新の移動体とは、監視エリアR1内で新たに特定された移動体のうち、最も新しく特定された移動体のことを意味している。つまり、監視装置1は、監視エリアR1内に新たに移動体を特定した時点で、換言すると、新たな移動体が監視エリアR1に侵入した時点で、その移動体を追尾対象に設定する。
 一方、未追尾の移動体とは、新たに特定された移動体のうち、未だ追尾対象に設定されていない移動体を意味している。監視エリアR1内に新たに複数の移動体を特定した場合、いずれかの移動体を選択して追尾対象に設定する必要がある。本実施形態の監視装置1は、複数の移動体が新たに特定された場合には、監視エリアR1の境界に近い移動体を優先して追尾対象に設定する。このため、同時に複数の移動体が特定された場合には、追尾対象に設定されていない移動体が監視エリアR1内に存在することになる。そのため、監視装置1は、未追尾の移動体があれば、それを追尾対象に設定する。
 このように、最新の移動体、または未追尾の移動体を追尾対象に設定することにより、監視エリアR1内に侵入した移動体をもれなく自動追尾することが可能となる。
 追尾対象を設定すると、監視装置1は、応答時間が予測時間よりも長くなるかを判定する(C5)。ここで、応答時間とは、新たに追尾対象に設定された移動体を自動追尾するまでに要する時間であり、予測時間とは、その移動体が重点監視対象(出入り口G)まで到達するのに要すると予測される時間である。具体的には、図11に示すように、例えば監視エリアR1の図示左端側で移動体Mb1が先に特定され、その移動体Mb1を自動追尾している状態で新たに移動体Mb2が特定されたとする。
 この場合、移動体Mb2を監視するためには、図示左端側から右端側まで撮像カメラ20の向きを移動させ、ズーム機能を制御して移動体Mb2にフォーカスを合わせ、撮像された画像を見て移動体を識別することが必要となる。これに要する時間が、応答時間となる。また、移動体Mb2が出入り口Gまで到達するのに要すると予想される時間が、予測時間となる。これら応答時間および予測時間は、監視エリアR1の大きさおよび出入り口Gの位置は予め決まっていること、および、位置情報により移動体Mb2と出入り口Gとの距離が求まることから、それらに基づいて算出することができる。
 監視装置1は、応答時間が予測時間よりも短いと判定した場合には(C5:NO)、第1実施形態と同様に、図4に示す判定処理を実行し(C6)、追尾解除条件が成立していなければ(C7:NO)、追尾対象を自動追尾する(C8)。その後、追尾期間を初期化し(C9)、判定期間が経過していなければ(C10:NO)そのまま、判定期間が経過していれば(C10:YES)判定期間および変数Mを初期化(C11)して、ステップC2に移行する。そして、移動体の特定、追尾対象の設定および判定処理などを繰り返す。
 さて、本実施形態の制御方法であっても、撮像カメラ20の視野が頻繁に切り替わる可能性がある。つまり、どの程度の数の移動体が想定されるかといった監視装置1の設置状況に応じて撮像カメラ20お設置台数等は設定されているものの、想定を超える数の移動体が存在した場合等には、自動追尾が間に合わない場合も起こりえるためである。例えば図12に示すように、移動体M20を自動追尾している最中の時刻t1において、新たに移動体M21が特定されたとする。この場合、監視装置1は、移動体M20を追尾対象に設定して自動追尾する。その後、図13に示すように時刻t2において新たに移動体M22が特定されると、移動体M22を追尾対象に設定して自動追尾し、さらにその後、図14に示すように時刻t3において新たに移動体M23が特定されると、移動体M23を追尾対象に設定して自動追尾することになる。
 この場合、監視装置1は、追尾対象を設定するごとにステップC6の判定処理を栗開けしており、追尾対象が切り替えられていることから、上記した判定基準Aおよび判定基準Bに基づく判定を行っている。そして、例えば図14に示す時刻t3の時点で追尾解除条件が成立したと判定した場合には(C7:YES)、自動追尾を解除して、図15に示すように重点監視エリア(本実施形態では、監視エリアR1の全域)を広角にて定点監視する(C12)。このとき、撮像カメラ20の画角は、画角βとなっている。なお、重点監視エリアには、第1実施形態と同様に重点監視対象である出入り口Gが含まれている。
 これにより、監視エリアR1の全域を対象として、移動体の存在を把握することが可能となる。つまり、監視エリアR1に相次いで移動体が侵入してくるような状況であっても、重点的に監視すべき出入り口Gを含めて監視することが可能となる。なお、定点監視は、第1実施形態と同様に、予め定められている定点監視期間が終了するまで継続される(ステップC13:NOの後、ステップC12に移行する)。
 以上説明した本実施形態の制御方法によれば、次のような効果を奏する。
 監視エリアR1内で特定された移動体のうち、最も新しく特定された移動体を追尾対象に設定してカメラ装置3により自動追尾するので、監視エリアR1内に侵入した移動体、すなわち、監視者が監視したいと所望する移動体を追尾対象に設定することができる。
 また、最も新しく特定された移動体を追尾対象に設定することで、侵入の初期段階で移動体を監視対象とすることができる。重点監視対象などの本当に保護すべき位置まで移動体が到達するには統計的にやや時間が掛かると想定されるため、追尾時間をフルに使って多くの情報(撮像により得られる情報)を元に監視することができるため、監視精度が高くすることができ、監視装置としての役割を十分に果たすことができる。
 新たに特定された移動体が複数存在する場合、監視エリアR1の境界に近い移動体から順に追尾対象に設定して自動追尾することを繰り返すので、監視エリアR1に侵入した移動体をもれなく追尾対象に設定することができる。
 この場合、監視エリアR1の境界に近いということは、監視エリアR1からの離脱が容易であるとも言える。そのため、複数の移動体を特定した場合に監視エリアR1の境界に近い移動体から追尾対象に設定することにより、監視エリアR1外に移動してしまいそうな移動体を優先して監視することができる。これにより、複数の移動体が同時に特定されたとしても、監視エリアR1内に侵入した移動体が監視されること無く監視エリアR1から離脱することを防止できる。
 応答時間が予測時間よりも長い場合には、重点監視エリアをカメラ装置3で広角に定点監視するので、自動追尾が間に合わないような状況になった場合であっても、少なくとも移動体を撮像することが可能となる。
 同一の移動体を自動追尾した追尾期間が下限値を連続して下回った回数が下限判定回数以上となった場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、第1実施形態と同様に、カメラ装置3の視野が固定され、移動体を識別することができるようになる。
 判定期間内に追尾対象が切り替えられた回数が予め定められている判定上限数を超えた場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、第1実施形態と同様に、カメラ装置3の視野が固定され、移動体を識別することができる。
 重点監視エリアR2を監視エリアR1の全域に設定しているので、定点監視している場合であっても監視エリアR1の全域を監視対象とすることができ、監視性能が低下するおそれを抑制することができる。
  (第3実施形態)
 以下、本発明の第3実施形態による制御方法について、図16および図17を参照しながら説明する。第3実施形態では、広角にて定点監視している際、所望の移動体を選択可能である点が第2実施形態と異なっている。なお、監視装置の構成について第1実施形態と共通する部位には同一の符号を付して説明する。また、図17に示す監視処理において、図10に示した第2実施形態の監視処理と共通する処理については、詳細な説明は省略する。
 図16に示すように、本実施形態の監視装置1は、モニタ装置4に対象選択部31が設けられている。この対象選択部31は、監視エリアR1内に存在する移動体のうち、いずれの移動体を追尾対象に設定するかを選択するためのものであり、警備員等による選択操作が入力される図示しないマウスやキーボードあるいはタッチパネル等の入力手段で構成されている。追尾対象の選択は、表示部30に表示されている移動体(撮像カメラ20の画像)から、所望の移動体を選択することにより行われる。以下、追尾対象を選択する処理の流れについて説明する。
 監視装置1は、図17に示す監視処理を実行しており、追尾期間、判定期間、変数M、Nを初期化した後(D1)、エリアセンサ装置2で監視エリアR1を走査し(D2)、監視エリアR1内の物体を検知するとともに移動体を特定し(D3)、追尾対象を設定する(D4)。なお、追尾対象には、第1実施形態のように出入り口Gに最も近い移動体を設定してもよいし、第2実施形態のように最新の移動体を設定してもよいし、監視エリアR1内の移動体を順番あるいはランダムに設定してもよい。
 続いて、監視装置1は、第1実施形態と同様に図4に示す判定処理を実行し(D5)、追尾解除条件が成立していなければ(D6:NO)、追尾対象を自動追尾する(D7)。その後、追尾期間を初期化し(D8)、判定期間が経過していなければ(D9:NO)そのまま、判定期間が経過していれば(D9:YES)判定期間および変数Mを初期化(D10)して、ステップD2に移行する。
 そして、例えば第2実施形態の図12~図14に示したように移動体の特定および判定処理を繰り返し、追尾解除条件が成立した場合には(D6:YES)、図15に示したように重点監視エリアを広角にて定点監視する(D11)。本実施形態では、監視装置1は、第2実施形態と同様に重点監視エリアとして監視エリアR1の全域を設定している。
 続いて、監視装置1は、追尾対象が選択されたかを判定する(D12)。この場合、例えば対象選択部31がタッチパネルで構成されていれば、表示部30に表示されている移動体のいずれかをタッチ操作で選択することで所望の移動体を選択することが可能となる。あるいは、表示部30に移動体ID(エリアセンサ装置2にて移動体を特定した際に割り振られる固有の番号)を表示し、キーボード等で所望の移動体IDを選択してもよい。いずれにしろ、移動体を選択できれば、どのような構成であってもよい。
 監視装置1は、追尾対象が選択された場合には(D12:YES)、選択された追尾対象を自動追尾する(D7)。このとき、定点監視は解除される。一方、追尾対象が選択されなかった場合には(D12:NO)、定点監視期間が終了するまで定点監視を継続する(D13:NOの後、ステップD11に移行する)。
 このように、監視装置1は、監視エリアR1に複数の移動体が存在する場合であっても、監視者が所望する移動体を追尾対象に設定可能としている。
 以上説明した本実施形態の制御方法によれば、次のような効果を奏する。
 監視エリアR1内に複数の移動体が特定された際、追尾解除条件が成立した場合には重点監視エリアR2をカメラ装置3で広角に定点監視するので、重点監視エリアR2内の移動体を撮像することが可能となる。これにより、監視エリアR1内に複数の移動体が侵入した場合であっても、少なくとも重点監視エリアR2内の移動体を監視することができる。
 この場合、広角にすることで視野が切り替わる可能性のある位置関係の移動体がまとめて視野内に入ってくるため、同じ画像が長い時間で撮像され対象の移動体の判別がし易くなる。
 同一の移動体を自動追尾した追尾期間が下限値を連続して下回った回数が下限判定回数以上となった場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、第1実施形態と同様に、カメラ装置3の視野が固定され、移動体の移動状況や監視エリア内にどの程度の物体が存在しているかなど、監視エリア内の状況をもれなく把握することができる。また、重点監視対象が視野に入った状態で定点監視することから、監視性能が低下するおそれを抑制することができる。
 判定期間内に追尾対象が切り替えられた回数が予め定められている判定上限数を超えた場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、第1実施形態と同様に、カメラ装置3の視野が固定され、監視エリア内の状況をもれなく把握することができる。
 重点監視エリアR2を監視エリアR1の全域に設定しているので、定点監視している場合であっても監視エリアR1の全域を監視対象とすることができ、監視性能が低下するおそれを抑制することができる。
 対象設定部を設けて追尾対象に設定する移動体を選択可能としているので、監視者が所望する移動体を確実に追尾対象に設定することができる。
  (第4実施形態)
 以下、本発明の第4実施形態による制御方法について、図18を参照しながら説明する。第4実施形態では、追尾対象を設定する態様が第1実施形態と異なっている。なお、監視装置1の構成は第1実施形態と共通するので図1も参照しながら説明する。また、図18に示す監視処理において、図3に示した第1実施形態の監視処理と共通する処理については、詳細な説明は省略する。
 監視装置1は、図18に示す監視処理を実行しており、エリアセンサ装置2で監視エリアR1を走査し(E1)、監視エリアR1内の物体を検知するとともに移動体を特定し(E2)、追尾対象を設定する(E3)。なお、追尾対象には、第1実施形態のように出入り口Gに最も近い移動体を設定してもよいし、第2実施形態のように最新の移動体を設定してもよいし、監視エリアR1内の移動体を順番あるいはランダムに設定してもよい。
 続いて、監視装置1は、追尾解除条件が成立したか否かを判定する(E4)。本実施形態では、監視装置1は、追尾解除条件として、上記した判定基準Aおよび判定基準Bに加えて、以下の判定基準が設定されている。
 ・判定基準C:新たに追尾対象に設定された移動体を自動追尾するまでに要する応答時間が、新たに追尾対象に設定された移動体が重点監視対象まで到達するのに要する予測時間よりも長いこと。
 ・判定基準D:特定された移動体の数が予め設定されている移動体上限数を超えたこと。移動体上限数は、監視エリアR1の大きさなどに基づいて設定することができる。例えば、移動体が人であるとすると、監視エリアR1の大きさと人の歩行速度とに基づいて監視エリアR1を横切るのに要する時間を予め想定しておき、想定した時間と1回の自動追尾に必要とする最低限の時間とから、移動体上限数を設定することなどが考えられる。
 ・判定基準E:重点監視対象または重点監視エリアR2が監視されていない期間が予め設定されている未監視上限値を超えたこと。
 監視装置1は、上記した判定基準A~Eのいずれかが満たされた場合に、追尾解除条件が成立したと判定する。判定基準Aおよび判定基準Bに対する処理は第1実施形態の図4に示した判定処理と共通し、判定基準Cに対する処理は第2実施形態のステップC5の処理と共通するので、それらの詳細な説明は省略する。なお、図18では、追尾期間や判定期間、変数M、Nの初期化の処理については図示を省略している。
 判定基準Dの場合、監視装置1は、監視エリアR1内で特定した移動体の数が移動体上限数を超えていると、追尾解除条件が成立したとして自動追尾を解除する。これは、移動体上限数を超える場合には、視野の切り替わりが頻繁に発生することが確実であると予測できるためである。なお、この判定基準Dに対する処理は、移動体を特定した時点、すなわち、ステップE2の後、且つ、ステップE3の前に実行するようにしてもよい。
 判定基準Eの場合、監視装置1は、重点監視対象または重点監視エリアR2が監視されていない期間が予め設定されている未監視上限値を超えると、追尾解除条件が成立したとして自動追尾を解除する。例えば第2実施形態のように最新の移動体を自動追尾する場合、新たに移動体が特定されれば、新たな移動体に追尾対象が切り替えられる。このため、先に特定されていた移動体が重点監視エリアR2に侵入したとしても、その移動体は追尾対象ではないことから、重点監視エリアR2の近傍に位置する移動体が監視されないことになる。また、新たな移動体が重点監視エリアR2(つまり、重点監視対象)に近づくことなく移動した場合にも、重点監視エリアR2が監視されていない期間が長くなる。そのため、未監視上限値を超えた場合には、一旦重点監視エリアR2を監視することで、重点監視エリアR2が監視されない期間が長くなることを防止している。
 監視装置1は、上記した判定基準に基づいて追尾解除条件が成立したかを判定し、追尾解除条件が成立していない場合には(E4:NO)、追尾対象を自動追尾する(E5)。そして、ステップE1に移行して、物体の検知、移動体の特定、追尾対象の設定の処理を繰り返す。
 一方、監視装置1は、追尾解除条件が成立している場合には(E4:NO)、第1実施形態の図9に示したように重点監視エリアR2を拡大して定点監視し(E6)、定点監視期間が終了するまで定点監視を継続する(E7:NOの後、ステップE1に移行する)。
 このように、監視装置1は、追尾解除条件が成立したと判定すると重点監視エリアR2を拡大して定点監視することで、監視エリアR1内に複数の移動体が存在する場合であっても、重点的に監視すべき出入り口Gの近傍を監視可能としている。
 以上説明した本実施形態の制御方法によれば、次のような効果を奏する。
 監視エリアR1内に複数の移動体が特定された際、追尾解除条件が成立した場合には重点監視エリアを拡大してカメラ装置3にて定点監視するので、重点監視対象の近傍に存在する移動体を識別することができ、重要的に監視すべき範囲における監視性能が低下することを防止できる。
 また、重点監視エリアR2内を拡大して撮像することから、重点監視エリアR2内の移動体を識別可能に撮像することが可能となる。これにより、監視エリアR1内に複数の移動体が侵入した場合であっても、少なくとも、監視者が所望する重点監視エリアR2内の移動体を監視することができる。
 同一の移動体を自動追尾した追尾期間が下限値を連続して下回った回数が下限判定回数以上となった場合、すなわち、移動体が識別される前にカメラ装置3の視野が切り替わることが頻繁に起きた場合には重点監視エリアR2を拡大してカメラ装置3で定点監視する。これにより、カメラ装置3の視野が固定され、移動体を識別することができるようになる。
 判定期間内に追尾対象が切り替えられた回数が予め定められている判定上限数を超えた場合、すなわち、カメラ装置3の視野が頻繁に切り替わった場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、カメラ装置3の視野が固定され、移動体を識別することができる。
 応答時間が予測時間よりも長い場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、自動追尾が間に合わないような状況であっても、第1実施形態と同様に、重点的に監視すべき場所に位置する移動体を少なくとも撮像することができる。
 監視エリアR1に存在する移動体が移動体上限数を超えた場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、自動追尾が間に合わないような状況であっても、第1実施形態と同様に、重点的に監視すべき場所に位置する移動体を少なくとも撮像することができる。
 重点監視エリアR2が監視されていない期間が未監視上限値を超えた場合には重点監視エリアR2を拡大してカメラ装置3で定点監視するので、重点監視対象または重点監視エリアR2が監視されない期間が長くなって監視状態が悪化することを防止することができる。これにより、例えば、監視エリアR1内で静止状態(人であれば、例えば手を動かしているものの位置の移動はしていないような状態も含む)となり、一旦は「移動体では無い」として追尾対象から外された物体が、重点監視対象または重点監視エリアR2の近傍に居る場合等において、重点監視対象または重点監視エリアR2を監視することができる。
  (その他の実施形態)
 本発明は、各実施形態にて例示したものに限定されることなく、例えば以下のように変形あるいは拡張することができる。
 各実施形態で示した数値は例示であり、これに限定されない。
 物体を検知する場合、1回の走査ではなく、複数回の走査により得られたデータに基づいて物体の検知、移動体の特定を行ってもよい。
 各実施形態では説明の簡略化のために定点監視期間中は待機する処理の流れを例示したが、監視装置1は、定点監視期間中にも物体の検知、移動体の特定は行われており、定点監視期間が経過すると、定点監視期間中に特定された移動体を自動追尾する。
 監視者が認識することが必要な場合、2秒程度は同一の移動体を撮像し続けることが必要となるが、例えばモニタ装置4に記憶部を設けて撮像した画像を再生できる構成とすれば、同一の移動体を撮像し続ける期間を短縮しても後から確認することができる。このため、応答時間や追尾期間は、監視装置1の構成等に基づいて、適宜設定することができる。
 判定基準A~Eは、どのように組み合わせてもよい。すなわち、第1実施形態では判定基準A、Bを採用しているが、判定基準C~Eを採用してもよいし、判定基準Dだけを採用して移動体の数が多ければ定点監視するようにしてもよい。また、第2実施形態や第2実施形態についても同様に、判定基準A~Eをどのように組み合わせてもよい。
 各実施形態において、監視エリア内で特定された移動体とは、監視エリア内で停止して一旦は「移動体では無い」と判定されたものの、その後移動を再開したような移動体も含まれている。
 図面中、1は監視装置、2はエリアセンサ装置(光学式距離計)、3はカメラ装置を示す。

Claims (15)

  1.  予め設定されている監視エリアの移動体を監視する方法において、
     光学式距離計により前記監視エリア内を走査して物体を検知し、
     前記検知した物体のうち移動体を特定し、
     前記監視エリア内で最も新しく特定された移動体を追尾対象に設定し、
     前記追尾対象に設定された移動体をカメラ装置により自動追尾する
     ことを特徴とする方法。
  2.  新たに特定された移動体が複数存在する場合、前記監視エリアの境界に近い移動体から順に追尾対象に設定して自動追尾することを繰り返し、特定された全ての移動体を追尾対象に設定する
     ことを特徴とする請求項1に記載の方法。
  3.  新たに追尾対象に設定された移動体を自動追尾するまでに要する応答時間が、その移動体が前記監視エリア内に予め設定されている重点監視対象まで到達するのに要する予測時間よりも長い場合、前記重点監視対象を含む重点監視エリアを前記カメラ装置で広角に定点監視する
     ことを特徴とする請求項1または2に記載の方法。
  4.  同一の移動体を自動追尾した追尾期間が予め設定されている下限値を連続して下回った回数が下限判定回数以上となった場合、前記監視エリア内に予め設定されている重点監視対象を含む重点監視エリアを前記カメラ装置で広角に定点監視する
     ことを特徴とする請求項1から3のいずれか一項に記載の方法。
  5.  予め定められている判定期間内に追尾対象が切り替えられた回数が予め定められている判定上限数を超えた場合、前記監視エリア内に予め設定されている重点監視対象を含む重点監視エリアを前記カメラ装置で広角に定点監視する
     ことを特徴とする請求項1から4のいずれか一項に記載の方法。
  6.  前記重点監視エリアを前記カメラ装置で広角に定点監視している際、当該重点監視エリア内のいずれかの移動体が選択されると、選択された移動体を追尾対象に設定して自動追尾する
     ことを特徴とする請求項3から5のいずれか一項に記載の方法。
  7.  前記監視エリア内に複数の移動体が特定されたか否かを判定し、
     前記複数の移動体が特定されたと判定された場合、前記カメラ装置による自動追尾を解除するために予め設定されている追尾解除条件が成立したか否かを判定し、
     前記追尾解除条件が成立したと判定された場合、前記監視エリア内の重点監視対象を含む予め設定されている重点監視エリアを拡大して前記カメラ装置で定点監視する
     ことを特徴とする請求項1に記載の方法。
  8.  前記追尾解除条件として、同一の移動体を自動追尾した追尾期間が予め設定されている下限値を連続して下回った回数が下限判定回数以上となったこと、を設定する
     ことを特徴とする請求項7に記載の方法。
  9.  前記追尾解除条件として、予め定められている判定期間内に追尾対象が切り替えられた回数が予め定められている判定上限数を超えたこと、を設定する
     ことを特徴とする請求項7または8記載の方法。
  10.  前記追尾解除条件として、新たに追尾対象に設定された移動体を自動追尾するまでに要する応答時間が、新たに追尾対象に設定された移動体が前記重点監視対象まで到達するのに要する予測時間よりも長いこと、を設定する
     ことを特徴とする請求項7から9のいずれか一項に記載の方法。
  11.  前記追尾解除条件として、特定された移動体の数が予め設定されている移動体上限数を超えたこと、を設定する
     ことを特徴とする請求項7から10のいずれか一項に記載の方法。
  12.  前記追尾解除条件として、前記重点監視対象または前記重点監視エリアが監視されていない期間が予め設定されている未監視上限値を超えたこと、を設定する
     ことを特徴とする請求項7から11のいずれか一項記載の方法。
  13.  重点監視エリアとして、少なくとも複数の移動体を撮像可能な範囲を設定する
     ことを特徴とする請求項7から12のいずれか一項に記載の方法。
  14.  光学式距離計により監視エリア内を走査して物体を検知し、検知した物体のうち移動体を特定し、特定した移動体を追尾対象に設定してカメラ装置により自動追尾する、移動体を監視する方法であって、
     前記監視エリア内に複数の移動体が特定されたか否かを判定し、
     前記複数の移動体が特定されたと判定された場合、前記カメラ装置による自動追尾を解除するために予め設定されている追尾解除条件が成立したか否かを判定し、
     前記追尾解除条件が成立したと判定された場合、前記監視エリア内の重点監視対象を含む予め設定されている重点監視エリアを拡大して前記カメラ装置で定点監視する
     ことを特徴とする方法。
  15.  予め設定されている監視エリアを監視する装置において、
     光学式距離計により前記監視エリア内を走査して物体を検知する手段と、
     前記検知した物体のうち移動体を特定する手段と、
     前記監視エリア内で最も新しく特定された移動体を追尾対象に設定する手段と、
     前記追尾対象に設定された移動体をカメラ装置により自動追尾する手段と、
    を備えた、ことを特徴とする装置。
PCT/JP2014/056184 2013-03-08 2014-03-10 移動体を監視する装置及び方法 WO2014136979A1 (ja)

Priority Applications (13)

Application Number Priority Date Filing Date Title
AU2014226830A AU2014226830B2 (en) 2013-03-08 2014-03-10 Apparatus and method of monitoring moving objects
KR1020157024931A KR101742634B1 (ko) 2013-03-08 2014-03-10 이동체를 감시하는 장치 및 방법
DE112014001201.7T DE112014001201T5 (de) 2013-03-08 2014-03-10 Vorrichtung und Methode zur Beobachtung sich bewegender Objekte
SG11201507075VA SG11201507075VA (en) 2013-03-08 2014-03-10 Apparatus and method of monitoring moving objects
BR112015021770A BR112015021770A2 (pt) 2013-03-08 2014-03-10 Método para controlar aparelho de monitoramento
GB1517772.8A GB2529569A (en) 2013-03-08 2014-03-10 Device and method for monitoring moving entity
CN201480012941.5A CN105308955A (zh) 2013-03-08 2014-03-10 监视移动体的装置以及方法
NZ713004A NZ713004A (en) 2013-03-08 2014-03-10 Apparatus and method of monitoring moving objects
CA2904235A CA2904235A1 (en) 2013-03-08 2014-03-10 Apparatus and method for monitoring moving objects
US14/773,613 US10043359B2 (en) 2013-03-08 2014-03-10 Apparatus and method of monitoring moving objects
HK16107724.0A HK1219827A1 (zh) 2013-03-08 2016-07-04 監視移動體的裝置以及方法
AU2016266013A AU2016266013B2 (en) 2013-03-08 2016-11-30 Method of monitoring a moving object
US15/647,843 US10026284B2 (en) 2013-03-08 2017-07-12 Apparatus and method of monitoring moving objects

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013046602A JP6182332B2 (ja) 2013-03-08 2013-03-08 監視装置の制御方法
JP2013-046600 2013-03-08
JP2013046600A JP6174872B2 (ja) 2013-03-08 2013-03-08 監視装置の制御方法
JP2013-046602 2013-03-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/773,613 A-371-Of-International US10043359B2 (en) 2013-03-08 2014-03-10 Apparatus and method of monitoring moving objects
US15/647,843 Division US10026284B2 (en) 2013-03-08 2017-07-12 Apparatus and method of monitoring moving objects

Publications (1)

Publication Number Publication Date
WO2014136979A1 true WO2014136979A1 (ja) 2014-09-12

Family

ID=51491486

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/056184 WO2014136979A1 (ja) 2013-03-08 2014-03-10 移動体を監視する装置及び方法

Country Status (12)

Country Link
US (2) US10043359B2 (ja)
KR (1) KR101742634B1 (ja)
CN (1) CN105308955A (ja)
AU (2) AU2014226830B2 (ja)
BR (1) BR112015021770A2 (ja)
CA (1) CA2904235A1 (ja)
DE (1) DE112014001201T5 (ja)
GB (1) GB2529569A (ja)
HK (1) HK1219827A1 (ja)
NZ (2) NZ719924A (ja)
SG (1) SG11201507075VA (ja)
WO (1) WO2014136979A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111383251A (zh) * 2018-12-28 2020-07-07 杭州海康威视数字技术股份有限公司 一种跟踪目标对象的方法、装置、监控设备和存储介质

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6331785B2 (ja) * 2014-07-08 2018-05-30 日本電気株式会社 物体追跡装置、物体追跡方法および物体追跡プログラム
AU2015305303B2 (en) 2014-08-21 2021-03-25 Identiflight International, Llc Avian detection systems and methods
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
US9521830B2 (en) * 2014-08-21 2016-12-20 Identiflight, Llc Bird or bat detection and identification for wind turbine risk mitigation
WO2016134031A1 (en) * 2015-02-17 2016-08-25 Alpinereplay, Inc Systems and methods to control camera operations
AU2016361447A1 (en) * 2015-11-25 2018-06-07 VHS IP Pty Ltd Worksite safety device using lidar
JP6654087B2 (ja) * 2016-04-11 2020-02-26 株式会社デンソーウェーブ 物体検知装置及び物体検知プログラム
KR102084302B1 (ko) * 2017-01-05 2020-03-03 (주)카네비컴 광각 라이더 장치 및 이의 동작 방법
CN109151295B (zh) * 2017-06-16 2020-04-03 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置及视频监控设备
WO2019039331A1 (ja) * 2017-08-24 2019-02-28 日本電気硝子株式会社 板ガラスの製造方法
US10440280B2 (en) * 2017-09-21 2019-10-08 Advanced Semiconductor Engineering, Inc. Optical system and method for operating the same
JP7006527B2 (ja) * 2018-07-09 2022-01-24 トヨタ自動車株式会社 車載装置および車両捜索システム
JP7139902B2 (ja) * 2018-11-14 2022-09-21 トヨタ自動車株式会社 報知装置
CN109831745A (zh) * 2018-12-25 2019-05-31 深圳市天彦通信股份有限公司 一种信息处理系统及方法
CN110691197A (zh) * 2019-11-04 2020-01-14 上海摩象网络科技有限公司 一种拍摄追踪的方法、装置、电子设备
CN112333419B (zh) * 2020-08-21 2024-08-23 深圳Tcl新技术有限公司 监控追踪方法、装置、系统与计算机可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319279A (ja) * 2000-02-28 2001-11-16 Hitachi Kokusai Electric Inc 侵入物体監視方法及び侵入物体監視システム
JP2006229321A (ja) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd 自動追尾撮像装置及び自動追尾撮像方法、並びにプログラム
JP2009273006A (ja) * 2008-05-09 2009-11-19 Hitachi Kokusai Electric Inc 監視装置及び監視システム
JP2010237132A (ja) * 2009-03-31 2010-10-21 Secom Co Ltd 複合型監視装置
JP2011258031A (ja) * 2010-06-09 2011-12-22 Dx Antenna Co Ltd 監視カメラの追尾装置
JP2012033053A (ja) * 2010-07-30 2012-02-16 Secom Co Ltd 画像監視装置
JP2012103809A (ja) * 2010-11-08 2012-05-31 Secom Co Ltd 複合型センサ
JP2012109733A (ja) * 2010-11-16 2012-06-07 Sumitomo Electric Ind Ltd 監視システム及び監視装置
JP2012129689A (ja) * 2010-12-14 2012-07-05 Panasonic Corp 映像処理装置、カメラ装置および映像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63284990A (ja) 1987-05-18 1988-11-22 Daiwa Seisakusho:Kk ビデオカメラの追跡装置
JP3011121B2 (ja) 1997-02-28 2000-02-21 日本電気株式会社 警備システム
EP1128676B1 (en) * 2000-02-28 2009-04-15 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
US7136506B2 (en) * 2003-03-03 2006-11-14 Lockheed Martin Corporation Correlation based in frame video tracker
JP2006033793A (ja) * 2004-06-14 2006-02-02 Victor Co Of Japan Ltd 追尾映像再生装置
JP4140567B2 (ja) 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
US7929016B2 (en) * 2005-06-07 2011-04-19 Panasonic Corporation Monitoring system, monitoring method and camera terminal
JP2007272488A (ja) * 2006-03-31 2007-10-18 Yokogawa Electric Corp 画像処理装置、監視カメラ及び画像監視システム
JP4912117B2 (ja) 2006-10-27 2012-04-11 三洋電機株式会社 追跡機能付き撮像装置
US7489334B1 (en) * 2007-12-12 2009-02-10 International Business Machines Corporation Method and system for reducing the cost of sampling a moving image
US7868814B1 (en) * 2008-08-27 2011-01-11 Lockheed Martin Corporation Method for transmission of target information over a network
JP2012520650A (ja) 2009-05-29 2012-09-06 ヨングク エレクトロニクス シーオー., エルティーディー 知能型監視カメラ装置及びこれを採用した映像監視システム
WO2011114799A1 (ja) * 2010-03-15 2011-09-22 オムロン株式会社 監視カメラ端末

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319279A (ja) * 2000-02-28 2001-11-16 Hitachi Kokusai Electric Inc 侵入物体監視方法及び侵入物体監視システム
JP2006229321A (ja) * 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd 自動追尾撮像装置及び自動追尾撮像方法、並びにプログラム
JP2009273006A (ja) * 2008-05-09 2009-11-19 Hitachi Kokusai Electric Inc 監視装置及び監視システム
JP2010237132A (ja) * 2009-03-31 2010-10-21 Secom Co Ltd 複合型監視装置
JP2011258031A (ja) * 2010-06-09 2011-12-22 Dx Antenna Co Ltd 監視カメラの追尾装置
JP2012033053A (ja) * 2010-07-30 2012-02-16 Secom Co Ltd 画像監視装置
JP2012103809A (ja) * 2010-11-08 2012-05-31 Secom Co Ltd 複合型センサ
JP2012109733A (ja) * 2010-11-16 2012-06-07 Sumitomo Electric Ind Ltd 監視システム及び監視装置
JP2012129689A (ja) * 2010-12-14 2012-07-05 Panasonic Corp 映像処理装置、カメラ装置および映像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111383251A (zh) * 2018-12-28 2020-07-07 杭州海康威视数字技术股份有限公司 一种跟踪目标对象的方法、装置、监控设备和存储介质
CN111383251B (zh) * 2018-12-28 2023-06-13 杭州海康微影传感科技有限公司 一种跟踪目标对象的方法、装置、监控设备和存储介质

Also Published As

Publication number Publication date
US10043359B2 (en) 2018-08-07
US20170323539A1 (en) 2017-11-09
KR20150121056A (ko) 2015-10-28
NZ713004A (en) 2016-07-29
US10026284B2 (en) 2018-07-17
DE112014001201T5 (de) 2016-03-31
AU2016266013A1 (en) 2016-12-15
AU2016266013B2 (en) 2018-11-15
CN105308955A (zh) 2016-02-03
NZ719924A (en) 2017-06-30
BR112015021770A2 (pt) 2017-08-22
GB2529569A (en) 2016-02-24
HK1219827A1 (zh) 2017-04-13
US20160042622A1 (en) 2016-02-11
KR101742634B1 (ko) 2017-06-01
GB201517772D0 (en) 2015-11-25
AU2014226830A1 (en) 2015-10-29
AU2014226830B2 (en) 2017-01-19
CA2904235A1 (en) 2014-09-12
SG11201507075VA (en) 2015-10-29

Similar Documents

Publication Publication Date Title
WO2014136979A1 (ja) 移動体を監視する装置及び方法
WO2014136978A1 (ja) 移動体を監視する装置及び方法
US7260241B2 (en) Image surveillance apparatus, image surveillance method, and image surveillance processing program
US20040227816A1 (en) Intruding object monitoring system
KR101187901B1 (ko) 지능형 감시 시스템 및 그의 제어방법
WO2014156909A1 (ja) 検知エリアにおける移動体を監視する装置及び方法
JP6174872B2 (ja) 監視装置の制御方法
JP6174871B2 (ja) 監視装置の制御方法
EP2587462A1 (en) Image monitoring system and method with false alarm rate reduction
KR101324221B1 (ko) 영상 촬영을 통한 물체 추적 시스템 및 그 방법
JP6182332B2 (ja) 監視装置の制御方法
JP2018107578A (ja) 監視装置
JP6182331B2 (ja) 監視装置の制御方法
WO2014156908A1 (ja) 検知エリアを監視する装置、方法、及びシステム
JP7204356B2 (ja) 監視装置
JP7086752B2 (ja) 監視装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480012941.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14760495

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2904235

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 14773613

Country of ref document: US

Ref document number: 1120140012017

Country of ref document: DE

Ref document number: 112014001201

Country of ref document: DE

ENP Entry into the national phase

Ref document number: 20157024931

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 1517772

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20140310

WWE Wipo information: entry into national phase

Ref document number: 1517772.8

Country of ref document: GB

ENP Entry into the national phase

Ref document number: 2014226830

Country of ref document: AU

Date of ref document: 20140310

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112015021770

Country of ref document: BR

122 Ep: pct application non-entry in european phase

Ref document number: 14760495

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 112015021770

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20150904

ENPC Correction to former announcement of entry into national phase, pct application did not enter into the national phase

Ref country code: GB