WO2005076621A1 - 監視システムおよびカメラ端末 - Google Patents

監視システムおよびカメラ端末 Download PDF

Info

Publication number
WO2005076621A1
WO2005076621A1 PCT/JP2005/000545 JP2005000545W WO2005076621A1 WO 2005076621 A1 WO2005076621 A1 WO 2005076621A1 JP 2005000545 W JP2005000545 W JP 2005000545W WO 2005076621 A1 WO2005076621 A1 WO 2005076621A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
area
camera terminal
shooting
unit
Prior art date
Application number
PCT/JP2005/000545
Other languages
English (en)
French (fr)
Inventor
Atsushi Yoshida
Katsuji Aoki
Shouichi Araki
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2005517640A priority Critical patent/JP3903062B2/ja
Priority to EP05703782.2A priority patent/EP1713275A4/en
Priority to US11/125,390 priority patent/US7787013B2/en
Publication of WO2005076621A1 publication Critical patent/WO2005076621A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19623Arrangements allowing camera linear motion, e.g. camera moving along a rail cable or track
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19695Arrangements wherein non-video detectors start video recording or forwarding but do not generate an alarm themselves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a surveillance system including a plurality of camera terminal cameras, and more particularly to a surveillance system or the like in which each camera terminal operates in cooperation with surrounding camera terminals so that the entire surveillance area can be monitored. .
  • FIG. 1 is a configuration diagram of an apparatus described in Patent Document 1 for automatically adjusting detection areas of a plurality of cameras.
  • a moving object detection camera 10011 which has the purpose of shooting the detection target over a wide shooting range, changes its own shooting range by means of the attitude control means 10012, and monitors the purpose of shooting an enlarged image of the detection target.
  • the camera 10002 changes its own photographing range by means of the attitude control means 10022.
  • the image capturing range of each camera terminal is determined by the image processing device 10040 based on the position of the captured object extracted by the moving object detection camera 10011 and the detection range of each camera terminal. This is determined based on the information stored in advance in the camera view angle storage means 10032.
  • FIGS. 2 to 4 are explanatory diagrams of a procedure for determining a photographing range of each camera in this apparatus, and show images taken by a moving object detection camera 10011 divided into several block images.
  • the shooting range of the moving object detection camera 10011 is determined as follows. When the shooting target exists in the shaded block in FIG. 2, the direction of the arrow indicated in each block in FIG. 3 corresponds to the block position in FIG. First, the posture of the moving object detection camera 10011 is changed, and the shooting range of the camera is changed. The shooting range of the moving object detection camera 10011 corresponding to each block position is Has been determined, and this information is preset in the 10031 camera angle-of-view storage means.
  • the shooting range of the monitoring camera 10021 is determined as follows.
  • the posture of the monitoring camera 10021 is changed so that the shooting range indicated by the broken line is obtained, and the shooting range of the camera is changed.
  • the photographing range of the monitoring camera 10021 corresponding to each block position is determined by a human in advance, and the information is set in the camera view angle storage unit 10032 in advance.
  • FIG. 5 is a configuration diagram of the mobile camera 10 described in Patent Document 2.
  • the moving camera 10 includes a casing 12 and a camera unit 14 attached to a lower part of the casing 12, and can move along a rail 20.
  • a general control unit that controls various functions, including a programming unit for controlling movement and a motor control unit for controlling the transport mechanism, is arranged for monitoring purposes. Accordingly, the speed, position, zoom, and the like of the rail 20 moving on the track can be controlled.
  • the mobile camera 10 captures an image while moving on the track of the rail 20 installed in a predetermined monitoring area in a store such as a rental video shop shown in FIG. 6, for example. By doing so, even a small number of cameras can be monitored in such a manner that the number of blind spots is reduced in the monitoring area.
  • This imaging apparatus obtains a plurality of pieces of image information obtained from a plurality of imaging systems by using a plurality of imaging systems for imaging a subject and convergence angle control means for giving an arbitrary convergence angle to the plurality of imaging systems.
  • the photographing information from the detecting means for detecting the photographing conditions of the plurality of photographing systems and the image forming magnification information of the plurality of photographing systems are stored in advance, and the image forming magnification information of the storing means is used.
  • the convergence angles of the plurality of photographing systems are controlled by the convergence angle control means so that the overlapping area of the photographing ranges among the plurality of photographing systems is kept within a certain range.
  • a video area surveillance device disclosed in Patent Document 4.
  • the device consists of a fixed slot camera for monitoring the area and one or more mobile remote controlled cameras for monitoring at least part of the area.
  • the pilot camera generates a signal representing the area.
  • the position of the moving object within the area monitored by the pilot force camera is determined and a signal is generated representative of the position of the object.
  • the remote control camera tracks the object based on a signal representing the position of the object.
  • the pilot camera has a fisheye lens and therefore has a wider field of view than a remotely controlled camera.
  • the area under surveillance is segmented into Cartesian, polar or spherical coordinates so that the computer can instruct the remote control camera to track the object.
  • the signal representing the area is compressed and transmitted over a communication channel for remote monitoring. In this way, monitoring of the entire section and monitoring of the moving object are performed.
  • the camera terminal disclosed in Patent Document 1 previously has a role given to a moving object detection camera 10011 for capturing a wide area and a surveillance camera 10021 for capturing an enlarged image of a detection target. Therefore, the moving object detection camera 10011 and the surveillance camera 10021 cannot cooperate to capture a wider range than can be captured by one moving object detection camera 10011.
  • the other camera terminal cannot substitute the function of one camera such that the moving object detection camera 10011 captures an enlarged image instead of the area that is a blind spot with respect to the monitoring camera 10021. For this reason, it is necessary to determine the camera installation in advance so that the monitoring camera 10021 does not have a blind spot with respect to the monitoring area.
  • the movement One-to-one correspondence is provided between the detection result of the object detected by the camera 10011 and the procedure for changing the content of the image captured by the monitoring camera 10021.
  • the number of moving object detection cameras 1001 When the detection accuracy is improved, it is necessary to associate the operation of the monitoring camera 10021 with all the patterns of the combination of the detection results of the plurality of moving object detection cameras 10011 again.
  • the mobile cameras 10 move within the surveillance area within a certain time along the track of the rail 20 and move over the surveillance area. Although it becomes possible to perform monitoring with less blind spots on the monitoring area by taking a picture, it is not possible to keep monitoring the entire monitoring area simultaneously with all mobile camera terminals. Therefore, if, for example, the intruder always moves to a blind spot of the mobile camera 10 in accordance with the movement of the mobile camera 10, the surveillance system can no longer detect the intruder.
  • Patent Document 1 JP-A-11103457
  • Patent Document 2 JP 2001-142138 A
  • Patent Document 3 JP-A-7-303207
  • Patent document 4 JP-A-8-265741
  • the present invention is to solve the above-mentioned problems of the conventional technology, and to provide a monitoring system or the like which can flexibly respond to changes in the system configuration and has a high monitoring capability. With the goal.
  • the present invention is a surveillance system comprising a plurality of camera terminals connected by a communication path and photographing a surveillance area, wherein the plurality of camera terminals A method for photographing a photographing region included in the region and changing the photographing region A camera having a step, and communication means for transmitting photographing characteristic information, which is information for specifying the photographing region, to another camera terminal via the communication path, and receiving other camera terminal power photographing characteristic information; On the basis of the photographing characteristic information of the camera terminal and the photographing characteristic information of the other camera terminal received by the communication means, the photographing area of the camera terminal and the photographing area of the other camera terminal are fixed to a predetermined value. And a photographing characteristic changing unit for controlling a camera of the camera terminal to change a photographing region so as to be related to each other.
  • the shooting characteristic information includes information for specifying the position of the shooting region
  • the shooting characteristic changing unit is configured to specify a camera partner that is adjacent to the camera terminal adjacent to the shooting region.
  • a determining unit configured to determine a positional relationship between the imaging region of the other camera terminal and the imaging region of the camera terminal based on the identified imaging characteristic information from the other camera terminal and the imaging characteristic information of the camera terminal;
  • a region difference estimating unit that gives an evaluation value to the camera, and a shooting region changing unit that changes the shooting region by controlling the camera so that the evaluation value given by the region difference evaluating unit approaches a predetermined target value.
  • the plurality of camera terminals exchange information with other camera terminals, and at the same time, position of their own photographing regions so that their own photographing region and the adjacent photographing region have a fixed relationship.
  • the imaging areas are distributed evenly and evenly throughout the surveillance system, and high surveillance capability is maintained.
  • no special centralized controller is required, and all the camera terminals have the same function, some of the camera terminals are broken or additional camera terminals are added. Even in such a case, monitoring without changing the system configuration is continued.
  • the plurality of camera terminals further include moving means for moving the camera terminal, and movement control means for changing the position of the shooting area of the camera terminal by controlling the moving means.
  • the movement control means based on the imaging characteristic information of the camera terminal and the imaging characteristic information of another camera terminal received by the communication means, and, based on the plurality of camera terminals,
  • the moving means may be controlled so that simultaneous shooting can be performed throughout. As a result, control is performed such that the ratio of the shooting area that is simultaneously shot by a plurality of camera terminals to the monitoring area is increased, and the shooting areas of the plurality of camera terminals in the monitoring area are more uniformly distributed. It becomes easy to control.
  • the present invention can be realized as a single camera terminal constituting a monitoring system that can be realized as such a monitoring system, or as a monitoring method using a plurality of camera terminals.
  • it can be realized as a program that causes a computer to execute processes such as a photographing characteristic changing unit and a movement control unit included in the camera terminal.
  • the program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
  • the monitoring system includes a plurality of camera terminals that operate in cooperation with each other, and each of the camera terminals has the same function. Even if the function is lost, other camera terminals operate in cooperation with each other to cover the monitoring area, so that monitoring without reconfiguring the system is continued.
  • the surveillance system of the present invention even when a plurality of camera terminals constituting the surveillance system are installed at an appropriate position in the surveillance area, or when the number of camera terminals is increased at an arbitrary position.
  • the imaging regions are changed so that adjacent imaging regions have a fixed positional relationship, a flexible monitoring system with less restrictions such as role sharing and the number of installations is realized.
  • the photographing area of each camera terminal is automatically changed so that any camera terminal power is photographed, so that the unphotographed area is reduced in the entire monitoring area. Therefore, a high monitoring capability is maintained.
  • the shooting area is automatically changed so as to preferentially shoot an area with less image distortion at each installation position of the camera terminal.
  • the shooting area is automatically changed so as to preferentially shoot an area with less image distortion at each installation position of the camera terminal.
  • a camera terminal that performs imaging while tracking the object and an image that surrounds the object are captured. Since the role is automatically assigned to the camera terminal, it is possible to capture the surrounding area and wide area while tracking the object.
  • the surveillance system of the present invention even if a plurality of camera terminals constituting the surveillance system are set to an appropriate photographing accuracy in the monitored area, the photographing accuracy between the surrounding camera terminals can be improved. Since the settings are automatically changed so that the degrees become uniform, it is possible to easily compare the sizes of the images obtained by each camera terminal, combine images, and the like.
  • the monitoring system of the present invention when an object appears in the imaging region, the object is imaged with detailed accuracy. Since the shooting accuracy is automatically adjusted so that shooting is performed with the same shooting accuracy as that of the camera terminal, cumbersome operations for moving the object in and out are not required.
  • each mobile camera terminal has a predetermined overlapping area with a neighboring shooting area, and furthermore, Since the mobile terminal moves so as to have a predetermined distance from the boundary of the monitoring area, each mobile camera terminal is automatically located at a position where the blind spot with respect to the monitoring area is reduced in simultaneous shooting with multiple mobile camera terminals, and high monitoring capability is achieved. Will be maintained.
  • each mobile camera terminal stores information on the position, shape, and orientation of an object existing in the surveillance area, and captures an image of the object based on the position, shape, and orientation of the object.
  • the mobile camera terminal is automatically located at a position where the blind spot with respect to the monitoring area is reduced when multiple mobile camera terminals shoot simultaneously, since the position of the blind spot is specified more accurately.
  • each mobile camera terminal by detecting the state of the object existing in the monitoring area under predetermined conditions, the state of the object in the monitoring area changes, and each mobile camera terminal Even if the content is different from the stored content, each mobile camera changes the information on the state of the target object again, and moves and identifies the shooting location and blind spot position according to the position, shape and orientation of the target object more accurately. Therefore, in simultaneous shooting with multiple mobile camera terminals, each mobile camera terminal is automatically arranged at a position where the blind spot with respect to the monitoring area is reduced
  • each mobile camera terminal moves to a position where the blind spot with respect to the monitoring area is reduced in simultaneous shooting by a plurality of mobile camera terminals.
  • the target object is moved from a predetermined position (distance, direction) to a position where it can be imaged. Therefore, wide-area shooting with less blind spots in the monitoring area and a predetermined position (distance, direction) Can shoot detailed objects at the same time.
  • each mobile camera terminal can take an image without giving information such as the position, shape, and orientation of the object present in the monitoring area to each mobile camera terminal.
  • the areas that are actually being photographed and the areas that are blind spots are distinguished in the monitoring area. Can be moved to a position where the blind spot is smaller.
  • FIG. 1 is a diagram showing a configuration of an apparatus according to a conventional technique.
  • FIG. 2 is a diagram for explaining the operation of the device according to the related art.
  • FIG. 3 is a diagram for explaining the operation of the device according to the conventional technique.
  • FIG. 4 is a diagram for explaining the operation of the device according to the conventional technique.
  • FIG. 5 is a diagram showing a configuration of a mobile camera according to the related art.
  • FIG. 6 is a diagram for explaining the operation of a mobile camera according to the related art.
  • FIG. 7 is a block diagram showing a basic configuration of a monitoring system according to the present invention.
  • FIG. 8 is a diagram for explaining shooting area information and area determination parameters of the camera terminal, and shooting accuracy information and accuracy determination parameters.
  • FIG. 9 is a block diagram showing a configuration of Embodiment 1 according to the present invention.
  • FIG. 10 is a flowchart illustrating an operation of the first embodiment.
  • FIG. 11 is a diagram illustrating a relationship between a region determination parameter of a camera terminal and a visual field region.
  • FIG. 12 is a diagram showing a relationship between a visual field region and a photographing region of a camera terminal.
  • FIG. 13 is a flowchart illustrating a procedure for determining a cooperation partner of the camera terminal.
  • FIG. 14 is a diagram illustrating a procedure for determining a cooperating partner of the camera terminal.
  • FIG. 15 is a flowchart illustrating a procedure for evaluating a positional relationship of a shooting area of a camera terminal.
  • FIG. 16 is a flowchart illustrating a procedure for evaluating a positional relationship of a shooting area of a camera terminal.
  • FIG. 17 is a diagram illustrating an evaluation function A of a camera terminal.
  • FIG. 18 is a diagram illustrating the operation of the camera terminal.
  • FIG. 19 is a diagram illustrating the operation of the camera terminal.
  • FIG. 20 is a block diagram showing a configuration of Embodiment 2 according to the present invention.
  • FIG. 21 is a flowchart illustrating an operation of the second embodiment.
  • FIG. 22 is a flowchart illustrating a procedure for evaluating a shooting area of a camera terminal.
  • FIG. 23 is a diagram illustrating an evaluation function B of the camera terminal.
  • FIG. 24 is a diagram illustrating the operation of the camera terminal.
  • FIG. 25 is a block diagram showing a configuration of a third embodiment according to the present invention.
  • FIG. 26 is a flowchart illustrating an operation of the third embodiment.
  • FIG. 27 is a diagram illustrating an evaluation function C of the camera terminal.
  • FIG. 28 is a flowchart illustrating a procedure for evaluating a shooting area of a camera terminal.
  • FIG. 29 is a diagram illustrating the operation of the camera terminal.
  • FIG. 30 is a block diagram showing a configuration of a fourth embodiment according to the present invention.
  • FIG. 31 is a flowchart illustrating an operation of the fourth embodiment.
  • FIG. 32 is a diagram illustrating an evaluation function D of the camera terminal.
  • FIG. 33 is a flowchart illustrating a procedure for evaluating a shooting area of a camera terminal.
  • FIG. 34 is a diagram illustrating the operation of the camera terminal.
  • FIG. 35 is a diagram illustrating the operation of the camera terminal.
  • FIG. 36 is a diagram illustrating the operation of the camera terminal.
  • FIG. 37 is a diagram illustrating the operation of the camera terminal.
  • FIG. 38 is a block diagram showing a configuration of a fifth embodiment according to the present invention.
  • FIG. 39 is a flowchart illustrating an operation of the fifth embodiment.
  • FIG. 40 is a flowchart illustrating a procedure for evaluating a shooting area of a camera terminal.
  • FIG. 41 is a diagram for explaining a procedure for specifying an unphotographed area of the camera terminal.
  • FIG. 42 is a diagram illustrating an evaluation function E of a camera terminal.
  • FIG. 43 is a diagram illustrating the operation of the camera terminal.
  • FIG. 44 is a block diagram showing a configuration of a sixth embodiment according to the present invention.
  • FIG. 45 is a flowchart illustrating the operation of the sixth embodiment.
  • FIG. 46 is a diagram illustrating a procedure for determining a cooperating partner in changing the shooting accuracy of the camera terminal.
  • FIG. 47 is a diagram illustrating a procedure for determining a cooperating partner in changing the shooting accuracy of the camera terminal.
  • FIG. 48 is a flowchart illustrating a procedure for evaluating the shooting accuracy of the camera terminal.
  • FIG. 49 is a diagram illustrating an evaluation function F of a camera terminal.
  • FIG. 50 is a diagram illustrating the operation of the camera terminal.
  • FIG. 51 is a block diagram showing a configuration of a seventh embodiment according to the present invention.
  • FIG. 52 is a flowchart illustrating an operation of the seventh embodiment.
  • FIG. 53 is a flowchart illustrating a procedure for evaluating the shooting accuracy of a camera terminal.
  • FIG. 54 is a diagram for explaining an evaluation function G of the camera terminal.
  • FIG. 55 is a diagram illustrating the operation of the camera terminal.
  • FIG. 56 is a block diagram showing the configuration of Embodiment 8 according to the present invention.
  • FIG. 57 is a flowchart illustrating an operation of the eighth embodiment.
  • FIG. 58 is a flowchart illustrating a procedure for evaluating the shooting accuracy of the camera terminal.
  • FIG. 59 is a diagram illustrating an evaluation function H of a camera terminal.
  • FIG. 60 is a diagram illustrating the operation of the camera terminal.
  • FIG. 61 is a block diagram showing a configuration of a ninth embodiment according to the present invention.
  • FIG. 62 is a flowchart illustrating the operation of the ninth embodiment.
  • FIG. 63 is a diagram illustrating the operation of the camera terminal.
  • FIG. 64 is a diagram showing a relationship between a visual field region and a photographing region of the camera terminal.
  • FIG. 65 is a diagram for explaining an evaluation function I of a camera terminal.
  • FIG. 66 is a diagram illustrating the operation of the camera terminal.
  • FIG. 67 is a diagram for explaining the operation of the camera terminal in which the installation position and the shooting area intersect each other.
  • FIG. 68 is a diagram illustrating a procedure for determining a cooperating partner in changing the shooting area information of the camera terminal.
  • FIG. 69 is a diagram illustrating the operation of the camera terminal.
  • FIG. 70 is a block diagram showing a configuration of the tenth embodiment according to the present invention.
  • FIG. 71 is a flowchart illustrating the operation of the tenth embodiment.
  • FIG. 72 is a diagram for explaining a method of estimating a shooting area of a mobile camera.
  • Fig. 73 is a diagram for explaining a method of specifying a shooting area adjacent to a shooting area of a mobile camera.
  • FIG. 74 is a view for explaining the evaluation function A of the moving camera.
  • FIG. 75 is a view for explaining the evaluation function B of the moving camera.
  • FIG. 76 is a diagram showing an example of the monitoring area information stored in the monitoring range storage unit.
  • FIG. 77 is a view for explaining the operation of the mobile camera.
  • FIG. 78 is a view for explaining the operation of the mobile camera.
  • FIG. 79 is a block diagram showing a configuration of the eleventh embodiment.
  • FIG. 80 is a flowchart illustrating the operation of the eleventh embodiment.
  • FIG. 81 is an example 1 of the monitoring area map information stored in the monitoring area map storage unit.
  • FIG. 82 is a diagram illustrating the operation of the mobile camera.
  • FIG. 83 is a block diagram showing a configuration of a twelfth embodiment according to the present invention.
  • FIG. 84 is a flowchart illustrating the operation of the twelfth embodiment.
  • FIG. 85 is a block diagram showing another configuration of the twelfth embodiment according to the present invention.
  • FIG. 86 is a view for explaining the operation of the mobile camera.
  • FIG. 87 is a block diagram showing a configuration of the thirteenth embodiment according to the present invention.
  • FIG. 88 is a flowchart for explaining the operation of the thirteenth embodiment.
  • FIG. 89 is a view for explaining the evaluation function C of the moving camera.
  • FIG. 90 is a diagram illustrating the operation of the mobile camera in the thirteenth embodiment.
  • FIG. 91 is a block diagram showing a configuration of the fourteenth embodiment according to the present invention.
  • FIG. 92 is a flowchart illustrating the operation of the fourteenth embodiment.
  • FIG. 93 is a diagram for explaining the operation of the captured video comparing unit.
  • FIG. 94 is a diagram showing an example of a specific installation method of the mobile camera.
  • FIG. 95 is a diagram showing another example of a specific installation method of the mobile camera.
  • FIG. 96 is a diagram showing a surveillance system including a recording element in addition to the imaging element of the camera terminal.
  • FIG. 97 is a diagram showing a monitoring system provided with a sensor element in addition to the imaging element of the camera terminal.
  • FIG. 98 is a diagram illustrating an example in which the present invention is applied to a microphone.
  • FIG. 7 is a basic configuration diagram of the monitoring system according to the embodiment of the present invention. Here, a monitoring system including components common to individual embodiments described later is shown.
  • This surveillance system is composed of a plurality of camera terminals 01 and 01b composed of the same components, and a communication medium 02 for transmitting information on the imaging characteristics of each camera terminal 01 and 01b.
  • Each of the camera terminals 01 and 0 lb cooperates with the surrounding camera terminals to change the shooting characteristics so that the entire monitoring area can be monitored in more detail as a whole monitoring system.
  • the description will focus on one camera terminal 01.
  • the camera terminal 01 is an autonomous cooperative camera that autonomously cooperates with another camera terminal to change shooting characteristics, and communicates with another camera terminal Olb to communicate information about shooting contents. It consists of a camera unit 04, a camera element 04 whose shooting characteristics can be changed, and a camera characteristics changing unit 05 that changes the shooting characteristics of the camera device 04. The shooting characteristics of camera terminal 01 and the shooting characteristics of other camera terminals Olb The photographing characteristic changing unit 05 changes the photographing characteristics of the photographing element 04 so that the relationship with the image data satisfies a predetermined condition.
  • FIGS. 8A and 8B show various types of information relating to the photographing characteristics used in the photographing characteristic changing unit 05.
  • FIG. 8A shows various types of information relating to the photographing characteristics used in the photographing characteristic changing unit 05.
  • the shooting area information shown in FIG. 8 (b) is information on the shooting area of the camera terminal 01.
  • the shooting area information includes the position coordinates, center coordinates, area, and the like of the shooting area.
  • the area determination parameters in FIG. 8 are parameters for determining the shooting area information of the camera terminal 01.
  • the area determination parameters include an installation position (x, y, z) of the camera terminal 01, a pan angle 0, a tilt angle 0, and a focal length f indicating a line of sight.
  • the shooting accuracy information shown in FIG. 8 (b) is information on the accuracy of the shot video of the camera terminal 01.
  • the shooting accuracy information indicates, for example, the resolution of the shot video or the size of the area where the shot video is actually shot.
  • the area determination parameter shown in FIG. 8B is a parameter for determining the imaging area information of the camera terminal 01, and is, for example, a focal length f.
  • Embodiment 1 of the present invention will be described.
  • FIG. 9 is a configuration diagram of the monitoring system according to the first embodiment of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 101 and 101b having the same component power, and a communication medium 102 for transmitting information on photographing characteristics of each camera terminal 101 and 101b. More detailed monitoring area as a whole monitoring system The shooting characteristics are changed in coordination with the surrounding camera terminals so that the monitoring can be performed at the same time.
  • the description will focus on one camera terminal 101.
  • the camera terminal 101 is the autonomous cooperative camera according to the first embodiment.
  • the communication medium 102 is a communication network connecting a plurality of camera terminals.
  • the communication unit 103 is a communication interface that communicates shooting area information of the camera terminal 101 and area determination parameters.
  • the imaging element 104 is a CCD camera or the like capable of changing the imaging area described above.
  • the shooting characteristic changing unit 105 is a processing unit that changes shooting characteristics in cooperation with surrounding camera terminals, and includes a cooperating partner determining unit 106, an area difference evaluating unit 107, and a shooting area changing unit 108.
  • the cooperating partner determination unit 106 based on the imaging region information and the region determination parameter of the other camera terminal 101b received by the communication unit 103, mutually adjacent imaging regions among the other camera terminals 101b The camera terminal 101b is determined.
  • the region difference evaluation unit 107 determines the shooting region of the camera terminal 1 Olb and the camera terminal 101.
  • An evaluation value A is given for the distance from the shooting area.
  • the imaging area changing unit 108 changes the area determination parameter of the imaging element 104 so that the evaluation value A approaches a predetermined target value A. That is, the shooting area of the camera terminal 101b and the shooting area of the camera terminal 101 are predetermined based on the shooting area information and the area determination parameters of the camera terminal 101b and the camera terminal 101 determined by the cooperating partner determination unit 106.
  • the photographing element 104 of the camera terminal 101 is controlled to change the photographing area so that a fixed relation is established.
  • each camera terminal 101 also exchanges the neutral force of the other camera terminal 101 b communicating with the communication unit 103 with the cooperation partner determination unit 106.
  • the camera terminals in which the imaging regions are adjacent to each other are specified, the evaluation value A is obtained for the distance between the imaging regions adjacent to each other by the region difference evaluation unit 107, and the evaluation value A is set to the predetermined target value by the imaging region change unit 108.
  • the shooting area so as to have the following distance, it is possible to change the shooting area of each camera terminal constituting the monitoring system so as to maintain a predetermined distance from the adjacent shooting areas. Further, as shown in FIGS.
  • the adjacent imaging areas by setting the distance between adjacent imaging areas to a negative value, the adjacent imaging areas have a predetermined overlapping area, and a plurality of camera terminals 101 Can automatically change the shooting area so that the shooting areas are adjacent to each other so that a single camera can shoot a wider area than can be shot by a single camera.
  • Step A01 First, the processing in the communication unit 103 is started.
  • Step A101 Acquisition area information and area determination parameters of the camera terminal 101 are acquired.
  • Step A102 The shooting area information and the area determination parameter of the camera terminal 101 are notified to the other camera terminal 101b.
  • Step A104 Force of other camera terminal 101b It is determined whether or not there is a notification of the shooting area information and the area determination parameter. If there is a notification, the process proceeds to Step A105. If there is no notification, return to step A101.
  • Step A105 Acquisition area information and area determination parameters for which the power of the other camera terminal 101b has also been notified are obtained, and the processing A-1 ends.
  • FIG. 11 This diagram is a diagram assuming a case where the camera terminal 101 is installed on the ceiling with facing the floor.
  • the position of the focal point of the camera terminal 101 is (x, y, 0)
  • the height of the ceiling is H
  • the shape of the image sensor is rectangular and its length and width are (W, W)
  • the focal length is f
  • the camera terminal 101 When the pan and tilt angles indicating the line of sight of the camera are 0 and ⁇ , the floor area photographed by the camera terminal 101 Is obtained by the following equation (1) and equation (4).
  • the positional relationship between the imaging element 104 and the visual field area of the camera terminal 101 is expressed by Expression 1 to Expression 4.
  • the position coordinates of the imaging element used in the above-mentioned equations (1) to (4) are shown in the following equations (5) to (8). That is, the parameters for determining the area of the camera terminal 101 (pan angle ⁇ , tilt angle ⁇ , focal length f, camera
  • the visual field corresponding to the imaging element 104 has a shape in which the rectangular force is also distorted depending on the viewing direction of the camera terminal 101. For this reason, in the following description, a rectangular area inscribed in the visual field area as shown in FIG.
  • Step A02 Next, the processing in the imaging characteristic changing unit 105 is started.
  • the cooperating partner determination unit 106 specifies the camera terminal 101b having a shooting area adjacent to the shooting area of the camera terminal 101.
  • Step A202 The cooperation partner determination unit 106 determines whether or not there is a camera terminal 101 having an adjacent shooting area. If it exists, the process moves to step A203. If it does not exist, process A-2 ends.
  • Step A203 The area difference evaluation unit 107 obtains an evaluation value A with respect to the distance between the camera terminal 101b and the imaging area adjacent to each other.
  • Step A204 It is determined whether the evaluation value A is different from a predetermined target value. If it is different from the target value, the process goes to Step A205. If the target value is equal to U ⁇ , the process A-2 ends. (Step A205) The shooting area changing unit 108 changes the area determination parameter of the camera terminal 101 so that the evaluation value A approaches the target value, and ends the processing A-2. Thereafter, step AOl (processing A-1) and step A02 (processing A-2) are repeated.
  • FIGS. 13 (a) and 13 (b) An example of a specific procedure for determining the camera terminal 101b having adjacent photographing areas in step A201 will be described with reference to the flowcharts shown in FIGS. 13 (a) and 13 (b).
  • FIGS. 13 (a) and 13 (b) An example will be described in which the positional relationship between the shooting region of the camera terminal 101 and the shooting region of the other camera terminal 101b is the positional relationship shown in FIG.
  • Step A301 The entire area that can be photographed by the camera terminal 101 is divided into a plurality of areas based on the direction in which the photographing area of the camera terminal 101 can move from the center of the photographing area (1) of the camera terminal 101 as a base point.
  • the shooting area of the camera terminal 101 is divided into four areas separated by dotted lines in the pan and tilt directions in which the shooting area can be moved with the center as a base point.
  • Step A302 The other camera terminals 101b are grouped according to which of the regions divided in step A301 the center of the imaging region of the other camera terminal 101b is.
  • the upper region (camera terminal 2 and camera terminal 3), the right region (camera terminal 4), and the lower region respectively correspond to the four divided regions in FIG. (Camera terminal 5) and the left area (camera terminal 6, camera terminal 7).
  • Step A303 For each of the divided groups, the closest camera terminal to the center of the shooting area of the camera terminal 101! ⁇ The camera terminal having the center of the shooting area is determined as the cooperation partner.
  • the camera terminal 2 is determined as the cooperating partner in the upward direction, the camera terminal 4 in the rightward direction, the camera terminal 5 in the downward direction, and the camera terminal 6 in the leftward direction.
  • step A203 for evaluating the relationship between the imaging areas of the camera terminal 101 and the other camera terminal 101b will be described.
  • FIG. 17 is a diagram illustrating a state of a positional relationship between the imaging regions of the camera terminal 101 and the other camera terminal 101b according to the first embodiment.
  • An example of the evaluation function A that determines the evaluation value A with respect to the distance relationship between the adjacent imaging regions is represented by the following Expressions 9, 9, 10, 11, and 11. 12 streets.
  • Vc l (xi-XL) ((XI-XL)-Cf one (Equation 9)
  • Vco (X2-XR) ((X2-XR) + C) 2 (Equation 10)
  • Vco3 (yi-yu) ((-yu)-Cf — (Equation 1 1)
  • Step A401 In changing the shooting area, it is checked whether or not there is a partner that cooperates with the camera terminal 101 for each of the groups divided in the process A-3. If there is a partner to cooperate with, go to step A403. There is no partner to cooperate! If ⁇ , end process A-4.
  • Step A402 The distance between the shooting area of the other camera terminal 101b to be cooperated and the shooting area of the camera terminal 101 is determined.
  • Step A403 An evaluation value A is obtained for a difference between a predetermined constant C and a distance (X-XI) between the photographing areas obtained in step A402.
  • the steps of the photographing area 5, the photographing area 2, and the photographing area 3 are the same as those of the photographing area 4.
  • Step A404 is repeated by A401 force, and the evaluation value A is obtained by the above formulas 10, 11, and 12, respectively, and the average value S is calculated based on the positional relationship between the camera terminal 101 and the surrounding camera terminal 10 lb in which the shooting area is adjacent.
  • the evaluation value is A.
  • the evaluation function A is a distance between a neighboring imaging region (X-XI) and a predetermined distance.
  • the evaluation value A becomes the smallest (or larger) when it is equal to the number C, and the evaluation value A monotonically becomes larger (or smaller) as the difference between the distance (X—XI) and the given constant C increases. Any function is acceptable.
  • step A205 the shooting area changing unit 108 changes the shooting area. explain about.
  • the imaging region changing unit 108 changes the evaluation function A into each of the area determination parameters (0, 0) in order to change the imaging region so that the evaluation value A approaches the minimum value (maximum value) as the target value A.
  • each camera terminal 101 sets the area determination parameters (0, 0, f)
  • the shooting area can be automatically changed so that the distance between the adjacent shooting areas is kept at a predetermined distance C.
  • a case will be described as an example where a plurality of camera terminals 101 are installed on the ceiling of a room having a uniform ceiling height, and the camera terminals 101 are operated such that the distance between the imaging regions is a negative value C.
  • the surveillance system according to Embodiment 1 is configured such that, even if the directions and positions of the respective camera terminals are appropriately set, the imaging regions adjacent to each other have an overlap region by the interval C.
  • the photographing area By changing the photographing area, it is possible to cooperatively photograph the wide and the photographing area without any gap between the adjacent photographing areas.
  • the other camera terminal 101b responds to the movement of the camera terminal 101 whose shooting area has been changed. Since the shooting area is changed accordingly, the surveillance system can operate multiple camera terminals like a single camera terminal with a large shooting area. (Embodiment 2)
  • FIG. 20 is a configuration diagram of a monitoring system according to Embodiment 2 of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 201 and 201b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each of the camera terminals 201 and 201b.
  • the feature is that, in addition to the control of the imaging region in 1, the imaging region is adjusted so as to have a fixed positional relationship with a predetermined reference region.
  • the description will focus on one camera terminal 201.
  • FIG. 20 the same components as those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 201 is the autonomous cooperative camera in the second embodiment.
  • the imaging characteristic changing unit 205 is a processing unit that changes the imaging characteristics in cooperation with the surrounding camera terminals, and includes a cooperating partner determination unit 106, an area difference evaluation unit 107, a self-area evaluation unit 211, a reference area storage unit 212, It comprises an area changing unit 213.
  • the self-region evaluation unit 211 takes a target value B when the position is the same with respect to the positional relationship between the center coordinates of the shooting region of the camera terminal 201 and a predetermined position, and obtains the target value monotonically as the distance increases.
  • This is a processing unit that gives an evaluation value B whose value increases.
  • the reference area storage unit 212 is a memory or the like for storing position information of an area serving as a reference in photographing.
  • the imaging region changing unit 213 is a processing unit that changes the region determination parameter of the imaging element 104 so that the evaluation value B approaches a predetermined target value in addition to the evaluation value A. That is, in addition to the function of the shooting area changing unit 108 in the first embodiment, the shooting of the camera terminal 201 is performed so that the shooting area of the camera terminal 201 has a fixed positional relationship with the reference area (for example, the positions match). The element 104 is controlled to change the shooting area.
  • an area where distortion of a captured image is small is given to reference area storage section 212 as a reference area, and self-area evaluation section 211 uses camera terminal 20.
  • the evaluation value B is obtained for the distance between the shooting area of 1 and the reference area, and the shooting area change unit 213 changes the shooting area of each camera terminal 201 so as to be closer to the reference area, so that each camera terminal 201
  • the camera terminal 201b and the other camera terminal 201b are adjacent to each other, but are in charge of an area with relatively little distortion, and as a result, the images with little distortion captured by each camera terminal 201 are combined, so that the distortion is reduced as a surveillance system.
  • a small and wide range of images can be acquired.
  • FIGS. 21 (a) and 21 (b) are flowcharts showing a procedure in which the camera terminal 201 changes the shooting area.
  • the same reference numerals are used for the same operation procedures as in FIGS. 10 (a)-(c), and the description is omitted.
  • Step B01 Next, the processing in the photographing characteristic changing unit 205 is started.
  • Step B101 The self-area evaluation unit 211 obtains an evaluation value B for the shooting area of the camera terminal 201.
  • Step B102 The cooperating partner determination unit 106 determines a partner to cooperate in changing the shooting area of the camera terminal 201.
  • Step B103 The cooperating partner determination unit 106 determines whether there is a partner to cooperate in changing the shooting area of the camera terminal 201. If there is a partner to cooperate, the process proceeds to step B104. If there is no partner to cooperate, the process proceeds to step B105.
  • Step B104 The area difference evaluation section 107 obtains an evaluation value A for the positional relationship between the imaging area of the partner to be cooperated and the imaging area of the camera terminal itself.
  • Step B105 The imaging region changing unit 213 determines whether the evaluation value A and the evaluation value B are different from the predetermined target values A and B. If it is different from the target value, the process moves to step B106. If the value is equal to the target value U, processing B-2 ends.
  • Step A106 The imaging region changing unit 213 changes the region determination parameter of the camera terminal 201 so that the evaluation value A and the evaluation value B approach the target values, respectively, and ends the process B-2.
  • step AOl processing A-1
  • step B01 processing B-1
  • step B101 a procedure in which the self-region evaluation unit 211 gives an evaluation value B to a distance between the center coordinates of the shooting region of the camera terminal 201 and the center coordinates of the reference region recorded in the reference region storage unit 212
  • the evaluation function B is a function shown below.
  • Step B201 The center coordinates (x, y, z) of the shooting area of the camera terminal 201 or the line-of-sight direction ( ⁇ , ⁇ ) of the camera terminal 201 are obtained.
  • Step B202 An expression representing the evaluation function B with respect to the positional relationship between the center coordinates (x, y, z) of the shooting area of the camera terminal 201 and the center coordinates (X, y, z) of the reference area. 16, Equation 17,
  • the evaluation value is obtained using equation (18).
  • the center coordinates (x, y, z) of the shooting area of the camera terminal 201 can be obtained by the following Expression 21.
  • the relationship between the line-of-sight direction ( ⁇ , ⁇ ) of the camera terminal 201 and the line-of-sight direction ( ⁇ , ⁇ ) to the center coordinates of the reference area is
  • the evaluation value may be obtained by Expressions 19 and 20 indicating the evaluation function B. After obtaining the evaluation value, the process B-3 ends. [0085]
  • the evaluation function B is calculated in the range in which the area determination parameters (0, ⁇ , f) of the camera terminal 201 can be changed, in addition to the above equations 16, 17, 18, 19, and 20. , Camera terminal 201
  • the center coordinate of the shooting area of the camera is equal to the center coordinate of the reference area, the evaluation value becomes the smallest (or larger) when the camera is at the position of, and the center coordinate of the shooting area of the camera terminal and the center coordinate of the reference area are Any function can be used as long as the evaluation value monotonically increases (or decreases) as the distance increases.
  • Step B102 is the same procedure as step A201 in the first embodiment.
  • Step B104 is the same procedure as step A203 in the first embodiment.
  • the imaging region changing unit 213 in the second embodiment sets the region determination parameters ( ⁇ , ⁇ , ⁇ ⁇ , ⁇ ⁇ ) so that the evaluation value A and the evaluation value B approach the minimum value (or the maximum value) as the target value A and the target value B, respectively.
  • the procedure for bringing evaluation value A closer to the minimum value (or the maximum value) is the same as that in the first embodiment.
  • a procedure for bringing the evaluation value B closer to the minimum value (or the maximum value) for example, a derivative using partial derivatives of the above evaluation function B with the domain determination parameters ( ⁇ , ⁇ ) is used.
  • Embodiment 2 Next, an example of the operation of the monitoring system according to Embodiment 2 will be described with reference to FIG. To do.
  • a case will be described as an example where a plurality of camera terminals 201 are installed at appropriate positions on the ceiling of a room having a uniform ceiling height, and the reference area is set immediately below the installation position.
  • each camera terminal 201 can shoot an image with relatively little distortion in the shooting area! The shooting area is changed to a position where the action of changing the shooting area to the area immediately below the installation position and the action of changing the shooting area so as to maintain the overlapping area with the surrounding camera terminal 201b are balanced. Accordingly, each camera terminal 201 can select an area in which the distortion of the captured image is relatively small as the imaging area while making the imaging area adjacent to the surrounding camera terminal 201b.
  • FIG. 25 is a configuration diagram of a monitoring system according to Embodiment 3 of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 301 and 301b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each camera terminal 301 and 301b.
  • the feature is that, in addition to the control of the photographing area in 1 above, the photographing area is adjusted so as to have a fixed positional relationship with the object existing in the monitoring area.
  • description will be made focusing on one camera terminal 301.
  • the same components as those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 301 is the autonomous cooperative camera in the third embodiment.
  • the imaging characteristic changing unit 305 is a processing unit that changes the imaging characteristics in cooperation with the surrounding camera terminals, and includes a cooperating partner determination unit 106, an area difference evaluation unit 107, a self-area evaluation unit 311, and a target object position identification unit 312. And a shooting area changing unit 313.
  • the self-region evaluation unit 311 takes a target value C when the position is the same with respect to the center coordinate of the shooting region of the camera terminal 201 and the predetermined position, and sets the target value C as the distance increases.
  • a processing unit that gives an evaluation value C whose value monotonously increases.
  • the target position specifying unit 312 is a processing unit that specifies the position of the target when the target exists in the shooting area.
  • the imaging area changing unit 313 is a processing unit that changes the area determination parameter of the imaging element 104 so that the evaluation value C approaches a predetermined target value in addition to the evaluation value A. That is, in addition to the function of the imaging region changing unit 108 in the first embodiment, the imaging region of the camera terminal 301 has a fixed positional relationship with the object specified by the object position specifying unit 312 (for example, when the position is In such a manner, the imaging element 104 of the camera terminal 301 is controlled to change the imaging area.
  • camera terminal 301 having the function of capturing an object while tracking the object enables the camera terminal 301 that has found the object to move the object.
  • the remaining 30 lbs of camera terminals track the object, and the camera terminal 301 that is tracking the object changes the shooting area while making the shooting areas adjacent to each other.
  • a plurality of camera terminals 301 can take a picture.
  • FIGS. 26 (a) and 26 (b) are flowcharts showing a procedure in which the camera terminal 301 changes the shooting area.
  • the same reference numerals are used for the same operation procedures as in FIGS. 10 (a)-(c), and the description is omitted.
  • Step C01 The processing in the imaging characteristic changing unit 305 is started.
  • Step C101 The self-region evaluation unit 311 obtains an evaluation value C for the photographing region of the camera terminal 301.
  • the cooperating partner determination unit 106 determines a partner to cooperate in changing the shooting area of the camera terminal 301.
  • Step C103 The cooperating partner determination unit 106 determines whether there is a partner to cooperate in changing the shooting area of the camera terminal 301. If there is a partner to cooperate, the process proceeds to step C104. If there is no partner to cooperate, the process proceeds to step C105.
  • Step C104 The area difference evaluation unit 107 obtains an evaluation value A for the positional relationship between the imaging area of the partner to be cooperated and the imaging area of the camera terminal itself.
  • Step C105 The imaging region changing unit 313 determines whether the evaluation value A and the evaluation value C are different from the predetermined target values A and C. If it is different from the target value, proceed to Step C106. If the value is equal to the target value U, the process C2 ends.
  • Step C106 The imaging region changing unit 313 changes the region determination parameter of the camera terminal 301 so that the evaluation value A and the evaluation value C approach the target values, respectively, and ends the process C1. Thereafter, step A01 (processing A-1) and step C01 (processing C1) are repeated.
  • step C101 the procedure in which the self-region evaluation unit 311 gives the evaluation value C to the distance between the center coordinates of the shooting region of the camera terminal 301 and the position coordinates of the target object will be described with reference to the flowchart of FIG. Will be explained.
  • the positional relationship between the imaging area of the camera terminal 301 and the object is in the positional relationship shown in FIG. 27, and the evaluation function C for obtaining the evaluation value C is a function shown below.
  • the position coordinates of the object (person) will be described below as the center of gravity of the ground contact surface between the object and the floor.
  • VobjePiOp ( ⁇ -0pobjf i (Equation 29)
  • Step C201 The photographing area of the camera terminal 301 is photographed.
  • Step C202 The target position specifying unit 312 determines whether or not the target exists in the imaging region. If the target exists, the process moves to step C203. If the target object does not exist, the process C2 ends.
  • Step C203 The imaging power is also determined by the position coordinates (X, y, z) or position direction (
  • Step C204 The center coordinates (x, y, z) or the line-of-sight direction ( ⁇ , ⁇ ) of the shooting area of the camera terminal 301 are obtained.
  • Step C205 The relation between the center coordinates (x, y, z) of the shooting area of the camera terminal 201 and the position coordinates (X, y, z) of the object is expressed by the following equation 26, which shows the above evaluation function C. Using Equation 27 and Equation 28 obj obj obj
  • the evaluation function C is calculated in the range in which the area determination parameters (0, ⁇ , f) of the camera terminal 301 can be changed, in addition to the above equations 26, 27, 28, 29, and 30.
  • Camera terminal 301
  • the evaluation value C becomes the smallest (or larger) when the center coordinates of the shooting area of the camera and the position coordinates of the object are equal, and the distance between the center coordinates of the shooting area of the camera terminal 301 and the position coordinates of the object is A function where the evaluation value C monotonically increases (or decreases) as it increases Just fine.
  • Step C106 a description will be given of the change of the area determination parameter of the camera terminal 301 (Step C106).
  • the imaging region changing unit 313 sets the region determination parameters ( ⁇ , ⁇ , ⁇ ⁇ ⁇ , ⁇ ⁇ ⁇ ) so that the evaluation value A and the evaluation value C approach the minimum value (or the maximum value) as the target value A and the target value C, respectively. ⁇ ) is changed.
  • the area determination parameters (0, ⁇ ) of the camera terminal 301 are changed by the following equations 31, 32, 33 or 34.
  • FIG. 29 illustrates an example in which a plurality of camera terminals 301 are installed at appropriate positions on the ceiling of a room with a uniform ceiling height and a rectangular floor surface to photograph the floor surface.
  • the camera terminal 301 changes the shooting area so that the target is located at the center of the shooting area.
  • the surrounding camera terminal 201b also changes the shooting area so that the distance between the shooting areas is kept at a predetermined distance C, so that the entire distributed cooperative monitoring system as a whole can monitor the object and its surroundings.
  • the photographing area of the camera terminal can be changed so as to photograph a wide range.
  • FIG. 30 is a configuration diagram of a monitoring system according to Embodiment 4 of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 401 and 401b having the same component power, and a communication medium 102 for transmitting information on the photographing characteristics of each camera terminal 401 and 401b.
  • the feature is that, in addition to the control of the photographing area in 1, the photographing area is adjusted so as to have a fixed positional relationship with the boundary of the photographable area.
  • description will be made focusing on one camera terminal 401.
  • the same components as those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 401 is the autonomous cooperative camera in the fourth embodiment.
  • the imaging characteristic changing unit 405 is a processing unit that changes the imaging characteristics in cooperation with the surrounding camera terminals, and includes a cooperating partner determination unit 106, an area difference evaluation unit 107, a boundary area evaluation unit 411, and an imaging area change unit 413. Is done.
  • the boundary area evaluation unit 411 is a processing unit that gives an evaluation value D to the distance relationship between the shooting area of the camera terminal 401 and the boundary of the area where the camera terminal 401 can shoot.
  • the imaging region changing unit 413 is a processing unit that changes the region determination parameter of the imaging element 104 so that the evaluation value D approaches a predetermined target value in addition to the evaluation value A. That is, in addition to the function of the imaging region changing unit 108 in the first embodiment, the imaging region of the camera terminal 401 has a fixed positional relationship with the boundary of the imageable region (for example, the boundary of the monitoring region) (predetermined position). Of the camera terminal 401 so as to be separated by a distance of
  • the entire monitoring area larger than the area that can be imaged by the camera terminal cannot be imaged at once.
  • the camera terminal 401 changes the photographing area so as to have a predetermined distance from the adjacent photographing area and the boundary of the photographable area.
  • the photographing area of each camera terminal 401 can be changed so that the entire surveillance area can be photographed throughout the surveillance system.
  • FIGS. 31A and 31B are flowcharts showing a procedure in which the camera terminal 401 changes the shooting area.
  • the same reference numerals are used for the same operation procedures as those in FIGS. 10 (a)-(c), and the description is omitted.
  • Step D01 The processing in the imaging characteristic changing unit 405 is started.
  • Step D101 The boundary area evaluation unit 411 obtains an evaluation value D with respect to the positional relationship between the photographing area of the camera terminal 401 and the boundary of the photographable area.
  • Step D102 The cooperating partner determination unit 106 determines a partner to cooperate in changing the shooting area of the camera terminal 401.
  • Step D103 The cooperating partner determination unit 106 determines whether there is a partner to cooperate in changing the shooting area of the camera terminal 401. If there is a partner to cooperate, the process proceeds to step D104. If there is no partner to cooperate, the process proceeds to step D105.
  • Step D104 The area difference evaluation unit 107 obtains an evaluation value A for the positional relationship between the imaging area of the partner to be cooperated and the imaging area of the camera terminal itself.
  • Step D105 The imaging region changing unit 413 determines whether the evaluation value A and the evaluation value D are different from the predetermined target value A and the target value D. If it is different from the target value, the process moves to Step D106. If it is equal to the target value, the process D-2 ends.
  • Step D106 The imaging region changing unit 413 changes the region determination parameter of the camera terminal 401 so that the evaluation value A and the evaluation value D approach the target values, respectively, and ends the process D-1.
  • step A01 processing A-1
  • step D01 processing D-1
  • FIG. 32 illustrates the following relations 35 and 36 which are an example of the positional relationship between the photographing area 1 of the camera terminal 401 and the boundary of the photographable area and the evaluation function D for evaluating the positional relation.
  • Step D201 It is determined whether or not there is a cooperating partner 401b having an imaging area adjacent to the direction in which the imaging area of the camera terminal 401 can move. No cooperating partner exists! ⁇ If there is a direction, proceed to Step D202. If there is no direction in which there is no cooperating partner, the process D-2 ends.
  • Step D202 The position of the boundary of the photographable area of the camera terminal 401 is obtained in the direction in which no cooperating partner exists.
  • Step D203 The distance between the photographing region of the camera terminal 401 and the boundary of the photographable region is evaluated, and the process D-2 ends.
  • the content of the evaluation of the distance between the photographing area of the camera terminal 401 and the boundary of the photographable area will be described using an example of the relationship between the photographing area of the camera terminal 401 and the wall on the left side of FIG. I will tell.
  • the distance (X—X) between the shooting area of the camera terminal 201 and the left wall thereof is calculated, With respect to the difference between the obtained distance and the predetermined constant C, an evaluation value D is obtained by using the equation 35 of the evaluation function D.
  • the evaluation function D is such that the distance (X—X) is a predetermined constant C within a range in which the area determination parameters (0, ⁇ , f) of the camera terminal 401 can be changed.
  • the evaluation value becomes the smallest (or the largest) when it is equal to, and the distance (X—X) is defined as wall
  • the function only needs to be such that the evaluation value monotonically increases (or decreases) as the difference from the number C increases. Also, the evaluation value D with the upper boundary shown in FIG. Thereafter, Step D201 to Step D203 are similarly repeated for other directions, and the evaluation value D is obtained.
  • step D106 the procedure for changing the shooting area of the camera terminal 401 (step D106) will be described.
  • the imaging region changing unit 413 changes the region determination parameters (0, ⁇ ) so that the evaluation value A and the evaluation value D approach the minimum value (or the maximum value) as the target value A and the target value D, respectively.
  • the area determination parameters ( ⁇ , ⁇ ) of the camera terminal 201 are changed in accordance with the update equations of Equations 37, 38, and 39 shown below.
  • N is the number of interacting walls
  • FIG. 34 the ceiling of a room with a uniform ceiling height and a rectangular floor surface
  • FIG. 35 the ceiling of a room with a uniform ceiling height and a rectangular floor surface
  • the entire monitoring area is Can be monitored throughout.
  • the shooting area of the camera terminal with respect to the entire monitoring area is reduced to one place.
  • the imaging area can be changed so that the image is distributed evenly without offsetting.
  • the number of other camera terminals 401b is reduced to the size of the entire monitoring area.
  • the camera terminals 401b cooperate with each other to change the shooting area, so that the entire monitoring area can be monitored again and again.
  • the camera terminals 401 change the shooting area in cooperation with each other. By doing so, the shooting area of each camera terminal 401 can be changed so that the functions of the newly added camera terminal 401 can be used effectively.
  • the shooting area of each camera terminal 401 is automatically determined so that the monitoring system shoots the entire monitoring area. Even if the surveillance system is expanded or a failure occurs, the surveillance system can maintain the entire monitoring area, so the burden on installation and maintenance of the surveillance system can be reduced.
  • FIG. 38 is a configuration diagram of the monitoring system according to the fifth embodiment of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 501 and 501b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each of the camera terminals 501 and 501b.
  • the photographing area is adjusted so that the unphotographed area in the photographing area decreases. Less than,
  • FIG. 38 the same components as those in FIGS. 9 and 30 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 501 is the autonomous cooperative camera in the fifth embodiment.
  • the imaging characteristic changing unit 505 is a processing unit that changes the imaging characteristics in cooperation with the surrounding camera terminals, and includes a cooperation partner determination unit 106, an area difference evaluation unit 107, a boundary area evaluation unit 411, a self-area evaluation unit 511, It comprises a shooting area specifying unit 512 and a shooting area changing unit 513.
  • the self-region evaluation unit 511 takes a target value E when the center coordinate of the shooting region of the camera terminal 501 is the same as the predetermined position, and monotonically increases from the target value as the distance increases. This is a processing unit that gives an evaluation value E whose value moves away.
  • the unphotographed area specifying unit 512 is a processing unit that specifies the position of an unphotographed area where any camera terminal force adjacent to the captured area is photographed.
  • the imaging area changing unit 513 is a processing unit that changes the area determination parameter of the imaging element 104 so that the evaluation value E approaches a predetermined target value in addition to the evaluation value A. That is, in addition to the function of the imaging region changing unit 108 in the first embodiment, the imaging device 104 of the camera terminal 501 is controlled so that the unphotographed region in the monitoring region is reduced (for example, the unexposed region is eliminated). To change the shooting area.
  • camera terminal 501 specifies an unphotographed area adjacent to the photographed area by non-photographed area specifying section 512, The distance between the center of gravity of the photographing area and the center of the photographing area is evaluated, and the photographing area of the camera terminal 501 can be further reduced by the photographing area changing unit 513 so that the unphotographed area is reduced.
  • FIGS. 39 (a) and (b) are flowcharts showing a procedure in which the camera terminal 501 changes the shooting area.
  • 39 (a) and 39 (b) the same reference numerals are used for the same operation procedures as those in FIGS. 10 (a)-(c) and FIGS. 31 (a) and (b), and description thereof will be omitted.
  • Step E01 The processing in the imaging characteristic changing unit 505 is started.
  • Step E101 The self-region evaluation unit 511 obtains an evaluation value E for the positional relationship between the photographed region and the non-photographed region of the camera terminal 501.
  • Step E102 The cooperating partner determination unit 106 determines a partner to cooperate in changing the shooting area of the camera terminal 501.
  • Step E103 The cooperating partner determination unit 106 determines whether there is a partner to cooperate in changing the shooting area of the camera terminal 501. If there is a partner to cooperate, the process proceeds to step E104. If there is no partner to cooperate, the process proceeds to step E105.
  • Step E104 The area difference evaluation unit 107 obtains an evaluation value A for the positional relationship between the imaging area of the partner to be cooperated and the imaging area of the camera terminal itself.
  • Step D105 The imaging region changing unit 413 determines whether the evaluation value A, the evaluation value D, and the evaluation value E are different from the predetermined target values A, D, and E. If it is different from the target value, proceed to step E106. If it is equal to the target value, process E-2 ends.
  • Step E106 The imaging region changing unit 513 changes the region determination parameters of the camera terminal 501 so that the evaluation value A, the evaluation value D, and the evaluation value E approach the target values, respectively, and ends the process E-1.
  • step A01 (processing A-1) and step E01 (processing E-1) are repeated.
  • FIG. 42 shows one example of a positional relationship between a photographed region and a non-photographed region of the camera terminal 501 and an evaluation function E for evaluating the positional relationship. It is a figure explaining the following formulas which are examples.
  • Vblank (z) (z-zblankC) 2 (Equation 42)
  • Step E201 With the center of the photographing area of the camera terminal 501 as a base point, the photographable area of the camera terminal 501 is divided into a plurality of areas in the movable direction of the photographing area.
  • the photographable region is divided into four regions in the pan direction and the tilt direction in which the photographing region is movable based on the center coordinates of the photographing region of the camera terminal 501 as a base point.
  • Step E202 The location of the unphotographed area is specified for each of the divided areas.
  • FIG. 41 an unphotographed area adjacent to the photographing area of the area camera terminal 501 surrounded by a thick frame line.
  • Step E203 It is determined whether there is an unphotographed area adjacent to the photographed area of the camera terminal 501. If there is an adjacent unphotographed area, the process moves to Step E204. If there is no adjacent unphotographed area, processing E-2 ends.
  • Step E204 For each of the divided areas, the center of gravity of an unphotographed area adjacent to the imaged area of the camera terminal 501 is obtained.
  • Step E205 The center coordinates or the line-of-sight direction of the shooting area of the camera terminal 501 are obtained.
  • Step E206 The difference in the distance between the center coordinates of the shooting area of the camera terminal 501 and the center of gravity of the unphotographed area is evaluated using the above-mentioned evaluation function E, Equation 40, Equation 41, Equation 42 or Equation 43 or Equation 44. Find the value E.
  • the processing E-2 is completed.
  • the evaluation function E is the same as the center coordinate of the shooting area of the camera terminal 501 in the range where the area determination parameter can be changed.
  • the evaluation value E becomes the smallest (or large), and as the distance between the center coordinates of the imaging area of the camera terminal 501 and the center of gravity of the adjacent unphotographed area increases, the evaluation value E becomes larger. May be a function that monotonically increases (or decreases).
  • step E205 the change of the shooting area of the camera terminal 501 (step E205) will be described.
  • the imaging region changing unit 513 sets the region determination parameters (0, 0) so that the evaluation value A, the evaluation value D, and the evaluation value E approach the minimum value (or the maximum value) as the target value A, the target value D, and the target value E, respectively.
  • the procedure for bringing the evaluation value E closer to the local minimum value (or local maximum value) is to set the above-mentioned evaluation function E to the region determination parameters (0, ⁇
  • the area determination parameters (0, ⁇ , f) of the camera terminal 501 are calculated according to the following equations 45, 46, 47, and 48.
  • N is the number of adjacent unphotographed areas
  • camera terminal 501 in Embodiment 5 will be described with reference to FIG. I will tell.
  • multiple camera terminals 501 are installed at appropriate positions on the ceiling of a room where the ceiling height is uniform and the floor surface is rectangular, and the floor surface is photographed! You.
  • the unrecognized state is not satisfied when the positional relationship between the adjacent captured areas is satisfied.
  • the camera terminal 501 surrounding the shooting area changes the shooting area so as to bring the line of sight closer to the center of gravity of the unphotographed area, and the surrounding camera terminals 501b also keep the overlap of the adjacent shooting areas at a predetermined size. Since the imaging area is changed, the proportion of the imaging area in the entire monitoring area can be improved in the entire monitoring system.
  • FIG. 44 is a configuration diagram of a monitoring system according to Embodiment 6 of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 601 and 601b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each camera terminal 601 and 601b.
  • the characteristic is that the adjustment is made so as to satisfy the following relationship. In the following, description will be made focusing on one camera terminal 601.
  • the same components as those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 601 is the autonomous cooperative camera in the sixth embodiment.
  • the communication unit 603 is a communication interface that communicates shooting accuracy information of the camera terminal 601 and accuracy determination parameters.
  • the imaging element 604 is a CCD camera or the like capable of changing the imaging accuracy described above.
  • the photographing characteristic changing unit 605 is a processing unit that changes the photographing characteristics in cooperation with the surrounding camera terminals, and includes a cooperating partner determining unit 606, an accuracy difference evaluating unit 609, and a photographing accuracy changing unit 610.
  • the cooperating partner determination unit 606 determines a camera terminal 60lb in which the shooting areas are adjacent to each other from among the other camera terminals 601b.
  • the accuracy difference evaluation unit 609 calculates the shooting accuracy of the camera terminal 60lb and the camera terminal 601.
  • the evaluation value F is given to the difference of.
  • the imaging accuracy changing unit 610 changes the area determination parameter of the imaging element 604 so that the evaluation value F approaches a predetermined target value F. That is, based on the shooting accuracy information and the accuracy determination parameters of the camera terminal 601b and the camera terminal 601 determined by the cooperating partner determination unit 606, the shooting accuracy of the camera terminal 60lb and the shooting accuracy of the camera terminal 601 are in a certain relationship.
  • the imaging accuracy is changed by controlling the imaging device 604 of the camera terminal 601 so that the imaging accuracy is equal (for example, equal).
  • Step F01 First, the processing in the communication unit 603 is started.
  • Step F101 Obtain shooting accuracy information and an accuracy determination parameter of the camera terminal 601.
  • Step F102 The shooting accuracy information and the accuracy determination parameter of the camera terminal 601 are notified to the other camera terminal 601b.
  • Step F103 It is determined whether or not the shooting accuracy information and the accuracy determination parameter have been notified from another camera terminal 601b. If there is a notice, the process proceeds to step F104. If there is no notification, the process returns to step F101.
  • Step F104 The other camera terminal 601b also acquires the shooting accuracy information and the accuracy determination parameter notified of the power, and ends the process F-1.
  • Step F02 Next, the processing in the photographing characteristic changing unit 605 is started.
  • the cooperating partner determination unit 606 changes the shooting accuracy of the camera terminal 601. Decide who to collaborate with.
  • Step F202 The cooperating partner determination unit 606 determines whether there is a partner to cooperate in changing the shooting accuracy of the camera terminal 601. If there is a partner to cooperate, the process proceeds to step F203. If there is no partner to cooperate, process C-2 ends.
  • the accuracy difference evaluation unit 609 obtains an evaluation value F for the relationship between the imaging accuracy information of the partner to be cooperated, the accuracy determination parameter, the imaging accuracy information of the camera terminal 601 and the accuracy determination parameter.
  • Step F204 The accuracy difference evaluator 609 determines whether or not the evaluation value F is different from a predetermined target value F. If it is different from the target value F, the process proceeds to step F205. When it is equal to the target value F, the process F-2 ends.
  • Step F205 The imaging accuracy changing unit 610 changes the accuracy determination parameter of the camera terminal 601 so that the evaluation value F approaches the predetermined target value F, and ends the process F-2.
  • step F01 processing F-1
  • step F02 processing F-2
  • step F201 a procedure for determining a cooperating partner for changing the photographing accuracy according to the sixth embodiment.
  • the procedure for determining the cooperating partner in the sixth embodiment is the same as the procedure for determining the partner in the first embodiment shown in FIGS. 13 (a) and 13 (b).
  • the cooperating partner may be determined based on the positional relationship.
  • another camera terminal that is directly connected to camera terminal A via a network is selected as a cooperating partner in changing the shooting accuracy of camera terminal A.
  • the number of other camera terminals to be relayed may be selected so that the one with a predetermined number within a predetermined range is the cooperative partner. Good. This makes it possible to limit the range of communication on the network, and to prevent an increase in communication traffic on the network due to an increase in the number of camera terminals.
  • the camera terminals exchange their installation position information, and select a camera terminal whose installation position has a physical positional relationship within a predetermined distance range as a cooperation partner. This As a result, it becomes possible to select a cooperating partner based on a physical distance relationship that is not related to a wiring route or a connection configuration of a network connecting camera terminals.
  • FIG. 49 shows the difference in the imaging accuracy between the camera terminal 601 and the other camera terminal 601b in the sixth embodiment.
  • the evaluation function F for determining the evaluation value F for the difference in the imaging accuracy is described below. Equations 49 and 50 are shown.
  • Step F301 Camera terminal 601 cooperates with another camera terminal 60 lb for changing the shooting accuracy with another camera terminal 60 lb. Is there any other partner whose difference with the shooting accuracy of camera terminal 601 has not been evaluated yet? Determine whether
  • Step F302 As a result of determining whether or not there is a partner to cooperate, if there is a partner to cooperate, the process proceeds to Step F303. There is no partner to cooperate! If ⁇ , end process F-3.
  • Step F303 An evaluation value F is obtained for the relationship between the shooting accuracy information and the accuracy determination parameters of the camera terminal 601 and the other camera terminal 60 lb to be coordinated.
  • the evaluation value F is obtained using the above-described expressions 49 and 50 of the evaluation function F for the relationship between the camera terminal A and the camera terminal B or the camera terminal C and the focal length.
  • the evaluation function F is such that the difference between the predetermined imaging accuracy information and the accuracy determination parameter between the camera terminals within the range in which the accuracy determination parameter (f) of the camera terminal 601 can be changed. When they are equal, the evaluation value F becomes the smallest (or the largest), The function is such that the evaluation value F monotonically increases (or decreases) as the difference between the information and the accuracy determination parameter increases.
  • step F205 a procedure for changing the accuracy determination parameter of the camera terminal 601 (step F205) will be described.
  • the imaging accuracy change unit 610 determines the evaluation function F with accuracy.
  • the accuracy determination parameter (f) of the camera terminal 601 is changed according to the following update equation 51 using the derivative partially differentiated with the parameter (f).
  • N is the number of cooperating partners
  • Fig. 50 shows an example in which a plurality of camera terminals 601 are installed on the ceiling of a room having a uniform ceiling height and a rectangular floor surface, and photographing the floor surface.
  • each camera terminal 601 has a different focal length as shown in the left-hand diagram of Fig. 50 and the resolution of captured images (eg, images of a person's face) differs, face recognition of the object And other processes cannot be performed under the same conditions. For this reason, each camera terminal 601 cooperates with another camera terminal 60 lb to uniformize the predetermined shooting accuracy, so that each camera terminal 601 can display an image having the same resolution as shown in the right side of FIG. It is possible to take a picture and perform processing such as face recognition of the target object under the same conditions.
  • captured images eg, images of a person's face
  • FIG. 51 is a configuration diagram of the monitoring system according to the seventh embodiment of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 701 and 701b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each camera terminal 701 and 701b.
  • each camera terminal is characterized in that, in addition to the control of the shooting accuracy in the sixth embodiment, the shooting accuracy is adjusted so as to have a predetermined positional relationship with a predetermined reference accuracy.
  • description will be made focusing on one camera terminal 701.
  • the same components as those in FIG. 44 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 701 is the autonomous cooperative camera in the seventh embodiment.
  • the imaging characteristic changing unit 705 is a processing unit that changes the imaging characteristics in cooperation with the surrounding camera terminals, and includes a cooperating partner determination unit 606, an accuracy difference evaluation unit 609, a self-accuracy evaluation unit 711, a reference accuracy storage unit 712, and an imaging unit. It is composed of an accuracy changing unit 713.
  • the self-accuracy evaluation unit 711 takes the target value G when the shooting accuracy of the camera terminal 701 takes a predetermined value (the reference accuracy stored in the reference accuracy storage unit 712), and the accuracy deviates from the predetermined value.
  • This is a processing unit that gives an evaluation value G whose value monotonously increases as the target value G force increases.
  • the reference accuracy storage unit 712 is a memory or the like that stores the value of the reference accuracy, which is the imaging accuracy used as a reference in imaging.
  • the imaging accuracy changing unit 713 is a processing unit that changes the accuracy determination parameter of the imaging element 604 so that the evaluation value G approaches a predetermined target value in addition to the evaluation value F. That is, in addition to the function of the imaging accuracy changing unit 610 in the sixth embodiment, the imaging element 604 of the camera terminal 701 is controlled so that the imaging accuracy of the camera terminal 701 matches a predetermined value (reference accuracy). Change precision.
  • the camera terminal 601 according to Embodiment 6 can make the shooting accuracy uniform with the surrounding camera terminal 601b, but cannot change the accuracy to a target value.
  • the target shooting accuracy is set as the reference accuracy, so that the shooting accuracy of the camera terminal 701 approaches the target shooting accuracy, and the uniformity is obtained.
  • FIGS. 52 (a) and 52 (b) are flowcharts showing a procedure in which the camera terminal 701 changes the shooting area. 52 (a) and 52 (b), the same reference numerals are used for the same operation procedures as those in FIGS. 45 (a)-(c), and description thereof is omitted. [0191] (Processing G)
  • Step G01 The processing in the photographing characteristic changing unit 705 is started.
  • Step G101 The self-accuracy evaluation unit 711 obtains an evaluation value G for the imaging accuracy of the camera terminal 701.
  • Step G102 The cooperating partner determination unit 606 determines a partner to cooperate in changing the shooting accuracy of the camera terminal 701.
  • Step G103 The cooperating partner determination unit 606 determines whether there is a partner to cooperate in changing the shooting accuracy of the camera terminal 701. If there is a partner to cooperate, proceed to Step G104; otherwise, proceed to Step G105.
  • Step G104 The accuracy difference evaluation unit 609 obtains an evaluation value F for a difference in predetermined imaging accuracy between the partner to be cooperated and the camera terminal 701.
  • Step G105 The accuracy difference evaluator 609 determines whether the evaluation value F and the evaluation value G are different from predetermined target values, respectively. If it is different from the target value, proceed to Step G106. If the target value is equal to U, processing G-1 ends.
  • the imaging accuracy change unit 713 changes the accuracy determination parameter of the camera terminal 701 so that the evaluation value F and the evaluation value G approach the target values, respectively, and ends the process G-1.
  • step F01 processing F-1
  • step G01 processing G-1
  • step G102 The procedure for determining the cooperating partner for changing the imaging accuracy information in the seventh embodiment (step G102) is the same as in the sixth embodiment.
  • FIG. 54 is a diagram for explaining the following Expression 52, which is an example of the evaluation function G for evaluating the difference between the shooting accuracy and the reference accuracy of the camera terminal 701.
  • Step G201 Photographing accuracy information and an accuracy determination parameter of the camera terminal 701 are obtained.
  • Step G202 An evaluation value G is obtained using the expression 52 of the evaluation function G with respect to the photographing accuracy information of the camera terminal 701 and the relationship between the accuracy determination parameter and the reference accuracy.
  • the process G-2 ends.
  • the evaluation function G is a predetermined photographing accuracy information of the camera terminal 701 and the accuracy determination parameter and the reference accuracy within the range in which the accuracy determination parameter (f) of the camera terminal itself can be changed.
  • the evaluation value G becomes the smallest (or larger) when is equal, and the evaluation value G monotonically increases (or becomes larger) as the difference between the predetermined accuracy information and the accuracy determination parameter of the camera terminal 701 and the reference accuracy becomes larger. Any function can be used.
  • step G106 the change of the shooting accuracy of the camera terminal 701 (step G106) will be described.
  • the imaging accuracy changing unit 713 changes the accuracy determination parameter (f) so that the evaluation value F and the evaluation value G approach the minimum value (or the maximum value) as the target value F and the target value F, respectively.
  • the camera is calculated in accordance with the following updated expression 53 using the derivative of the above evaluation function F partially differentiated with the accuracy determination parameter (f).
  • the accuracy determination parameter (f) of the terminal 701 is changed.
  • Embodiment 7 Next, an example of the operation of the camera terminal according to Embodiment 7 will be described with reference to FIG.
  • a plurality of camera terminals 701 are installed on the ceiling of a room having a uniform ceiling height and a rectangular floor surface, and photographing the floor surface.
  • the photographing accuracy can be made uniform with a value close to the reference accuracy.
  • the shooting accuracy at which a video having the same resolution as that of the template image can be shot is set to the reference accuracy.
  • FIG. 56 is a configuration diagram of the monitoring system according to the eighth embodiment of the present invention.
  • This surveillance system is composed of a plurality of camera terminals 801 and 801b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each of the camera terminals 801 and 801b.
  • the feature is that the shooting accuracy is changed depending on whether or not the object is detected.
  • description will be made focusing on one camera terminal 801.
  • the same components as those in FIG. 44 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 801 is the autonomous cooperative camera in the eighth embodiment.
  • the imaging characteristic changing unit 805 is a processing unit that changes the imaging characteristics in cooperation with the surrounding camera terminals, and includes a cooperating partner determination unit 606, an accuracy difference evaluation unit 609, a self-accuracy evaluation unit 811, an object identification unit 812, It comprises an object shooting reference accuracy storage unit 813 and a shooting accuracy changing unit 814.
  • the self-accuracy evaluation unit 811 takes a target value H when the shooting accuracy is at a predetermined value with respect to the shooting accuracy of the camera terminal 801 and monotonically increases from the target value H as the accuracy departs from the predetermined value.
  • This is a processing unit that gives an evaluation value H whose value is far away.
  • the object specifying unit 812 is a processing unit that specifies whether or not the object exists in the imaging region.
  • the target object photographing reference accuracy storage unit 813 is a memory or the like that stores the photographing accuracy for photographing the object.
  • the imaging accuracy changing unit 814 is a processing unit that changes the accuracy determination parameter of the imaging element 604 so that the evaluation value H approaches a predetermined target value H in addition to the evaluation value F. Specifically, when the object specifying unit 812 specifies an object in the shooting area, the camera terminal 801 When the imaging element 604 is controlled so that the imaging accuracy becomes the imaging accuracy stored in the object imaging reference accuracy storage unit 813, and the object identification unit 812 does not identify the object, the same as in Embodiment 6. Next, the imaging element 604 is controlled so that the imaging accuracy of the camera terminal 801 is the same as that of the other camera terminals.
  • the shooting accuracy of the camera terminal 801 can be reduced.
  • the camera terminal 801 in which the object has entered has changed the shooting accuracy in order to shoot the object in detail, and when the object is no longer in the shooting area, the shooting accuracy is again uniform with the surrounding camera terminals. Can be changed to For this reason, the camera terminal 801 close to the target shoots the object in detail, and the remaining 80 lb camera terminal automatically plays a role to shoot the area around the target with the same shooting accuracy. Can be changed.
  • FIGS. 57 (a) and 57 (b) are flowcharts showing a procedure in which the camera terminal 801 changes the photographing accuracy. Note that in FIGS. 57 (a) and (b), the same operation procedure as in FIGS. 45 (a) and (c) is performed! The same reference numerals are used, and the description is omitted.
  • Step H01 The processing in the photographing characteristic changing unit 805 is started.
  • Step H101 The self-accuracy evaluation unit 811 obtains an evaluation value H for the imaging accuracy of the camera terminal 801.
  • Step H102 The cooperating partner determination unit 606 determines a partner to cooperate in changing the shooting accuracy of the camera terminal 801.
  • Step H103 The cooperating partner determination unit 606 determines whether there is a partner to cooperate in changing the shooting accuracy of the camera terminal 801. There is a partner to work with In such a case, the process proceeds to Step H104. If there is no partner to cooperate, the process proceeds to Step H105.
  • the accuracy difference evaluation unit 609 obtains an evaluation value F for a difference in predetermined imaging accuracy between the partner to be cooperated and the camera terminal 801.
  • Step H105 The accuracy difference evaluation section 609 determines whether or not the evaluation value F and the evaluation value H are different from predetermined target values. If it is different from the target value, proceed to Step H106. If it is equal to the target value, the process H-1 ends.
  • the imaging accuracy changing unit 814 changes the accuracy determination parameter of the camera terminal 801 so that the evaluation value F and the evaluation value H approach the target values, respectively, and ends the process H-1.
  • Step F01 Processing F-1
  • Step H01 Processing H-1
  • FIG. 59 is a diagram for explaining the following Expression 54, which is an example of the evaluation function H for evaluating the difference between the shooting accuracy of the camera terminal 801 and the reference accuracy for shooting an object.
  • Step H201 The camera terminal 801 captures an image in the capturing area.
  • Step H202 It is determined whether or not an object exists in the shooting area. If the target exists, the procedure goes to step H203. If the object does not exist, the process H-2 ends.
  • Step H203 For the relationship between the shooting accuracy information and the accuracy determination parameter (f) of the camera terminal 801 and the reference accuracy (f) for shooting the target object, use the above equation 54 of the evaluation function H.
  • the evaluation value H is obtained by V and the processing H-2 is completed.
  • the evaluation function H is the accuracy determination parameter (f) of the camera terminal 801.
  • the evaluation value H becomes the smallest (or large), and the predetermined shooting accuracy of the camera terminal itself and the target shooting accuracy Any function that makes the evaluation value H monotonically increase (or decrease) as the difference from the reference accuracy for photographing an object increases!
  • step H106 a description will be given of a change in the shooting accuracy of the camera terminal 801 (step H106).
  • the imaging accuracy changing unit 814 changes the accuracy determination parameter (f) so that the evaluation value F and the evaluation value H approach the minimum value (or the maximum value) as the target value F and the target value H, respectively. .
  • FIG. 8 an example of the operation of camera terminal 801 in Embodiment 8 will be described using FIG.
  • a plurality of camera terminals 801 are installed on the ceiling of a room having a uniform ceiling height and a rectangular floor surface, and photographing the floor surface.
  • each camera terminal 801 shoots a target object with a predetermined reference accuracy when a predetermined target object appears in the shooting area, and moves the target object from the shooting area. When it disappears, it acts again to make the shooting accuracy uniform with the surrounding camera terminal 801b
  • FIG. 61 is a configuration diagram of a monitoring system according to Embodiment 9 of the present invention.
  • This monitoring system is composed of a plurality of camera terminals 901 and 901b having the same component power, and a communication medium 102 for transmitting information on the imaging characteristics of each of the camera terminals 901 and 901b. It is characterized in that it has the function of adjusting the shooting area and the shooting accuracy in one.
  • the description will focus on one camera terminal 901.
  • the same components as those in FIGS. 9, 20, 25, 30, 30, 38, 44, 51, and 56 are denoted by the same reference numerals, and description thereof will be omitted.
  • Camera terminal 901 is the autonomous cooperative camera in the ninth embodiment.
  • the communication unit 903 is a communication interface that communicates imaging area information, area determination parameters, imaging accuracy information, and accuracy determination parameters of the camera terminal 901.
  • the imaging characteristic changing unit 905 is a processing unit that changes the imaging characteristics in cooperation with surrounding camera terminals, and includes a cooperating partner determination unit 106, an area difference evaluation unit 107, an accuracy difference evaluation unit 109, and a reference area storage.
  • the self-area evaluation unit 911 is a processing unit that gives an evaluation value B, an evaluation value C, an evaluation value D, and an evaluation value E to the shooting area of the camera terminal 901.
  • the self-accuracy evaluation unit 912 is a processing unit that gives an evaluation value G and an evaluation value H to the shooting accuracy of the camera terminal 901.
  • the imaging region changing unit 913 is a processing unit that changes the region determination parameter so that the evaluation value A, the evaluation value B, the evaluation value C, the evaluation value D, and the evaluation value E each approach the target value. . That is, it also has the function of the imaging region changing unit in the first to fifth embodiments.
  • the imaging accuracy changing unit 914 is a processing unit that changes the accuracy determination parameter so that the evaluation value F, the evaluation value G, and the evaluation value H each approach the target value. That is, it also has the function of the imaging accuracy changing unit in Embodiments 6-8.
  • the area difference evaluator 107, the boundary area evaluator 411, and the self-area evaluator 911 respectively perform the shooting area of the camera terminal 901.
  • the evaluation value A, evaluation value B, evaluation value D, and evaluation value E are obtained, and photographing is performed by the imaging region changing unit 913 such that the evaluation value A, evaluation value B, evaluation value D, and evaluation value E approach a predetermined target value.
  • the imaging region changing unit 913 By changing the area, it is possible to capture images with little distortion over the entire monitoring area.
  • the evaluation value F and the evaluation value G are obtained by the accuracy difference evaluation unit 109 and the self-accuracy evaluation unit 912 with respect to the imaging accuracy of the camera terminal 901.
  • the shooting accuracy so that each of them approaches the predetermined target value, it is possible to shoot a video with the same shooting accuracy from all the camera terminals 901.
  • the object and its position are specified by the object position specifying unit 312 and the object specifying unit 812, and the self-area evaluation unit 911 is used.
  • the evaluation value C is obtained by the self-accuracy evaluation unit 912
  • the evaluation value H is obtained by the self-accuracy evaluation unit 912.
  • FIG. 62 (a)-(d) is a flowchart showing a procedure in which the camera terminal 901 changes the photographing accuracy.
  • the same reference numerals are used for the same operation procedures as in FIGS. 10 (a)-(c) and FIGS. 45 (a)-(c), and the description is omitted.
  • the self-area evaluation unit 911 obtains an evaluation value B, an evaluation value C, an evaluation value D, and an evaluation value E for the shooting area of the camera terminal 901.
  • Step 1102 The cooperating partner determination unit 106 determines a partner to cooperate in changing the shooting area of the camera terminal 901.
  • the cooperating partner determination unit 106 determines whether there is a partner to cooperate with when changing the shooting area of the camera terminal 901! If there is a partner to cooperate, the process proceeds to step 1104. If there is no partner to cooperate, the process I1 ends.
  • the area difference evaluation unit 107 obtains an evaluation value A for the positional relationship between the imaging area of the partner to be cooperated and the imaging area of the camera terminal 901, and ends the processing 1-1.
  • Step 1201 The self-accuracy evaluation unit 912 obtains an evaluation value G and an evaluation value H for the shooting accuracy of the camera terminal 901.
  • Step 1202 The cooperating partner determination unit 106 determines a partner to cooperate in changing the shooting accuracy of the camera terminal 901.
  • Step 1203 The cooperating partner determination unit 106 determines whether there is a partner to cooperate in changing the shooting accuracy of the camera terminal 901. If there is an opponent to cooperate, proceed to step 1204. If there is no opponent to cooperate, end process E-2.
  • the accuracy difference evaluation unit 109 obtains an evaluation value F for the difference in the imaging accuracy between the partner to be cooperated and the camera terminal 901 and ends the process I2.
  • Step 1301 Whether any of evaluation value A, evaluation value B, evaluation value C, evaluation value D, evaluation value E, evaluation value F, evaluation value G, and evaluation value H differ from predetermined target values. Judge. If there is an evaluation value different from the target value, the process proceeds to step 1302. If there is no evaluation value different from the target value, the process I3 ends.
  • Step 1302 The area determination parameters (0,, and) are set so that the evaluation value A, evaluation value B, evaluation value C, evaluation value D, evaluation value E, evaluation value F, evaluation value G, and evaluation value H approach predetermined target values. ⁇
  • step A01 processing A-1
  • step 101 processing I1
  • step F01 processing F-1
  • step 102 processing I2
  • step 103 processing I3
  • the imaging region changing unit 913 and the imaging accuracy changing unit 914 in the ninth embodiment include an evaluation function A, an evaluation function B, an evaluation function C, an evaluation function D, an evaluation function E, an evaluation function F, and an evaluation function.
  • G, evaluation function H is determined by the area determination parameter (0, ⁇ , f) or the accuracy determination parameter (f).
  • N and M are the number of cooperating partners
  • R and S are the number of adjacent unphotographed areas
  • the shape of the imaging region is an ellipse inscribing the imaging region to the visual field region, the distance L between the two imaging regions overlaps on a straight line connecting the centers of gravity of the imaging regions as shown in FIG.
  • the difference from the predetermined constant C is evaluated.
  • the evaluation value of the relationship between the imaging region A and the surrounding imaging region B, imaging region C, and imaging region D shown in FIG. 65 is obtained by the following Expression 59, Expression 60, and Expression 61 of the evaluation function I.
  • Vconc (LAc) (LAC-Cf-(Equation 60)
  • Vcon (LAD) (LAD ⁇ Cf one (Equation 61)
  • Embodiment 9 an example of a cooperative operation of a camera terminal in which the imaging region takes a shape other than a rectangle in Embodiment 9 will be described with reference to FIG.
  • a plurality of camera terminals 901 are installed at appropriate positions on the ceiling of a room having a uniform ceiling height and a rectangular floor surface, and photographing the floor surface.
  • the camera terminal 901 monitors the width L of the area where the shooting areas overlap each other close to a predetermined value C, so that monitoring is possible. Monitor so that the shooting area of each camera terminal 901 is evenly distributed over the entire area It becomes possible.
  • the center of gravity of the shooting area of the camera terminal 901 is connected, and the overlapping width L on the connected straight line is evaluated.
  • the last shooting area information can be changed.
  • Fig. 68 is a diagram showing a camera terminal in which the line of sight intersects in Embodiment 1, Embodiment 2, Embodiment 3, Embodiment 4, Embodiment 5, and Embodiment 9 excluding the cooperative partner force.
  • 9 is a flowchart showing a procedure for specifying a camera terminal having a matching shooting area.
  • Step 1401 The photographable area is divided into a plurality of areas based on the direction in which the line of sight of the camera terminal 901 can move based on the center of the photographing area of the camera terminal 901 as a base point.
  • Step 1402 The other camera terminals 901b are grouped according to which of the regions divided in step 1401 the center of the shooting region of the other camera terminal 901b is included.
  • Step 1403 The other group of camera terminals 901b that also intersect with the line of sight of the camera terminal 901 are excluded.
  • Step 1404 For each of the divided groups, the camera terminal having the center of the shooting area closest to the center of the shooting area of the camera terminal 901 is determined as the cooperating partner of the camera terminal 901.
  • FIG. 69 shows an example of the cooperative operation of the power camera terminal 901 in a case where the camera terminals whose eyes intersect each other are excluded from the candidate powers of the cooperating partner.
  • multiple camera terminals 901 are installed at appropriate positions on the ceiling of a room with a uniform ceiling height and a rectangular floor surface, and the floor surface is photographed! .
  • the camera terminals constituting the surveillance system cross their sight lines
  • the camera terminals whose sight lines intersect according to the flowchart of Fig. 68 are selected from the candidates of the cooperating partner.
  • the shooting area can be changed so that the shooting area of each camera terminal is the area immediately below the installation position of the camera terminal as shown on the right side of FIG.
  • FIG. 70 is a block diagram showing a configuration of a monitoring system according to Embodiment 10 of the present invention.
  • This surveillance system also includes a plurality of camera terminals consisting of a mobile camera 1101 and a moving unit 1102 connected by a communication network 1103, and the mobile cameras 1101 are autonomously monitored so that the monitoring area 1111 can be monitored throughout.
  • the feature is that it moves cooperatively.
  • the communication network 1103 is a transmission path connecting the plurality of mobile cameras 1101.
  • the moving unit 1102 is a mechanism that changes the shooting position of the mobile camera 1101 and the like.
  • the moving camera 1101 is a camera device that moves while being supported by the moving unit 1102, and includes a communication unit 1104, an adjacent shooting area specifying unit 1105, a shooting element 1106, a shooting area estimation unit 1107, a monitoring range storage unit 1108, and a shooting range. It comprises a position evaluation unit 1109 and a shooting position change unit 1110.
  • Communication unit 1104 is a communication interface for mobile camera 1101 to exchange information with another mobile camera via communication network 1103.
  • the adjacent imaging region specifying unit 1105 is a processing unit that estimates a mobile camera whose imaging region is adjacent to the information from another mobile camera notified to the communication unit 1104.
  • the imaging element 1106 is a CCD camera or the like that captures an image in the monitoring area.
  • the imaging region estimation unit 1107 determines the characteristics of the imaging element 1106 and the position and movement of the movement unit 1102. A processing unit for estimating a shooting area of the camera 1101.
  • the monitoring range storage unit 1108 is a memory or the like that stores a range of an area to be monitored by the mobile camera 1101.
  • the imaging position evaluation unit 1109 is a processing unit that evaluates the distance between the imaging region of the mobile camera 1101 and the overlapping region of the adjacent imaging regions or the boundary of the monitoring region.
  • the shooting position changing unit 1110 is a control unit that controls the moving unit 1102 and changes the shooting position of the mobile camera 1101 so that the evaluation by the shooting position evaluation unit 1109 has a constant target value. Specifically, when the overlapping area of the adjacent imaging areas does not match the predetermined target value, the moving unit 1102 is controlled so that the overlapping area matches the target value, and the distance to the boundary of the monitoring area is controlled. If does not match the target value, the moving unit 1102 is controlled so that the distance matches the target value. As a result, the position of each moving camera is controlled so that the ratio of the shooting area simultaneously shot by the plurality of moving cameras to the monitoring area increases, and the shooting area of the plurality of moving cameras in the monitoring area becomes more uniform. The position of each mobile camera is controlled so as to be dispersed.
  • the monitoring area 1111 is an area to be monitored by the mobile camera 1101.
  • the shooting area 1112 is an area that is shot by the moving camera 1101.
  • the moving camera 1101 notifies the surrounding moving cameras of information about the shooting area estimated based on the shooting position of the mobile camera 1101 and the characteristics of the shooting element 1106, and transmits the information to the neighboring mobile cameras.
  • the shooting position in cooperation with surrounding mobile cameras so that the size of the overlapping area with the matching shooting area and the distance to the boundary of the monitoring area approach a predetermined state, simultaneous shooting by multiple mobile cameras 1101 can be achieved. It is possible to move to a shooting position in the monitoring area where the blind spot in the shooting area is reduced.
  • Mobile camera 1101 repeatedly executes three processes (process [11-J3]).
  • step J01 the following processing aj-i is performed.
  • the shooting area estimating unit 1107 estimates the shooting position of the moving camera 1101 and the characteristic force of the shooting element 1106, and the shooting area of the moving camera 1101 (step J101).
  • the communication unit 1104 notifies the surrounding mobile camera of the information about the imaging region estimated in Step J101 (Step J102).
  • the communication unit 1104 determines whether or not another mobile camera has been notified of the information on the shooting area (step J1103). If there is a notification from another moving camera, the process proceeds to step J104. If there is no notification, the process proceeds to step J101.
  • the communication unit 1104 obtains information on the shooting area notified of another moving camera force (step jio4), and ends the process aj-i.
  • the focal point 1301 is the focal point of the moving camera 1101.
  • the image sensor 1302 is the image sensor 1106 of the mobile camera 1101.
  • the shooting area 1303 is an area shot through the focus of the shooting element 1106 of the mobile camera 1101.
  • Fig. 72 is a diagram assuming a case where the mobile camera is installed on the ceiling facing the floor.
  • the position of the focal point of the moving camera is (x, y, 0)
  • the height of the ceiling is H
  • the shape of the image sensor is rectangular and its length and width are (W, W)
  • the focal length is f
  • the line of sight of the moving camera When the pan and tilt angles indicating the directions are 0 and ⁇ , the floor area taken by the moving camera 1101 is
  • the position is obtained by the following Expression 62, Expression 63, Expression 64, and Expression 65.
  • Expression 66, Expression 67, Expression 68, and Expression 69 are expressions for obtaining the position coordinates of the imaging element used for obtaining Expressions 62, 63, 64, and 65.
  • a force based on the floor taken by mobile camera 1101 may be used as a reference, and a plane at a predetermined height h may be used as a reference. Further, in the area estimation, a three-dimensional space that can be imaged by the mobile camera 1101 may be estimated as an imaging area in a predetermined three-dimensional range other than the plane.
  • mobile camera 1101 starts the following process 12 (step J02).
  • the adjacent photographing area specifying unit 1105 specifies a moving camera having an adjacent photographing area based on information on the power of the surrounding moving camera (step J201). [0273] The adjacent imaging region specifying unit 1105 determines whether there is a moving camera having an adjacent imaging region (step J202). If there is, go to step J203. If not, move to step J204.
  • the imaging position evaluation unit 1109 obtains an evaluation value A for the positional relationship with the adjacent area (step J203).
  • step J204 The range of the area to be monitored stored in the monitoring range storage unit 1108 is referred to (step J204).
  • the shooting position evaluation unit 1109 determines whether or not a shooting region of another moving camera exists between the shooting region and the boundary of the monitoring region with respect to the direction in which the moving camera can move (step J205). If it does not exist, the process moves to step J206, and if it does exist, the process [2] ends.
  • the shooting position evaluation unit 1109 obtains an evaluation value B for the positional relationship between the shooting region and the boundary of the monitoring region in the direction in which the mobile camera can move (step J206), and ends the process [2]. I do.
  • Fig. 73 illustrates a state in which the positional relationship between the imaging regions of the plurality of mobile cameras is viewed from a direction perpendicular to the floor surface.
  • the shooting area adjacent to the shooting area of the mobile camera 1101 is determined based on the center coordinates of the shooting area of the mobile camera 1101 as shown in Fig. 73 in order to identify each direction in which the mobile camera 1101 can move.
  • 1101 divides the photographable area based on the movable direction.
  • Fig. 73 shows a state in which the photographable area is divided into four areas, Area E, Area S, Area W, and Area N, based on the X-axis direction and the Y-axis direction based on the center of the imaging area of the mobile camera. .
  • shooting area 1 is set in area W
  • shooting area 2 and shooting area 3 are set in area N
  • shooting area 4 is set in area E
  • shooting area 5 is set in area S. Belong to each other and are grouped.
  • the mobile camera 1101 and the one having a short distance between the center coordinates of the shooting areas of each other are specified for each group, and the shooting areas adjacent to the mobile camera 1101 are specified.
  • the shooting area 1 is adjacent to the left
  • the shooting area 2 is adjacent to the top
  • the shooting area 4 is adjacent to the right
  • the shooting area 5 is adjacent to the bottom.
  • the shooting area adjacent to the mobile camera 1101 is specified for each direction in which the mobile camera 1101 can move.
  • a method for specifying the shooting area adjacent to the other directions in the other directions is described. May be used.
  • FIG. 74 is a diagram for explaining a positional relationship between adjacent photographing regions and an evaluation function A for giving an evaluation value A to the positional relationship.
  • the evaluation value A of the moving camera 1101 is given by an evaluation function A shown in the following Expression 70, Expression 71, Expression 72, and Expression 73 based on the positional relationship of the surrounding imaging regions.
  • VA4 (y2-yD) ((y2-yD) + C) 2 (Equation 73)
  • the evaluation function A is not limited to Equation 70, Equation 71, Equation 72, and Equation 73, and is the smallest (or larger) when the adjacent imaging areas have a predetermined overlap width of a predetermined constant C. ), And the overlap width (distance) between the adjacent shooting areas with respect to the range in which the moving camera 1101 can move is a constant C force.
  • the value of constant C in Equation 70, Equation 71, Equation 72, and Equation 73 may be different for each moving camera. Furthermore, the same moving camera may take different values of the constant C for each adjacent direction. Further, the constant C is, for example, the size of the shooting area of the mobile camera 1101. The variable c may change in proportion to the magnitude.
  • FIG. 75 is a diagram showing the positional relationship between the imaging region of the mobile camera 1101 and the boundary of the monitoring region, and the following Expression 74 and Expression 75, which are examples of the evaluation function B that gives an evaluation value B to the positional relationship.
  • FIG. As shown in the following equation, when there is no imaging area of another camera between the imaging area of the moving camera 1101 and the boundary of the monitoring area, the evaluation value B is expressed by the following equations 74 and 75. Given by the evaluation function B.
  • FIG. 76 shows an example of the range to be monitored and the contents of the monitoring range information.
  • the evaluation function B is not limited to the equations 74 and 75, and becomes the smallest (or the largest) when the distance between the shooting area of the mobile camera 1101 and the boundary between the monitoring areas becomes a predetermined constant D.
  • an evaluation value in which the distance between the imaging area of the mobile camera 1101 and the boundary of the monitoring area with respect to the range in which the mobile camera 1101 can move is a predetermined constant D force monotonically increases (or decreases) as the distance increases. Any function that gives B may be used.
  • Equation 74 and 75 The value of the constant D in Equations 74 and 75 may be different for each moving camera.
  • the same moving camera may be given a different value D for each adjacent direction.
  • the constant D may be, for example, a variable D that changes in proportion to the size of the shooting area of the mobile camera 1101! / ⁇ .
  • mobile camera 1101 starts the following process [3] (step J03).
  • the shooting position changing unit 1110 determines whether one of the evaluation value A and the evaluation value B is different from the target value. Is determined (step J301). If it is different from the target value, the process proceeds to step J302, and if it is the same as the target value, the process ends [-3].
  • the shooting position changing unit 1110 changes the shooting position so that the evaluation value A and the evaluation value B approach the target values, respectively (step J302), and ends the process [-3].
  • step J301 as the target values of the evaluation values A and B, the minimum value (maximum value) of the respective evaluation values is set as the target value.
  • step J302 an example of a method of bringing the evaluation value A and the evaluation value B close to the target values, respectively, is as follows.
  • the derivative function of the evaluation function A and the evaluation function B which are partially differentiated by the variables (x, y, z) representing the shooting position of the mobile camera 1101, respectively, Is changed according to the updating formulas (76), (77), and (78).
  • N is the number of adjacent shooting areas
  • M is the number of boundaries between adjacent monitoring areas
  • each mobile camera 1101 has a certain overlap width C with the imaging area adjacent to each other, and further, when adjacent to the boundary of the monitoring area, a certain distance from the boundary of the monitoring area. Change the shooting area to have D.
  • the position of each moving camera is controlled so that the proportion of the shooting area simultaneously shot by the plurality of moving cameras with respect to the monitoring area increases, and the shooting area of the plurality of moving cameras in the monitoring area becomes larger.
  • the position of each moving camera is controlled so as to be uniformly distributed.
  • FIG. 77 shows the operation of mobile camera 1101 in the tenth embodiment.
  • a mobile camera 1101 that can move in the horizontal direction is installed on the ceiling of a room with a fixed height, and the floor surface is monitored.
  • the mobile cameras overlap each other in the width C of the overlapping area of the shooting area or the boundary of the monitoring area.
  • the entire monitoring area is automatically set to a position where multiple mobile cameras can simultaneously shoot the entire monitoring area as shown in the positional relationship 1009b in FIG. 77. It is possible to move.
  • the mobile camera 1101 has less blind spots in simultaneous shooting with multiple mobile cameras. Since it automatically moves to a certain position, it is possible to reduce the burden of determining the installation position of the mobile camera and installing the mobile camera.
  • Fig. 78 shows how the mobile camera 1101 moves in the two-dimensional direction.
  • Figure 78 shows the surveillance area as viewed from the direction force perpendicular to the floor.
  • the moving camera 1101 in the tenth embodiment has the state shown in state 10a. Since the imaging position is changed from a simple monitoring area to a monitoring area in which the distance between them is uniform as in state 10b, a large blind spot area that is continuous with the monitoring area will occur. Can be prevented.
  • the ratio of the shooting area that is simultaneously shot by a plurality of mobile cameras to the monitoring area is increased or the monitoring area is set so that The movement control of the plurality of mobile cameras is performed so that the imaging regions of the plurality of mobile cameras are more uniformly distributed.
  • mobile camera 1101 according to Embodiment 10 changes the shooting position in cooperation with surrounding mobile cameras, thereby enabling simultaneous shooting with a plurality of mobile cameras even when installed at an appropriate position.
  • the shooting position of each moving camera can be automatically changed so that the blind spot generated in the monitoring area does not become a continuous area larger than the size of the target object.
  • the ratio of the simultaneous shooting area to the area can be improved, and the burden of installing a camera can be reduced.
  • FIG. 79 is a configuration diagram of a monitoring system according to Embodiment 11 of the present invention.
  • This surveillance system comprises a plurality of camera terminals consisting of a moving camera 1201 and a moving unit 1102 connected by a communication network 1103, and the plurality of moving cameras 1201 are monitored so that the monitoring area 1111 can be monitored throughout.
  • the feature is that while moving in an autonomous and cooperative manner and by referring to the prepared monitoring area map information, the moving camera 1201 specifies an accurate shooting area in consideration of the position, shape, orientation, etc. of the target object.
  • the same components as those in FIG. 70 are denoted by the same reference numerals, and description thereof will be omitted.
  • the object 1120 is an object placed in the monitoring area 1111 to be monitored.
  • the monitoring area map storage unit 1121 is a memory or the like that stores a range of the monitoring area 1111 and monitoring area map information describing the position, size, state, and the like of the object 1120 placed in the monitoring area 1111. .
  • the moving camera 1201 is a camera device that moves while being supported by the moving unit 1102, and includes a communication unit 1104, an adjacent photographing area specifying unit 1105, a photographing element 1106, a photographing position evaluating unit 1109, a photographing position changing unit 1110, and a monitor. It comprises an area map storage unit 1121 and a photographing area specifying unit 1122.
  • the shooting area specifying unit 1122 is a processing unit that specifies the position of the shooting area based on the position of the mobile camera 1201, the characteristics of the shooting element 1106, and the contents of the monitoring area map.
  • mobile camera 1201 refers to the information such as the position, shape, and orientation of target 1120 recorded in the monitoring area map information, and further takes a picture of itself.
  • the imaging area 1112 is specified based on the position and the characteristics of the imaging element, and information about the imaging area is exchanged with the surrounding moving camera, and the overlapping area with the adjacent imaging area or the boundary and distance of the monitoring area are in a predetermined state.
  • FIGS. 80 (a) and (b) the same reference numerals are used for the same operation procedures as those in FIGS. 71 (a)-(d), and the description is omitted.
  • the moving camera 1201 repeatedly executes three processes (processes K1, U2, U3).
  • the shooting area specifying unit 1122 refers to the monitoring area map information stored in the monitoring area map storage unit 1121 (step # 101).
  • the imaging region specifying unit 1122 specifies the position, shape, orientation, and the like of the target 1120 in the monitoring region 1111 (step K102).
  • the shooting area specifying unit 1122 determines the shooting position of the moving camera 1201 and the characteristics of the shooting element 1106.
  • the position, shape, and orientation of the object 1120 also specify the shooting area 1112 of the moving camera 1201 (step K1103).
  • the communication unit 1104 notifies information about the imaging region 1112 specified in step K1103 to the surrounding mobile cameras (step K104).
  • Communication unit 1104 determines whether or not another mobile camera power has been notified of the information on the shooting area (step # 105). If there is a notification from another mobile camera, the process proceeds to step K106. If there is no notification, the process proceeds to step K101.
  • the communication unit 1104 obtains information on the shooting area for which another moving camera power has also been notified (step # 106), and ends the process # 1.
  • step K101 information such as the position, shape, and orientation of furniture and partitions placed in the monitoring area is prepared for the mobile camera 1201 in advance.
  • FIG. 81 shows an example of the contents.
  • the monitoring area 1111 is divided into minute unit areas as the contents of the monitoring area map information, and whether the object 1120 exists (Full) or not (Empty) is recorded for each unit area. Is shown.
  • monitoring area map information it is possible to specify the position, shape, orientation, and the like of the object 1120 existing within the field of view of each moving camera 1201, and it is possible to identify the area where the object 1120 forms a blind spot. It is possible to specify the imaging area in consideration.
  • the monitoring area is divided into unit areas as monitoring area map information, and the unit area is divided into unit areas.
  • map information in which information indicating the position, shape, and orientation of the object 1120 is directly recorded may be used.
  • mobile camera 1201 executes steps [2] and [3] (steps J02 and J03). This processing is the same as in the tenth embodiment.
  • each mobile camera 1201 moves the shooting area 11 determined in consideration of the position of the blind spot generated by the object 1120 existing in the monitoring area 1111.
  • the imaging area is changed so that it has a certain overlap width C with the imaging areas adjacent to each other and also has a certain distance D from the boundary of the monitoring area when it is adjacent to the boundary of the monitoring area.
  • FIG. 82 shows the operation of mobile camera 1201 in the eleventh embodiment.
  • Fig. 82 shows an example in which a mobile camera 1201 that can move in the horizontal direction (one dimension) is installed on the ceiling of a room with a fixed height and the floor surface is monitored. .
  • the entire surveillance area here means that the directional force perpendicular to the floor is taken simultaneously on all surfaces parallel to the floor, and other than this, for example, the object 1120a (desk)
  • a surveillance system that defines the surveillance area to include the lower area, changes the moving range and direction of the mobile camera so that the entire surveillance area can be photographed simultaneously according to the surveillance purpose, and uses the surveillance area map information that is required You can build.
  • the moving camera 1201 according to Embodiment 11 refers to the monitoring area map information prepared in advance, so that the moving camera 1201 can be configured in consideration of the position, shape, and orientation of the object 1120. Since the accurate shooting area can be specified, the blind spot of the monitoring area that is simultaneously shot by the multiple moving cameras 1201 is reduced even in the monitoring area where the blind spot may occur due to the shadow of the object 1120. The shooting position of each mobile camera 1201 Can be changed dynamically.
  • FIG. 83 is a configuration diagram of a monitoring system according to Embodiment 12 of the present invention.
  • This surveillance system comprises a plurality of camera terminals consisting of a mobile camera 1301 and a moving unit 1102 connected by a communication network 1103, and the plurality of mobile cameras 1301 are monitored so that the monitoring area 1111 can be monitored throughout.
  • the feature is that the shooting area of the mobile camera 1301 continues to be specified accurately even if the position, shape, orientation, etc. of the target object changes.
  • FIG. 83 the same components as those in FIGS. 70 and 79 are denoted by the same reference numerals, and description thereof will be omitted.
  • the object detection sensor 1123 is a sensor that detects information such as the position, shape, and orientation of the object 1120 existing in the monitoring area 1111.
  • the communication network 1124 is a transmission path for transmitting information detected by the object detection sensor 1123.
  • the moving camera 1301 is a camera device that moves while being supported by the moving unit 1102, and includes a communication unit 1104, an adjacent photographing region specifying unit 1105, a photographing element 1106, a photographing region estimating unit 1107, a photographing position evaluating unit 1109, and a photographing unit. It comprises a position changing unit 1110, a monitoring area map storage unit 1121, and a monitoring area map creating unit 1125.
  • the monitoring area map creation unit 1125 stores the information in the monitoring area map storage unit 1121 using information such as the position, shape, and orientation of the object 1120 existing in the monitoring area 1111 detected by the object detection sensor 1123. Then, the processing unit creates or changes the monitoring area map information.
  • the monitoring system can detect the target object detection sensor.
  • information on the status, such as the position, shape, and orientation, of the object 1120 existing in the monitoring area 1111 can be acquired, and the monitoring area map creating unit 1125 can automatically create the monitoring area map information.
  • the object detection sensor 1123 is activated.
  • Changes at a predetermined timing, and the monitoring area map information can be changed again by the monitoring area map creation unit 1125, and monitoring can be performed simultaneously with multiple mobile cameras according to changes in the state of the object 1120. It can automatically move to the shooting position in the area where the blind spot is reduced, in cooperation with the surrounding moving cameras.
  • FIGS. 84 (a) and (b) the same steps as those in FIGS. 71 (a)-(d) and FIGS. 80 (a) and (b) are denoted by the same reference numerals, and description thereof will be omitted.
  • Moving camera 1301 repeatedly executes four processes (processes L1, K1, J2, and J3).
  • the object detection sensor 1123 detects the position, shape, orientation, etc. of the object 1120 existing in the monitoring area 1111 and notifies the monitoring area map creation unit 1125 of the content (step
  • the monitoring area map creation unit 1125 creates monitoring area map information that records information such as the position, shape, and orientation of the object 1120 in the monitoring area 1111, or changes the content (step L102). Processing L-1 ends.
  • Step L101 as an example of a specific method of detecting the position, shape, and orientation of the target 1120 by the target detection sensor 1123, a plurality of ultrasonic sensors are set in the monitoring area 1111 in a predetermined manner. There is a method of specifying the state of the target object in the monitoring area 1111 by installing at intervals of and combining information obtained from the respective ultrasonic sensors.
  • the object detection sensor 1123 a method of specifying the position, shape, direction, and the like of the object 1120 by combining a stereoscopic image from images captured by a plurality of cameras.
  • a sensor that can detect information necessary for specifying the position, shape, and orientation of the target object 1120 existing in the monitoring area 1111 may be used.
  • the target 1120 may detect its own position, shape, orientation, and the like, and may notify the monitoring system of the content.
  • Figure 85 shows an example of such a configuration.
  • the position information detection unit 1126 detects the position, shape, orientation, and the like of the target object, and This is a processing unit that notifies the monitoring area map creation unit 1125.
  • the shape of the object 1120 is stored in advance, and the position of the object 1120 is stored using GPS.
  • a method of identifying the position, shape, and orientation of the target object 1120 itself by detecting the position and orientation can be considered.
  • a wireless tag for specifying position information is embedded in the monitoring area 1111, and the object 1120 can read the information of the wireless tag embedded in the monitoring area 1111 to identify itself. Any method may be used as long as the object 1120 itself can specify its own position, shape, and direction, such as a method of specifying the position and direction of the object 1120.
  • the monitoring area map information may be created using a combination of the object detection sensor 1123 and the position information detection unit 1126 shown in each of FIGS. 83 and 85.
  • mobile camera 1301 executes processing K1, processing [2, and processing [3 (steps KO1, J02, and J03). These processes are the same as in the tenth and eleventh embodiments.
  • each moving camera 1301 allows the object 1120 existing in the monitoring area 1111 to cope with a change in its own imaging area caused by a change in position, shape, or orientation.
  • FIG. 86 shows the operation of mobile camera 1301 in the twelfth embodiment.
  • Fig. 86 shows a case where a mobile camera 1301 that can move in the horizontal direction (one dimension) is installed on the ceiling of a room with a fixed height to monitor the floor surface for ease of explanation.
  • the state where mobile camera 1301 monitors the entire surveillance area changes from the state shown in situation 1018b of FIG.
  • Moving the target 1120a and the target 1120b creates blind spots that cannot be captured by the moving camera, but the target is detected by the target detection sensor installed in the monitoring area and the position information notification unit attached to the target.
  • the monitoring area map creation unit 1125 of each mobile camera 1301 By detecting the position of the object and changing the contents of the monitoring area map information by the monitoring area map creation unit 1125 of each mobile camera 1301, the shooting area after the movement of the object 1120a and the object 1120b is specified.
  • a case where the shooting area of one camera is divided into a plurality of areas may occur.
  • an adjacent imaging region is specified for each of the divided imaging regions, and an evaluation value is obtained for an overlap width with the adjacent imaging region or a distance from a boundary of the monitoring region.
  • the entire monitoring area here means that the directional force perpendicular to the floor and the plane parallel to the floor are all photographed at the same time.
  • the object 1120a The surveillance area is defined to include the area under the desk, and the moving range and direction of the mobile camera are changed so that the entire surveillance area can be photographed simultaneously according to the purpose of surveillance. You can build a monitoring system that can be created.
  • mobile camera 1301 detects the position of an object by the object detection sensor installed in the monitoring area or the position information notification unit attached to the object, and The camera 1301 continues to create the contents of the monitoring area map information by the monitoring area map creation unit 1125, so that even if the position, shape, orientation, etc. of the object 1120 changes, the shooting area of the mobile camera 1301 itself can be accurately specified. Even if the object 1120 moves or the state changes, the shooting position of each mobile camera 1301 is automatically set so that the blind spot of the monitoring area simultaneously imaged by the multiple mobile cameras 1301 is reduced. Can be changed to
  • FIG. 87 is a configuration diagram of a monitoring system according to Embodiment 13 of the present invention.
  • This surveillance system also includes a plurality of camera terminals composed of a moving camera 1401, a moving unit 1102, and a shooting direction changing unit 1130 connected by a communication network 1103, and surrounds a surveillance area 1111.
  • the mobile cameras 1401 can move autonomously and cooperatively, and the mobile cameras 1401 can be automatically placed at positions where they can capture images suitable for face recognition of intruders so that they can be monitored without any problem.
  • FIG. 87 the same components as those in FIGS. 70, 79, and 83 are denoted by the same reference numerals, and description thereof will be omitted.
  • the imaging direction change unit 1130 is a mechanism unit or the like that changes the line of sight of the mobile camera 1401.
  • the moving camera 1401 is a camera device that moves while being supported by the moving unit 1102, and includes a communication unit 1104, an adjacent photographing region specifying unit 1105, a photographing element 1106, a photographing region estimating unit 1107, a photographing position evaluating unit 1109, and a photographing position changing unit. 1110, a monitoring area map storage unit 1121, a monitoring area map creation unit 1125, and an object tracking unit 1131.
  • the object tracking unit 1131 is a control unit that turns the line of sight of the mobile camera toward the position of the object with reference to the monitoring area map information stored in the monitoring area map storage unit.
  • the shooting position evaluation unit 1109 in the present embodiment evaluates the distance between the overlapping region with the adjacent shooting region or the boundary of the monitoring region, and also calculates the positional relationship between the target object and the moving camera ( Distance, direction).
  • each mobile camera 1401 performs imaging so that the overlapping area with the adjacent imaging area or the distance from the boundary of the monitoring area is in a predetermined state.
  • the position By changing the position, it is possible to automatically move in coordination with surrounding mobile cameras to a shooting position where the blind spot in the monitoring area is reduced in simultaneous shooting with multiple mobile cameras 1401, and furthermore, any mobile camera
  • the reference numeral 1401 can move the object 1120 in the monitoring area to a position where a predetermined position (distance or direction) can be photographed.
  • FIGS. 88 (a) and 88 (c) an operation procedure of the mobile camera 1401 included in the monitoring system will be described with reference to the flowcharts in FIGS. 88 (a) and 88 (c).
  • Fig. 88 (a)-(c) the same reference numerals are used for the same operation procedures as in Fig. 71 (a)-(d), Fig. 80 (a) and (b), and Fig. 84 (a) and (b). The explanation is omitted.
  • Moving camera 1401 repeatedly executes five processes (processes L1, K1, J2, M-1, M-2).
  • Moving camera 1401 performs the following process as process M-1 (step M01).
  • the photographing position evaluation unit 1109 and the object tracking unit 1131 are stored in the monitoring area map storage unit 1121.
  • the position of the predetermined object 1120 existing in the monitoring area 1111 is acquired with reference to the stored monitoring area map information (step M101).
  • the object tracking unit 1131 determines whether or not the object 1120 exists in the shooting area 1112 (Step M102). If the object 1120 exists, the process proceeds to Step Ml103, and the object tracking unit 1131 proceeds to Step Ml103. Does not exist! In the case of ⁇ , the process M-1 ends.
  • the photographing position evaluation unit 1109 obtains an evaluation value C for the positional relationship between the photographing position of the mobile camera 1401 and the object (step Ml 103), and ends the process M-1.
  • Fig. 89 is a diagram for explaining the positional relationship between the object 1120 and the moving camera 1401, and the following expression that is an example of an evaluation function C that gives an evaluation value C to the positional relationship.
  • the evaluation value C of the moving camera 1401 is given by an evaluation function C shown in Expression 79, Expression 80, and Expression 81 based on the positional relationship between the object 1120 and the moving camera 1401.
  • Vcx ⁇ x (x-xobj-Exf — (Equation 79)
  • Vcy (y) ⁇ y ⁇ yob]-E y f one (Equation 80)
  • the evaluation function C is not limited to Equation 79, Equation 80, and Equation 81, and becomes the smallest (or largest) when the distance between the object 1120 and the movement force 1401 becomes a predetermined constant E.
  • the function that gives an evaluation value C that monotonically increases (or decreases) as the distance between the moving object 1401 and the object 1120 becomes constant as the force E moves away from the object 1120 another function can be used. It may be.
  • the value of the constant E in Equation 79, Equation 80, and Equation 81 may be different for each moving camera.
  • the constant E may be, for example, a variable C that changes depending on the position of the object 1120.
  • mobile camera 1401 starts process M-2 (step M02).
  • the shooting position changing unit 1110 determines whether any of the evaluation value A, the evaluation value B, and the evaluation value C is different from the target value (Step M201). If it is different from the target value, the process moves to step M202, and if it is the same as the target value, the process M-2 ends.
  • the shooting position changing unit 1110 changes the shooting position so that the evaluation value A, the evaluation value B, and the evaluation value C approach the target values, respectively (step M202).
  • the object tracking unit 1131 changes the line-of-sight direction of the moving camera 1401 so that the object 1120 comes to the center of the field of view of the moving camera 1401 (step M203), and ends the process M-2.
  • step M201 the target value of the evaluation value A, the evaluation value B, and the evaluation value is the minimum value (maximum value) of the evaluation values.
  • step M202 an example of a method of bringing the evaluation value A, the evaluation value B, and the evaluation value C close to the respective target values is as follows.
  • the shooting position (x, y) is as follows.
  • step M203 an example of a method of changing the line-of-sight direction so that the object 1120 comes to the center of the line of sight of the mobile camera 1401 is as follows.
  • the mobile camera 1401 can change its line of sight in the pan direction and the tilt direction.
  • Equations 87 and 88 including the derivatives obtained by partially differentiating Equations 82 and 83 with ⁇ and ⁇
  • the gaze direction of the mobile camera 1401 can be changed (0, ⁇ ) by the new style.
  • each moving camera 1401 has a certain overlapping width C with a shooting area adjacent to the surrounding moving camera, and furthermore, when adjacent to the boundary of the monitoring area, the monitoring area
  • the mobile camera 1401 that changes the shooting area so that it has a certain distance D from the boundary of the object, and the object 1120 exists within its own shooting area.
  • the shooting position is changed in coordination with the surrounding mobile camera so that the camera can be moved.
  • FIG. 90 shows the operation of mobile camera 1401 according to the thirteenth embodiment.
  • Fig. 90 shows an example in which a mobile camera 1401 that can move in the horizontal direction (one dimension) is installed on the ceiling of a room with a fixed height to monitor the floor surface for ease of explanation.
  • the mobile camera 1401 is located at a position where the entire monitoring area can be simultaneously photographed by a plurality of mobile cameras.
  • two mobile cameras 1401a and 401b find a predetermined object 1120 (person)
  • the mobile camera 1401 In contrast, multiple mobile cameras 1401 maintain simultaneous shooting of the surrounding mobile camera and the entire surveillance area, as shown in situation 1023b in FIG. 90. However, it moves to a position suitable for shooting the side of the person.
  • the moving camera may be provided with a zoom photographing function, and the photographed image may be photographed as a zoomed image as necessary as shown in a situation 1023c in FIG.
  • the mobile camera 1401 according to Embodiment 13 always simultaneously captures the entire image near the entrance, for example, in the case of monitoring the entrance of a building and performing face authentication of an intruder.
  • the moving force camera 1401 can be automatically arranged at a position where an image suitable for face recognition of an intruder can be captured.
  • FIG. 91 is a configuration diagram of a monitoring system according to Embodiment 14 of the present invention.
  • This surveillance system comprises a plurality of camera terminals consisting of a mobile camera 1501 and a moving unit 1102 connected by a communication network 1103, and the plurality of mobile cameras 1501 are monitored so that the monitoring area 1111 can be monitored throughout. It is possible to move in an autonomous and cooperative manner, and without holding the monitoring area map information, determine that it has an overlapping area with the adjacent imaging area without fail, and the imaging area adjacent to the surrounding mobile camera. The feature is that the shooting area is changed so as to have a certain overlapping area.
  • the same components as those in FIG. 70 are denoted by the same reference numerals, and description thereof will be omitted.
  • the moving camera 1501 is a camera device that moves while being supported by the moving unit 1102, and includes a communication unit 1104, an adjacent shooting area specifying unit 1105, a shooting element 1106, a shooting area estimation unit 1107, a monitoring range storage unit 1108, and a shooting range. It comprises a position evaluation unit 1109, a photographing position changing unit 1110, and a photographed video comparing unit 1140.
  • the captured video comparison unit 1140 uses the image processing (contour extraction, no-turn matching, etc.) to capture the video captured by the moving camera 1501 and the video captured by the mobile camera having adjacent capturing areas. Is a processing unit that compares the image data and the same image in each other's video to determine whether there is a circumstance.
  • the imaging video comparison unit 1140 By judging whether or not there is a place where the same region is photographed in each photographed image, it is possible to determine whether the force between adjacent photographed regions actually has an overlapping region. it can.
  • FIGS. 92 (a) and (b) the same reference numerals are used for the same operation procedures as those in FIGS. 71 (a)-(d), and the description is omitted.
  • Moving camera 1401 repeatedly executes four processes (processes [[1-1J3, N-1]).
  • Moving camera 1401 executes the following processing as processing N-1 (step N01).
  • the imaging position evaluation unit determines whether there is an imaging region estimated to have an overlapping region (step N101), and if it is estimated that an imaging region having an overlapping region exists, proceeds to step N102. Move on. If it does not exist, the process N-1 ends.
  • the captured image comparison unit 1140 compares the captured image of the mobile camera, which is assumed to have an overlapping imaging region, with the image captured by itself, and determines a location where the same region is captured in the captured image of each other. It is determined whether or not exists (step N102). If there is a place where the same region is photographed in each other's photographed images, the process N-1 ends. If there is no location where the same region was photographed, the process moves to step N1103.
  • the shooting position changing unit 1110 moves the moving camera 1501 in the direction of the shooting area where the same area was not found in the shot images of the moving cameras 1501 even though it is estimated that the moving cameras 1501 have overlapping areas. Is moved (step N 1103), and the process N-1 ends.
  • each mobile camera 1501 does not judge that there is an overlapping area with an adjacent imaging area without holding the monitoring area map information. However, the shooting area is changed so as to have a certain overlapping area with the shooting area adjacent to the surrounding moving camera.
  • the mobile camera 1501 according to the fourteenth embodiment includes the object detection sensor 1123 described in the twelfth embodiment such as an outdoor where the position, posture, and orientation of the object 1120 change greatly. Even in an area where the position information detection unit 1126 cannot be installed, the blind spot in simultaneous shooting with multiple moving cameras is small! / It is possible to automatically move each moving camera to the shooting position. Become.
  • a plane moving camera that can move in a two-dimensional plane and a three-dimensional moving camera that can move in a three-dimensional direction using an arm or the like can be used. You may.
  • Fig. 95 shows an example of a surveillance system that uses a plane moving camera whose surveillance area is the wall surface of the room and a three-dimensional moving camera whose surveillance area is the floor surface of the room. The transition to the blind spot reduced state 1025b is shown! /
  • Embodiments 10, 11, 12, and 14 will be described by taking as an example the case where the line of sight of the mobile camera is taken perpendicularly to the floor surface.
  • the gaze direction of the mobile camera can be adjusted according to the moving range of the mobile camera and the purpose of surveillance, for example, by installing a rail at the corner of the room and installing a moving force camera so that the line of sight is directed to the center of the room. You may decide.
  • the monitoring system according to the present invention has been described based on the embodiments. However, the present invention is not limited to these embodiments. In each of the embodiments, those skilled in the art may make various modifications and add functions without departing from the spirit of the invention. Each component in the form may be arbitrarily combined.
  • the imaging characteristic changing unit 905 of the ninth embodiment to the mobile camera 1101 of the tenth embodiment, a plurality of mobile cameras move, so that each imaging area in the monitoring area is uniformly distributed without bias.
  • a surveillance system in which the shooting accuracy of each mobile camera is the same is realized.
  • the camera terminal is provided with only a photographic element for capturing an image.
  • the audio information in addition to the video information of the monitoring area may be further acquired, and the shooting and recording of the object may be performed in accordance with the movement.
  • a sensor terminal such as an infrared sensor, an ultrasonic sensor, a temperature sensor, an ultraviolet ray / ray sensor and the like is provided, and as shown in FIG.
  • a predetermined physical quantity may be measured in addition to the video information from the viewing area, and further, photographing with the object moving and measurement of the predetermined physical quantity may be performed.
  • a monitoring system may be configured with a sensor terminal including a fine movement sensor, a pressure sensor, a temperature sensor, a barometric pressure sensor, a sound sensor (microphone), and the like.
  • the direction in which the sensor detects the physical quantity may correspond to the imaging area at the camera terminal.
  • the direction (region) where sound can be detected with a sensitivity above a certain level is defined as a detection region as shown in Fig. 98 (b).
  • the monitoring system includes a plurality of sensor terminals connected by a communication path, and monitors the monitoring area by detecting a physical quantity in the monitoring area.
  • the plurality of sensor terminals include a detection area included in the monitoring area.
  • a sensor having means for detecting a physical quantity in the sensor and changing a detection area, and transmitting detection characteristic information, which is information for specifying the detection area, to another sensor terminal via a communication path.
  • a communication unit that receives detection characteristic information from another sensor terminal, and the sensor terminal based on the detection characteristic information of the sensor terminal and the detection characteristic information of the other sensor terminal received by the communication unit.
  • a monitoring system including a detection characteristic changing unit that controls the sensor of the sensor terminal to change the detection region so that the detection region of the other sensor terminal and the detection region of another sensor terminal have a predetermined fixed relationship. Is achieved.
  • the present invention relates to a monitoring system using a plurality of cameras, a sensing system for measuring a physical quantity using a plurality of sensor elements, and the like.
  • a monitoring system using a plurality of cameras, a sensing system for measuring a physical quantity using a plurality of sensor elements, and the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 システム構成の変化に柔軟に対応でき、かつ、高い監視能力をもつ監視システムを提供する。  通信媒体02で接続された複数のカメラ端末01および01bから構成される監視システムであって、複数のカメラ端末は、監視領域に含まれる撮影領域を撮影するとともに、撮影領域を変更する手段を有する撮影素子04と、撮影領域を特定する情報である撮影特性情報を通信媒体02を介して他のカメラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信部03と、当該カメラ端末の撮影特性情報と通信部03で受信された他のカメラ端末の撮影特性情報とに基づいて、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域とが予め定められた一定の関係となるように、当該カメラ端末の撮影素子04を制御して撮影領域を変更する撮影特性変更部05とを備える。                                                                                 

Description

明 細 書
監視システムおよびカメラ端末
技術分野
[0001] 本発明は、複数のカメラ端末カゝら構成される監視システムに関し、特に、監視区域 全体を監視できるように、各カメラ端末が周囲のカメラ端末と協調して動作する監視 システム等に関する。
背景技術
[0002] 複数台のカメラを用いることで、 1台のカメラだけでは不可能だった高機能な監視が 可能となる。
[0003] 従来、複数台のカメラを用いた監視システムとして、例えば、特許文献 1に開示され た技術がある。図 1は、特許文献 1に記載された、複数台のカメラの検出領域を自動 調整する装置の構成図である。本図において、広い撮影範囲にわたって検出対象を 撮影する目的を負う移動物体検出用カメラ 10011は、姿勢制御手段 10012により自 身の撮影範囲を変更し、検出対象の拡大画像を撮影する目的を負う監視用カメラ 10 021は、姿勢制御手段 10022により自身の撮影範囲を変更する。各カメラ端末の撮 影範囲は、画像処理装置 10040において、移動物体検出用カメラ 10011が撮影し た撮影画像力 抽出した撮影対象の位置と各カメラ端末の検出範囲から、カメラ画角 記憶手段 10031およびカメラ画角記憶手段 10032に予め記憶させた情報をもと〖こ 決定する。
[0004] 図 2—図 4は、この装置における各カメラの撮影範囲の決定手順の説明図であり、 数個のブロック画像に分割した移動物体検出用カメラ 10011が撮影した画像を示し ている。
[0005] 移動物体検出用カメラ 10011の撮影範囲は以下のように決定される。図 2の斜線 で示すブロックに撮影対象が存在する場合には、それぞれのブロック位置が図 2に示 されるブロック位置と対応している図 3の各ブロックに記載した矢印の方向が示す方 向に移動物体検出用カメラ 10011の姿勢を変化させ、同カメラの撮影範囲を変更す る。各ブロック位置に対応した移動物体検出用カメラ 10011の撮影範囲は予め人間 が決定しており、同情報は 10031カメラ画角記憶手段に予め設定されている。
[0006] 一方、監視用カメラ 10021の撮影範囲は以下のように決定される。図 4に示される ブロック位置に撮影対象が存在する場合には、破線で示した撮影範囲になるよう監 視用カメラ 10021の姿勢を変化させ、同カメラの撮影範囲を変更する。各ブロック位 置に対応した監視用カメラ 10021の撮影範囲は予め人間が決定しており、同情報は カメラ画角記憶手段 10032に予め設定されている。
[0007] このように、特許文献 1に開示された監視システムによれば、監視領域内の広範囲 撮影と所定の対象物の詳細撮影とが同時に行われる。
[0008] また、複数台のカメラを用いた監視システムの別の従来技術として、撮影位置を変 更できる移動カメラを用いて広範囲を監視するものがある (例えば、特許文献 2参照) 。図 5は、特許文献 2に記載された移動カメラ 10の構成図である。本図に示されるよう に、移動カメラ 10は、ケーシング 12と、ケーシング 12の下部に取り付けられたカメラ ユニット 14とを備え、レール 20に沿って移動することが可能である。ケーシング 12の 内部には、移動を制御するためのプログラミング 'コントローラユニット、搬送機構を制 御するためのモータ制御ユニットを含む種々の機能を制御する総合制御ユニットが 配置されており、監視の目的に応じてレール 20の軌道上を移動する速度、位置、ズ 一ム等を制御することができる。以上の構成をとることにより、移動カメラ 10は、例え ば、図 6に示されるレンタルビデオショップ等の店舗内の所定の監視領域内に設置さ れたレール 20の軌道上を移動しながら撮影を行うことで、少な 、台数のカメラであつ ても監視領域にぉ 、て死角となる領域が少なくなるように監視することができる。
[0009] また、複数台のカメラを用いて画像を得る別の従来技術として、特許文献 3に開示 された撮像装置がある。この撮像装置は、被写体を撮影する複数の撮影系と、複数 の撮影系に任意の輻輳角を与える輻輳角制御手段とを利用して、複数の撮影系から 得られる複数の画像情報を得る際、複数の撮影系の撮影条件を検出する検出手段 からの撮影情報と、該複数の撮影系の結像倍率情報を予め記憶して 、る記憶手段 力もの結像倍率情報とを利用して、輻輳角制御手段により複数の撮影系間の撮影範 囲の重複領域が一定範囲内に保たれるように複数の撮影系の輻輳角を制御する。こ れによって、複数の撮影系からの複数の画像情報を得る際、撮影系間の撮影範囲の 重複領域が抜けることなく撮影範囲を有効に使用することができる。
[0010] さらに、複数台のカメラを用いた監視システムの別の従来技術として、特許文献 4に 開示されたビデオ式区域監視装置がある。この装置は、区域を監視するための固定 ノ ィロットカメラと、少なくとも区域の一部を監視するための 1以上の移動可能な遠隔 操作カメラとから成る。パイロットカメラは、区域を表す信号を発生させる。パイロット力 メラによって監視される区域内の移動物体の位置が決定され、物体の位置を表す信 号が発生される。遠隔操作カメラは、物体の位置を表す信号に基づいて物体を追跡 する。パイロットカメラは魚眼レンズを備え、従って、遠隔操作カメラより広い視野を有 する。監視中の区域はデカルト、極座標または球形座標に区分され、それによつてコ ンピュータが物体を追跡するよう遠隔操作カメラに指令することができる。区域を表す 信号は、圧縮されて遠隔監視のために通信チャンネルを通して送信される。これによ つて、区画全体の監視と移動物体の監視とが行われる。
[0011] し力しながら、上記特許文献 1一 4に開示された従来技術では、システムを構成す るカメラ端末の構成と役割が固定され、柔軟性に欠けるという問題がある。そのため に、監視システムを構成するカメラ端末の増設や一部のカメラ端末の故障などによる システム構成の拡張や変化等が生じた場合には、システム全体を再構成しなければ ならない。たとえば、 1台のカメラ端末が故障した場合には、もはや監視システムとし て機會しなくなる。
[0012] 例えば、上記特許文献 1に開示されたカメラ端末は、広 、範囲を撮影する移動物 体検出用カメラ 10011と検出対象の拡大画像を撮影する監視用カメラ 10021とに予 め役割が与えられており、移動物体検出用カメラ 10011と監視用カメラ 10021を連 携させて 1台の移動物体検出用カメラ 10011で撮影できる範囲よりも広い範囲を撮 影することができない。また、監視用カメラ 10021に対して死角となる領域を移動物 体検出用カメラ 10011が代わりに拡大画像を撮影するといった、一方のカメラが持つ 機能を他方のカメラ端末が代わりを行うことができない。このため監視用カメラ 10021 が監視区域に対して死角を持たないように、予めカメラの設置を決めておく必要があ る。
[0013] さらに、上記特許文献 1に開示された 2台のカメラによる協調動作においては、移動 物体検出用カメラ 10011の対象物の検出結果に対して監視用カメラ 10021の撮影 内容の変更手順が 1対 1で対応づけられており、例えば移動物体検出用カメラ 1001 1の台数を増やして移動物体検出の精度を向上させた場合には、改めて複数の移動 物体検出用カメラ 10011の検出結果の組合せのパターン全てに対して、監視用カメ ラ 10021の動作を対応付ける必要がある。
[0014] また、上記特許文献 1一 4に開示された従来技術では、複数のカメラそれぞれに対 して異なる役割が与えられているために、監視における死角が発生し易ぐ監視能力 が十分ではな 、と 、う問題もある。
[0015] 例えば、上記特許文献 2に開示された監視システムを構成する複数台の移動カメラ 10では、監視領域内をレール 20の軌道上に沿って一定の時間内で移動しながら監 視領域の撮影を行うことで監視領域に対してより死角の少ない監視を行うことが可能 になるものの、全ての移動カメラ端末で監視領域全体を同時に監視し続けることがで きない。このため、例えば侵入者が移動カメラ 10の動きに合わせて、常に移動カメラ 10の死角となる領域に移動する場合には、もはや、監視システムは侵入者を発見す ることができない。
特許文献 1:特開平 11 103457号公報
特許文献 2 :特開 2001—142138号公報
特許文献 3:特開平 7 - 303207号公報
特許文献 4:特開平 8— 265741号公報
発明の開示
発明が解決しょうとする課題
[0016] そこで、本発明は、このような上記従来の技術の課題を解決するものであり、システ ム構成の変化に柔軟に対応でき、かつ、高い監視能力をもつ監視システム等を提供 することを目的とする。
課題を解決するための手段
[0017] 上記目的を達成するために、本発明は、通信路で接続された複数のカメラ端末か ら構成され、監視領域を撮影する監視システムであって、前記複数のカメラ端末は、 前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する手 段を有するカメラと、前記撮影領域を特定する情報である撮影特性情報を前記通信 路を介して他のカメラ端末に送信するとともに、他のカメラ端末力 撮影特性情報を 受信する通信手段と、当該カメラ端末の撮影特性情報と前記通信手段で受信された 他のカメラ端末の撮影特性情報とに基づいて、当該カメラ端末の撮影領域と他のカメ ラ端末の撮影領域とが予め定められた一定の関係となるように、当該カメラ端末の力 メラを制御して撮影領域を変更する撮影特性変更手段とを備えることを特徴とする。
[0018] たとえば、前記撮影特性情報には、前記撮影領域の位置を特定する情報が含まれ 、前記撮影特性変更手段は、当該カメラ端末と撮影領域が隣り合う他のカメラ端末を 特定する協調相手決定部と、特定された他のカメラ端末からの撮影特性情報と当該 カメラ端末の撮影特性情報に基づ 、て、前記他のカメラ端末の撮影領域と当該カメ ラ端末の撮影領域との位置関係に対して評価値を与える領域差評価部と、前記領域 差評価部で与えられる評価値が所定の目標値に近づくように前記カメラを制御して 撮影領域を変更する撮影領域変更部とを有して!/ヽてもよ ヽ。
[0019] これによつて、複数のカメラ端末は、他のカメラ端末と情報交換し合 、ながら、 自己 の撮影領域と隣接する撮影領域とが一定の関係となるように自己の撮影領域の位置 やサイズを変更し、その結果として、監視システム全体に各撮影領域が偏りなく均一 に分散され、高い監視能力が維持される。そして、特別な中央集中型のコントローラ を必要とせず、かつ、複数のカメラ端末は、いずれも、同一の機能を備えているので 、一部のカメラ端末が故障したり、カメラ端末が増設される場合であっても、システム 構成を変更することなぐ監視が継続される。
[0020] また、前記複数のカメラ端末はさらに、当該カメラ端末を移動させる移動手段と、前 記移動手段を制御することによって当該カメラ端末の撮影領域の位置を変更する移 動制御手段とを備え、前記移動制御手段は、当該カメラ端末の撮影特性情報と前記 通信手段で受信された他のカメラ端末の撮影特性情報とに基づ!/、て、前記複数の力 メラ端末によって前記監視領域をよりくまなく同時撮影できるように、前記移動手段を 制御してもよい。これによつて、監視領域に対して複数のカメラ端末によって同時に 撮影される撮影領域の割合が増加するように制御したり、監視領域における複数の カメラ端末の撮影領域がより均一に分散するように制御することが容易となる。 [0021] なお、本発明は、このような監視システムとして実現することができるだけでなぐ監 視システムを構成する単体のカメラ端末として実現したり、複数のカメラ端末を用いた 監視方法として実現したり、カメラ端末が備える撮影特性変更手段や移動制御手段 等の処理をコンピュータに実行させるプログラムとして実現することもできる。そして、 そのプログラムを CD— ROM等の記録媒体やインターネット等の伝送媒体を介して配 信することができるのは言うまでもない。
発明の効果
[0022] 本発明の監視システムによれば、相互に協調して動作する複数のカメラ端末から構 成され、各カメラ端末は同一機能を備えるので、一部のカメラ端末が故障や停止など によって撮影機能が失っても、他の複数のカメラ端末が互いに協調して監視領域を 覆うように動作するので、システムを再構成することなぐ監視が継続される。
[0023] また、本発明の監視システムによれば、監視システムを構成する複数のカメラ端末 を監視区域内の適当な位置に設置したり、カメラ端末を任意の位置に増設した場合 であっても、互いに隣り合う撮影領域が一定の位置関係となるように撮影領域が変更 されるので、役割分担や設置台数等の制約が少な 、柔軟な監視システムが実現され る。
[0024] また、本発明の監視システムによれば、どのカメラ端末力もも撮影されて 、な ヽ未撮 影領域が監視区域全体において減少するように、各カメラ端末の撮影領域が自動的 に変更されるので、高い監視能力が維持される。
[0025] また、本発明の監視システムによれば、カメラ端末の設置位置ごとに映像の歪みの 少な 、領域を優先的に撮影するように撮影領域が自動変更されるので、複数のカメ ラ端末によって歪みの少ない広い範囲の映像を撮影することができる。
[0026] また、本発明の監視システムによれば、対象物が撮影領域内に存在する場合、対 象物を追跡しながら撮影するカメラ端末と対象物の周囲を取り囲むように撮影を行う 複数のカメラ端末とに役割が自動的に分担されるので、対象物を追跡しながら周囲 の広 、範囲を撮影することができる。
[0027] また、本発明の監視システムによれば、監視システムを構成する複数のカメラ端末 を監視区域内の適当な撮影精度に設定しても、互いに周囲のカメラ端末間で撮影精 度が均一になるように設定が自動変更されるので、各カメラ端末力 得られる映像の 大きさの比較や画像合成等を容易に行うことができる。
[0028] また、本発明の監視システムによれば、撮影領域内に対象物が現れた場合には対 象物を詳細な精度で撮影し、対象物が撮影領域カゝらなくなると再び周囲のカメラ端 末と同じ撮影精度で撮影するように撮影精度が自動的に調整されるので、対象物の 出没に伴う煩わしい操作が不要となる。
[0029] また、本発明の監視システムによれば、複数の移動カメラ端末を適当な位置に設置 しても、各移動カメラ端末は周囲の隣り合う撮影領域と所定の重なり領域を持ち、さら に監視領域の境界と所定の距離を持つように移動するので、複数の移動カメラ端末 による同時撮影において、監視領域に対する死角が少なくなる位置に各移動カメラ 端末が自動的に配置され、高い監視能力が維持される。
[0030] また、本発明の監視システムによれば、各移動カメラ端末は監視領域に存在する対 象物の位置や形状、向きに関する情報を記憶し、対象物の位置や形状、向きによる 撮影箇所や死角の位置をより正確に特定して移動するので、複数の移動カメラ端末 による同時撮影において、監視領域に対する死角が少なくなる位置に各移動カメラ 端末が自動的に配置される。
[0031] また、本発明の監視システムによれば、監視領域に存在する対象物の状態を所定 の条件で検出することで、監視領域内の対象物の状態が変化し、各移動カメラ端末 が記憶している内容と異なる場合においても、各移動カメラは改めて対象物の状態 に関する情報を変更し、対象物の位置や形状、向きによる撮影箇所や死角の位置を より正確に特定して移動するので、複数の移動カメラ端末による同時撮影において、 監視領域に対する死角が少なくなる位置に各移動カメラ端末が自動的に配置される
[0032] また、本発明の監視システムによれば、複数の移動カメラ端末による同時撮影にお いて監視領域に対する死角が少なくなる位置に各移動カメラ端末が移動し、さらに任 意の移動カメラ端末が対象物を撮影領域に捕らえた場合に、対象物を所定の位置( 距離、方向)から撮影できる位置に移動するので、監視領域のより死角の少ない広範 囲撮影と所定の位置 (距離、方向)からの対象物の詳細撮影を同時に行うことができ る。
[0033] さらに、本発明の監視システムによれば、各移動カメラ端末に対して監視領域に存 在する対象物の位置や形状、向きなどの情報を与えなくても、各移動カメラ端末が撮 影した映像を比較することによって監視領域において実際に撮影されている領域と 死角となっている領域の区別を行うので、地図情報等を備えていなくても、各移動力 メラ端末は、監視領域に対する死角が少なくなる位置に移動することができる。 図面の簡単な説明
[0034] [図 1]図 1は、従来技術に係る装置の構成を示す図である。
[図 2]図 2は、従来技術に係る装置の動作を説明する図である。
[図 3]図 3は、従来技術に係る装置の動作を説明する図である。
[図 4]図 4は、従来技術に係る装置の動作を説明する図である。
[図 5]図 5は、従来技術に係る移動カメラの構成を示す図である。
[図 6]図 6は、従来技術に係る移動カメラの動作を説明する図である。
[図 7]図 7は、本発明における監視システムの基本構成を示すブロック図である。
[図 8]図 8は、カメラ端末の撮影領域情報と領域決定パラメータおよび撮影精度情報 と精度決定パラメータを説明する図である。
[図 9]図 9は、本発明に係る実施の形態 1の構成を示すブロック図である。
[図 10]図 10は、実施の形態 1の動作を説明するフローチャートである。
[図 11]図 11は、カメラ端末の領域決定パラメータと視野領域との関係を表す図である
[図 12]図 12は、カメラ端末の視野領域と撮影領域の関係を示す図である。
[図 13]図 13は、カメラ端末の協調相手の決定手順を説明するフローチャートである。
[図 14]図 14は、カメラ端末の協調相手の決定手順を説明する図である。
[図 15]図 15は、カメラ端末の撮影領域の位置関係の評価手順を説明するフローチヤ ートである。
[図 16]図 16は、カメラ端末の撮影領域の位置関係の評価手順を説明するフローチヤ ートである。
[図 17]図 17は、カメラ端末の評価関数 Aを説明する図である。 [図 18]図 18は、カメラ端末の動作を説明する図である。
[図 19]図 19は、カメラ端末の動作を説明する図である。
[図 20]図 20は、本発明に係る実施の形態 2の構成を示すブロック図である。
[図 21]図 21は、実施の形態 2の動作を説明するフローチャートである。
[図 22]図 22は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。
[図 23]図 23は、カメラ端末の評価関数 Bを説明する図である。
[図 24]図 24は、カメラ端末の動作を説明する図である。
[図 25]図 25は、本発明に係る実施の形態 3の構成を示すブロック図である。
[図 26]図 26は、実施の形態 3の動作を説明するフローチャートである。
[図 27]図 27は、カメラ端末の評価関数 Cを説明する図である。
[図 28]図 28は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。
[図 29]図 29は、カメラ端末の動作を説明する図である。
[図 30]図 30は、本発明に係る実施の形態 4の構成を示すブロック図である。
[図 31]図 31は、実施の形態 4の動作を説明するフローチャートである。
[図 32]図 32は、カメラ端末の評価関数 Dを説明する図である。
[図 33]図 33は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。
[図 34]図 34は、カメラ端末の動作を説明する図である。
[図 35]図 35は、カメラ端末の動作を説明する図である。
[図 36]図 36は、カメラ端末の動作を説明する図である。
[図 37]図 37は、カメラ端末の動作を説明する図である。
[図 38]図 38は、本発明に係る実施の形態 5の構成を示すブロック図である。
[図 39]図 39は、実施の形態 5の動作を説明するフローチャートである。
[図 40]図 40は、カメラ端末の撮影領域の評価手順を説明するフローチャートである。
[図 41]図 41は、カメラ端末の未撮影領域の特定手順を説明する図である。
[図 42]図 42は、カメラ端末の評価関数 Eを説明する図である。
[図 43]図 43は、カメラ端末の動作を説明する図である。
[図 44]図 44は、本発明に係る実施の形態 6の構成を示すブロック図である。
[図 45]図 45は、実施の形態 6の動作を説明するフローチャートである。 [図 46]図 46は、カメラ端末の撮影精度の変更における協調相手の決定手順を説明 する図である。
[図 47]図 47は、カメラ端末の撮影精度の変更における協調相手の決定手順を説明 する図である。
[図 48]図 48は、カメラ端末の撮影精度の評価手順を説明するフローチャートである。
[図 49]図 49は、カメラ端末の評価関数 Fを説明する図である。
[図 50]図 50は、カメラ端末の動作を説明する図である。
[図 51]図 51は、本発明に係る実施の形態 7の構成を示すブロック図である。
[図 52]図 52は、実施の形態 7の動作を説明するフローチャートである。
[図 53]図 53は、カメラ端末の撮影精度の評価手順を説明するフローチャートである。
[図 54]図 54は、カメラ端末の評価関数 Gを説明する図である。
[図 55]図 55は、カメラ端末の動作を説明する図である。
[図 56]図 56は、本発明に係る実施の形態 8の構成を示すブロック図である。
[図 57]図 57は、実施の形態 8の動作を説明するフローチャートである。
[図 58]図 58は、カメラ端末の撮影精度の評価手順を説明するフローチャートである。
[図 59]図 59は、カメラ端末の評価関数 Hを説明する図である。
[図 60]図 60は、カメラ端末の動作を説明する図である。
[図 61]図 61は、本発明に係る実施の形態 9の構成を示すブロック図である。
[図 62]図 62は、実施の形態 9の動作を説明するフローチャートである。
[図 63]図 63は、カメラ端末の動作を説明する図である。
[図 64]図 64は、カメラ端末の視野領域と撮影領域の関係を示す図である。
[図 65]図 65は、カメラ端末の評価関数 Iを説明する図である。
[図 66]図 66は、カメラ端末の動作を説明する図である。
[図 67]図 67は、設置位置と撮影領域が互いに交差するカメラ端末の動作を説明する 図である。
[図 68]図 68は、カメラ端末の撮影領域情報の変更における協調相手の決定手順を 説明する図である。
[図 69]図 69は、カメラ端末の動作を説明する図である。 圆 70:図 70は、本発明に係る実施の形態 10の構成を示すブロック図である。
[図 71図 71は、実施の形態 10の動作を説明するフローチャートである。
圆 72図 72は、移動カメラの撮影領域の推定方法を説明する図である。
圆 73図 73は、移動カメラの撮影領域と隣り合う撮影領域の特定方法を説明する図 である
圆 74:図 74は、移動カメラの評価関数 Aを説明する図である。
[図 75図 75は、移動カメラの評価関数 Bを説明する図である。
圆 76:図 76は、監視範囲記憶部に記憶されている監視領域情報の一例を示す図で ある,
圆 77:図 77は、移動カメラの動作を説明する図である。
圆 78:図 78は、移動カメラの動作を説明する図である。
圆 79:図 79は、実施の形態 11の構成を示すブロック図である。
圆 80:図 80は、実施の形態 11の動作を説明するフローチャートである。
圆 81図 81は、監視領域地図記憶部に記憶されている監視領域地図情報の一例を 示す 1である。
[図 82図 82は、移動カメラの動作を説明する図である。
[図 83図 83は、本発明に係る実施の形態 12の構成を示すブロック図である。
[図 84:図 84は、実施の形態 12の動作を説明するフローチャートである。
[図 85図 85は、発明に係る実施の形態 12の別の構成を示すブロック図である。 圆 86:図 86は、移動カメラの動作を説明する図である。
圆 87図 87は、本発明に係る実施の形態 13の構成を示すブロック図である。
圆 88:図 88は、実施の形態 13の動作を説明するフローチャートである。
圆 89:図 89は、移動カメラの評価関数 Cを説明する図である。
圆 90:図 90は、実施の形態 13における移動カメラの動作を説明する図である。 圆 91図 91は、本発明に係る実施の形態 14の構成を示すブロック図である。
[図 92図 92は、実施の形態 14の動作を説明するフローチャートである。
[図 93図 93は、撮影映像比較部の動作を説明する図である。
[図 94:図 94は、移動カメラの具体的な設置方法の一例を示す図である。 [図 95]図 95は、移動カメラの具体的な設置方法の他の一例を示す図である。
[図 96]図 96は、カメラ端末の撮影素子に加えて録音素子を備えた監視システムを示 す図である。
[図 97]図 97は、カメラ端末の撮影素子に加えてセンサ素子を備えた監視システムを 示す図である。
[図 98]図 98は、本発明をマイクに適用した例を説明する図である。
符号の説明
01、 101、 201、 301、 401、 501、 601、 701、 801、 901 カメラ端末
02、 102 通信媒体
03、 103、 603、 903 通信部
04, 104、 604、 904 撮影素子
05、 105、 205、 305、 405、 505、 605、 705、 805、 905 撮影特性変更部 106、 606 協調相手決定部
107 領域差評価部
108、 213、 313、 413、 513、 913 撮影領域変更部
109、 609 精度差評価部
211、 311、 511、 911 自己領域評価部
212 基準領域記憶部
312 対象物位置特定部
411 境界領域評価部
512 未撮影領域特定部
606 協調相手決定部
610、 713、 814、 914 撮影精度変更部
711、 811、 912 自己精度評価部
712
812 対象物特定部
813 対象物撮影用基準精度記憶部
1101、 1201、 1301、 1401、 1501 移動カメラ 1102 移動部
1103 通信ネットワーク
1104 通信部
1105 隣接撮影領域特定部
1106、 1302 撮影素子
1107 撮影領域推定部
1108 監視範囲記憶部
1109 撮影位置評価部
1110 撮影位置変更部
1111 監視領域
1112、 1303 撮影領域
1120、 1120a, 1120b 対象:
1121 監視領域地図記憶部
1122 撮影領域特定部
1123 対象物検出センサ
1124 通信ネットワーク
1125 監視領域地図作成部
1126 位置情報検出部
1130 撮影方向変更部
1131 対象物追跡部
1140 撮影映像比較部
発明を実施するための最良の形態
[0036] 以下本発明における実施の形態について、図面を参照しながら説明する。
図 7は、本発明の実施の形態における監視システムの基本構成図である。ここでは 、後述する個々の実施の形態に共通する構成要素を備える監視システムが示されて いる。
[0037] この監視システムは、同一の構成要素からなる複数のカメラ端末 01および 01bと、 各カメラ端末 01および 01bの撮影特性に関する情報を伝達する通信媒体 02から構 成され、各カメラ端末 01および 0 lbは監視システム全体として監視区域全体をより詳 細に監視できるように周囲のカメラ端末と協調して撮影特性を変更する。以下、 1台 のカメラ端末 01を中心に説明する。
[0038] カメラ端末 01は、自律的に他のカメラ端末と協調して撮影特性を変更する自律協 調カメラであり、他のカメラ端末 Olbとの間で撮影内容に関する情報を通信するため の通信部 03と撮影特性の変更が可能な撮影素子 04と、撮影素子 04の撮影特性を 変更する撮影特性変更部 05から構成され、カメラ端末 01の撮影特性および、他の力 メラ端末 Olbの撮影特性との関係が所定の条件を満たすように撮影特性変更部 05 が撮影素子 04の撮影特性を変更する。
[0039] 次に、本発明における監視システムが備える撮影特性変更部 05が変更を行う撮影 素子 04の撮影特性について説明する。図 8 (a)および (b)は、撮影特性変更部 05に おいて利用される撮影特性に関する各種情報を示す。
[0040] 図 8 (b)に示される撮影領域情報は、カメラ端末 01の撮影領域に関する情報である 。この撮影領域情報には、撮影領域の位置座標、中心座標、面積等が含まれる。ま た、図 8の領域決定パラメータは、カメラ端末 01の撮影領域情報を決定するパラメ一 タである。この領域決定パラメータには、カメラ端末 01の設置位置 (x、 y、 z)、視線方 向を示すパン角 0 、チルト角 0 、および焦点距離 f等が含まれる。
P T
[0041] また、図 8 (b)に示される撮影精度情報は、カメラ端末 01の撮影映像の精度に関す る情報である。この撮影精度情報は、例えば、撮影映像の解像度、または撮影映像 が実際に撮影している領域の大きさを示す。また、図 8 (b)に示される領域決定パラメ ータは、カメラ端末 01の撮影領域情報を決定するパラメータであり、例えば、焦点距 離 fである。
[0042] (実施の形態 1)
まず、本発明の実施の形態 1について説明する。
[0043] 図 9は、本発明の実施の形態 1における監視システムの構成図である。この監視シ ステムは、同一の構成要素力もなる複数のカメラ端末 101および 101bと、各カメラ端 末 101および 101bの撮影特性に関する情報を伝達する通信媒体 102から構成され 、各カメラ端末 101および 101bは監視システム全体として監視区域全体をより詳細 に監視できるように周囲のカメラ端末と協調して撮影特性を変更する。以下、 1台の力 メラ端末 101を中心に説明する。
[0044] カメラ端末 101は、実施の形態 1における自律協調カメラである。
通信媒体 102は、複数のカメラ端末をつなぐ通信ネットワークである。
[0045] 通信部 103は、カメラ端末 101の撮影領域情報と領域決定パラメータを通信する通 信インターフェースである。
[0046] 撮影素子 104は、上述した撮影領域の変更が可能な CCDカメラ等である。
撮影特性変更部 105は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 106、領域差評価部 107、撮影領域変更部 108から構成さ れる。
[0047] 協調相手決定部 106は、通信部 103で受信された他のカメラ端末 101bの撮影領 域情報と領域決定パラメータに基づいて、他のカメラ端末 101bの中から互いの撮影 領域が隣り合うカメラ端末 101bを決定する。
[0048] 領域差評価部 107は、協調相手決定部 106で決定されたカメラ端末 101bおよび カメラ端末 101の撮影領域情報および領域決定パラメータに基づいて、カメラ端末 1 Olbの撮影領域とカメラ端末 101の撮影領域との距離に対して評価値 Aを与える。
[0049] 撮影領域変更部 108は、評価値 Aが所定の目標値 Aに近づくように撮影素子 104 の領域決定パラメータを変更する。つまり、協調相手決定部 106で決定されたカメラ 端末 101bおよびカメラ端末 101の撮影領域情報および領域決定パラメータに基づ いて、カメラ端末 101bの撮影領域とカメラ端末 101の撮影領域とが予め定められた 一定の関係となるように、カメラ端末 101の撮影素子 104を制御して撮影領域を変更 する。
[0050] 背景技術においては、監視区域全体に対して 1台のカメラ端末が一度に撮影でき る範囲より広い範囲を撮影することができない。また、この問題を解決するために複 数のカメラ端末を用いる場合が考えられるが、各カメラ端末が対してそれぞれの撮影 領域をどのように割り振るかを決定する必要がある。
[0051] これに対し、本実施の形態 1に係る構成によれば、各カメラ端末 101は、通信部 10 3により通信を行っている他のカメラ端末 101bの中力も協調相手決定部 106により互 いの撮影領域が隣り合うカメラ端末を特定し、領域差評価部 107によって互いに隣り 合う撮影領域の距離に対して評価値 Aを求め、撮影領域変更部 108により評価値 A が所定の目標値をとなる距離間隔を持つように撮影領域を変更することにより、監視 システムを構成する各カメラ端末の撮影領域を、互いに隣り合う撮影領域と所定の距 離間隔に保つように変更することができる。さらに図 16 (a)および (b)に示されるよう に、隣り合う撮影領域の距離間隔をマイナスの値にすることで、互いに隣り合う撮影 領域が所定の重なり領域を持ち、複数のカメラ端末 101が互いの撮影領域を隣接さ せて隙間のない 1台のカメラが撮影できる範囲よりも広い範囲を撮影するように自動 的に撮影領域を変更することができる。
[0052] 次に、監視システムを構成するカメラ端末 101の撮影領域を変更する手順につい て図 10 (a)一(c)を用いて説明する。
[0053] (処理 A)
(ステップ A01)まず、通信部 103における処理を開始する。
(処理 A— 1)
(ステップ A101)カメラ端末 101の撮影領域情報と領域決定パラメータを取得する。 (ステップ A102)カメラ端末 101の撮影領域情報と領域決定パラメータを他のカメラ 端末 101bに通知する。
(ステップ A104)他のカメラ端末 101b力 撮影領域情報と領域決定パラメータの通 知があるかどうかを判定する。通知があればステップ A105に移る。通知がなければ ステップ A101に戻る。
(ステップ A105)他のカメラ端末 101b力も通知された撮影領域情報と領域決定パラ メータを取得し、処理 A— 1を終了する。
[0054] ここで、ステップ A101にお ヽて取得される撮影領域情報と領域決定パラメータの 関係について撮影素子の形状が矩形である場合を例に図 11を用いて説明する。こ の図は、カメラ端末 101を床面の方向に向けて天井に設置した場合を想定した図で ある。カメラ端末 101の焦点の位置を (x、 y、 0)、天井の高さを H、撮影素子の形状 が矩形でその縦横の長さを (W、 W )、焦点距離を f、カメラ端末 101の視線方向示 すパン角、チルト角を 0 、 Θ とする時、カメラ端末 101によって撮影される床面領域 の位置は、以下の式 1一式 4によって求められる。つまり、撮影素子 104とカメラ端末 101の視野領域の位置関係については式 1一式 4によって示される。ここで、上記式 1一式 4で用いられている撮影素子の位置座標は、以下の式 5—式 8に示される。つ まり、カメラ端末 101の領域決定パラメータ (パン角 Θ 、チルト角 Θ 、焦点距離 f、カメ
P T
ラ端末 101の設置位置 (x、 y、 z))と撮影素子 104の位置との関係は、式 5—式 8によ つて示される。
[数 1] 一(式 1)
Figure imgf000019_0001
B, r~{b,~x)Hlb + xヾ1'
By -(by-y)H/bz + y 一(式 2)
V —H ノ
(
(式 3)
一(式 4)
Figure imgf000019_0002
[数 2]
ヽ T
V ^ + 2y - (式 5) ゾ
+ 2y 一(式 6)
Figure imgf000020_0001
,一 wx cos 0i'-2f smdp + 2x ヾ1'
Cy - Wxsin ΘΓ sin θρ-wy cos 9 + 2f sin &cos0p + 2y - (式フ) ノ -wxcosOi sm^ + wysiner + 2f cos<¾xos 、7 _WiCos6S' - 2/sin6^ + 2x ヽ7"
一 Wx sin θι sin + cos (¾' + 2/ sin &rcos& + 2y —(式 8)
-w^cosft' sin6^-w^sin6r + 2 cos<9rcos^
[0055] また、撮影素子 104に対応する視野領域は、カメラ端末 101の視線方向によって矩 形力も歪んだ形となる。このため以下の説明では図 12に示されるように視野領域に 内接する矩形領域をカメラ端末 101の撮影領域として説明をする。
[0056] (ステップ A02)次に、撮影特性変更部 105における処理を開始する。
(処理 A— 2)
(ステップ A201)協調相手決定部 106は、カメラ端末 101の撮影領域と隣り合う撮影 領域を持つカメラ端末 101bを特定する。
(ステップ A202)協調相手決定部 106は、隣り合う撮影領域を持つカメラ端末 101が 存在するかどうかを判定する。存在する場合はステップ A203に移り、存在しない場 合は処理 A - 2を終了する。
(ステップ A203)領域差評価部 107は、撮影領域が隣り合うカメラ端末 101bと撮影 領域の距離間隔に対して評価値 Aを求める。
(ステップ A204)評価値 Aが所定の目標値と異なるかどうかを判定する。 目標値と異 なる場合はステップ A205に移る。 目標値と等 Uヽ場合は処理 A— 2を終了する。 (ステップ A205)撮影領域変更部 108は、評価値 Aが目標値に近づくようカメラ端末 101の領域決定パラメータを変更し処理 A-2を終了する。 [0057] 以下、ステップ AOl (処理 A— 1)とステップ A02 (処理 A— 2)を繰り返す。
ステップ A201における隣り合う撮影領域を持つカメラ端末 101bの具体的な決定 手順の一例にっ 、て図 13 (a)および (b)に示されるフローチャートを用いて説明する 。なお、ここでは、カメラ端末 101の撮影領域と他のカメラ端末 101bの撮影領域の位 置関係が図 14に示される位置関係にある場合を例にして説明する。
[0058] (処理 A— 3)
(ステップ A301)カメラ端末 101の撮影領域(1)の中心を基点にカメラ端末の撮影領 域が移動可能な方向に基づいてカメラ端末 101の撮影可能な全領域を複数の領域 に分割する。図 14の例では、カメラ端末 101の撮影領域をその中心を基点として撮 影領域を移動可能なパン方向、チルト方向に対して点線で区切られた 4つの領域に 分割する。
(ステップ A302)他のカメラ端末 101bの撮影領域の中心がステップ A301で分割さ れた領域のうちのどの領域に存在するかによって他のカメラ端末 101bをグループ分 けする。
[0059] 図 14の例では、図 14において上下左右の 4つ分割された各領域に対してそれぞ れ上領域 (カメラ端末 2、カメラ端末 3)、右領域 (カメラ端末 4)、下領域 (カメラ端末 5) 、左領域 (カメラ端末 6、カメラ端末 7)とグループ分けされる。
(ステップ A303)分割された各グループに対してカメラ端末 101の撮影領域の中心と 最も距離の近!ヽ撮影領域の中心を持つカメラ端末を協調相手として決定する。
[0060] 図 14の例では、上方向にはカメラ端末 2、右方向にはカメラ端末 4、下方向にはカメ ラ端末 5、左方向にはカメラ端末 6がそれぞれ協調相手として決定される。
[0061] 次に、カメラ端末 101と他のカメラ端末 101bとの撮影領域の関係を評価する手順( ステップ A203)について説明する。
[0062] ステップ A203におけるカメラ端末 101と、他のカメラ端末 101bの撮影領域の位置 関係に対する評価値 Aを求める手順の一例は、図 15に示されるフローチャートの通 りである。なお、図 17は、実施の形態 1におけるカメラ端末 101と他のカメラ端末 101 bの撮影領域の位置関係の様子を示す図である。また、隣り合う撮影領域の距離関 係に対して評価値 Aを決定する評価関数 Aの一例は、以下の式 9、式 10、式 11、式 12の通りである。
[数 3]
Vc l(xi - XL) = ((XI - XL) - Cf 一(式 9)
Vco {X2 - XR) = ((X2 - XR) + C)2 一(式 1 0)
Vco3(yi - yu) = (( - yu) - Cf —(式 1 1 )
- yo) = ((yi - yD) + C)2 —(式 1 2)
[0063] (処理 A— 4)
(ステップ A401)撮影領域を変更するにあたり処理 A— 3にお ヽて分割された各ダル ープに対してカメラ端末 101と協調する相手が存在するかどうかを調べる。協調すベ き相手が存在すればステップ A403に移る。協調すべき相手が存在しな!ヽ場合は処 理 A-4を終了する。
(ステップ A402)協調すべき他のカメラ端末 101bの撮影領域とカメラ端末 101の撮 影領域との距離を求める。
[0064] 図 17の例では、カメラ端末 101の撮影領域の図における左側の撮影領域 4とカメラ 端末 101の撮影領域 1との距離 (X -XI)を求めた場合を例に説明する。
(ステップ A403)ステップ A402において求められた撮影領域間の距離 (X— XI)と し 所定の定数 Cとの差異に対して評価値 Aを求める。
[0065] 以下、撮影領域 5、撮影領域 2、撮影領域 3についても撮影領域 4と同様にステップ
A401力らステップ A404を繰り返し、それぞれ上記式 10、式 11、式 12によって評価 値 Aを求め、その平均値力 Sカメラ端末 101と撮影領域が隣り合う周囲のカメラ端末 10 lbとの位置関係に対する評価値 Aとなる。
[0066] ここで、評価関数 Aは、隣り合う撮影領域との距離間隔 (X— XI)と所定の距離間隔 し
Cとの関係を評価する関数であれば、上記式 9、式 10、式 11、式 12以外にも、領域 決定パラメータ(0 、 Θ 、 f)の変更可能な範囲において距離 (X— XI)が所定の定
P T L
数 Cと等しい時に評価値 Aが最も小さく(または大きく)なり、また、距離 (X— XI)が所 し 定の定数 Cとの差が広がるにつれて評価値 Aが単調に大きく(または小さく)なる関数 であればよい。
[0067] 次に、ステップ A205にお ヽて撮影領域変更部 108が撮影領域を変更する手順に ついて説明する。
[0068] 撮影領域変更部 108は、評価値 Aが目標値 Aとして極小値 (極大値)に近づくよう に撮影領域を変更するために、上記評価関数 Aをそれぞれ領域決定パラメータ( 0
P
、 Θ 、f)で偏微分した導関数を含む以下の式 13、式 14、式 15の更新式に従って領
T
域決定パラメータ(0 、 Θ 、f)を変更する。
P T
Figure imgf000023_0001
一(式 1 3)
^ dY Vcomn
d&r _ ατ
dt — N δθτ —(式 1 4)
N
Jr dY Vcomn
df a/
dt N df 一(式 1 5)
[0069] 以上のような手順によって、各カメラ端末 101は、領域決定パラメータ(0 、 0 、f)
P T
を変更することで隣り合う撮影領域と互いの距離間隔を所定の距離 Cに保つように撮 影領域を自動的に変化させることができる。
[0070] 次に、実施の形態 1におけるカメラ端末 101から構成される監視システムの具体的 な動作の例について図 18、図 19を用いて説明する。ここでは、天井の高さが一様な 部屋の天井に複数のカメラ端末 101を設置し、互いの撮影領域の距離間隔が負の 値 Cとなるように動作させた場合を例として説明する。
[0071] 図 18に示されるように実施の形態 1における監視システムは、各カメラ端末の向き や位置を適当に設置しても、互いに隣り合う撮影領域は間隔 Cだけ重なり領域を持 つように撮影領域を変更することにより隣り合う撮影領域と隙間を持たな 、広!、撮影 領域を協調して撮影することが可能となる。
[0072] また、図 19に示されるように複数のカメラ端末 101のうち任意のカメラ端末 101の撮 影領域を変更した場合、他のカメラ端末 101bは撮影領域を変更したカメラ端末 101 の動きに合わせて撮影領域を変更するため、監視システムは複数のカメラ端末群を 広い撮影領域を持つ 1台のカメラ端末のように動作させることができる。 [0073] (実施の形態 2)
次に、本発明の実施の形態 2について説明する。
図 20は、本発明の実施の形態 2における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 201および 201bと、各カメラ 端末 201および 201bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が、実施の形態 1における撮影領域の制御に加えて、予め定められ た基準領域と一定の位置関係となるように撮影領域を調整する点に特徴を有する。 以下、 1台のカメラ端末 201を中心に説明する。なお、図 20において図 9と同じ構成 要素については同じ符号を用い、説明を省略する。
[0074] カメラ端末 201は、実施の形態 2における自律協調カメラである。
撮影特性変更部 205は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 106、領域差評価部 107、自己領域評価部 211、基準領域 記憶部 212、撮影領域変更部 213から構成される。
[0075] 自己領域評価部 211は、カメラ端末 201の撮影領域の中心座標と所定の位置の位 置関係に対して、同じ位置ある場合に目標値 Bをとり、距離が離れるにつれて目標値 力 単調に値が遠ざ力る評価値 Bを与える処理部である。
[0076] 基準領域記憶部 212は、撮影において基準となる領域の位置情報を記憶するメモ リ等である。
[0077] 撮影領域変更部 213は、上記評価値 Aに加えて評価値 Bが所定の目標値に近づく ように撮影素子 104の領域決定パラメータを変更する処理部である。つまり、実施の 形態 1における撮影領域変更部 108の機能に加えて、カメラ端末 201の撮影領域が 基準領域と一定の位置関係となる (例えば、位置が一致する)ように、カメラ端末 201 の撮影素子 104を制御して撮影領域を変更する。
[0078] 背景技術においては、広い範囲の撮影は 1台のカメラ端末で行われており、カメラ 端末が撮影可能な領域の境界付近を撮影する場合には、撮影された映像に歪みが 生じてしまうため画像の認識処理において認識率が低下する等の問題がある。
[0079] これに対し、本実施の形態 2に係る構成によれば、基準領域記憶部 212に撮影映 像の歪みが少ない領域を基準領域として与え、自己領域評価部 211がカメラ端末 20 1の撮影領域と基準領域との距離に対して評価値 Bを求め、撮影領域変更部 213が 各カメラ端末 201の撮影領域を基準領域に近づけるように変更することで、各カメラ 端末 201は周囲のカメラ端末 201bと互いの撮影領域を隣接させながらも比較的歪 みの少ない領域を担当し、結果として各カメラ端末 201が撮影した歪みの少ない映 像を合成することで、監視システムとして歪みの少な 、広範囲の映像を取得できる。
[0080] 次に、実施の形態 2におけるカメラ端末 201の撮影領域の変更における動作手順 について説明する。
[0081] 図 21 (a)および (b)は、カメラ端末 201が撮影領域を変更する手順を示したフロー チャートである。なお、図 21 (a)および (b)において図 10 (a)—(c)と同じ動作手順に ついては同じ符号を用い、説明を省略する。
[0082] (処理 B)
(ステップ B01)次に、撮影特性変更部 205における処理を開始する。
(処理 B - 1)
(ステップ B101)自己領域評価部 211は、カメラ端末 201の撮影領域に対して評価 値 Bを求める。
(ステップ B102)協調相手決定部 106は、カメラ端末 201の撮影領域を変更するに あたり協調すべき相手を決定する。
(ステップ B103)協調相手決定部 106は、カメラ端末 201の撮影領域を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ B104に移り、協調すべき相手が存在しない場合はステップ B105に 移る。
(ステップ B104)領域差評価部 107は、協調すべき相手の撮影領域とカメラ端末自 身の撮影領域との位置関係に対して評価値 Aを求める。
(ステップ B105)撮影領域変更部 213は、評価値 A、評価値 Bが所定の目標値 A、 目標値 Bと異なるかどうかを判定する。目標値と異なる場合はステップ B106に移る。 目標値と等 U、場合は処理 B— 2を終了する。
(ステップ A106)撮影領域変更部 213は、評価値 A、評価値 Bがそれぞれ目標値に 近づくようにカメラ端末 201の領域決定パラメータを変更し、処理 B— 2を終了する。 [0083] 以下、ステップ AOl (処理 A— 1)とステップ B01 (処理 B— 1)を繰り返す。
次に、ステップ B101において、自己領域評価部 211がカメラ端末 201の撮影領域 の中心座標と基準領域記憶部 212に記録されている基準領域の中心座標との距離 に対して評価値 Bを与える手順について図 22のフローチャートを用いて説明する。な お、ここでは、カメラ端末 201の撮影領域と基準領域との位置関係が図 23に示される 位置関係にあり、さらに評価関数 Bが以下に示される関数であった場合を例に説明 する。
[数 5]
(式 16)
Vselfy(y) = (y-yOy (式 17)
Vselfi(z) = (z-zQ)2 (式 18)
または
(式 19)
VselfeT(a) = (&r-&iO) (式 20)
ただし、基準座標: 0。(x。、 y。、 z0)
(基準角度: S。( θρο, 6t0))
- (βί sin θι>1 f cos θι cos ^) + J 、R
Oy -{fli sm.&rzO%Qpj f cos / 'cos^ + 一(式 21)
、o 一 H
[0084] (ステップ B201)カメラ端末 201の撮影領域の中心座標 (x,、 y、 z)、またはカメラ端 末 201の視線方向(θ 、 Θ )を求める。
P T
(ステップ B202)カメラ端末 201の撮影領域の中心座標 (x、 y、 z)と、基準領域の中 心座標 (X 、y 、z )との位置関係に対して、上記評価関数 Bを示す式 16、式 17、
sell self self
式 18を用いて評価値を求める。ここで、カメラ端末 201の撮影領域の中心座標 (x、 y 、 z)については、以下の式 21によって求められる。また、カメラ端末 201の視線方向 ( θ , Θ )と基準領域の中心座標への視線方向(θ 、 Θ )との関係に対して、上
P T selfP selfT
記評価関数 Bを示す式 19、式 20によって評価値を求めてもよい。評価値を求めた後 、処理 B - 3を終了する。 [0085] ここで、評価関数 Bは、上記式 16、式 17、式 18、式 19、式 20以外にも、カメラ端末 201の領域決定パラメータ(0 、 Θ 、f)の変更可能な範囲において、カメラ端末 201
P T
の撮影領域の中心座標が基準領域の中心座標と等し 、に位置にある時に評価値が 最も小さく(または大きく)なり、また、カメラ端末の撮影領域の中心座標と基準領域の 中心座標との距離が広がるにつれて評価値が単調に大きく(または小さく)なる関数 であればよい。
[0086] ステップ B102は、実施の形態 1におけるステップ A201と同様の手順である。
ステップ B104は、実施の形態 1におけるステップ A203と同様の手順である。
[0087] 次に、ステップ B106において撮影領域変更部 213が撮影領域を変更する手順に ついて説明する。
[0088] 実施の形態 2における撮影領域変更部 213は、評価値 A、評価値 Bそれぞれが目 標値 A、目標値 Bとして極小値 (または極大値)に近づくように領域決定パラメータ( Θ 、 Θ
P T )を変更する。
[0089] 評価値 Aを極小値 (または極大値)に近づける手順は実施の形態 1の場合と同様で ある。評価値 Bを極小値 (または極大値)に近づける手順としては、例えば、上記評価 関数 Bをそれぞれ領域決定パラメータ(θ 、 Θ )で偏微分した導関数を用いた以下
P T
に示される式 22、式 23または式 24、式 25の更新式によって領域決定パラメータ( 0
P
、 Θ
T )を変更する。
[数 6] άθρ _ d{Vseflx + Vselfy + Vselfz)
一(式 22)
Figure imgf000027_0001
άθτ d(Vsefl, + Vselfy + Vselfi)
dt ― δθτ 一(式 23) または 一(式 24)
Figure imgf000027_0002
d&r _ 8(VsefleT + VselfeP)
dt δθτ 一(式 25)
ただし、 Ρ、 丁、 f,は係数
[0090] 次に、実施の形態 2における監視システムの動作の例について図 24を用いて説明 する。ここでは、天井の高さが一様の部屋の天井の適当な位置に複数のカメラ端末 2 01を設置し、設置位置の真下が基準領域となるように設定した場合を例に説明する
[0091] 図 24の左の図に示されるようにカメラ端末 201の視線方向が鉛直真下から大きくず れる場合には、図 12で説明した視野領域が矩形カゝら大きく歪むため撮影される映像 の形状も大きく歪んでしまう。一方、図 24の右側の図に示されるように設置位置の真 下の領域を予め基準領域とすることにより、各カメラ端末 201は撮影領域を比較的に 歪みの少な!/、映像を撮影できる設置位置の真下領域に変更する作用と、周囲のカメ ラ端末 201bと互 、の重なり領域を保つように撮影領域を変更する作用が釣り合う位 置に撮影領域を変更する。これにより、各カメラ端末 201は周囲のカメラ端末 201bと 撮影領域を隣接させながらも比較的に撮影映像の歪みが少ない領域を撮影領域に 選ぶことができる。
[0092] また、各カメラ端末 201から撮影される映像のうち比較的歪みの少ない部分 (例え ば中心部分)の映像をつなぎ合わせることで、監視システム全体として歪みの少ない 広 、範囲の映像を撮影することができる。
[0093] (実施の形態 3)
次に、本発明の実施の形態 3について説明する。
[0094] 図 25は、本発明の実施の形態 3における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 301および 301bと、各カメラ 端末 301および 301bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が、実施の形態 1における撮影領域の制御に加えて、監視領域内 に存在する対象物と一定の位置関係となるように撮影領域を調整する点に特徴を有 する。以下、 1台のカメラ端末 301を中心に説明する。なお、図 25において図 9と同じ 構成要素については同じ符号を用い、説明を省略する。
[0095] カメラ端末 301は、実施の形態 3における自律協調カメラである。
撮影特性変更部 305は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 106、領域差評価部 107、自己領域評価部 311、対象物位 置特定部 312、撮影領域変更部 313から構成される。 [0096] 自己領域評価部 311は、カメラ端末 201の撮影領域の中心座標と所定の位置の位 置関係に対して、同じ位置ある場合に目標値 Cをとり、距離が離れるにつれて目標値 C力 単調に値が遠ざ力る評価値 Cを与える処理部である。
[0097] 対象物位置特定部 312は、撮影領域に対象物が存在する場合、対象物の位置を 特定する処理部である。
[0098] 撮影領域変更部 313は、上記評価値 Aに加えて評価値 Cが所定の目標値に近づ くように撮影素子 104の領域決定パラメータを変更する処理部である。つまり、実施 の形態 1における撮影領域変更部 108の機能に加えて、カメラ端末 301の撮影領域 が対象物位置特定部 312で特定された対象物と一定の位置関係となる (例えば、位 置が一致する)ように、カメラ端末 301の撮影素子 104を制御して撮影領域を変更す る。
[0099] 背景技術においては、対象物の撮影を行う場合、対象物の周囲の様子は 1台の力 メラ端末で撮影できる範囲しか撮影できな 、。
[0100] これに対し、本実施の形態 3に係る構成によれば、カメラ端末 301が対象物を追跡 しながら撮影する機能を有することにより、対象物を発見したカメラ端末 301は対象 物の動きを追跡しながら撮影を行い、残りのカメラ端末 30 lbは対象物を追跡してい るカメラ端末 301と互いの撮影領域を隣接させながら撮影領域を変更させることによ り対象物の周囲の広範囲を複数のカメラ端末 301で撮影することができる。
[0101] 次に、実施の形態 3におけるカメラ端末 301の撮影領域の変更における動作手順 について説明する。
[0102] 図 26 (a)および (b)は、カメラ端末 301が撮影領域を変更する手順を示したフロー チャートである。なお、図 26 (a)および (b)において図 10 (a)—(c)と同じ動作手順に ついては同じ符号を用い、説明を省略する。
[0103] (処理 C)
(ステップ C01)撮影特性変更部 305における処理を開始する。
(処理 C 1)
(ステップ C101)自己領域評価部 311は、カメラ端末 301の撮影領域に対して評価 値 Cを求める。 (ステップ C102)協調相手決定部 106は、カメラ端末 301の撮影領域を変更するに あたり協調すべき相手を決定する。
(ステップ C103)協調相手決定部 106は、カメラ端末 301の撮影領域を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ C104に移り、協調すべき相手が存在しない場合はステップ C105に 移る。
(ステップ C104)領域差評価部 107は、協調すべき相手の撮影領域とカメラ端末自 身の撮影領域との位置関係に対して評価値 Aを求める。
(ステップ C105)撮影領域変更部 313は、評価値 A、評価値 Cが所定の目標値 A、 目標値 Cと異なるかどうかを判定する。 目標値と異なる場合はステップ C106に移る。 目標値と等 U、場合は処理 C 2を終了する。
(ステップ C106)撮影領域変更部 313は、評価値 A、評価値 Cがそれぞれ目標値に 近づくようにカメラ端末 301の領域決定パラメータを変更し、処理 C 1を終了する。 以下、ステップ A01 (処理 A— 1)とステップ C01 (処理 C 1)を繰り返す。
次に、ステップ C101において、自己領域評価部 311がカメラ端末 301の撮影領域 の中心座標と対象物の位置座標との距離に対して評価値 Cを与える手順にっ 、て 図 28のフローチャートを用いて説明する。なお、ここでは、カメラ端末 301の撮影領 域と対象物との位置関係は図 27に示される位置関係にあり、さらに評価値 Cを求め るための評価関数 Cが以下に示される関数であった場合を例に説明する。また、ここ では、対象物 (人物)の位置座標は対象物と床面との接地面の重心として以下説明 する。
[数 7] If Object E "撮影領域" then
Vob (x) = (x - xobjf 一(式 26)
' Vobjy(y) = (y - yobj)2 - (式 27 )
Vobjziz) = {z - zobjf 一(式 28)
または
VobjePiOp) = {ΘΡ - 0pobjf 一(式 29 )
VobjeT(9r) = (9r - &obj)2 一(式 30)
ただし、対象物の座標: Oobj (x0bj、 yObj, zObj)
(対象物の方向: S obj ( e POb Θ TObj) )
[0105] (処理 C 2)
(ステップ C201 )カメラ端末 301の撮影領域を撮影する。
(ステップ C202)対象物位置特定部 312は、撮影領域内に対象物が存在するかどう かを判定する。対象物が存在する場合はステップ C203に移る。対象物が存在しな Vヽ場合は処理 C 2を終了する。
(ステップ C203)撮影映像力も対象物の位置座標 (X , y , z )、または位置方向(
obj obj obj
θ 、 θ )を求める。
Pobj Tobj
(ステップ C204)カメラ端末 301の撮影領域の中心座標 (x、 y、 z)、または視線方向( θ 、 Θ )を求める。
P T
(ステップ C205)カメラ端末 201の撮影領域の中心座標 (x、 y、 z)と対象物の位置座 標 (X 、y 、z )との関係に対して、上記評価関数 Cを示す式 26、式 27、式 28を用 obj obj obj
いて評価値を求める。
[0106] またはカメラ端末自身の視線方向(0 、 Θ )と対象物への位置方向(θ 、 Θ )
P T Pobj Tobj との関係に対しては上記評価関数 Cの式 29、式 30を用いて評価値 Cを求める。評価 値 Cを求めたら処理 C-2を終了する。
[0107] ここで、評価関数 Cは、上記式 26、式 27、式 28、式 29、式 30以外にも、カメラ端末 301の領域決定パラメータ(0 、 Θ 、f)の変更可能な範囲において、カメラ端末 301
P T
の撮影領域の中心座標と対象物の位置座標が等しい時に評価値 Cが最も小さく(ま たは大きく)なり、また、カメラ端末 301の撮影領域の中心座標と対象物の位置座標と の距離が大きくなるにつれて評価値 Cが単調に大きく(または小さく)なる関数であれ ばよい。
[0108] 次に、カメラ端末 301の領域決定パラメータの変更 (ステップ C106)について説明 する。
[0109] 実施の形態 3における撮影領域変更部 313は、評価値 A、評価値 Cがそれぞれ目 標値 A、目標値 Cとして極小値 (または極大値)に近づくように領域決定パラメータ( Θ 、 Θ )を変更する。
P T
[0110] 評価値 Aを極小値 (または極大値)に近づける手順は実施の形態 1と同様である。
評価値 Cを極小値 (または極大値)に近づける手順としては、例えば、上記評価関数 Cをそれぞれ領域決定パラメータ(0 、 Θ )で偏微分して求められる導関数を用いた
P T
以下の式 31、式 32または式 33、式 34の更新式により、カメラ端末 301の領域決定 パラメータ(0 、 Θ )を変更する。
P T
[数 8] άθρ _ d{Vob + Vobjy + Vobjz)
dt ~ d&> 一(式 31 ) 一(式 32)
Figure imgf000032_0001
または
—(式 33)
Figure imgf000032_0002
άθι ― diyobjeT + VobjeP)
一(式 34)
dt θθτ
ただし、 P、 丁、 cy,は係数
[0111] 次に、実施の形態 3におけるカメラ端末 301の協調動作の例について図 29を用い て説明する。図 29では、天井の高さが一様で床面が矩形の部屋の天井の適当な位 置に複数のカメラ端末 301を設置し、床面を撮影している場合を例に説明する。
[0112] 図 29に示されるように任意のカメラ端末 301の撮影領域に対象物が侵入し場合、 カメラ端末 301は、対象物が撮影領域の中心に来るように撮影領域を変更し、また、 周囲のカメラ端末 201bも互いの撮影領域の距離間隔が所定の距離 Cを保つように 撮影領域を変更させることで散協調監視システム全体としては対象物とその周囲の 広範囲を撮影するようにカメラ端末の撮影領域を変更することができる。
[0113] これにより例えば 1台のカメラ端末が追従できる速度よりも早い速度で対象物が急 に移動方向を変えて視界力 消えてしまう場合でも、対象物を追跡していたカメラ端 末を取り囲む他のカメラ端末によって広 、範囲で対象物の動きを捕らえ、再びカメラ 端末どうしが協調して撮影領域を変更することにより対象物の追跡を維持することで きる。
[0114] また、移動する対象物 (例えば人物)の周囲に存在する道の段差や、接近してくる 車等の危険物等をより広い範囲からいち早く発見することが可能となり、対象物に対 して危険を迅速に知らせるなどの対応において有効である。
[0115] (実施の形態 4)
次に、本発明の実施の形態 4について説明する。
[0116] 図 30は、本発明の実施の形態 4における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 401および 401bと、各カメラ 端末 401および 401bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が、実施の形態 1における撮影領域の制御に加えて、撮影可能な 領域の境界と一定の位置関係となるように撮影領域を調整する点に特徴を有する。 以下、 1台のカメラ端末 401を中心に説明する。なお、図 30において図 9と同じ構成 要素については同じ符号を用い、説明を省略する。
[0117] カメラ端末 401は、実施の形態 4における自律協調カメラである。
撮影特性変更部 405は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 106、領域差評価部 107、境界領域評価部 411、撮影領域 変更部 413から構成される。
[0118] 境界領域評価部 411は、カメラ端末 401の撮影領域と、カメラ端末 401が撮影する ことが可能な領域の境界との距離関係に対して、評価値 Dを与える処理部である。
[0119] 撮影領域変更部 413は、上記評価値 Aに加えて評価値 Dが所定の目標値に近づ くように撮影素子 104の領域決定パラメータを変更する処理部である。つまり、実施 の形態 1における撮影領域変更部 108の機能に加えて、カメラ端末 401の撮影領域 が撮影可能な領域の境界 (例えば、監視領域の境界)と一定の位置関係となる (所定 の距離だけ離れる、あるいは、重なり領域をもつ)ように、カメラ端末 401の撮影素子 1
04を制御して撮影領域を変更する。
[0120] 背景技術においては、カメラ端末が撮影できる範囲よりも広い監視区域全体を一度 に撮影することができない。また、この問題を解決するために複数のカメラ端末を用 いる場合が考えられるが、この場合、監視区域全体を撮影できるように各カメラ端末 に対してそれぞれの撮影領域を決定する必要がある。
[0121] これに対し、本実施の形態 4に係る構成によれば、カメラ端末 401が隣り合う撮影領 域、および撮影可能な領域の境界と所定の距離を持つように撮影領域を変更するこ とにより、監視システム全体として監視区域全体をくまなく撮影できるように各カメラ端 末 401の撮影領域を変更することができる。
[0122] 次に、実施の形態 4におけるカメラ端末 401の撮影領域の変更における動作手順 について説明する。
[0123] 図 31 (a)および (b)は、カメラ端末 401が撮影領域を変更する手順を示したフロー チャートである。なお、図 31 (a)および (b)において図 10 (a)—(c)と同じ動作手順に ついては同じ符号を用い、説明を省略する。
[0124] (処理 D)
(ステップ D01)撮影特性変更部 405における処理を開始する。
(処理 D - 1)
(ステップ D101)境界領域評価部 411は、カメラ端末 401の撮影領域と撮影可能な 領域の境界との位置関係に対して評価値 Dを求める。
(ステップ D102)協調相手決定部 106は、カメラ端末 401の撮影領域を変更するに あたり協調すべき相手を決定する。
(ステップ D103)協調相手決定部 106は、カメラ端末 401の撮影領域を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ D104に移り、協調すべき相手が存在しない場合はステップ D105に 移る。
(ステップ D104)領域差評価部 107は、協調すべき相手の撮影領域とカメラ端末自 身の撮影領域との位置関係に対して評価値 Aを求める。 (ステップ D105)撮影領域変更部 413は、評価値 A、評価値 Dが所定の目標値 A、 目標値 Dと異なるかどうかを判定する。目標値と異なる場合はステップ D106に移る。 目標値と等しい場合は、処理 D-2を終了する。
(ステップ D106)撮影領域変更部 413は、評価値 A、評価値 Dがそれぞれ目標値に 近づくようにカメラ端末 401の領域決定パラメータを変更し、処理 D— 1を終了する。
[0125] 以下、ステップ A01 (処理 A— 1)とステップ D01 (処理 D— 1)を繰り返す。
次に、ステップ D101において、境界領域評価部 411がカメラ端末 401の撮影領域 と、撮影可能な領域の境界との距離に対して評価値 Dを与える手順について図 33の フローチャートを用いて説明する。なお、図 32は、カメラ端末 401の撮影領域 1と撮 影可能な領域の境界との位置関係、およびその位置関係を評価する評価関数 Dの 一例である以下の式 35、式 36を説明するための図である。
[数 9]
Figure imgf000035_0001
- ywall - Cf —(式 35)
½///2(λΊ) = (Χΐ— (//—し)2 —(式 36)
ただし、 Cは定数
[0126] (処理 D— 2)
(ステップ D201)カメラ端末 401の撮影領域を移動可能な方向に対して隣り合う撮影 領域を持つ協調相手 401bが存在するかどうかを判定する。協調相手が存在しな!ヽ 方向がある場合はステップ D202に移る。協調相手が存在しない方向がない場合は 処理 D - 2を終了する。
(ステップ D202)協調相手が存在しない方向に対して、カメラ端末 401の撮影可能 領域の境界の位置を求める。
(ステップ D203)カメラ端末 401の撮影領域と撮影可能な領域の境界との距離を評 価し、処理 D - 2を終了する。
[0127] ここで、カメラ端末 401の撮影領域と撮影可能領域の境界との距離の評価内容に ついて、図 32のカメラ端末 401の撮影領域と、その左側にある壁との関係を例に説 明する。
[0128] まず、カメラ端末 201の撮影領域と、その左側の壁との距離 (X— X )を求め、求 められた距離と所定の定数 Cとの差について、上記評価関数 Dの式 35を用いて評価 値 Dを求める。また、評価関数 Dは、上記式 35以外にも、カメラ端末 401の領域決定 パラメータ(0 、 Θ 、f)の変更可能な範囲において、距離 (X— X )が所定の定数 C
P T L waU
に等しい時に評価値が最も小さく(または大きく)なり、また距離 (X— X )と所定の定 し wall
数 Cとの差異が大きくなるにつれて評価値が単調に大きく(または小さく)なる関数で あればよい。また、図 32に示された上側の境界との評価値 Dについては式 36により 求める。以下、その他の方向に対しても同様にステップ D201からステップ D203を繰 り返し、評価値 Dを求める。
[0129] 次に、カメラ端末 401の撮影領域の変更手順 (ステップ D106)について説明する。
[0130] 撮影領域変更部 413は評価値 A、評価値 Dがそれぞれ目標値 A、目標値 Dとして 極小値 (または極大値)に近づくように領域決定パラメータ(0 、 Θ )を変更する。
P T
[0131] 評価値 Aを極小値 (または極大値)に近づける手順は実施の形態 1と同様である。
評価値 Dを極小値 (または極大値)に近づける手順としては、例えば、上記評価関数 Dをそれぞれ領域決定パラメータ(0 、 Θ )で偏微分して求められる導関数を用いた
P T
以下に示される式 37、式 38、式 39の更新式に従ってカメラ端末 201の領域決定パ ラメータ( θ 、 Θ )を変更する。
P T
[数 10] ap ム ;1
(式 37)
N d&
N
d
—(式 38)
N d9r
N
dY Vw ll n
—(式 39)
dt N δθ[ ただし、 Λ>、な τfは係数
Nは相互作用する壁の数
[0132] 次に、実施の形態 4におけるカメラ端末 401の動作の例について図 34、図 35、図 3 6、図 37を用いて説明する。ここでは、天井の高さが一様で床面が矩形の部屋の天 井の適当な位置に複数のカメラ端末 401を設置し、床面を撮影して!/ヽる場合を例に 説明する。
[0133] 図 34に示されるようにカメラ端末 401を複数台設置した場合、監視システムを構成 するカメラ端末 401の台数が監視区域全体の大きさに対して十分に多い場合は、監 視区域全体をくまなく監視することができる。
[0134] また、監視システムを構成するカメラ端末 401の台数が監視区域全体の大きさに対 して少ない場合は図 35に示されるように監視区域全体に対するカメラ端末の撮影領 域が一箇所に片寄ることなぐ均一に分布するように撮影領域を変更することができ る。
[0135] また、図 36に示されるように監視システムを構成する任意のカメラ端末 401が故障 や停止などによって撮影機能が失っても、他のカメラ端末 401bの台数が監視区域 全体の大きさに対して十分に多い場合はカメラ端末 401bが互いに協調して撮影領 域を変更することにより再び監視区域全体をくまなく監視することができる。
[0136] また、図 37に示されるように適当な位置にカメラ端末 401を新たに設置する等の監 視システムの拡張を行った場合には、カメラ端末 401は互いに撮影領域を協調させ て変更することにより、新たに追加されたカメラ端末 401の機能を有効に活用できるよ うに各カメラ端末 401の撮影領域を変更することができる。
[0137] このように監視区域において適当な位置にカメラ端末 401を設置しても、監視シス テムが監視区域全体を撮影するように各カメラ端末 401の撮影領域が自動的に決定 され、また、監視システムの拡張や故障に対しても監視システムの側で監視区域全 体の撮影を維持することができるため、監視システムの設置やメンテナンスにかかる 負担を軽減することができる。
[0138] (実施の形態 5)
次に、本発明の実施の形態 5について説明する。
[0139] 図 38は、本発明の実施の形態 5における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 501および 501bと、各カメラ 端末 501および 501bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が、実施の形態 1における撮影領域の制御に加えて、監視領域に おける未撮影領域が減少するように撮影領域を調整する点に特徴を有する。以下、
1台のカメラ端末 501を中心に説明する。なお、図 38において図 9、図 30と同じ構成 要素については同じ符号を用い、説明を省略する。
[0140] カメラ端末 501は、実施の形態 5における自律協調カメラである。
撮影特性変更部 505は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 106、領域差評価部 107、境界領域評価部 411、自己領域 評価部 511、未撮影領域特定部 512、撮影領域変更部 513から構成される。
[0141] 自己領域評価部 511は、カメラ端末 501の撮影領域の中心座標と、所定の位置の 位置関係に対して同じ位置ある場合に目標値 Eをとり、距離が離れるにつれて目標 値から単調に値が遠ざ力る評価値 Eを与える処理部である。
[0142] 未撮影領域特定部 512は、撮影領域に隣接するどのカメラ端末力もも撮影されて Vヽな ヽ未撮影領域の位置を特定する処理部である。
[0143] 撮影領域変更部 513は、上記評価値 Aに加えて評価値 Eが所定の目標値に近づく ように撮影素子 104の領域決定パラメータを変更する処理部である。つまり、実施の 形態 1における撮影領域変更部 108の機能に加えて、監視領域における未撮影領 域が減少する(例えば、未撮影領域が無くなる)ように、カメラ端末 501の撮影素子 1 04を制御して撮影領域を変更する。
[0144] 実施の形態 4においては、監視システムを構成するカメラ端末 401の台数が監視区 域の大きさに比べて少ない場合、図 43の左の図に示されるように撮影領域の位置関 係や協調相手の決定の仕方によって未撮影領域が存在しながらも、隣り合う撮影領 域の位置関係が満たされる場合が生じる。
[0145] これに対し、本実施の形態 5に係る構成によれば、カメラ端末 501は、未撮影領域 特定部 512により撮影領域に隣接する未撮影領域を特定し、自己領域評価部 511 によって未撮影領域の重心と撮影領域の中心との距離を評価し、さらに撮影領域変 更部 513によって未撮影領域が減少するようにカメラ端末 501の撮影領域することが できる。
[0146] 次に、実施の形態 5におけるカメラ端末 501の撮影領域の変更における動作手順 について説明する。 [0147] 図 39 (a)および (b)は、カメラ端末 501が撮影領域を変更する手順を示したフロー チャートである。なお、図 39 (a)および (b)において図 10 (a)—(c)、図 31 (a)および (b)と同じ動作手順については同じ符号を用い、説明を省略する。
[0148] (処理 E)
(ステップ E01)撮影特性変更部 505における処理を開始する。
(処理 E— 1)
(ステップ E101)自己領域評価部 511は、カメラ端末 501の撮影領域と未撮影領域 との位置関係に対して評価値 Eを求める。
(ステップ E102)協調相手決定部 106は、カメラ端末 501の撮影領域を変更するに あたり協調すべき相手を決定する。
(ステップ E103)協調相手決定部 106は、カメラ端末 501の撮影領域を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ E104に移り、協調すべき相手が存在しない場合はステップ E105〖こ 移る。
(ステップ E104)領域差評価部 107は、協調すべき相手の撮影領域とカメラ端末自 身の撮影領域との位置関係に対して評価値 Aを求める。
(ステップ D105)撮影領域変更部 413は、評価値 A、評価値 D、評価値 Eが所定の 目標値 A、目標値 D、目標値 Eと異なるかどうかを判定する。目標値と異なる場合はス テツプ E106に移る。目標値と等しい場合は処理 E-2を終了する。
(ステップ E106)撮影領域変更部 513は、評価値 A、評価値 D、評価値 Eがそれぞれ 目標値に近づくようにカメラ端末 501の領域決定パラメータを変更し、処理 E— 1を終 了する。
[0149] 以下、ステップ A01 (処理 A— 1)とステップ E01 (処理 E— 1)を繰り返す。
次に、ステップ E101において、自己領域評価部 511がカメラ端末 501の撮影領域 と未撮影領域の位置関係に対して評価値 Eを与える手順について図 40のフローチヤ ートを用いて説明する。なお、ここでは、カメラ端末 501の撮影領域の位置関係が図 41に示される配置にある場合を例に説明する。また、図 42はカメラ端末 501の撮影 領域と未撮影領域との位置関係、およびその位置関係を評価する評価関数 Eの一 例である以下の式を説明する図である。
[数 11] ivblonkCX(x) = (x _ xblankC)2 - (式 40)
j VblankCy(y) = ( — yblankC)2 ― (式 41 )
Vblank (z) = (z - zblankC)2 一(式 42)
または
VblankCeP(0p) = (ΘΡ - &blankC)2 - (式 43)
Vbl nkCeT(0r) = {θτ - 9rblankC)2 - (式 44)
ただし、対象物の座標: OblankC(xblankC、 yblankC、 zblankCノ
(対象物の方向:0 blankC ( θ PblankC;、 Θ TbianCkJ )
[0150] (処理 E— 2)
(ステップ E201)カメラ端末 501の撮影領域の中心を基点とし、撮影領域の移動可 能方向に対して、カメラ端末 501の撮影可能な領域を複数の領域に分割する。
[0151] 図 41では、カメラ端末 501の撮影領域の中心座標を基点に撮影領域が移動可能 なパン方向、チルト方向に対して撮影可能領域を 4つの領域に分割する。
(ステップ E202)分割された領域ごとに未撮影領域の場所を特定する。
図 41では、太い枠線で囲われた領域力カメラ端末 501の撮影領域と隣接する未撮 影領域となる。
(ステップ E203)カメラ端末 501の撮影領域に隣接する未撮影領域が存在するかど うかを判定する。隣接未撮影領域が存在する場合はステップ E204に移る。隣接未 撮影領域が存在しな ヽ場合は処理 E— 2を終了する。
(ステップ E204)分割された領域ごとに、カメラ端末 501の撮影領域に隣接する未撮 影領域の重心座標を求める。
(ステップ E205)カメラ端末 501の撮影領域の中心座標または視線方向を求める。 (ステップ E206)カメラ端末 501の撮影領域の中心座標と未撮影領域の重心との距 離の差異について、上記評価関数 Eの式 40、式 41、式 42または式 43、式 44を用い て評価値 Eを求める。全ての隣接する未撮影領域との評価値 Eを求めたら処理 E— 2 を終了する。 [0152] ここで、評価関数 Eは、上記式 40、式 41、式 42、式 43、式 44以外にも、領域決定 ノ メータの変更可能な範囲においてカメラ端末 501の撮影領域の中心座標と隣接 未撮影領域の重心座標が等しい時に評価値 Eが最も小さく(または大きく)なり、また 、カメラ端末 501の撮影領域の中心座標と隣接未撮影領域の重心との距離が大きく なるにつれて評価値 Eが単調に大きく(または小さく)なる関数であればよい。
[0153] 次に、カメラ端末 501の撮影領域の変更 (ステップ E205)について説明する。
撮影領域変更部 513は評価値 A、評価値 D、評価値 Eがそれぞれ目標値 A、目標 値 D、目標値 Eとして極小値 (または極大値)に近づくように領域決定パラメータ(0 、
P
Θ )を変更する。評価値 Aを極小値 (または極大値)に近づける手順は実施の形態 1
T
と同様である。評価値 Dを極小値 (または極大値)に近づける手順は実施の形態 4と 同様である。
[0154] 次に、評価値 Eを極小値 (または極大値)近づける手順は、上記評価関数 Eをそれ ぞれ領域決定パラメータ(0 、 Θ
P T )で偏微分して求められる導関数を用いた以下に 示される式 45、式 46、または式 47、式 48の更新式に従ってカメラ端末 501の領域 決定パラメータ(0 、 Θ 、f)
P T を変更する。
[数 12] δ (VblankCxfl + VblankCyU + VblankCzU)
—(式 45)
dt N
{VblankCxn + VblankCyYl + VblankCzYi)
άθτ r
一(式 46)
dt δθτ
または
a {VblankC 9l7l + VblankcOfn)
一(式 47)
dt N δθ?
dY (VblankC ΘΠΊ + VblankcOPn)
dOr ar
dt N ΰθι 一(式 48) ただし、 P、 な丁、 fは係数
Nは隣接未撮影領域の数
[0155] 次に、実施の形態 5におけるカメラ端末 501の動作の例について図 43を用いて説 明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複 数のカメラ端末 501を設置し、床面を撮影して!/ヽる場合を例にして 、る。
[0156] 図 43の左の図に示されるように撮影領域の位置関係や協調相手の決定の仕方に よって未撮影領域が存在しながらも、隣り合う撮影領域の位置関係が満たされる場合 に未撮影領域を取り囲むカメラ端末 501は未撮影領域の重心に視線を近づけるよう に撮影領域を変更し、また、周囲のカメラ端末 501bも互いに隣り合う撮影領域の重 なりを所定の大きさに保つように撮影領域を変更するため、監視システム全体として 監視区域全体における撮影領域の割合を向上させることができる。
[0157] (実施の形態 6)
次に、本発明の実施の形態 6について説明する。
[0158] 図 44は、本発明の実施の形態 6における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 601および 601bと、各カメラ 端末 601および 601bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末の撮影精度が一定の関係になるように調整する点に特徴を有する。 以下、 1台のカメラ端末 601を中心に説明する。なお、図 44において図 9と同じ構成 要素については同じ符号を用い、説明を省略する。
[0159] カメラ端末 601は、実施の形態 6における自律協調カメラである。
通信部 603は、カメラ端末 601の撮影精度情報と精度決定パラメータを通信する通 信インターフェースである。
[0160] 撮影素子 604は、上述した撮影精度の変更が可能な CCDカメラ等である。
撮影特性変更部 605は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 606、精度差評価部 609、撮影精度変更部 610から構成さ れる。
[0161] 協調相手決定部 606は、他のカメラ端末 601bの中から互いの撮影領域が隣り合う カメラ端末 60 lbを決定する。
[0162] 精度差評価部 609は、協調相手決定部 606で決定されたカメラ端末 601bおよび カメラ端末 601の撮影精度情報および精度決定パラメータに基づいて、カメラ端末 6 0 lbとカメラ端末 601の撮影精度の差異に対して評価値 Fを与える。 [0163] 撮影精度変更部 610は、評価値 Fが所定の目標値 Fに近づくように撮影素子 604 の領域決定パラメータを変更する。つまり、協調相手決定部 606で決定されたカメラ 端末 601bおよびカメラ端末 601の撮影精度情報および精度決定パラメータに基づ いて、カメラ端末 60 lbの撮影精度とカメラ端末 601の撮影精度が一定の関係になる (例えば、等しくなる)ように、カメラ端末 601の撮影素子 604を制御して撮影精度を 変更する。
[0164] 背景技術においては、広い範囲を撮影するカメラ端末と対象物を詳細に撮影する カメラ端末との役割が分かれており、それぞれのカメラで撮影される映像の解像度等 が異なるため、これらの映像に写った対象物のサイズ比較や映像合成が容易ではな い。
[0165] これに対し、本実施の形態 6に係る構成によれば、複数のカメラ端末 601を用いて 互いに隣り合うカメラ端末 601の撮影精度を均一にすることによりサイズの比較や映 像合成に適した映像を撮影することができる。
[0166] 次に、監視システムを構成するカメラ端末 601の撮影精度を変更する手順につい て図 45 (a)一(c)のフローチャートを用いて説明する。
[0167] (ステップ F01)まず、通信部 603における処理を開始する。
(処理 F— 1)
(ステップ F101)カメラ端末 601の撮影精度情報と精度決定パラメータを取得する。 (ステップ F102)カメラ端末 601の撮影精度情報と精度決定パラメータを他のカメラ 端末 601bに通知する。
(ステップ F103)他のカメラ端末 601bから撮影精度情報と精度決定パラメータの通 知があるかどうかを判定する。通知があればステップ F104に移る。通知がなければ ステップ F101に戻る。
(ステップ F104)他のカメラ端末 601b力も通知された撮影精度情報と精度決定パラ メータを取得し、処理 F-1を終了する。
(ステップ F02)次に、撮影特性変更部 605における処理を開始する。
(処理 F— 2)
(ステップ F201)協調相手決定部 606は、カメラ端末 601の撮影精度を変更するに あたり協調すべき相手を決定する。
(ステップ F202)協調相手決定部 606は、カメラ端末 601の撮影精度を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ F203に移り、協調すべき相手が存在しない場合は処理 C—2を終了 する。
(ステップ F203)精度差評価部 609は、協調すべき相手の撮影精度情報と精度決定 ノ メータとカメラ端末 601の撮影精度情報と精度決定パラメータとの関係に対して 評価値 Fを求める。
(ステップ F204)精度差評価部 609は、評価値 Fが所定の目標値 Fと異なるかどうか を判定する。目標値 Fと異なる場合はステップ F205に移る。目標値 Fと等 ヽ場合は 処理 F-2を終了する。
(ステップ F205)撮影精度変更部 610は、評価値 Fが所定の目標値 Fに近づくように カメラ端末 601の精度決定パラメータを変更し処理 F— 2を終了する。
[0168] 以下、ステップ F01 (処理 F— 1)とステップ F02 (処理 F— 2)を繰り返す。
次に、実施の形態 6における撮影精度の変更のための協調相手の決定手順 (ステ ップ F201)について説明する。実施の形態 6における協調相手の決定手順は図 13 ( a)および (b)に示した実施の形態 1における決定手順と同様である。
[0169] また、実施の形態 6においては図 46に示されるカメラ端末 Aと他のカメラ端末のネッ トワークの接続関係、または図 47のカメラ端末 Aと他のカメラ端末の設置位置の物理 的な位置関係によって協調相手を決定してもよい。
[0170] 図 46の例では、カメラ端末 Aと直接ネットワーク接続している他のカメラ端末をカメラ 端末 Aの撮影精度の変更における協調相手として選ぶ。また、ネットワークを介して 間接的に接続している他のカメラ端末に対しても、中継する他のカメラ端末の台数が 所定の台数が所定の範囲にあるものを協調相手とするように選んでもよい。これによ り、ネットワーク上で通信が交わされる範囲を制限することが可能となり、カメラ端末の 台数の増加に伴うネットワーク上の通信トラフィックの増加すること防ぐことができる。
[0171] また、図 47の例では、カメラ端末は互いの設置位置情報を交換し、カメラ端末の設 置位置の物理的な位置関係が所定の距離範囲にあるものを協調相手として選ぶ。こ れによりカメラ端末を結ぶネットワークの配線経路や接続構成に関係なぐ物理的な 距離関係によって協調相手を選ぶことが可能となる。
[0172] 次に、ステップ F203におけるカメラ端末 601と、他のカメラ端末 601bの撮影精度 の差異に対する評価値 Fを求める手順の例について図 48に示されるフローチャート を用いて説明する。なお、図 49に実施の形態 6におけるカメラ端末 601と他のカメラ 端末 60 lbの撮影精度の差異の様子を示し、以下に、撮影精度の差異に対して評価 値 Fを決定する評価関数 Fの式 49、式 50を示す。
[数 13] - fi) = (fA - fB)2 —(式 49)
Ucom2(fA - fc) = (fA - fc)2 —(式 50)
[0173] (処理 F— 3)
(ステップ F301 )カメラ端末 601が他のカメラ端末 60 lbと撮影精度の変更にぉ ヽて 協調すべき相手のうち、まだカメラ端末 601の撮影精度との差異が評価されていない 相手が存在するかどうかを判定する。
[0174] 図 49の例では、カメラ端末 Aの協調相手として決定されたカメラ端末 B、カメラ端末 Cに対して撮影精度情報と精度決定パラメータの評価が終了したかどうかを判定する
(ステップ F302)協調相手が存在するかどうかを判定した結果、協調すべき相手が 存在すればステップ F303に移る。協調すべき相手が存在しな!ヽ場合は処理 F— 3を 終了する。
(ステップ F303)協調すべき他のカメラ端末 60 lbとカメラ端末 601の撮影精度情報 および精度決定パラメータの関係に対して評価値 Fを求める。
[0175] 図 49の例ではカメラ端末 Aとカメラ端末 B、またはカメラ端末 Cと焦点距離の関係に 対して、上記評価関数 Fの式 49、式 50を用いて評価値 Fを求める。また、評価関数 F は、上記式 49、式 50以外にも、カメラ端末 601の精度決定パラメータ (f)の変更可能 な範囲においてカメラ端末間の所定の撮影精度情報および精度決定パラメータの差 異が等しい時に評価値 Fが最も小さく(または大きく)なり、また、所定の撮影精度情 報および精度決定パラメータの差異が大きくなるにつれて評価値 Fが単調に大きく( または小さく)なる関数であればょ 、。
[0176] 次に、カメラ端末 601の精度決定パラメータの変更手順 (ステップ F205)について 説明する。
[0177] 撮影精度変更部 610は、評価値 Fが目標値 Fとして極小値 (または極大値)に近づ けるよう精度決定パラメータ (f)を変更するために、上記評価関数 Fをそれぞれ精度 決定パラメータ (f)で偏微分した導関数を用いた以下に示される更新式の式 51に従 つてカメラ端末 601の精度決定パラメータ (f)を変更する。
[数 14]
N =— ^ 一(式 51 )
dt N df
ただし、 "P、 "丁、 af は係数
Nは協調相手の数
[0178] 次に、実施の形態 6におけるカメラ端末の協調動作の例について図 50を用いて説 明する。
[0179] 図 50では、天井の高さが一様で床面が矩形の部屋の天井に複数のカメラ端末 60 1を設置し、床面を撮影している例を示している。
[0180] 各カメラ端末 601が図 50の左側の図に示されるように、それぞれ異なる焦点距離を 持ち、撮影される映像 (たとえば人物の顔の映像)の解像度が異なる場合、対象物の 顔認識などの処理が同じ条件で行えな 、等の課題がある。このため各カメラ端末 60 1が他のカメラ端末 60 lbと協調して所定の撮影精度を均一化させることにより図 50 の右側の図に示されるように各カメラ端末 601は同じ解像度をもつ映像を撮影し、同 じ条件で対象物の顔認識等の処理を行うことが可能となる。
[0181] (実施の形態 7)
次に、本発明の実施の形態 7について説明する。
[0182] 図 51は、本発明の実施の形態 7における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 701および 701bと、各カメラ 端末 701および 701bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が、実施の形態 6における撮影精度の制御に加えて、予め定められ た基準精度と一定の位置関係となるように撮影精度を調整する点に特徴を有する。 以下、 1台のカメラ端末 701を中心に説明する。なお、図 51において図 44と同じ構 成要素については同じ符号を用い、説明を省略する。
[0183] カメラ端末 701は、実施の形態 7における自律協調カメラである。
撮影特性変更部 705は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 606、精度差評価部 609、自己精度評価部 711、基準精度 記憶部 712、撮影精度変更部 713から構成される。
[0184] 自己精度評価部 711は、カメラ端末 701の撮影精度が所定の値 (基準精度記憶部 712に記憶された基準精度)をとる場合に目標値 Gをとり、精度が所定の値から離れ るにつれて目標値 G力 単調に値が遠ざ力る評価値 Gを与える処理部である。
[0185] 基準精度記憶部 712は、撮影において基準となる撮影精度である基準精度の値を 記憶するメモリ等である。
[0186] 撮影精度変更部 713は、上記評価値 Fに加えて評価値 Gが所定の目標値に近づく ように撮影素子 604の精度決定パラメータを変更する処理部である。つまり、実施の 形態 6における撮影精度変更部 610の機能に加えて、カメラ端末 701の撮影精度が 所定の値 (基準精度)と一致するように、カメラ端末 701の撮影素子 604を制御して 撮影精度を変更する。
[0187] 実施の形態 6に係るカメラ端末 601は、周囲のカメラ端末 601bと撮影精度を均一 にすることができたが、その精度を目的の値に変更することができない。
[0188] これに対し、本実施の形態 7に係る構成のカメラ端末 701では、目的の撮影精度を 基準精度として設定することにより、カメラ端末 701の撮影精度を目的の撮影精度に 近づけながら、均一にすることができる。
[0189] 次に、実施の形態 7におけるカメラ端末 701の撮影領域の変更における動作手順 について説明する。
[0190] 図 52 (a)および (b)は、カメラ端末 701が撮影領域を変更する手順を示したフロー チャートである。なお、図 52 (a)および (b)において図 45 (a)—(c)と同じ動作手順に ついては同じ符号を用い、説明を省略する。 [0191] (処理 G)
(ステップ G01)撮影特性変更部 705における処理を開始する。
(処理 G - 1)
(ステップ G101)自己精度評価部 711は、カメラ端末 701の撮影精度に対して評価 値 Gを求める。
(ステップ G102)協調相手決定部 606は、カメラ端末 701の撮影精度を変更するに あたり協調すべき相手を決定する。
(ステップ G103)協調相手決定部 606は、カメラ端末 701の撮影精度を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ G104に移り、協調すべき相手が存在しない場合はステップ G105に 移る。
(ステップ G104)精度差評価部 609は、協調すべき相手とカメラ端末 701の所定の 撮像精度の差異に対して評価値 Fを求める。
(ステップ G105)精度差評価部 609は、評価値 F、評価値 Gがそれぞれ所定の目標 値と異なるかどうかを判定する。 目標値と異なる場合はステップ G106 に移る。目標 値と等 U、場合は処理 G— 1を終了する。
(ステップ G106)撮影精度変更部 713は、評価値 F、評価値 Gがそれぞれ目標値に 近づくよう、カメラ端末 701の精度決定パラメータを変更し、処理 G-1を終了する。
[0192] 以下、ステップ F01 (処理 F— 1)とステップ G01 (処理 G— 1)を繰り返す。
実施の形態 7における撮影精度情報の変更のための協調相手の決定手順 (ステツ プ G102)は実施の形態 6と同様である。
[0193] 次に、ステップ G101において、自己精度評価部 711がカメラ端末 701の撮影精度 と基準精度との差異に対して評価値 Gを与える手順について図 53のフローチャート を用いて説明する。なお、図 54は、カメラ端末 701の撮影精度と基準精度の差異を 評価する評価関数 Gの一例である以下の式 52を説明するための図である。
[数 15] U f) = (f -fO)2 - (式 52)
ただし、基準焦点距離 :も
[0194] (処理 G— 2)
(ステップ G201)カメラ端末 701の撮影精度情報と精度決定パラメータを求める。 (ステップ G202)カメラ端末 701の撮影精度情報および精度決定パラメータと基準精 度との関係に対して、上記評価関数 Gの式 52を用いて評価値 Gを求める。評価値 G を求めたら処理 G— 2を終了する。
[0195] ここで、評価関数 Gは、式 52以外にも、カメラ端末自身の精度決定パラメータ (f)の 変更可能な範囲においてカメラ端末 701の所定の撮影精度情報および精度決定パ ラメータと基準精度が等しい時に評価値 Gが最も小さく(または大きく)なり、また、カメ ラ端末 701の所定の撮影精度情報および精度決定パラメータと基準精度との差異が 大きくなるにつれて評価値 Gが単調に大きく(または小さく)なる関数であればよい。
[0196] 次に、カメラ端末 701の撮影精度の変更 (ステップ G106)について説明する。
撮影精度変更部 713は、評価値 F、評価値 Gがそれぞれ目標値 F、 目標値 Fとして 極小値 (または極大値)に近づくように精度決定パラメータ (f)を変更する。
[0197] 評価値 Fを極小値 (または極大値)に近づける手順は実施の形態 6と同様である。
評価値 Gを極小値 (または極大値)に近づける手順としては、例えば、上記評価関数 Fを精度決定パラメータ (f)で偏微分した導関数を用いた以下に示される式 53の更 新式に従ってカメラ端末 701の精度決定パラメータ (f)を変更する。
[数 16]
Figure imgf000049_0001
- (式53)
ただし、 flま係数
[0198] 次に、実施の形態 7におけるカメラ端末の動作の例について図 55を用いて説明す る。ここでは、天井の高さが一様で床面が矩形の部屋の天井に複数のカメラ端末 70 1を設置し、床面を撮影している場合を例に説明する。
[0199] 図 55では、カメラ端末 701に対して基準精度を与えることにより、各カメラ端末 701 の撮影精度を、基準精度に近い値で撮影精度の均一化を行うことができる。
[0200] これにより、例えば顔認識などにおいて、予め比較のためのテンプレート画像が用 意されて!ヽた場合、テンプレートの画像と同じ解像度の映像を撮影できる撮影精度を 基準精度に設定することにより、監視システムを構成する全てのカメラ端末 701から 顔認識処理に適した解像度を持つ映像を取得することができる。
[0201] (実施の形態 8)
次に、本発明の実施の形態 8について説明する。
[0202] 図 56は、本発明の実施の形態 8における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 801および 801bと、各カメラ 端末 801および 801bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が撮影領域内に対象物を検出したカゝ否かによって撮影精度を変更 する点に特徴を有する。以下、 1台のカメラ端末 801を中心に説明する。なお、図 56 において図 44と同じ構成要素については同じ符号を用い、説明を省略する。
[0203] カメラ端末 801は、実施の形態 8における自律協調カメラである。
撮影特性変更部 805は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 606、精度差評価部 609、自己精度評価部 811、対象物特 定部 812、対象物撮影用基準精度記憶部 813、撮影精度変更部 814から構成され る。
[0204] 自己精度評価部 811は、カメラ端末 801の撮影精度に対して、撮影精度が所定の 値にある場合に目標値 Hをとり、精度が所定の値から離れるにつれて目標値 Hから 単調に値が遠ざ力る評価値 Hを与える処理部である。
[0205] 対象物特定部 812は、撮影領域内に対象物が存在するかどうかを特定する処理部 である。
[0206] 対象物撮影用基準精度記憶部 813は、対象物を撮影するための撮影精度を記憶 するメモリ等である。
[0207] 撮影精度変更部 814は、上記評価値 Fに加えて評価値 Hが所定の目標値 Hに近 づくように撮影素子 604の精度決定パラメータを変更する処理部である。具体的には 、対象物特定部 812が撮影領域内の対象物を特定した場合には、カメラ端末 801の 撮影精度が対象物撮影用基準精度記憶部 813に記憶された撮影精度となるように 撮影素子 604を制御し、対象物特定部 812が対象物を特定しない場合には、実施 の形態 6と同様に、カメラ端末 801の撮影精度が他のカメラ端末と同一となるように撮 影素子 604を制御する。
[0208] 背景技術においては、広い範囲を撮影するカメラ端末と対象物を詳細に撮影する カメラ端末とに役割が予め決められており、状況に応じてその役割を切り替えることが できない。
[0209] これに対し、本実施の形態 8に係る構成によれば、あら力じめ対象物を詳細に撮影 するための撮影精度を基準精度として与えることにより、カメラ端末 801の撮影領域 内に対象物が侵入して来たカメラ端末 801は対象物を詳細に撮影するために撮影 精度を変更し、また、対象物が撮影領域からいなくなると再び周囲のカメラ端末と撮 影精度を均一になるように変更することができる。このため対象物の近くに 、るカメラ 端末 801が対象物の様子を詳細に撮影し、残りのカメラ端末 80 lbは対象物の周囲 の領域を同じ撮影精度で撮影するように役割を自動的に変更させることができる。
[0210] 次に、監視システムを構成するカメラ端末 801の撮影精度を変更する手順につい て図 57 (a)および (b)のフローチャートを用いて説明する。図 57 (a)および (b)は、力 メラ端末 801が撮影精度を変更する手順を示したフローチャートである。なお、図 57 (a)および (b)にお 、て図 45 (a)一 (c)と同じ動作手順につ!、ては同じ符号を用い、 説明を省略する。
[0211] (処理 H)
(ステップ H01)撮影特性変更部 805における処理を開始する。
(処理 H— 1)
(ステップ H101)自己精度評価部 811は、カメラ端末 801の撮影精度に対して評価 値 Hを求める。
(ステップ H102)協調相手決定部 606は、カメラ端末 801の撮影精度を変更するに あたり協調すべき相手を決定する。
(ステップ H103)協調相手決定部 606は、カメラ端末 801の撮影精度を変更するに あたり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する 場合はステップ H104に移り、協調すべき相手が存在しない場合はステップ H105に 移る。
(ステップ H104)精度差評価部 609は、協調すべき相手とカメラ端末 801の所定の 撮像精度の差異に対して評価値 Fを求める。
(ステップ H105)精度差評価部 609は、評価値 F、評価値 Hがそれぞれ所定の目標 値と異なるかどうかを判定する。 目標値と異なる場合はステップ H106に移る。目標値 と等し ヽ場合は処理 H-1を終了する。
(ステップ H106)撮影精度変更部 814は、評価値 F、評価値 Hがそれぞれ目標値に 近づくよう、カメラ端末 801の精度決定パラメータを変更し、処理 H— 1を終了する。
[0212] 以下、ステップ F01 (処理 F— 1)とステップ H01 (処理 H— 1)を繰り返す。
次に、ステップ H101において、自己精度評価部 811がカメラ端末 801の撮影精度 と対象物を撮影するための基準精度との差異に対して評価値 Hを与える手順につい て図 58のフローチャートを用いて説明する。なお、図 59は、カメラ端末 801の撮影精 度と対象物を撮影するための基準精度の差異を評価する評価関数 Hの一例である 以下の式 54を説明するための図である。
[数 17]
If Object "撮影領域" then
Uobj(f) = (f -fobj)2 - (式 54)
ただし、基準焦点距離 】
[0213] (処理 H— 2)
(ステップ H201)カメラ端末 801の撮影領域内を撮影する。
(ステップ H202)撮影領域内に対象物が存在するかどうかを判定する。対象物が存 在する場合はステップ H203に移る。対象物が存在しない場合は処理 H— 2を終了す る。
(ステップ H203)カメラ端末 801の撮影精度情報および精度決定パラメータ (f)と対 象物の撮影のための基準精度 (f )との関係に対して、上記評価関数 Hの式 54を用
obj
Vヽて評価値 Hを求め処理 H— 2を終了する。
[0214] ここで、評価関数 Hは、式 54以外にも、カメラ端末 801の精度決定パラメータ (f)の 変更可能な範囲においてカメラ端末 801の所定の撮影精度が対象物の撮影のため の基準精度と等しい時に評価値 Hが最も小さく(または大きく)なり、また、カメラ端末 自身の所定の撮影精度と対象物の撮影のための基準精度との差異が大きくなるに つれて評価値 Hが単調に大きく(または小さく)なる関数であればよ!、。
[0215] 次に、カメラ端末 801の撮影精度の変更 (ステップ H106)について説明する。
実施の形態 8における撮影精度変更部 814は、評価値 F、評価値 Hがそれぞれ目 標値 F、目標値 Hとして極小値 (または極大値)に近づくように精度決定パラメータ (f) を変更する。
[0216] 評価値 Fを極小値 (または極大値)に近づける手順は実施の形態 6と同様である。
評価値 Hを極小値 (または極大値)に近づける手順としては、例えば、上記評価関数 Hをそれぞれ精度決定パラメータ (f)で偏微分した導関数を用いた以下に示される 式 55の更新式に従ってカメラ端末 801の精度決定パラメータ (f)を変更する。
[数 18]
If Object e "撮影領域" then
dj ollobj
Figure imgf000053_0001
_ (式55)
ただし、 は係数
[0217] 次に、実施の形態 8におけるカメラ端末 801の動作の例について図 60を用いて説 明する。ここでは、天井の高さが一様で床面が矩形の部屋の天井に複数のカメラ端 末 801を設置し、床面を撮影している場合を例に説明する。
[0218] 図 60に示されるように各カメラ端末 801は撮影領域内に所定の対象物が現れると 対象物を予め定められた所定の基準精度で撮影を行い、また、対象物が撮影領域 からいなくなると再び周囲のカメラ端末 801bと撮影精度を均一化させるように振舞う
[0219] これにより監視区域に対象物が存在しない場合には、全てのカメラ端末 801は同じ 撮影精度で監視区域内を撮影し、対象物が存在する場合には、対象物を捕らえた力 メラ端末 801のみに対象物を詳細に監視させることができる。
[0220] (実施の形態 9) 次に、本発明の実施の形態 9について説明する。
[0221] 図 61は、本発明の実施の形態 9における監視システムの構成図である。この監視 システムは、同一の構成要素力もなる複数のカメラ端末 901および 901bと、各カメラ 端末 901および 901bの撮影特性に関する情報を伝達する通信媒体 102から構成さ れ、各カメラ端末が実施の形態 1一 8における撮影領域および撮影精度の調整機能 を併せ持つ点に特徴を有する。以下、 1台のカメラ端末 901を中心に説明する。なお 、図 61にお!/ヽて図 9、図 20、図 25、図 30、図 38、図 44、図 51、図 56と同じ構成要 素については同じ符号を用い、説明を省略する。
[0222] カメラ端末 901は、実施の形態 9における自律協調カメラである。
通信部 903は、カメラ端末 901の撮影領域情報、領域決定パラメータ、撮影精度情 報、精度決定パラメータを通信する通信インターフェースである。
[0223] 撮影特性変更部 905は、周囲のカメラ端末と協調して撮影特性を変更する処理部 であり、協調相手決定部 106、領域差評価部 107、精度差評価部 109、基準領域記 憶部 212、対象物位置特定部 312、境界領域評価部 411、未撮影領域特定部 512 、基準精度記憶部 712、対象物特定部 812、対象物撮影用基準精度記憶部 813、 自己領域評価部 911、自己精度評価部 912、撮影領域変更部 913、撮影精度変更 部 914から構成される。
[0224] 自己領域評価部 911は、カメラ端末 901の撮影領域に対して評価値 B、評価値 C、 評価値 D、評価値 Eを与える処理部である。
[0225] 自己精度評価部 912は、カメラ端末 901の撮影精度に対して評価値 G、評価値 H を与える処理部である。
[0226] 撮影領域変更部 913は、評価値 A、評価値 B、評価値 C、評価値 D、評価値 Eがそ れぞれ目標値に近づくように領域決定パラメータを変更する処理部である。つまり、 実施の形態 1一 5における撮影領域変更部の機能を併せ持つ。
[0227] 撮影精度変更部 914は、評価値 F、評価値 G、評価値 Hがそれぞれ目標値に近づ くように精度決定パラメータを変更する処理部である。つまり、実施の形態 6— 8にお ける撮影精度変更部の機能を併せ持つ。
[0228] 背景技術においては、複数のカメラ端末を協調させることで監視区域全体をくまな く撮影することと、監視区域内に存在する対象物の様子を詳細に追跡しながら撮影 することを同時に行うことができない。
[0229] これに対し、本実施の形態 9に係る構成によれば、カメラ端末 901の撮影領域に対 して領域差評価部 107、境界領域評価部 411、自己領域評価部 911によってそれぞ れ評価値 A、評価値 B、評価値 D、評価値 Eを求め、撮影領域変更部 913によって評 価値 A、評価値 B、評価値 D、評価値 Eがそれぞれ所定の目標値に近づくように撮影 領域を変更することで監視区域全体に対して歪みの少ない映像をくまなく撮影するこ とがでさる。
[0230] また、カメラ端末 901の撮影精度に対して精度差評価部 109、自己精度評価部 91 2によって評価値 F、評価値 Gを求め、撮影精度変更部 914によって評価値 F、評価 値 Gがそれぞれ所定の目標値に近づくように撮影精度を変更することで全てのカメラ 端末 901から同じ撮影精度の映像を撮影することができる。
[0231] また、カメラ端末 901の撮影領域内に対象物が存在する場合には、対象物位置特 定部 312と対象物特定部 812によって対象物とその位置を特定し、自己領域評価部 911によって評価値 Cを、また、自己精度評価部 912によって評価値 Hを求め、撮影 領域変更部 913と撮影精度変更部 914によって評価値 C、評価値 Hがそれぞれ目 標値に近づくように撮影領域および撮影精度を変更することによって、対象物を詳細 な撮影精度で追跡しながら撮影することができる。
[0232] 次に、監視システムを構成するカメラ端末 901の撮影領域および撮影精度を変更 する手順にっ 、て図 62 (a)一 (d)のフローチャートを用いて説明する。図 62 (a)一 (d )は、カメラ端末 901が撮影精度を変更する手順を示したフローチャートである。なお 、図 62 (a)—(d)において図 10 (a)—(c)、図 45 (a)—(c)と同じ動作手順について は同じ符号を用い、説明を省略する。
[0233] (処理 I)
(ステップ 1101)自己領域評価部 911は、カメラ端末 901の撮影領域に対して評価値 B、評価値 C、評価値 D、評価値 Eを求める。
(ステップ 1102)協調相手決定部 106は、カメラ端末 901の撮影領域を変更するにあ たり協調すべき相手を決定する。 (ステップ 1103)協調相手決定部 106は、カメラ端末 901の撮影領域を変更するにあ たり協調すべき相手が!/、るかどうかを判定する。協調すべき相手が存在する場合は ステップ 1104に移り、協調すべき相手が存在しない場合は処理 I 1を終了する。 (ステップ 1104)領域差評価部 107は、協調すべき相手の撮影領域とカメラ端末 901 の撮影領域の位置関係に対して評価値 Aを求め、処理 1-1を終了する。
(処理 I 2)
(ステップ 1201)自己精度評価部 912は、カメラ端末 901の撮影精度に対して評価値 G、評価値 Hを求める。
(ステップ 1202)協調相手決定部 106は、カメラ端末 901の撮影精度を変更するにあ たり協調すべき相手を決定する。
(ステップ 1203)協調相手決定部 106は、カメラ端末 901の撮影精度を変更するにあ たり協調すべき相手が存在するかどうかを判定する。協調すべき相手が存在する場 合はステップ 1204に移り、協調すべき相手が存在しない場合は処理 E— 2を終了する
(ステップ 1204)精度差評価部 109は、協調すべき相手とカメラ端末 901との撮影精 度の差異に対して評価値 Fを求め、処理 I 2を終了する。
(処理 I 3)
(ステップ 1301)評価値 A、評価値 B、評価値 C、評価値 D、評価値 E、評価値 F、評 価値 G、評価値 Hの中に所定の目標値と異なるものが存在するかどうかを判断する。 目標値と異なる評価値が存在すればステップ 1302に移る。 目標値と異なる評価値が 存在しなければ処理 I 3を終了する。
(ステップ 1302)評価値 A、評価値 B、評価値 C、評価値 D、評価値 E、評価値 F、評 価値 G、評価値 Hがそれぞれ所定の目標値に近づくよう領域決定パラメータ(0 、 Θ
P
、 f)、および精度決定パラメータ (f)を変更し、処理 1-3を終了する。
T
[0234] 以下、ステップ A01 (処理 A— 1)、ステップ 101 (処理 I 1)、ステップ F01 (処理 F— 1 )、ステップ 102 (処理 I 2)、ステップ 103 (処理 I 3)を繰り返す。
[0235] 実施の形態 9における撮影領域変更部 913および撮影精度変更部 914は、評価 関数 A、評価関数 B、評価関数 C、評価関数 D、評価関数 E、評価関数 F、評価関数 G、評価関数 Hを領域決定パラメータ(0 、 Θ 、 f)または精度決定パラメータ (f)で
P T
偏微分した導関数を用いた以下に示される式 56、式 57、式 58の更新式に従って力 メラ端末自身の領域決定パラメータ(0 、 Θ 、 f)、精度決定パラメータ (f)を変更する
P T
[数 19]
Figure imgf000057_0001
Q R s
d waliq dY VblankCr dY VblankSS
—(式 56)
Figure imgf000057_0002
N
d Vcomn
ατ n dVself dVobj
DT ΥΓ
dt N δθι δθτ δθτ
Q RR ,s
dY Vwaliq dY Vbl nkCr dV VblankSS
&■ ετ ?r
Q δθτ RR ΘΘΓ s δθτ 一(式 57 )
Figure imgf000057_0003
, aV Vwalll r dY VblankSS
dUohj
- df L δθ[ S df 一(式 58) ただし、 Tt , β、 βτ、 rP、 Ττ- 、
δτ、 、ど ρ、 £ 、 、 、 ^f は係数
N、 Mは協調相手の数、
C?は相互作用する壁の数
R, Sは隣接未撮影領域の数
[0236] 次に、実施の形態 9におけるカメラ端末 901の動作の例について図 63用いて説明 する。ここでは、天井の高さが一様で床面が矩形の部屋の天井の適当な位置に複数 のカメラ端末 901を設置し、床面を撮影している場合を例に説明する。
[0237] 図 63に示されるように複数のカメラ端末 901を天井の適当な位置に設置しても、監 視区域全体の様子をくまなく監視できるように各カメラ端末 901の撮影領域の分担と 撮影精度の設定を自動的に行うことができる。
[0238] また、監視区域内に対象物が存在する場合には、監視システムとし監視区域全体 の監視を維持したまま、任意のカメラ端末 901によって対象物を追跡しながら詳細に 監視をすることができる。
[0239] 次に、実施の形態 9において撮影領域が矩形以外の場合の撮影領域の変更手順 について説明する。
[0240] 撮影領域の形状が撮影領域を視野領域に内接する楕円形である場合、図 64に示 されるように撮影領域の重心を結ぶ直線上において、 2つの撮影領域が重なる距離 間隔 Lと所定の定数 Cとの差異を評価する。図 65に示される撮影領域 Aと周囲の撮 影領域 B、撮影領域 C、撮影領域 Dとの関係は、以下の評価関数 Iの式 59、式 60、 式 61によって評価値が求められる。
[数 20]
Vc。"B(LAB) = (LAii - C)2 一(式 59)
Vconc(LAc) = (LAC― Cf ― (式 60)
Vcon(LAD) = (LAD ~ Cf 一(式 61 )
[0241] ここで、評価関数 Iは、上記式 59、式 60、式 61以外にも、カメラ端末 901の領域決 定パラメータ(0 、 Θ 、f)の変更可能な範囲でカメラ端末 901自身と他のカメラ端末
P T
901bの重なりの距離 Lが所定の定数 Cと等しい時に評価値が最も小さく(または大き く)なり、また距離 Lが所定の定数 Cから離れるにつれて評価値が単調に大きく(また は小さく)なる関数であればよい。
[0242] 次に、実施の形態 9における撮影領域が矩形以外の形状をとるカメラ端末の協調 動作の例について図 66用いて説明する。ここでは、天井の高さが一様で床面が矩形 の部屋の天井の適当な位置に複数のカメラ端末 901を設置し、床面を撮影して!/、る 場合を例に説明する。
[0243] 図 66の示すように各カメラ端末 901が互いの撮影領域が重なる領域の幅 Lを所定 の値 Cに近づけることにより、撮影領域の形状が矩形とならない場合であっても、監 視区域全体に対して各カメラ端末 901の撮影領域が一様に分布するように監視する ことが可能となる。
[0244] また、撮影領域の形状が多角形やその他の形状であってもカメラ端末 901の撮影 領域の重心を結び、結ばれた直線上での重なり幅 Lを評価することにより、各カメラ端 末の撮影領域情報を変更することができる。
[0245] 次に、互いの視線が交差するカメラ端末を協調相手の候補力も除外することで、力 メラ端末に設置位置の真下の領域を優先的に監視させる協調相手の決定手順につ いて図 67、図 68を用いて説明する。
[0246] 実施の形態 1、実施の形態 2、実施の形態 3、実施の形態 4、実施の形態 5、実施の 形態 9における撮影領域の変更において図 69の左側の図に示されるようにカメラ端 末の設置位置と撮影領域の位置関係が交差した状態で撮影領域の担当領域が決 定した場合、カメラ端末の視線方向が鉛直真下方向からずれた状態となるため撮影 領域が矩形力 歪んだ形状になってしまう。このため互 、の視線が交差するカメラ端 末を協調相手力 除外することにより図 69の右側の図に示されるようにカメラ端末間 の視線交差の発生を防ぐことが可能となる。
[0247] 図 68は実施の形態 1、実施の形態 2、実施の形態 3、実施の形態 4、実施の形態 5 、実施の形態 9における視線が交差するカメラ端末を協調相手力 除外して隣り合う 撮影領域をもつカメラ端末を特定する手順を示したフローチャートである。
[0248] (処理 I 4)
(ステップ 1401 )カメラ端末 901の撮影領域の中心を基点にカメラ端末 901の視線が 移動可能な方向に基づ!、て、撮影可能領域を複数の領域に分割する。
(ステップ 1402)他のカメラ端末 901bの撮影領域の中心がステップ 1401で分割され た領域のうち、どの領域に含まれるかによつて他のカメラ端末 901bをグループ分け する。
(ステップ 1403)各グループ力もカメラ端末 901の視線と交差する他のカメラ端末 901 bを除外する。
(ステップ 1404)分割された各グループに対してカメラ端末 901の撮影領域の中心と 最も距離の短い撮影領域の中心を持つカメラ端末をカメラ端末 901の協調相手とし て決定する。 [0249] 図 69に互いの視線が交差するカメラ端末を協調相手の候補力 除外した場合の力 メラ端末 901の協調動作の例を示す。ここでは、天井の高さが一様で床面が矩形の 部屋の天井の適当な位置に複数のカメラ端末 901を設置し、床面を撮影して!/、る場 合を想定している。
[0250] 図 69の左側の図に示されるように監視システムを構成するカメラ端末が視線を交差 させた状態に対して、図 68のフローチャートに従って視線が交差するカメラ端末を協 調相手の候補から除外した場合、図 69の右側に示されるように各カメラ端末の撮影 領域をカメラ端末の設置位置の真下の領域となるように撮影領域を変更することが可 能となる。
[0251] (実施の形態 10)
次に、本発明の実施の形態 10について説明する。
[0252] 図 70は、本発明の実施の形態 10における監視システムの構成を示すブロック図で ある。この監視システムは、通信ネットワーク 1103で接続された移動カメラ 1101と移 動部 1102とからなる複数のカメラ端末力も構成され、監視領域 1111をくまなく監視 できるように、それら複数の移動カメラ 1101が自律協調的に移動する点に特徴を有 する。
[0253] 通信ネットワーク 1103は、複数の移動カメラ 1101を結ぶ伝送路である。
移動部 1102は、移動カメラ 1101の撮影位置を変更させる機構部等である。
[0254] 移動カメラ 1101は、移動部 1102に支持されて移動するカメラ装置であり、通信部 1104、隣接撮影領域特定部 1105、撮影素子 1106、撮影領域推定部 1107、監視 範囲記憶部 1108、撮影位置評価部 1109および撮影位置変更部 1110から構成さ れる。
[0255] 通信部 1104は、移動カメラ 1101が通信ネットワーク 1103を介して他の移動カメラ と情報のやりとりを行うための通信インターフェースである。
[0256] 隣接撮影領域特定部 1105は、通信部 1104に通知された他の移動カメラからの情 報に対して、撮影領域が隣り合う移動カメラを推定する処理部である。
[0257] 撮影素子 1106は、監視領域内の映像を取り込む CCDカメラ等である。
撮影領域推定部 1107は、撮影素子 1106の特性と、移動部 1102の位置カゝら移動 カメラ 1101の撮影領域を推定する処理部である。
[0258] 監視範囲記憶部 1108は、移動カメラ 1101が監視すべき領域の範囲を記憶してい るメモリ等である。
[0259] 撮影位置評価部 1109は、移動カメラ 1101の撮影領域と互いに隣り合う撮影領域 の重なり領域、または監視領域の境界との距離を評価する処理部である。
[0260] 撮影位置変更部 1110は、撮影位置評価部 1109による評価が一定の目標値とな るように、移動部 1102を制御し、移動カメラ 1101の撮影位置を変更させる制御部で ある。具体的には、隣接する撮影領域の重なり領域が一定の目標値に一致しない場 合には、その重なり領域が目標値に一致するように移動部 1102を制御し、監視領域 の境界との距離が一定の目標値に一致しない場合には、その距離が目標値に一致 するように移動部 1102を制御する。その結果、監視領域に対して複数の移動カメラ によって同時に撮影される撮影領域の割合が増加するように各移動カメラの位置が 制御されるとともに、監視領域における複数の移動カメラの撮影領域がより均一に分 散するように各移動カメラの位置が制御される。
[0261] 監視領域 1111は、移動カメラ 1101が監視すべき領域である。
撮影領域 1112は、移動カメラ 1101によって撮影されて 、る領域である。
[0262] このような実施の形態 10の構成によれば、移動カメラ 1101は、自身の撮影位置と 撮影素子 1106の特性により推定される撮影領域に関する情報を周囲の移動カメラと 通知し合い、隣り合う撮影領域との重なり領域の大きさと、監視領域の境界との距離 が所定の状態に近づくように周囲の移動カメラと協調しながら撮影位置を変更するこ とにより、複数の移動カメラ 1101による同時撮影において監視領域内の死角が少な くなる撮影位置に移動することができる。
[0263] 次に、監視システムを構成する移動カメラの動作手順について図 71 (a)一 (d)のフ ローチャートを用いて説明する。
[0264] 移動カメラ 1101は、 3つの処理 (処 ¾[ 1一 J 3)を繰り返し実行する。
まず、以下の処 aj-iを行う(ステップ J01)。
[0265] 撮影領域推定部 1107は、移動カメラ 1101の撮影位置と、撮影素子 1106の特性 力 移動カメラ 1101の撮影領域を推定する (ステップ J 101)。 [0266] 通信部 1104は、ステップ J101で推定された撮影領域に関する情報を周囲の移動 カメラに通知する (ステップ J102)。
[0267] 通信部 1104は、別の移動カメラ力も撮影領域に関する情報を通知されたどうか判 定する(ステップ J1103)。別の移動カメラからの通知があればステップ J104に移り、 通知がなければステップ J101に移る。
[0268] 通信部 1104は、別の移動カメラ力 通知された撮影領域に関する情報を取得し( ステップ jio4)、処 aj-iを終了する。
[0269] ここでステップ J101における移動カメラ 1101の撮影領域の推定方法の一例を、図 72を用いて説明する。図 72において、焦点 1301は、移動カメラ 1101の焦点である 。撮影素子 1302は、移動カメラ 1101の撮影素子 1106である。撮影領域 1303は、 移動カメラ 1101の撮影素子 1106に焦点を通して撮影される領域である。
[0270] なお、図 72は、移動カメラを床面の方向に向けて天井に設置した場合を想定した 図である。移動カメラの焦点の位置を (x、 y、 0)、天井の高さを H、撮影素子の形状 が矩形でその縦横の長さを (W、 W )、焦点距離を f、移動カメラの視線方向示すパ ン角、チルト角を 0 、 Θ とする時、移動カメラ 1101によって撮影される床面領域の
P T
位置は、以下の式 62、式 63、式 64、式 65によって求められる。ここで、式 66、式 67 、式 68、式 69は、上記式 62、式 63、式 64、式 65を求めるために用いる撮景素子の 位置座標を求める式である。
[数 21]
)■
一(式 62)
G c
(by-y)H/b, + y 一(式 63)
Figure imgf000063_0001
—H ノ
f-(Cx-X)H/Cz + Xヽ T
■(cy-y)H/c, + y 一(式 64)
—H
(式 66)
Figure imgf000063_0002
(b f wxcosep-2j sin θΐ' + 2x
by wx sin sin ^ - wy cos ft- + 2/ sin ft- cos θρ + 2γ 一(式 67) ノ Wx cos sin ^ + Wy sin θι' + f cos &r cos θρ
-Wxcos0p-2f sin & + 2x
Cy 一 w sin ft- sin ^ - wy cos ft- + 2/ sin Br cos θρ + ly —(式 68) y C-z 一 Wx cos sin + Wy sin0r + 2 f cos θι cos
— wjcos ^— 2/ sin ΘΡΛ-2Χ
dy — v½sin sin ^ + w^cos + 2/ sin θτ cos θ -ly 一(式 69) 、dり - Wx cos θι sin &-wysm& + 2f cos ^ cos 6JJ
[0271] なお、図 72における撮影領域の推定においては移動カメラ 1101によって撮影され る床面を基準とした力 床面力 所定の高さ hにある平面を基準としてもよい。さらに 領域の推定においては平面以外にも所定の三次元的な範囲に対して、移動カメラ 1 101が撮影できる三次元的な空間を撮影領域として推定してもよい。
[0272] 次に、移動カメラ 1101は、以下の処¾1 2を開始する (ステップ J02)。
隣接撮影領域特定部 1105は、周囲の移動カメラ力 の情報を基に、撮影領域が 隣り合う移動カメラを特定する (ステップ J201)。 [0273] 隣接撮影領域特定部 1105は、隣り合う撮影領域を持つ移動カメラが存在するかど うかを判定する (ステップ J202)。存在する場合にはステップ J203に移る。存在しない 場合にはステップ J204に移る。
[0274] 撮影位置評価部 1109は、隣り合う領域との位置関係に対して評価値 Aを求める( ステップ J203)。
[0275] 監視範囲記憶部 1108に記憶されて 、る監視すべき領域の範囲を参照する (ステツ プ J204)。
[0276] 撮影位置評価部 1109は、移動カメラが移動できる方向に対して、撮影領域と監視 領域の境界との間に別の移動カメラの撮影領域が存在するかどうかを判定する (ステ ップ J205)。存在しない場合にはステップ J206に移り、存在する場合には処 ¾[ 2を 終了する。
[0277] 撮影位置評価部 1109は、移動カメラが移動できる方向に対して、撮影領域と監視 領域の境界との位置関係に対して評価値 Bを求め(ステップ J206)、処 ¾[ 2を終了 する。
[0278] ここで、ステップ J201において、周囲の移動カメラの中力も撮影領域が隣り合う移 動力メラを特定する方法の一例について図 73を用いて説明する。
[0279] 図 73は複数の移動カメラの撮影領域の位置関係を床面に対して垂直な方向から 見た様子を示している。
[0280] 移動カメラ 1101の撮影領域と隣り合う撮影領域は、移動カメラ 1101が移動できる 方向ごとに特定するために移動カメラ 1101の撮影領域の中心座標を基準に図 73に 示されるように移動カメラ 1101が移動可能な方向に基づ 、て撮影可能領域を分割 する。図 73では移動カメラの撮影領域の中心を基準に X軸方向、 Y軸方向に基づい て撮影可能領域を領域 E,領域 S,領域 W,領域 Nの 4つの領域に分割した様子を 示している。
[0281] 次に、周囲の移動カメラの撮影領域が分割された 4つの領域のどの領域に属する かを特定し、グループ分けを行う。グループ分けにおいては移動カメラの撮影領域の 中心座標の位置でグループ分けを行う。図 73では領域 Wには撮影領域 1、領域 Nに は撮影領域 2と撮影領域 3、領域 Eには撮影領域 4、領域 Sには撮影領域 5がそれぞ れ属し、グループ分けが行われる。
[0282] 次に、グループごとに移動カメラ 1101と互いの撮影領域の中心座標間の距離が近 いものを特定し、それぞれ移動カメラ 1101と隣り合う撮影領域とする。図 73では撮影 領域 1が左方向に隣り合い、撮影領域 2が上方向に隣り合い、撮影領域 4が右方向 に隣り合い、撮影領域 5が下方向に隣り合うことになる。
[0283] なお、図 73では、移動カメラ 1101と隣り合う撮影領域を移動カメラ 1101が移動可 能な方向ごとに特定したが、これ以外の方向に対して隣り合う撮影領域を特定する方 法を用いてもよい。
[0284] 次に、ステップ J203において、隣り合う撮影領域の位置関係に対して評価値 Aを与 える方法の一例について図 74を用いて説明する。
[0285] 図 74は、隣り合う撮影領域間の位置関係と、その位置関係に対して評価値 Aを与 える評価関数 Aを説明するための図である。移動カメラ 1101の評価値 Aは、周囲の 撮影領域の位置関係に基づいて、以下の式 70、式 71、式 72、式 73に示される評価 関数 Aによって与えられる。
[数 22]
^41( 1 _ズ£) = (( 0— ^)ーし)2 ― (ΐΐ /0)
VA2(X2 - χιή = ((Χ2 ) + Cf —(式 71 )
Figure imgf000065_0001
- yu) - Cy —(式 72)
VA4(y2 - yD) = ((y2 - yD) + C)2 一(式 73)
ただし、 Cは定数
[0286] ここで、評価関数 Aは、式 70、式 71、式 72、式 73だけに限られず、隣り合う撮影領 域が所定の重なり幅が所定の定数 Cとなる時に最も小さく(または大きく)なり、さらに 移動カメラ 1101が移動できる範囲に対して隣り合う撮影領域間の重なり幅 (距離)が 定数 C力 遠ざ力るにつれて単調に大きく(または小さく)なる評価値 Aを与える関数 であれば他の関数であってもよ!/、。
[0287] また、式 70、式 71、式 72、式 73における定数 Cの値は、移動カメラ毎に異なる値で あってもよい。さらに、同一の移動カメラにおいて隣り合う方向毎に異なる定数 Cの値 をとるよう〖こしてもよい。さらに、定数 Cは、例えば、移動カメラ 1101の撮影領域の大 きさに比例して変化するような変数 cであってもよい。
[0288] 次に、ステップ J206において、撮影領域と監視領域の境界との位置関係に対して 評価値 Bを与える方法の一例について図 75を用いて説明する。
[0289] 図 75は、移動カメラ 1101の撮影領域と監視領域の境界との位置関係と、その位置 関係に対して評価値 Bを与える評価関数 Bの一例である以下の式 74、式 75を説明 するための図である。以下の式に示されるように、移動カメラ 1101の撮影領域と監視 領域の境界との間に別のカメラの撮影領域が存在しない場合、評価値 Bは、以下の 式 74、式 75に示される評価関数 Bによって与えられる。
[数 23] - yo) = (yi - yO - D)2 一(式 74)
Figure imgf000066_0001
- χο) - (xi - xO - D)' 一 (式 75)
ただし、 Dは定数
[0290] なお、監視領域の境界の位置については、監視
範囲記憶部 1108に監視すべき範囲を記述する監視範囲情報を参照することにより 求められる。図 76に、監視すべき範囲とその監視範囲情報の内容についての一例を 示す。
[0291] ここで、評価関数 Bは、式 74、式 75だけに限られず、移動カメラ 1101の撮影領域と 監視領域の境界との距離が所定の定数 Dとなる時に最も小さく(または大きく)なり、さ らに移動カメラ 1101が移動できる範囲に対して移動カメラ 1101の撮影領域と監視 領域の境界との距離が所定の定数 D力 遠ざ力るにつれて単調に大きく(または小さ く)なる評価値 Bを与える関数であれば他の関数であってもよ 、。
[0292] また、式 74、式 75における定数 Dの値は、移動カメラ毎に異なる値であってもよい。
さらに同一の移動カメラにおいて隣り合う方向毎に異なる定数 Dの値を与えてもよい
[0293] さらに定数 Dは、例えば、移動カメラ 1101の撮影領域の大きさに比例して変化する ような変数 Dであってもよ!/ヽ。
[0294] 次に、移動カメラ 1101は、以下の処 ¾[ 3を開始する (ステップ J03)。
撮影位置変更部 1110は、評価値 A、評価値 Bのいずれかが目標値と異なるかどう かを判定する (ステップ J301)。 目標値と異なる場合はステップ J302に移り、目標値と 同じ場合に処 ¾[-3を終了する。
[0295] 撮影位置変更部 1110は、評価値 A、評価値 Bがそれぞれ目標値に近づくように撮 影位置を変更し (ステップ J302)、処 ¾[-3を終了する。
[0296] ここでステップ J301にお 、て、評価値 A、評価値 Bの目標値は、それぞれの評価値 の最小値 (最大値)を目標値とする。
[0297] また、ステップ J302にお 、て、評価値 A、評価値 Bをそれぞれ目標値に近づける方 法の一例は次に通りである。つまり、移動カメラ 1101の撮影位置 (x、 y、 z)について は、評価関数 A、評関関数 Bをそれぞれ移動カメラ 1101の撮影位置を表す変数 (x、 y、 z)で偏微分した導関数を含む更新式の式 76、式 77、式 78に従って変更する。
[数 24]
M
d An d Bm
dx ^ «=1
dt (式 76)
N dx M dx
M
β νΑη d^vBm
dy _ P m=\
一(式 77)
dt N dy M dy
dYvAn d Bm
dz 2 «=1
—(式 78)
dt一 N dz M dz
ただし、 £^、 αζ、 βχ、 ま係数
Nは隣り合う撮影領域の数
Mは隣り合う監視領域の境界の数
[0298] 以上のような手順を繰り返すことによって、各移動カメラ 1101は互いに隣り合う撮影 領域と一定の重なり幅 Cを持ち、さらに監視領域の境界と隣り合う場合、監視領域の 境界とも一定の距離 Dを持つように撮影領域を変更させる。その結果、監視領域に 対して複数の移動カメラによって同時に撮影される撮影領域の割合が増加するように 各移動カメラの位置が制御されるとともに、監視領域における複数の移動カメラの撮 影領域がより均一に分散するように各移動カメラの位置が制御される。
[0299] 図 77に実施の形態 10における移動カメラ 1101の動作の様子を示す。図 77では 説明を簡単にするために横方向(1次元)に移動できる移動カメラ 1101を高さが一定 な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
[0300] 図 77の位置関係 1009aに示されるように、移動カメラ 1101を天井の適当な位置に 設置しても、移動カメラは互 、の撮影領域の重なり領域の幅 Cまたは監視領域の境 界との距離 Dが所定の値に近づくように撮影位置を変更することにより、図 77の位置 関係 1009bに示されるように、監視領域全体を複数の移動カメラで端末同時に撮影 できる位置に自動的に移動することが可能となる。
[0301] さらに、例えば高い天井などのように設置作業が難しい場所において、一ヶ所にま とめて移動カメラ 1101を設置しても、移動カメラの方が複数の移動カメラによる同時 撮影において死角が少なくなる位置に自動的に移動するため、移動カメラの設置位 置の決定や設置作業といった負担を減らすことが可能となる。
[0302] また、図 78に移動カメラ 1101が 2次元方向に移動する様子を示す。図 78は監視 領域を床面に垂直な方向力も見た様子を示している。図 78に示されるように監視領 域の広さ対して移動カメラによって N% « 100%)の領域が撮影されている場合、実 施の形態 10における移動カメラ 1101は、状態 10aに示されるような監視領域から、 状態 10bのように互いの距離間隔が均一になるような監視領域となるように、撮影位 置の変更を行うため、監視領域に対して連続した大きな死角領域が発生するのを防 ぐことができる。
[0303] このように、本実施の形態 10によれば、監視領域に対して複数の移動カメラによつ て同時に撮影される撮影領域の割合が増加するように、あるいは、監視領域におけ る複数の移動カメラの撮影領域がより均一に分散するように、それら複数の移動カメ ラの移動制御が行われる。つまり、実施の形態 10における移動カメラ 1101は、周囲 の移動カメラと互 、に協調して撮影位置を変更することにより、適当な位置に設置さ れた状態からでも、複数の移動カメラによる同時撮影にぉ 、て監視領域の死角が少 なぐさらに監視領域内に生じる死角領域が対象物のサイズよりも大きな連続した領 域とならないように各移動カメラの撮影位置を自動的に変更できるため、監視領域に 対する同時撮影領域の割合を向上させるとともに、カメラの設置等に力かる負担を軽 減できる。 [0304] (実施の形態 11)
次に、本発明の実施の形態 11について説明する。
[0305] 図 79は、本発明の実施の形態 11における監視システムの構成図である。この監視 システムは、通信ネットワーク 1103で接続された移動カメラ 1201と移動部 1102とか らなる複数のカメラ端末力 構成され、監視領域 1111をくまなく監視できるように、そ れら複数の移動カメラ 1201が自律協調的に移動するとともに、予め用意された監視 領域地図情報を参照することにより、対象物の位置や形状、向きなどを考慮して移動 カメラ 1201が正確な撮影領域を特定する点に特徴を有する。図 79において図 70と 同じ構成要素については同じ符号を用い、説明を省略する。
[0306] 対象物 1120は、監視領域 1111に置かれた監視対象となる物体である。
監視領域地図記憶部 1121は、監視領域 1111の範囲と、監視領域 1111に置かれ た対象物 1120の位置、大きさ、状態などを記述した監視領域地図情報とを記憶して いるメモリ等である。
[0307] 移動カメラ 1201は、移動部 1102に支持されて移動するカメラ装置であり、通信部 1104、隣接撮影領域特定部 1105、撮影素子 1106、撮影位置評価部 1109、撮影 位置変更部 1110、監視領域地図記憶部 1121および撮影領域特定部 1122から構 成される。
[0308] 撮影領域特定部 1122は、移動カメラ 1201の位置、撮影素子 1106の特性、監視 領域地図の内容によって撮影領域の位置を特定する処理部である。
[0309] このような実施の形態 11の構成によれば、移動カメラ 1201は、監視領域地図情報 に記録されている対象物 1120の位置、形状、向きといった情報を参照し、さらに自 身の撮影位置と撮影素子の特性から撮影領域 1112の特定を行 ヽ、周囲の移動カメ ラと撮影領域に関する情報を交換し、隣り合う撮影領域との重なり領域、または監視 領域の境界と距離が所定の状態に近づくように撮影位置を移動することにより、監視 領域 1111内に存在する対象物 1120の影になって死角が発生する状況に対しても 複数の移動カメラによる同時撮影において監視領域内の死角が少なくなる撮影位置 に周囲の移動カメラと協調しながら自動的に移動することができる。
[0310] 次に、監視システムを構成する移動カメラ 1201の動作手順について図 80 (a)およ び (b)のフローチャートを用いて説明する。図 80 (a)および (b)において図 71 (a)—( d)と同じ動作手順については同じ符号を用い、説明を省略する。
[0311] 移動カメラ 1201は、 3つの処理 (処理 K 1、卜 2、卜 3)を繰り返し実行する。
[0312] まず、以下の処理 K 1を開始する(ステップ K01)。
撮影領域特定部 1122は、監視領域地図記憶部 1121に記憶されて 、る監視領域 地図情報を参照する (ステップ Κ101)。
[0313] 撮影領域特定部 1122は、監視領域 1111内の対象物 1120の位置や形状、向き などを特定する (ステップ K102)。
[0314] 撮影領域特定部 1122は、移動カメラ 1201の撮影位置と、撮影素子 1106の特性
、さらに対象物 1120の位置、形状、向き力も移動カメラ 1201の撮影領域 1112を特 定する(ステップ K1103)。
[0315] 通信部 1104は、ステップ K1103で特定された撮影領域 1112に関する情報を周 囲の移動カメラに通知する(ステップ K104)。
[0316] 通信部 1104は、別の移動カメラ力も撮影領域に関する情報を通知されたどうか判 定する(ステップ Κ105)。別の移動カメラからの通知があればステップ K106に移り、 通知がなければステップ K101に移る。
[0317] 通信部 1104は、別の移動カメラ力も通知された撮影領域に関する情報を取得し( ステップ Κ106)、処理 Κ 1を終了する。
[0318] ここで、ステップ K101において参照される監視領域地図情報は、予め監視領域に 置かれた家具やパーティションなどの位置、形状、向きなどの情報を移動カメラ 1201 に対して用意しておいたものであり、その内容の一例を図 81に示す。
[0319] 図 81では、監視領域地図情報の内容として監視領域 1111を微小な単位領域に 分割し、単位領域毎に対象物 1120が存在する (Full)かしな ヽか (Empty)を記録し ている様子を示している。このような監視領域地図情報を参照することにより、各移動 カメラ 1201の視野内に存在する対象物 1120の位置、形状、向きなどを特定すること が可能となり、対象物 1120によって死角となる領域を考慮した撮影領域の特定を行 うことができる。
[0320] また、図 81では監視領域地図情報として監視領域を単位領域に分割し、単位領域 ごとの状態を記録する例を示したが、これ以外にも対象物 1120の位置、形状、向き を表す情報を直接記録した地図情報であってもよ 、。
[0321] 次に、移動カメラ 1201は、処 ¾[ 2、処 ¾[ 3を実行する(ステップ J02、 J03)。この 処理は実施の形態 10と同様である。
[0322] 以上のような手順を繰り返すことによって、各移動カメラ 1201は、監視領域 1111に 存在する対象物 1120によって生じる死角の位置を考慮して求められた撮影領域 11
12に対して、互いに隣り合う撮影領域と一定の重なり幅 Cを持ち、さらに監視領域の 境界と隣り合う場合は、監視領域の境界とも一定の距離 Dを持つように、撮影領域を 変更させる。
[0323] 図 82に実施の形態 11における移動カメラ 1201の動作の様子を示す。図 82では、 説明を簡単にするために、横方向(1次元)に移動できる移動カメラ 1201を高さが一 定な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
[0324] 図 82の状況 1014aに示されるように、移動カメラ 1201を天井の適当な位置に設置 しても、移動カメラ 1201は、監視領域 1111に置かれた対象物 1120a、対象物 112 Obの位置や形状、向きを考慮して特定された撮影領域に対して、隣り合う撮影領域 との重なり幅 C、または監視領域の境界との距離 Dが所定の値に近づくように撮影位 置を変更することにより、図 82の状況 1014bに示されるように、監視領域全体を複数 の移動カメラで同時に撮影できる位置に自動的に移動することが可能となる。ただし 、ここでの監視領域全体とは、床面に垂直な方向力 床面に平行な面を全て同時に 撮影することを意味しており、これ以外にも、例えば、対象物 1120a (机)の下領域も 含むように監視領域を定義し、監視目的に応じて監視領域全体を同時に撮影できる ように移動カメラの移動範囲や移動方向を変え、さらに必要となる監視領域地図情報 を用いた監視システムを構築してもよ 、。
[0325] このように、実施の形態 11における移動カメラ 1201は、予め用意された監視領域 地図情報を参照することにより、対象物 1120の位置や形状、向きなどを考慮して移 動力メラ 1201が正確な撮影領域を特定することができるため、対象物 1120の影に なって死角が生じる恐れのある監視領域に対しても複数の移動カメラ 1201により同 時撮影される監視領域の死角が少なくなるように各移動カメラ 1201の撮影位置を自 動的に変更できる。
[0326] (実施の形態 12)
次に、本発明の実施の形態 12について説明する。
[0327] 図 83は、本発明の実施の形態 12における監視システムの構成図である。この監視 システムは、通信ネットワーク 1103で接続された移動カメラ 1301と移動部 1102とか らなる複数のカメラ端末力 構成され、監視領域 1111をくまなく監視できるように、そ れら複数の移動カメラ 1301が自律協調的に移動するとともに、監視領域地図情報を 作成し続けることにより、対象物の位置や形状、向きなどが変化しても移動カメラ 130 1の撮影領域を正確に特定し続ける点に特徴を有する。図 83において図 70、図 79 と同じ構成要素については同じ符号を用い、説明を省略する。
[0328] 対象物検出センサ 1123は、監視領域 1111に存在する対象物 1120の位置、形状 、向きなどの情報を検出するセンサである。
[0329] 通信ネットワーク 1124は、対象物検出センサ 1123により検出された情報を伝える 伝送路である。
[0330] 移動カメラ 1301は、移動部 1102に支持されて移動するカメラ装置であり、通信部 1104、隣接撮影領域特定部 1105、撮影素子 1106、撮影領域推定部 1107、撮影 位置評価部 1109、撮影位置変更部 1110、監視領域地図記憶部 1121および監視 領域地図作成部 1125から構成される。
[0331] 監視領域地図作成部 1125は、対象物検出センサ 1123により検出された監視領 域 1111に存在する対象物 1120の位置、形状、向きなどの情報を用いて監視領域 地図記憶部 1121に記憶されて 、る監視領域地図情報を作成、または変更を行う処 理部である。
[0332] このような実施の形態 12の構成によれば、予め移動カメラ 1301の監視領域地図記 憶部 1121に対して監視領域地図情報を用意しなくても、監視システムが対象物検 出センサ 1123を用 、て監視領域 1111に存在する対象物 1120の位置や形状、向 きなどの状態に関する情報を取得し、監視領域地図作成部 1125によって監視領域 地図情報を自動的に作成することができる。また監視領域 1111内に存在する対象 物 1120の位置や形状、向きなどが変化した場合には対象物検出センサ 1123がそ の変化を所定のタイミングで検出し、改めて監視領域地図作成部 1125によって監視 領域地図情報を変更することが可能となり、対象物 1120の状態の変化に合わせて、 複数の移動カメラによる同時撮影において監視領域内の死角が少なくなる撮影位置 に周囲の移動カメラと協調しながら自動的に移動することができる。
[0333] 次に、監視システムを構成する移動カメラ 1301の動作手順について図 84 (a)およ び (b)のフローチャートを用いて説明する。図 84 (a)および (b)において図 71 (a)—( d)、図 80 (a)および (b)と同じ動作手順については同じ符号を用い、説明を省略す る。
[0334] 移動カメラ 1301は、 4つの処理 (処理 L 1、 K 1、 J 2、 J 3)を繰り返し実行する。
[0335] まず、以下の処理 L 1を開始する (ステップ L01)。
対象物検出センサ 1123は、監視領域 1111内に存在する対象物 1120の位置、形 状、向きなどを検出し、その内容を監視領域地図作成部 1125に通知する (ステップ
L101)。
[0336] 監視領域地図作成部 1125は、監視領域 1111内の対象物 1120の位置、形状、 向きなどの情報を記録した監視領域地図情報を作成、またはその内容の変更を行い (ステップ L102)、処理 L— 1を終了する。
[0337] ここで、ステップ L101において、対象物検出センサ 1123による対象物 1120の位 置、形状、向きの検出の具体的な方法の一例としては、複数の超音波センサを監視 領域 1111内に所定の間隔で設置し、それぞれの超音波センサから得られる情報を 合成することにより監視領域 1111内の対象物の状態を特定する方法が挙げられる。
[0338] また、対象物検出センサ 1123として、超音波センサ以外にも、複数のカメラから撮 影される映像から立体映像を合成することで対象物 1120の位置や形状、向きなどを 特定する方法など、監視領域 1111内に存在する対象物 1120の位置や形状、向き の特定に必要な情報を検出できるセンサであればよい。
[0339] また、本実施の形態の変形例として、対象物 1120側で自らの位置や形状、向きな どを検出し、その内容を監視システムに通知する構成としてもよい。そのような構成例 を図 85に示す。
[0340] 位置情報検出部 1126は、対象物の位置、形状、向きなどを検出して、その内容を 監視領域地図作成部 1125に通知する処理部である。
[0341] ここで、位置情報検出部 1126における位置や形状、向きの具体的な検出方法の 一例としては、対象物 1120に対して予め自身の形状を記憶させておき、 GPSを用 いて自身の位置と向きを検出することにより、対象物 1120自身の位置と形状、向きを 特定する方法が考えられる。
[0342] また、 GPSを用いる方法以外にも、監視領域 1111に位置情報を特定するための 無線タグを埋め込み、対象物 1120が監視領域 1111に埋め込まれた無線タグの情 報を読み取ることにより自身の位置と向きを特定する方法など、対象物 1120自身が 自らの位置や形状、向きを特定できる方法であればよい。
[0343] さらに、図 83と図 85のそれぞれに示した対象物検出センサ 1123と位置情報検出 部 1126を組み合わせて用いて監視領域地図情報を作成してもよ 、。
[0344] 次に、移動カメラ 1301は、処理 K 1、処 ¾[ 2、処 ¾[ 3を実行する(ステップ KO 1、 J02、J03)。これらの処理は、実施の形態 10および実施の形態 11と同様である。
[0345] 以上のような手順を繰り返すことによって、各移動カメラ 1301は、監視領域 1111に 存在する対象物 1120が位置や形状、向きなどの変化によって生じる自身の撮影領 域の変化に対応しながら、周囲の移動カメラと互いに隣り合う撮影領域と一定の重な り幅 Cを持ち、さらに監視領域の境界と隣り合う場合は、監視領域の境界とも一定の 距離 Dを持つように撮影領域を変更させる。
[0346] 図 86に実施の形態 12における移動カメラ 1301の動作の様子を示す。図 86では 説明を簡単にするために横方向(1次元)に移動できる移動カメラ 1301を高さが一定 な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
[0347] 実施の形態 12における監視システムでは、図 86の状況 1018aに示されるように、 移動カメラ 1301が監視領域全体を監視している状態から、図 86の状況 1018bに示 されるように、対象物 1120a、対象物 1120bを移動すると、移動カメラで撮影のでき ない死角領域が発生してしまうが、監視領域に設置された対象物検出センサや対象 物に取り付けられた位置情報通知部によって対象物の位置を検出し、各移動カメラ 1 301が具備する監視領域地図作成部 1125によって監視領域地図情報の内容を変 更することにより、対象物 1120aと対象物 1120bの移動後の撮影領域を特定するこ とが可能となり、改めて隣り合う撮影領域との重なり幅 c、または監視領域の境界との 距離 Dが所定の値に近づくように撮影位置を変更することにより、図 86の状況 1018 cに示されるように、監視領域全体を複数の移動カメラで同時に撮影できる位置に再 び撮影位置を変更することが可能となる。
[0348] ここで、図 86の状況 1018cに示されるように、対象物と移動カメラの位置関係によ つては、 1台のカメラの撮影領域が複数の領域に分割される場合が生じる。この場合 、分割された撮影領域ごとに隣り合う撮影領域を特定し、隣り合う撮影領域との重なり 幅、または監視領域の境界との距離に対して評価値を求め、評価値の総和が小さく ( または大きく)なる方向に撮影位置を変更させることにより、監視領域全体を複数の 移動カメラで同時に撮影できる位置への移動カメラの配置を行う。
[0349] ただし、ここでの監視領域全体とは、床面に垂直な方向力も床面に平行な面を全て 同時に撮影することを意味しており、これ以外にも、例えば、対象物 1120a (机)の下 領域も含むように監視領域を定義し、監視目的に応じて監視領域全体を同時に撮影 できるように移動カメラの移動範囲や移動方向を変え、さらに必要となる監視領域地 図情報を作成可能な監視システムを構築してもよ 、。
[0350] このように、実施の形態 12における移動カメラ 1301は、監視領域に設置された対 象物検出センサや対象物に取り付けられた位置情報通知部によって対象物の位置 を検出し、各移動カメラ 1301が監視領域地図作成部 1125によって監視領域地図 情報の内容を作成し続けることにより、対象物 1120の位置や形状、向きなどが変化 しても移動カメラ 1301自身の撮影領域を正確に特定し続けることができるため、対象 物 1120の移動や状態変化が生じる場合においても複数の移動カメラ 1301により同 時撮影される監視領域の死角が少なくなるように各移動カメラ 1301の撮影位置を自 動的に変更できる。
[0351] (実施の形態 13)
次に、本発明の実施の形態 13について説明する。
[0352] 図 87は、本発明の実施の形態 13における監視システムの構成図である。この監視 システムは、通信ネットワーク 1103で接続された移動カメラ 1401と移動部 1102と撮 影方向変更部 1130とからなる複数のカメラ端末力も構成され、監視領域 1111をくま なく監視できるように、それら複数の移動カメラ 1401が自律協調的に移動するととも に、進入者の顔認証に適した映像を撮影できる位置に移動カメラ 1401を自動的に 配置させることができる点に特徴を有する。図 87において図 70、図 79、図 83と同じ 構成要素については同じ符号を用い、説明を省略する。
[0353] 撮影方向変更部 1130は、移動カメラ 1401の視線方向を変える機構部等である。
移動カメラ 1401は、移動部 1102に支持されて移動するカメラ装置であり、通信部 1104、隣接撮影領域特定部 1105、撮影素子 1106、撮影領域推定部 1107、撮影 位置評価部 1109、撮影位置変更部 1110、監視領域地図記憶部 1121、監視領域 地図作成部 1125および対象物追跡部 1131から構成される。
[0354] 対象物追跡部 1131は、監視領域地図記憶部に記憶されている監視領域地図情 報を参照して、移動カメラの視線方向を対象物の位置方向に向ける制御部である。
[0355] なお、本実施の形態における撮影位置評価部 1109は、互いに隣り合う撮影領域と の重なり領域、または監視領域の境界との距離の評価に加えて、対象物と移動カメラ の位置関係 (距離、方向)について評価値 Cを与える。
[0356] このような実施の形態 13の構成によれば、各移動カメラ 1401は互いに隣り合う撮 影領域との重なり領域、または監視領域の境界との距離が所定の状態となるように撮 影位置を変更することで、複数の移動カメラ 1401による同時撮影において監視領域 内の死角が少なくなる撮影位置に周囲の移動カメラと協調しながら自動的に移動す ることができ、さらに任意の移動カメラ 1401は、監視領域内の対象物 1120を所定の 位置 (距離や方向)力も撮影できる位置に移動することができる。
[0357] 次に、監視システムを構成する移動カメラ 1401の動作手順について図 88 (a)一 (c )のフローチャートを用いて説明する。図 88 (a)—(c)において図 71 (a)—(d)、図 80 (a)および (b)、図 84 (a)および (b)と同じ動作手順については同じ符号を用い、説 明を省略する。
[0358] 移動カメラ 1401は、 5つの処理(処理 L 1、 K 1、 J 2、 M— 1、 M— 2)を繰り返し実 行する。
[0359] 移動カメラ 1401は、処理 M—1として、以下の処理を行う(ステップ M01)。
撮影位置評価部 1109と対象物追跡部 1131は、監視領域地図記憶部 1121に記 憶されて!ヽる監視領域地図情報を参照して、監視領域 1111内に存在する所定の対 象物 1120の位置を取得する(ステップ M 101)。
[0360] 対象物追跡部 1131は、撮影領域 1 112内に対象物 1120が存在するかどうかを判 定し (ステップ M102)、対象物 1120が存在する場合にはステップ Ml 103に移り、 対象物が存在しな!ヽ場合には処理 M— 1を終了する。
[0361] 撮影位置評価部 1109は、移動カメラ 1401の撮影位置と対象物の位置関係に対し て評価値 Cを求め(ステップ Ml 103)、処理 M— 1を終了する。
[0362] 次に、ステップ Ml 103において、対象物 1120と移動カメラ 1401の位置関係に対 して評価値 Cを与える方法の一例について図 89を用いて説明する。
[0363] 図 89は、対象物 1120と移動カメラ 1401との位置関係と、その位置関係に対して 評価値 Cを与える評価関数 Cの一例である以下の式を説明するための図である。移 動力メラ 1401の評価値 Cは、対象物 1120と移動カメラ 1401の位置関係に基づいて 、式 79、式 80、式 81に示される評価関数 Cによって与えられる。
[数 25]
If Object E "撮影領域" then
Vcx{x) = {x - xobj - Exf —(式 79)
Vcy(y) = {y ~ yob] - Eyf 一(式 80)
Figure imgf000077_0001
—(式 81 )
. E = ^EX 2 + Ey 2 + Ez 2
Figure imgf000077_0002
ただし、対象物の座摞: 0obj (xobj
(対象物の方向: 0。bj (
Figure imgf000077_0003
O robj) )
[0364] ここで、評価関数 Cは、式 79、式 80、式 81だけに限られず、対象物 1120と移動力 メラ 1401との距離が所定の定数 Eとなる時に最も小さく(または大きく)なり、さらに移 動力メラ 1401が移動できる範囲お 、て、対象物 1 120との距離が定数 E力も遠ざ力る につれて単調に大きく(または小さく)なる評価値 Cを与える関数であれば他の関数 であってもよい。 [0365] また、式 79、式 80、式 81における定数 Eの値は、移動カメラ毎に異なる値であって もよい。さらに、定数 Eは、例えば、対象物 1120の位置によって変化するような変数 Cであってもよい。
[0366] 次に、移動カメラ 1401は、処理 M— 2を開始する(ステップ M02) 。
撮影位置変更部 1110は、評価値 A、評価値 B、評価値 Cのいずれかが目標値と異 なるかどうかを判定する (ステップ M201)。 目標値と異なる場合はステップ M202に 移り、目標値と同じ場合に処理 M-2を終了する。
[0367] 撮影位置変更部 1110は、評価値 A、評価値 B、評価値 Cがそれぞれ目標値に近 づくように撮影位置を変更する (ステップ M202)。
[0368] 対象物追跡部 1131は、移動カメラ 1401の視界の中心に対象物 1120が来るよう に移動カメラ 1401の視線方向を変更し (ステップ M203)、処理 M— 2を終了する。
[0369] なお、ステップ M201にお 、て、評価値 A、評価値 B、評価値じの目標値は、それ ぞれの評価値の最小値 (最大値)を目標値とする。
[0370] また、ステップ M202にお 、て、評価値 A、評価値 B、評価値 Cをそれぞれ目標値 に近づける方法の一例は次に通りである。つまり、移動カメラ 1401の撮影位置 (x、 y
、 z)については、評価関数 A、評関関数 B、評価値 Cをそれぞれ移動カメラ 1401の 撮影位置を表す変数 (x、 y、 z)で偏微分した導関数を含む更新式の式 76、式 77、 式 78、および、以下の式 84、式 85、式 86、に従って変更する。
[数 26]
一(式 84) 一(式 85) 一(式 86) sP)
一(式 87)
Figure imgf000079_0001
d(VobjeT + VobjeP)
一(式 88)
Figure imgf000079_0002
ただし、 xvP、 は係数
[0371] また、ステップ M203において、移動カメラ 1401の視線の中心に対象物 1120が来 るように視線方向を変更する方法の一例は次に通りである。つまり、移動カメラ 1401 はパン方向、チルト方向に視線方向を変更することが可能で、それぞれの角度を Θ
P
、 Θ とすると、移動カメラ 1401の視線方向(0 、 Θ )と、移動カメラ 1401から対象物
T P T
1120が見える方向(0 、 0 )の角度の差に対して、上記式 82、式 83により評価
Pobj Tobj
値を与え、式 82、式 83を θ 、 Θ で偏微分した導関数を含む上記式 87、式 88の更
P T
新式によって(0 、 Θ )を変更することにより、移動カメラ 1401の視線方向を対象物
P T
1120の方向へ向けることができる。
[0372] 以上のような手順を繰り返すことによって、各移動カメラ 1401は周囲の移動カメラと 互いに隣り合う撮影領域と一定の重なり幅 Cを持ち、さらに監視領域の境界と隣り合う 場合は、監視領域の境界とも一定の距離 Dを持つように撮影領域を変更させ、さらに 自身の撮影領域内に対象物 1120が存在する移動カメラ 1401は、対象物 1120を所 定の位置 (距離や方向)力 撮影できるように周囲の移動カメラと協調しながら撮影位 置を変更させる。
[0373] 図 90に実施の形態 13における移動カメラ 1401の動作の様子を示す。図 90では、 説明を簡単にするために横方向(1次元)に移動できる移動カメラ 1401を高さが一定 な部屋の天井に設置し、床面を監視させる場合を例に挙げている。
[0374] 実施の形態 13における監視システムでは、図 90の状況 1023aに示されるように、 移動カメラ 1401が監視領域全体を複数の移動カメラで同時に撮影できる位置にあり 、このうち所定の対象物 1120 (人物)を 2台の移動カメラ 1401aと 401bが発見した場 合、各移動カメラ 1401に対して人物の側面を撮影するように設定されて!、たとすると 、複数の移動カメラ 1401は、図 90の状況 1023bに示されるように、周囲の移動カメ ラと監視領域全体の同時撮影を維持しながらも人物の側面の撮影に適した位置に移 動する。
[0375] また、この時、移動カメラに対してズーム撮影機能を持たせ、必要に応じて図 90の 状況 1023cに示されるように撮影映像をズーム映像として撮影させてもよい。
[0376] このように、実施の形態 13における移動カメラ 1401は、例えば、建物の通用口付 近の監視と進入者の顔認証を行う場合などにおいて、通用口付近の全体の映像を 常に同時撮影しながらも、進入者の顔認証に適した映像を撮影できる位置に移動力 メラ 1401を自動的に配置させることができる。
[0377] (実施の形態 14)
次に、本発明の実施の形態 14について説明する。
[0378] 図 91は、本発明の実施の形態 14における監視システムの構成図である。この監視 システムは、通信ネットワーク 1103で接続された移動カメラ 1501と移動部 1102とか らなる複数のカメラ端末力 構成され、監視領域 1111をくまなく監視できるように、そ れら複数の移動カメラ 1501が自律協調的に移動するとともに、監視領域地図情報を 保持しなくても、隣り合う撮影領域と確実に重なり領域を持っていることを判定しなが ら、周囲の移動カメラと互いに隣り合う撮影領域と一定の重なり領域を持つように撮影 領域を変更させる点に特徴を有する。図 91において図 70と同じ構成要素について は同じ符号を用い、説明を省略する。
[0379] 移動カメラ 1501は、移動部 1102に支持されて移動するカメラ装置であり、通信部 1104、隣接撮影領域特定部 1105、撮影素子 1106、撮影領域推定部 1107、監視 範囲記憶部 1108、撮影位置評価部 1109、撮影位置変更部 1110および撮影映像 比較部 1140から構成される。
[0380] 撮影映像比較部 1140は、画像処理 (輪郭抽出、ノターンマッチング等)により、移 動力メラ 1501が撮影した映像と、隣り合う撮影領域を持つ移動カメラが撮影した映像 とを比較し、互 、の映像の中に同じ領域を撮影して 、る箇所があるかどうかを判定す る処理部である。
[0381] なお、本実施の形態では、監視領域 1111である床面に、図 91に示されるような模 様 (ここでは、太陽の絵)が描かれているとする。
[0382] このような実施の形態 14の構成によれば、予め移動カメラ 1501に対して監視領域 地図情報を用意しなくても、撮影映像比較部 1140により互いに隣り合う撮影領域の 映像を比較して、それぞれの撮影映像の中に同じ領域を撮影して ヽる箇所が存在す るかどうかを判定することで、隣り合う撮影領域が実際に重なり領域を持つ力どうかを 半 U定することができる。
[0383] 次に、監視システムを構成する移動カメラ 1501の動作手順について図 92 (a)およ び (b)のフローチャートを用いて説明する。図 92 (a)および (b)において図 71 (a)—( d)と同じ動作手順については同じ符号を用い、説明を省略する。
[0384] 移動カメラ 1401は、 4つの処理 (処 ¾[ 1一 J 3、 N— 1)を繰り返し実行する。
[0385] 移動カメラ 1401は、処理 N— 1として、以下の処理を実行する(ステップ N01)。
[0386] 撮影位置評価部は、重なり領域を持つと推定される撮影領域が存在するかどうかを 判定し (ステップ N101)、重なり領域を持つ撮影領域が存在すると推定される場合に はステップ N102に移る。存在しないと推定される場合は処理 N-1を終了する。
[0387] 撮影映像比較部 1140は、互いに撮影領域が重なると推定される移動カメラの撮影 映像と、自身が撮影した映像とを比較し、互いの撮影映像の中に同じ領域を撮影し た箇所が存在するかどうかを判定する (ステップ N102)。互いの撮影映像の中に同 じ領域を撮影した箇所が存在する場合には処理 N— 1を終了する。同じ領域を撮影し た箇所が存在しな 、場合にはステップ N1103に移る。
[0388] たとえば、いま、 3つの撮影領域 A、 Bおよび Cの映像が図 91に示されるような監視 領域 1111 (床面)に描かれた絵の一部である場合には、図 93の説明図に示されるよ うに、撮影領域 Aと撮影領域 Bにつ 、ては共通する床面の模様が撮影されて!、な!/ヽ ので、同じ映像箇所が存在しない(つまり、これら撮影領域 AB間に死角が存在する) と判断し、一方、撮影領域 Bと撮影領域 Cについては共通する床面の模様が撮影さ れているので、同じ映像箇所が存在する(つまり、撮影領域 BCは互いに隣接し、重 なり領域を持つ)と判断する。
[0389] 撮影位置変更部 1110は、移動カメラ 1501を互いに重なり領域を持つと推定され ながらも、互 、の撮影映像に同じ領域を撮影した箇所が存在しなかった撮影領域の 方向へ移動カメラ 1501を移動させ (ステップ N 1103)、処理 N— 1を終了する。
[0390] 以上のような手順を繰り返すことによって、各移動カメラ 1501は監視領域地図情報 を保持しなくても、隣り合う撮影領域と確実に重なり領域を持って!/ヽることを判定しな がら、周囲の移動カメラと互いに隣り合う撮影領域と一定の重なり領域を持つように撮 影領域を変更させる。
[0391] このように、実施の形態 14における移動カメラ 1501は、対象物 1120の位置や姿 勢、向きなどの変化が多ぐ屋外などのように実施の形態 12で説明した対象物検出 センサ 1123、位置情報検出部 1126を設置することのできない領域に対しても、複 数の移動カメラによる同時撮影における死角が少な!/、撮影位置に各移動カメラを自 動的に移動することが可能となる。
[0392] 以上、上記実施の形態における移動カメラの動作については 1次元方向に移動す る場合を例に説明をおこなったが、 1次元方向への具体的な動作の実現方法の一例 としては図 94に示されるように監視領域内にレールを設置し、そのレールの軌道上 を移動カメラが移動することで 1次元方向の移行を実現することができる。
[0393] また、図 95に示されるように移動カメラにタイヤを取り付けることにより、 2次元平面 を移動できる平面移動カメラ、さらにアームなどを利用して 3次元方向に移動できる三 次元移動カメラを用いてもよい。図 95では、部屋の壁面を監視領域とする平面移動 カメラと部屋の床面を監視領域とする三次元移動カメラとを用いた監視システムの例 が示され、ここでは、初期状態 1025aから、より死角が少なくなる状態 1025bに自動 的に遷移する様子が示されて!/、る。
[0394] また、実施の形態 10、実施の形態 11、実施の形態 12、実施の形態 14においては 移動カメラの視線方向は床面に対して垂直に真下を撮影する場合を例に説明を行 つたが、例えば、部屋の隅にレールを設置し、部屋の中心に視線が向くように移動力 メラを設置するなど、移動カメラの移動範囲と監視の目的に合わせて移動カメラの視 線方向を決定してもよい。 [0395] 以上、本発明に係る監視システムについて、実施の形態に基づいて説明したが、 本発明は、これらの実施の形態に限定されるものではない。各実施の形態では、発 明の趣旨を逸脱しな ヽ範囲で、当業者が思!、つく各種変形や機能追加をしてもよ!ヽ し、機能的に併存し得る限り、各実施の形態における各構成要素を任意に組み合わ せてもよい。たとえば、実施の形態 9の撮影特性変更部 905を実施の形態 10の移動 カメラ 1101に備えさせることで、複数の移動カメラが移動することによって、監視領域 における各撮影領域が偏りなく均一に分散されるとともに、各移動カメラの撮影精度 が同一となるような監視システムが実現される。
[0396] また、上記実施の形態にお!ヽては、カメラ端末は映像を撮影するための撮影素子 のみを備える場合を説明したが、図 96に示されるように撮影素子に加えて録音素子 を備えることにより、監視区域力もの映像情報に加えて音声情報をさらに取得し、さら に対象物を動きに合わせた撮影と録音を行っても良い。
[0397] また、上記実施の形態にお!、て、録音素子以外にも赤外線センサ、超音波センサ 、温度センサ、紫外線 ·Χ線センサ等のセンサ端末を備え、図 97に示されるように監 視区域からの映像情報に加えて所定の物理量を計測し、さらに対象物を動きにあわ せた撮影と所定の物理量の計測を行っても良い。
[0398] また、本発明は、カメラだけでなぐ上記の各種センサにも適用することができる。つ まり、上記実施の形態におけるカメラ端末に代えて、微動センサ、圧力センサ、温度 センサ、気圧センサ、音センサ (マイク)などを備えるセンサ端末で監視システムを構 成してもよい。この場合には、センサが物理量を検出する方向(検出領域)をカメラ端 末における撮影領域に対応させればよい。たとえば、図 98 (a)に示されるような指向 特性をもるマイクについて、図 98 (b)に示されるように、一定以上の感度で音を検知 できる方向 (領域)を検出領域と定義することで、各種センサ端末カゝらなる監視システ ムを構築することができる。つまり、通信路で接続された複数のセンサ端末から構成 され、監視領域における物理量を検出することによって監視領域を監視する監視シ ステムであって、複数のセンサ端末は、監視領域に含まれる検出領域における物理 量を検出するとともに、検出領域を変更する手段を有するセンサと、検出領域を特定 する情報である検出特性情報を通信路を介して他のセンサ端末に送信するとともに 、他のセンサ端末から検出特性情報を受信する通信部と、当該センサ端末の検出特 性情報と通信手段で受信された他のセンサ端末の検出特性情報とに基づ 、て、当 該センサ端末の検出領域と他のセンサ端末の検出領域とが予め定められた一定の 関係となるように、当該センサ端末のセンサを制御して検出領域を変更する検出特 性変更部とを備える監視システムが実現される。
産業上の利用可能性
本発明は、複数のカメラを用いた監視システム、複数のセンサ素子を用いて物理量 を計測するセンシングシステム等として、特に、撮影位置を変更可能な複数の移動力 メラ力 構成され、広範囲の監視において死角が生じないことを求められる通用口や 店舗の売り場、さらに家具の位置変えや人の動きによって死角の位置が変化する環 境お 、て、監視領域内に発生する死角がより少なくなるように撮影位置の変更が必 要とされる領域の監視を行う監視システム等として利用することができる。

Claims

請求の範囲
[1] 通信路で接続された複数のカメラ端末から構成され、監視領域を撮影する監視シ ステムであって、
前記複数のカメラ端末は、
前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する 手段を有するカメラと、
前記撮影領域を特定する情報である撮影特性情報を前記通信路を介して他のカメ ラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と 当該カメラ端末の撮影特性情報と前記通信手段で受信された他のカメラ端末の撮 影特性情報とに基づいて、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域 とが予め定められた一定の関係となるように、当該カメラ端末のカメラを制御して撮影 領域を変更する撮影特性変更手段とを備える
ことを特徴とする監視システム。
[2] 前記撮影特性情報には、前記撮影領域の位置を特定する情報が含まれ、
前記撮影特性変更手段は、
当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と 特定された他のカメラ端末力 の撮影特性情報と当該カメラ端末の撮影特性情報 に基づ!/、て、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影領域との位置 関係に対して評価値を与える領域差評価部と、
前記領域差評価部で与えられる評価値が所定の目標値に近づくように前記カメラ を制御して撮影領域を変更する撮影領域変更部とを有する
ことを特徴とする請求項 1記載の監視システム。
[3] 前記撮影領域変更部は、前記他のカメラ端末の撮影領域と当該カメラ端末の撮影 領域とが重なり領域をもつように前記カメラを制御する
ことを特徴とする請求項 2記載の監視システム。
[4] 前記撮影特性変更手段はさらに、 前記監視領域において予め定められた基準領域の位置情報を記憶する基準領域 前記基準領域記憶部に記憶された位置情報が示す基準領域と当該カメラ端末の 撮影領域との位置関係に対して評価値を与える自己領域評価部とを有し、
前記撮影領域変更部は、前記領域差評価部および前記自己領域評価部で与えら れる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
ことを特徴とする請求項 2記載の監視システム。
[5] 前記撮影特性変更手段はさらに、
前記監視領域内に存在する対象物の位置を特定する対象物位置特定部と、 特定された対象物の位置と当該カメラ端末の撮影領域との位置関係に対して評価 値を与える自己領域評価部とを有し、
前記撮影領域変更部は、前記領域差評価部および前記自己領域評価部で与えら れる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
ことを特徴とする請求項 2記載の監視システム。
[6] 前記撮影特性変更手段はさらに、前記監視領域の境界領域と当該カメラ端末の撮 影領域との位置関係に対して評価値を与える境界領域評価部を有し、
前記撮影領域変更部は、前記領域差評価部および前記境界領域評価部で与えら れる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
ことを特徴とする請求項 2記載の監視システム。
[7] 前記撮影特性変更手段はさらに、
前記監視領域のうち、前記複数のカメラ端末の 、ずれにも撮影されて 、な 、未撮 影領域の位置を特定する未撮影領域特定部と、
特定された前記未撮影領域と当該カメラ端末の撮影領域との位置関係に対して評 価値を与える自己領域評価部とを有し、
前記撮影領域変更部は、前記領域差評価部および前記自己領域評価部で与えら れる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
ことを特徴とする請求項 2記載の監視システム。
[8] 前記カメラは、前記撮影領域の撮影における撮影精度を変更する手段を有し、 前記撮影特性情報には、前記撮影領域の撮影における撮影精度が含まれ、 前記撮影特性変更手段は、当該カメラ端末の撮影特性情報と前記通信手段で受 信された他のカメラ端末の撮影特性情報とに基づ ヽて、当該カメラ端末の撮影精度 と他のカメラ端末の撮影精度とが予め定められた一定の関係となるように、当該カメラ 端末のカメラを制御して撮影精度を変更する
ことを特徴とする請求項 1記載の監視システム。
[9] 前記撮影特性変更手段は、
当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と 特定された他のカメラ端末力 の撮影特性情報と当該カメラ端末の撮影特性情報 に基づいて、前記他のカメラ端末の撮影精度と当該カメラ端末の撮影精度との差異 に対して評価値を与える精度差評価部と、
前記精度差評価部で与えられる評価値が所定の目標値に近づくように前記カメラ を制御して撮影精度を変更する撮影精度変更部とを有する
ことを特徴とする請求項 8記載の監視システム。
[10] 前記撮影精度変更部は、前記他のカメラ端末の撮影精度と当該カメラ端末の撮影 精度とが同じになるように前記カメラを制御する
ことを特徴とする請求項 9記載の監視システム。
[11] 前記撮影特性変更手段はさらに、
予め定められた撮影精度である基準精度の値を記憶する基準精度記憶部と、 前記基準精度記憶部に記憶された基準精度と当該カメラ端末の撮影精度との差異 に対して評価値を与える自己精度評価部とを有し、
前記撮影領域変更部は、前記精度差評価部および前記自己精度評価部で与えら れる評価値がそれぞれ所定の目標値に近づくように前記カメラを制御する
ことを特徴とする請求項 9記載の監視システム。
[12] 前記撮影特性変更手段はさらに、
予め定められた対象物の撮影のための基準精度を記憶する対象物撮影用基準精 度記憶部と、 前記対象物撮影用基準精度記憶部に記憶された基準精度と当該カメラ端末の撮 影精度との差異に対して評価値を与える自己精度評価部と、
当該カメラ端末の撮影領域内に前記対象物が存在するか否かを判定する対象物 特定部と、
前記撮影領域変更部は、前記対象物特定部によって前記対象物が存在すると判 定された場合に、前記自己精度評価部で与えられる評価値が所定の目標値に近づ くように前記カメラを制御し、前記対象物特定部によって前記対象物が存在しないと 判定された場合に、前記精度差評価部で与えられる評価値が所定の目標値に近づ くように前記カメラを制御する
ことを特徴とする請求項 9記載の監視システム。
[13] 前記撮影特性情報には、さらに、前記撮影領域の位置を特定する情報が含まれ、 前記撮影特性変更手段はさらに、
前記協調相手決定部で特定された他のカメラ端末力 の撮影特性情報と当該カメ ラ端末の撮影特性情報に基づ 、て、前記他のカメラ端末の撮影領域と当該カメラ端 末の撮影領域との位置関係に対して評価値を与える領域差評価部と、
前記領域差評価部で与えられる評価値が所定の目標値に近づくように前記カメラ を制御して撮影領域を変更する撮影領域変更部とを有する
ことを特徴とする請求項 9記載の監視システム。
[14] 前記複数のカメラ端末はさらに、
当該カメラ端末を移動させる移動手段と、
前記移動手段を制御することによって当該カメラ端末の撮影領域の位置を変更す る移動制御手段とを備え、
前記移動制御手段は、当該カメラ端末の撮影特性情報と前記通信手段で受信され た他のカメラ端末の撮影特性情報とに基づ 、て、前記複数のカメラ端末によって前 記監視領域をよりくまなく同時撮影できるように、前記移動手段を制御する
ことを特徴とする請求項 1記載の監視システム。
[15] 前記移動制御手段は、前記監視領域に対して前記複数のカメラ端末によって同時 に撮影される撮影領域の割合が増加するように、前記移動手段を制御する ことを特徴とする請求項 14記載の監視システム。
[16] 前記移動制御手段は、前記監視領域における前記複数のカメラ端末の撮影領域 力 り均一に分散するように、前記移動手段を制御する
ことを特徴とする請求項 14記載の監視システム。
[17] 前記移動制御手段は、
当該カメラ端末と撮影領域が隣り合う他のカメラ端末を特定する協調相手決定部と 前記監視領域を特定する情報を記憶している監視範囲記憶部と、
前記カメラの特性と当該カメラ端末の位置とから当該カメラ端末の撮影領域を推定 する撮影領域推定部と、
前記協調相手決定部で特定された他のカメラ端末、前記監視範囲記憶部に記憶さ れている情報、および、前記撮影領域推定部で推定された撮影領域から、推定され た撮影領域と他のカメラ端末の撮影領域との重なり領域の大きさ、および、推定され た撮影領域と前記監視領域の境界との距離について評価を行う撮影位置評価部と、 前記撮影位置評価部による評価結果に基づいて、前記移動手段を制御する撮影 位置変更部とを有する
ことを特徴とする請求項 14記載の監視システム。
[18] 前記監視領域には、監視の対象となる対象物が置かれ、
前記複数のカメラ端末はさらに、前記対象物の前記監視領域における位置を示す 位置情報を記憶する地図情報記憶手段を備え、
前記移動制御手段は、前記地図情報記憶手段に記憶された情報に基づいて、前 記対象物によって生じる前記監視領域における死角領域を特定し、特定した死角領 域が減少するように、前記移動手段を制御する
ことを特徴とする請求項 14記載の監視システム。
[19] 前記地図情報記憶手段には、さらに、前記対象物の立体的な形状に関する形状 情報が記憶され、
前記移動制御手段は、前記地図情報記憶手段に記憶された形状情報に基づ 、て 、前記対象物によって生じる前記監視領域における死角領域を特定する ことを特徴とする請求項 18記載の監視システム。
[20] 前記複数のカメラ端末はさらに、
前記対象物の前記監視領域における位置を検出する対象物検出手段と、 検出された位置を示す情報を前記地図情報記憶手段に格納する地図作成手段と を備える
ことを特徴とする請求項 18記載の監視システム。
[21] 前記対象物検出手段は、前記対象物に取り付けられ、当該対象物検出手段自体 の空間位置を特定することによって、前記対象物の位置を検出する
ことを特徴とする請求項 20記載の監視システム。
[22] 前記監視領域には、監視の対象となる対象物が置かれ、
前記移動制御手段は、前記対象物の撮影に適した位置に当該カメラ端末が位置 するように、前記移動手段を制御する
ことを特徴とする請求項 14記載の監視システム。
[23] 前記移動制御手段は、前記対象物を所定の方向から撮影できるように、前記移動 手段を制御する
ことを特徴とする請求項 22記載の監視システム。
[24] 前記対象物は、移動体であり、
前記複数のカメラ端末はさらに、前記対象物が前記カメラによって撮影されるように 前記移動手段を制御する追跡移動制御手段を備える
ことを特徴とする請求項 22記載の監視システム。
[25] 前記通信手段は、当該カメラ端末と隣接する他のカメラ端末によって撮影された映 像を取得し、
前記複数のカメラ端末はさらに、前記カメラによって撮影された映像と前記通信手 段によって取得された映像とを比較することによって、当該カメラ端末の撮影領域と 前記他のカメラ端末の撮影領域とが重なり領域を有する力否かを判断する映像比較 手段を備え、
前記移動制御手段は、前記映像比較手段によって前記 2つの撮影領域が重なり領 域を有しないと判断された場合に、前記 2つの撮影領域が重なり領域を有することと なるように、前記移動手段を制御する
ことを特徴とする請求項 14記載の監視システム。
[26] 前記監視領域は、表面に模様が描かれた平面領域であり、
前記映像比較手段は、前記 2つの映像中に共通する前記模様が撮影されているか 否かによって、前記映像を比較する
ことを特徴とする請求項 25記載の監視システム。
[27] 監視システムを構成するカメラ端末であって、
請求項 1記載の監視システムを構成するカメラ端末。
[28] 通信路で接続された複数のカメラ端末を用いて監視領域を監視する監視方法であ つて、
前記複数のカメラ端末は、前記監視領域に含まれる撮影領域を撮影するとともに、 前記撮影領域を変更する手段を有し、
前記監視方法は、
前記複数のカメラ端末が、前記撮影領域を特定する情報である撮影特性情報を前 記通信路を介して他のカメラ端末に送信するとともに、他のカメラ端末力 撮影特性 情報を受信する通信ステップと、
前記複数のカメラ端末が、当該カメラ端末の撮影特性情報と前記通信ステップで受 信した他のカメラ端末の撮影特性情報とに基づ 、て、当該カメラ端末の撮影領域と 他のカメラ端末の撮影領域とが予め定められた一定の関係となるように、当該カメラ 端末の撮影領域を変更する撮影特性変更ステップとを含む
ことを特徴とする監視方法。
[29] 監視領域を監視する監視システムを構成するカメラ端末のためのプログラムであつ て、
前記カメラ端末は、
前記監視領域に含まれる撮影領域を撮影するとともに、前記撮影領域を変更する 手段を有するカメラと、
前記撮影領域を特定する情報である撮影特性情報を前記通信路を介して他のカメ ラ端末に送信するとともに、他のカメラ端末から撮影特性情報を受信する通信手段と を備え、
前記プログラムは、
当該カメラ端末の撮影特性情報と前記通信手段で受信された他のカメラ端末の撮 影特性情報とに基づいて、当該カメラ端末の撮影領域と他のカメラ端末の撮影領域 とが予め定められた一定の関係となるように、当該カメラ端末のカメラを制御して撮影 領域を変更するステップを含む
ことを特徴とするプログラム。
通信路で接続された複数のセンサ端末から構成され、監視領域における物理量を 検出することによって前記監視領域を監視する監視システムであって、
前記複数のセンサ端末は、
前記監視領域に含まれる検出領域における物理量を検出するとともに、前記検出 領域を変更する手段を有するセンサと、
前記検出領域を特定する情報である検出特性情報を前記通信路を介して他のセ ンサ端末に送信するとともに、他のセンサ端末から検出特性情報を受信する通信手 段と、
当該センサ端末の検出特性情報と前記通信手段で受信された他のセンサ端末の 検出特性情報とに基づいて、当該センサ端末の検出領域と他のセンサ端末の検出 領域とが予め定められた一定の関係となるように、当該センサ端末のセンサを制御し て検出領域を変更する検出特性変更手段とを備える
ことを特徴とする監視システム。
PCT/JP2005/000545 2004-02-03 2005-01-18 監視システムおよびカメラ端末 WO2005076621A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005517640A JP3903062B2 (ja) 2004-02-03 2005-01-18 監視システムおよびカメラ端末
EP05703782.2A EP1713275A4 (en) 2004-02-03 2005-01-18 MONITORING SYSTEM AND CAMERA TERMINAL
US11/125,390 US7787013B2 (en) 2004-02-03 2005-05-10 Monitor system and camera

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004027295 2004-02-03
JP2004-027295 2004-02-03
JP2004-105855 2004-03-31
JP2004105855 2004-03-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/125,390 Continuation US7787013B2 (en) 2004-02-03 2005-05-10 Monitor system and camera

Publications (1)

Publication Number Publication Date
WO2005076621A1 true WO2005076621A1 (ja) 2005-08-18

Family

ID=34840130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000545 WO2005076621A1 (ja) 2004-02-03 2005-01-18 監視システムおよびカメラ端末

Country Status (4)

Country Link
EP (1) EP1713275A4 (ja)
JP (1) JP3903062B2 (ja)
CN (1) CN101867785B (ja)
WO (1) WO2005076621A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208387A (ja) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd センサー配置装置、センサー制御装置およびセンサー制御システム
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
US7852764B2 (en) 2006-09-20 2010-12-14 Panasonic Corporation Relay transmission device and relay transmission method
JP2011048736A (ja) * 2009-08-28 2011-03-10 Fujitsu Ltd 監視制御装置及び監視システム
JP2015195627A (ja) * 2015-08-06 2015-11-05 Toa株式会社 カメラ制御装置及びそのコンピュータプログラム
JP2018084924A (ja) * 2016-11-22 2018-05-31 サン電子株式会社 管理装置及び管理システム
JP2019118136A (ja) * 2019-03-15 2019-07-18 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JPWO2022224402A1 (ja) * 2021-04-22 2022-10-27

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5757048B2 (ja) * 2009-08-10 2015-07-29 特定非営利活動法人e自警ネットワーク研究会 所有者,画像閲覧可能な者を知らしめる情報開示手段を持つことを特徴とする防犯カメラシステム
JP5370398B2 (ja) 2011-03-15 2013-12-18 オムロン株式会社 画像処理装置および画像処理プログラム
JP6055823B2 (ja) * 2012-05-30 2016-12-27 株式会社日立製作所 監視カメラ制御装置及び映像監視システム
DE102012212613A1 (de) * 2012-07-18 2014-01-23 Robert Bosch Gmbh Überwachungssystem mit positionsabhängigem Schutzbereich, Verfahren zur Überwachung eines Überwachungsbereichs sowie Computerprogramm
CN103577789B (zh) * 2012-07-26 2018-02-13 中兴通讯股份有限公司 检测方法和装置
DE102021207641A1 (de) * 2021-07-16 2023-01-19 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungsvorrichtung mit einer Mehrzahl an Kameras, Verfahren und Computerprogramm zur Überwachung
DE102022203740A1 (de) * 2022-04-13 2023-10-19 Robert Bosch Gesellschaft mit beschränkter Haftung Überwachungssystem, Verfahren zum Zuordnen einer Überwachungskamera zu einem Überlappungsüberwachungsbereich, Computerprogramm und Speichermedium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083243A (ja) * 1998-09-04 2000-03-21 Canon Inc 撮像装置、撮像システム、撮像制御方法、及び記憶媒体
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2002077887A (ja) * 2000-09-04 2002-03-15 Mitsubishi Electric Corp 自動監視方法および自動監視装置
JP2004080090A (ja) * 2002-08-09 2004-03-11 Hitachi Ltd 監視部ユニット、それを用いた監視システム、及び異常監視方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
AUPQ684600A0 (en) * 2000-04-11 2000-05-11 Safehouse International Limited An object monitoring system
CA2364230A1 (en) * 2001-12-03 2003-06-03 Tim Lambert Video security and control system
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
CN1254956C (zh) * 2004-04-15 2006-05-03 上海交通大学 交通监视环境下的摄像机标定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083243A (ja) * 1998-09-04 2000-03-21 Canon Inc 撮像装置、撮像システム、撮像制御方法、及び記憶媒体
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2002077887A (ja) * 2000-09-04 2002-03-15 Mitsubishi Electric Corp 自動監視方法および自動監視装置
JP2004080090A (ja) * 2002-08-09 2004-03-11 Hitachi Ltd 監視部ユニット、それを用いた監視システム、及び異常監視方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1713275A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208387A (ja) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd センサー配置装置、センサー制御装置およびセンサー制御システム
WO2008035745A1 (en) * 2006-09-20 2008-03-27 Panasonic Corporation Monitor system, camera and video image coding method
US7852764B2 (en) 2006-09-20 2010-12-14 Panasonic Corporation Relay transmission device and relay transmission method
US8115812B2 (en) 2006-09-20 2012-02-14 Panasonic Corporation Monitoring system, camera, and video encoding method
JP2011048736A (ja) * 2009-08-28 2011-03-10 Fujitsu Ltd 監視制御装置及び監視システム
JP2015195627A (ja) * 2015-08-06 2015-11-05 Toa株式会社 カメラ制御装置及びそのコンピュータプログラム
JP2018084924A (ja) * 2016-11-22 2018-05-31 サン電子株式会社 管理装置及び管理システム
JP7101331B2 (ja) 2016-11-22 2022-07-15 サン電子株式会社 管理装置及び管理システム
JP2019118136A (ja) * 2019-03-15 2019-07-18 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JPWO2022224402A1 (ja) * 2021-04-22 2022-10-27
WO2022224402A1 (ja) * 2021-04-22 2022-10-27 三菱電機株式会社 位置検知装置、位置検知方法、及び位置検知プログラム

Also Published As

Publication number Publication date
CN101867785B (zh) 2012-07-25
JP3903062B2 (ja) 2007-04-11
EP1713275A4 (en) 2013-12-11
JPWO2005076621A1 (ja) 2008-01-10
CN101867785A (zh) 2010-10-20
EP1713275A1 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
WO2005076621A1 (ja) 監視システムおよびカメラ端末
JP3902222B2 (ja) 監視システム、監視方法及びカメラ端末
JP3886524B2 (ja) カメラ端末および監視システム
US6215519B1 (en) Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
US7385626B2 (en) Method and system for performing surveillance
JP3905116B2 (ja) 検出領域調整装置
US20050206726A1 (en) Monitor system and camera
US8488001B2 (en) Semi-automatic relative calibration method for master slave camera control
US6359647B1 (en) Automated camera handoff system for figure tracking in a multiple camera system
EP1585332B1 (en) Remote video display method, video acquisition device, method thereof, and program thereof
US20050036036A1 (en) Camera control apparatus and method
US20100013917A1 (en) Method and system for performing surveillance
JP4418805B2 (ja) 検出領域調整装置
JPWO2006068049A1 (ja) カメラ端末および撮影領域調整装置
CN100531370C (zh) 监视系统及摄像机终端
JP2003158664A (ja) カメラ制御装置
KR102411612B1 (ko) 다수의 카메라를 이용한 열화상 감시 시스템
JP2002101408A (ja) 監視カメラシステム
Barth et al. A fast panoramic imaging system and intelligent imaging technique for mobile robots
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system
WO2003088672A1 (fr) Systeme de surveillance
WO2005120070A2 (en) Method and system for performing surveillance
KR20240002340A (ko) Ptz 카메라의 협업을 이용한 영상 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
KR20240078076A (ko) 조선소 작업공정 영상 수집을 위한 ptz 카메라 제어 시스템
ZA200400635B (en) A camera control apparatus and method.

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 11125390

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005517640

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005703782

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580004014.X

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005703782

Country of ref document: EP