WO2005076620A1 - 検出領域調整装置 - Google Patents

検出領域調整装置 Download PDF

Info

Publication number
WO2005076620A1
WO2005076620A1 PCT/JP2005/000544 JP2005000544W WO2005076620A1 WO 2005076620 A1 WO2005076620 A1 WO 2005076620A1 JP 2005000544 W JP2005000544 W JP 2005000544W WO 2005076620 A1 WO2005076620 A1 WO 2005076620A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
detection area
detection
area
terminal
Prior art date
Application number
PCT/JP2005/000544
Other languages
English (en)
French (fr)
Inventor
Katsuji Aoki
Atsushi Yoshida
Shouichi Araki
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2005517639A priority Critical patent/JP3905116B2/ja
Priority to EP05703781A priority patent/EP1771005B1/en
Priority to AT05703781T priority patent/ATE547896T1/de
Priority to US11/115,152 priority patent/US7880766B2/en
Publication of WO2005076620A1 publication Critical patent/WO2005076620A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19697Arrangements wherein non-video detectors generate an alarm themselves
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/02Monitoring continuously signalling or alarm systems
    • G08B29/04Monitoring of the detection circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a detection region adjustment device that adjusts a region to be photographed using a plurality of cameras, and particularly relates to a device suitable for a monitoring system using a plurality of cameras.
  • Patent Documents 1 and 2 disclose such typical conventional devices using a plurality of cameras.
  • FIG. 1 shows an apparatus for automatically adjusting a shooting area of a camera described in Patent Document 1.
  • the detection camera device 9010 the camera 9011 and the reflecting mirror 9012 take images of the detection target over a wide imaging area, extract the detection target from the same image taken by the moving object extraction unit 9013, and the position information extraction unit 9014 performs the same detection.
  • the detection camera device 9010 acquires position information of the detection target over a wide detection area.
  • the camera control unit 9022 controls the turning angle, the depression angle, and the zoom ratio of the camera 9021 based on the position information of the detection target, and the judgment camera device 9020 shoots an enlarged image of the detection target.
  • the camera device 9020 acquires detailed information of the detection target.
  • FIG. 2 is a diagram showing detection areas of the detection camera device 9010 and the determination camera device 9020.
  • a black circle indicates the installation position of the detection camera device 9010, and the detection camera device 9010 is a fixed camera.
  • the circle or hexagon indicates the detection area of each detection camera device 9010.
  • each detecting camera device 9010 is artificially regularized. If installed properly, it will be possible to always detect the detection target area, which is the target area to be monitored, without blind spots.
  • FIG. 3 shows an apparatus for automatically adjusting a shooting area of a camera described in Patent Document 2.
  • a moving object detection camera 9211 having the purpose of photographing a detection target over a wide photographing region changes its own photographing region by means of a posture control means 9212, and has a monitoring purpose of photographing an enlarged image of the detection target.
  • the camera 9221 changes its own photographing range by the posture control means 9222.
  • the shooting area of each camera is determined by the camera angle-of-view storage means 9231 and the camera angle of view based on the position of the detection target extracted by the moving object detection camera 9211 and the shooting area of each camera. Determined based on information stored in advance in storage means 9232.
  • FIGS. 4 to 6 are diagrams used to explain a method of determining a shooting region of each camera, and are images taken by the moving object detection camera 9211 divided into several block images.
  • the shooting area of the moving object detection camera 9211 is determined as follows. If the detection target exists in the hatched block in FIG. 4, each block position moves in the direction indicated by the arrow direction described in each block in FIG. 5 corresponding to the block position shown in FIG. The posture of the object detection camera 9211 is changed to change the shooting area of the camera.
  • the photographing area of the moving object detection camera 9211 corresponding to each block position is determined by a human in advance, and the information is set in the camera view angle storage unit 9231 in advance.
  • the shooting area of the monitoring camera 9221 is determined as follows.
  • the posture of the monitoring camera 9221 is changed so that the shooting area shown by the broken line is obtained, and the shooting area of the camera is changed.
  • the shooting area of the monitoring camera 9221 corresponding to each block position is determined by a human in advance, and the information is set in the camera view angle storage unit 9232 in advance.
  • each camera detects a detection target or obtains detailed information of the detection target based on information within a shooting range captured by the camera. Therefore, the shooting range of each camera is the same as the detection range of the detection of the detection target and the information acquisition performed by the camera. There Hereinafter, the shooting range of the camera will be described as the detection range of the camera.
  • the detection camera device 9010 is used, and in the conventional device shown in Patent Document 2, the moving object detection camera 9211 detects the detection target over a wide detection area.
  • the judgment camera device 9020 has a role of detecting, and in the conventional device shown in Patent Document 2, the surveillance camera 9221 detects the detected image like the enlarged image of the detection target.
  • Each camera shares a fixed and predetermined role, such as acquiring detailed information of the target, and one camera monitors the entire detection target area, and the other plays a role. The camera that plays the role of has obtained detailed information.
  • the detection area of the moving object detection camera 921 1 is changed in response to a situation change in which the detection target is located in the upper left block in FIG.
  • the information in table format that describes the detection area corresponding to the situation change contents assumed and created in advance by humans on a one-to-one basis is described. Based on this, the detection area of each camera is determined and adjusted.
  • each camera is set based on information in a table format in which a detection area corresponding to a situation change content assumed and set by a human in advance and a one-to-one correspondence is described. Since the detection area is determined and adjusted, it is necessary for a human to assume and create information in a table format that describes the detection area corresponding to the situation change content on a one-to-one basis for each camera. The information depends on the position and size of the detection target area, the details of changes in the situation assumed by humans, the position and number of cameras to be installed, etc. It is necessary for humans to recreate this information one by one. This operation becomes more complicated as the number of cameras increases, and the cost and load on the operation become enormous. In a surveillance system using cameras in a building, it is very common to use more than 10 cameras. It is.
  • Patent Document 1 Japanese Patent No. 3043925
  • Patent Document 2 Japanese Patent No. 3180730
  • the present invention is to solve the above-mentioned conventional problem, and it is not necessary for a human to predict a situation change in advance and create a table, and even if a camera breaks down, It is an object of the present invention to provide a detection region adjusting device capable of detecting all the regions to be detected without fail.
  • a detection area adjustment device comprises a plurality of camera terminals connected by a communication path, and adjusts a detection area which is an imaging area of the plurality of camera terminals.
  • a plurality of camera terminals each of which captures a detection area included in the detection target area and changes a position of the detection area.
  • a communication unit that transmits detection area information specifying the detection area to another camera terminal via the communication path, and receives detection area information from the other camera terminal.
  • An area obtained by adding the detection areas of the plurality of camera terminals based on the detection area information and the detection area information of the other camera terminals received by the communication unit constitutes the detection target area.
  • an adjusting means for controlling the camera of the camera terminal to adjust the position of the detection area so as to cover the position.
  • the adjusting unit may be configured such that a non-detection area that does not belong to any of the detection areas of the plurality of camera terminals does not occur in a peripheral area that is in contact with the detection area of the camera terminal.
  • the position of the detection area is adjusted.
  • Each camera terminal has the same function and operates autonomously and cooperatively while communicating with other camera terminals whose detection areas are adjacent to each other, so that a person predicts a situation change in advance and creates a table. Need to keep Even if the camera breaks down, the entire area to be detected is photographed without blind spots.
  • the camera has means for changing the spatial resolution of the detection area
  • the detection area information includes information for specifying the spatial resolution of the detection area
  • the adjustment means Based on the detection area information of the camera terminal and the detection area information of the other camera terminals received by the communication means, an area obtained by summing the detection areas of the plurality of camera terminals is all over the detection target area. It is further preferable that the camera of the camera terminal is controlled to adjust the position and the spatial resolution of the detection region so that the spatial resolution of the detection regions of the plurality of camera terminals is substantially the same.
  • each camera terminal also controls the zoom ratio, which depends only on the camera direction (pan, tilt, etc.), so that the position and size of the detection area are adjusted.
  • the entire area is imaged throughout with uniform spatial resolution.
  • the present invention is not limited to a distributed control type configuration in which each camera terminal is provided with an adjustment unit, but is a centralized control configuration in which a common adjustment unit that adjusts the detection area of all camera terminals is provided.
  • the present invention can also be implemented as a detection area adjustment method and a program that causes a computer to execute the method.
  • the present invention can be realized as a device that adjusts the detection area of a sensor capable of detecting a physical quantity such as a microphone, instead of the detection area that is an area that can be photographed by a camera.
  • the program according to the present invention can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
  • the camera detection region of each camera terminal is automatically adjusted so that the sum of the detection regions of the cameras of each camera terminal covers the entire predetermined detection target region. Therefore, it is not necessary for humans to create the detection area information corresponding to the situation change for each camera as in the past, and even if some of the cameras fail, the blind spot The predetermined detection target area is efficiently covered.
  • the present invention guarantees that an arbitrary space can be detected without blind spots, and has high practical value particularly as a system for monitoring a suspicious individual in a school or a building.
  • FIG. 1 is a configuration block diagram according to a conventional technique 1.
  • FIG. 2 is an explanatory diagram showing a camera field-of-view range according to Conventional Technique 1.
  • FIG. 3 is a configuration block diagram according to the conventional technique 2.
  • FIG. 4 is an explanatory diagram of an operation in the conventional technique 2.
  • FIG. 5 is an explanatory diagram of an operation in the conventional technique 2.
  • FIG. 6 is an explanatory diagram of an operation in the conventional technique 2.
  • FIG. 7 is an explanatory diagram of an operation in the conventional technique 2.
  • FIG. 8 is a configuration block diagram of a detection area adjustment device according to Embodiment 1 of the present invention.
  • FIG. 9 is a diagram showing an example of a detection area and an overlapping area.
  • FIG. 10 is a configuration block diagram of a camera P.
  • FIG. 11 is a flowchart showing a process performed by an adjustment unit.
  • FIG. 12 is an explanatory diagram showing adjacent detection regions.
  • FIG. 13 is an explanatory diagram showing a function U ().
  • FIG. 14 is an explanatory diagram showing another function U ().
  • FIG. 15 is a block diagram showing a configuration of a centralized control type detection region adjustment device in which one adjustment unit adjusts all detection regions.
  • FIG. 16 is a diagram illustrating an example in which the present invention is applied to a microphone.
  • FIG. 17 is a diagram showing a method of applying the processing on the X axis also on the Y axis.
  • FIG. 18 is a configuration block diagram of a detection area adjustment device according to Embodiment 2 of the present invention.
  • FIG. 19 is a configuration block diagram of a camera PR.
  • FIG. 20 is a flowchart showing a process performed by the adjustment unit.
  • FIG. 21 is an explanatory diagram for detection area position calculation in Supplementary Explanation 1 of the present invention.
  • FIG. 22 is a configuration block diagram of a detection area adjustment device in Supplementary Explanation 1 of the present invention.
  • FIG. 23 is a configuration block diagram of a camera in Supplementary Explanation 1 of the present invention.
  • FIG. 24 is a diagram showing a method of determining a region adjacent to a detection region in Supplementary Explanation 2 of the present invention.
  • FIG. 25 is a diagram showing a method of determining an area adjacent to a detection area in Supplementary Explanation 2 of the present invention.
  • FIG. 26 is a configuration block diagram of a detection area adjusting device in Supplementary Explanation 3 of the present invention.
  • FIG. 27 is a flowchart showing a process performed by the adjustment unit in Supplementary Explanation 4 of the present invention.
  • FIG. 28 is a flowchart showing a process performed by the adjustment unit in supplementary explanation 4 of the present invention.
  • FIG. 29 is a configuration block diagram of a detection area adjusting device in Supplementary Explanation 4 of the present invention.
  • FIG. 30 is a configuration block diagram of another detection area adjusting device in Supplementary Explanation 4 of the present invention.
  • FIG. 31 is a diagram showing an example of a composite image.
  • FIG. 32 is a block diagram showing a configuration of a monitoring system including mobile camera terminals.
  • FIG. 33 is a diagram showing an operation state of the mobile camera terminal in the monitoring system.
  • FIG. 34 is a diagram showing how a mobile camera terminal moves on a track of a rail installed in a monitoring area.
  • Embodiment 1 of the present invention will be described.
  • the detection area in which the camera detection area of each camera terminal is automatically adjusted so that the area obtained by adding up the detection areas of the cameras of each camera terminal completely covers the predetermined detection target area The adjusting device will be described with reference to FIGS.
  • FIG. 8 is a configuration block diagram of a detection area adjustment device according to Embodiment 1 of the present invention.
  • This detection area adjustment device includes a plurality of camera terminals P110A connected via a network 112.
  • the plurality of camera terminals P110A-C are camera terminals that operate autonomously and cooperatively while communicating with each other, and include the same components (camera P101, adjustment unit 102, and communication unit 103).
  • Camera P101 is a camera with a variable detection area position, which is the position of the detection area of the camera.
  • Adjustment unit 102 is a processing unit that adjusts the detection area position of camera P101.
  • Communication unit 103 is a detection area position of camera P101. A processing unit that communicates information.
  • Adjustment section 102 sums the detection areas of a plurality of camera terminals P110A-C based on the detection area position information of the self-powered camera terminal and the detection area position information of the other camera terminals received by communication section 103.
  • the camera P101 of the self-powered camera terminal is controlled to adjust the position of the detection area so that the detected area covers the entire detection target area. More specifically, the adjustment unit 102 does not generate a non-detection area that does not belong to the deviation of the detection areas of the plurality of camera terminals P110A-C in a peripheral area in contact with the detection area of the self-powered camera terminal. In this way, the position of the detection area of the own camera terminal is adjusted.
  • the operation terminal 111L and the operation terminal 111R are terminals that acquire an instruction from the user and notify the camera terminal PR1110A-C of the instruction, and include a communication unit 103 that communicates detection target position information.
  • the network 112 is a network line used for communication via the communication unit 103 in each of the camera terminals P110A-110C, the operation terminal 111L, and the operation terminal 111R.
  • Each camera terminal P110A-110C communicates the detection area position information of the camera P101 in each camera terminal P through the same network 112, and the operation terminal 111L and the operation terminal 111R detect each camera terminal PI 10A-110C through the same network 112. Communicate area.
  • Axis 122 is defined.
  • the real space plane 125 is the real sky where each camera terminal P110A-110C exists.
  • the upper surface for example, when each of the camera terminals P110A-110C is set downward from the ceiling, it is a surface such as a floor. In the first embodiment, the surface coincides with the X-axis 120, and
  • the detection target area 130 is the entire area to be detected in the present invention, and the position of the area is represented by X and X.
  • the non-detection area 131 is the detection This is an area that is not targeted for exit.
  • the broken line emitted from each camera P101 indicates the end of the detection area of each camera P101.
  • the detection area 140A is the detection area of the camera terminal P110A, and the position of that area is indicated by X and X
  • the detection area 140B is the detection area of the camera terminal P110B, and the position of the area is represented by X and X.
  • the detection area 140C is the detection area of the camera terminal P110C.
  • the overlapping area 141TA is the camera edge
  • the detection area 140A which is the detection area of P110A, and the non-detection area 131 overlap each other, and an amount indicating the size of the area is represented by X—X.
  • the overlapping area 141AB is the force
  • the detection area 140A which is the detection area of the camera terminal PI 10A
  • the detection area 140B which is the detection area of the camera terminal PI 10B
  • overlap and the amount indicating the size of the area is X — X
  • the overlapping area 141BC is an area where the detection area 140B, which is the detection area of the camera terminal P110B, and the detection area 140C, which is the detection area of the camera terminal P110C, overlap, and the amount indicating the size of the area is represented by X—X. Is done.
  • the overlapping area 141CT is the camera edge
  • the detection area 140C which is the detection area of P110C, and the non-detection area 131 overlap each other, and the amount indicating the size of the area is X — X
  • the detection area and the overlap area are represented by a one-dimensional X-axis 120.
  • FIG. 9 (a) is a diagram showing the detection area of the present embodiment in two dimensions
  • FIG. 9 (b) shows the detection area (square) and the overlapping area (shaded area) when the detection area is rectangular
  • 9 (c) is a diagram showing an example of a detection area (circle) and an overlap area (shaded area) when the detection area is circular.
  • the detection area adjustment apparatus according to the present embodiment is an apparatus that can be applied to a case where the detection area is not only a surface but also a three-dimensional object. In the following, the explanation will be limited to the X axis only.
  • FIG. 10A is a diagram showing an internal configuration of the camera P101.
  • the camera P101 includes a lens 201, an imaging surface 202, an image processing unit 203, and a posture control unit 204.
  • the lens 201 is a lens for forming an image
  • the imaging surface 202 is an element such as a CCD for capturing an image formed by the lens 201
  • the image processing unit 203 is a process for processing an image captured on the imaging surface 202.
  • the power control unit 204 is a processing unit that controls the posture of the lens 201 and the imaging surface 202 or the distance between the lens 201 and the imaging surface 202.
  • the control of the attitude of the lens 201 and the imaging plane 202 performed by the attitude control unit 204 is control generally called pan or tilt, and as shown in FIG. Are rotated about a point or axis in conjunction. Further, the control of the distance between the lens 201 and the imaging surface 202 performed by the attitude control unit 204 is a control generally called zoom, and as shown in FIG. The interval increases or decreases.
  • the camera 1 3 101 has the internal configuration shown in FIG. 10 (&).
  • the image formed by the lens 201 shown in FIG. 10A is converted into an image signal on the image plane 202, and the image processing unit 203 performs general image processing and image recognition.
  • detection of a detection target and information extraction are performed from the same image signal.
  • the camera P101 uses its own imaging range determined by the posture of the lens 201 and the imaging surface 202 and the distance between each of them in the real space as a detection area, and performs detection target detection and information extraction. Perform detection operation.
  • the detected information of the detection target is sent to the adjustment unit 102 in FIG.
  • the above-mentioned general image processing technology and image recognition technology include a widely known background difference method and a dynamic difference method.
  • the posture control unit 204 shown in FIG. 10A controls the posture of the force lens 201 and the imaging surface 202, or the distance between the lens 201 and the imaging surface 202 to control the camera.
  • the position of the detection area in P101 is adjusted to the position of the detection area indicated by the adjustment unit 102 in FIG.
  • the attitude control unit 204 sends to the adjustment unit 102 the current position information of the detection area of the camera P101 that also determines the current attitude or spacing force of the lens 201 and the imaging surface 202.
  • the position of the detection area of the camera P101 is controlled by the adjustment unit 102, and the current position information of the detection area of the camera P101 is sent to the adjustment unit 102.
  • the posture and interval of the lens 201 and the imaging surface 202 can be changed by using, for example, a stepping motor, and the current The posture and interval can also be read.
  • the adjustment unit 102 periodically transmits the position information of the detection area of the camera P101 transmitted from the camera P101 to the adjustment unit 102 of the remote terminal P via the communication unit 103 and the network 112. Further, the adjusting unit 102 receives the position information of the detection area of the camera P101 of the other-power terminal P periodically transmitted from the adjusting unit 102 of the other-power terminal P. Further, in operation terminal 111L and operation terminal 111R, communication unit 103 periodically transmits position information of detection target area 130 to adjustment unit 102 of each of camera terminals P110A-110C via network 112. .
  • each of the adjustment units 102 periodically updates the position information of the detection area and the position information of the detection target area of the camera P101 of the self-powered mobile terminal P and the passive power mobile terminal P.
  • each of the adjustment units 102 includes X and X, which are the position of the detection area 140A of the camera terminal P110A, and the camera terminal P1.
  • the adjustment unit 102 does not generate a non-detection area that does not belong to any of the detection areas of the plurality of camera terminals P110A-C in a peripheral area in contact with the detection area of the self-powered camera terminal.
  • the detection area of the self-powered mobile terminal P adjacent to the detection area of the self-powered mobile terminal P or the detection target is excluded. Select an area (step 301). An example of this selection method will be described below with reference to FIG.
  • FIG. 12 (a) shows the X-axis when the detection area is rectangular as shown in FIG. 12 (b).
  • the center position of the detection area of the self-powered mobile terminal P, the center position of the detection area of the passive mobile terminal P, and the center position of the non-detection target area are calculated.
  • the detection area or the non-detection area of the other force mera having the center position numerically smaller than the center position of the detection area of the self-powered camera terminal P is detected on the adjacent left side. Select as the output area.
  • the detection area or the non-detection area of the other power mera having the center position numerically larger than the center position of the detection area of the self-powered camera terminal P is selected as the detection area adjacent to the right.
  • the closest distance from the center position of the detection area of the self-powered camera terminal P is the closest. Select the area with the center position at the position. For this reason, in the camera terminal P110A, the non-detection area 131 on the left side, the detection area 140B on the right side, and the detection area 140A on the left side, the detection area 140C on the right side, and the camera terminal PI 10B on the camera terminal PI 10B. In the IOC, the detection area 140B is selected as the left neighbor, and the non-detection target area 131 is selected as the right neighbor. It should be noted that there are several methods other than the above-described method of selecting an adjacent area. Other methods will be described in Supplementary Explanation 2 below.
  • an amount indicating the size of the overlapping area which is the area where the detection area selected in step 301 and the detection area of the self-service terminal P overlap, is calculated (step 302).
  • This calculation method can be easily calculated based on the magnitude relationship between the selected detection area position and the detection area position of the camera terminal P as shown in FIG. Therefore, in the camera terminal P110A, the amount X—X indicating the size of the overlapping area 141TA, which is the overlapping area on the left, and the weight on the right
  • the amount X-X indicating the size of the overlapping area 141AB, which is a multiple area, is attached to the camera terminal P110B.
  • the quantity X — X indicating the size of the overlapping area 141CT, which is the adjacent overlapping area, is calculated.
  • a function UP () is defined as an amount indicating the difference between the amount indicating the size of the overlapping area and 0 or a certain amount of 0 or more.
  • the same function is used for each of the camera terminals P110A to 110C as shown in the following equations 1 to 3.
  • Equations 1 to 3 above are for the camera terminals P110A to 110C, respectively, and indicate the square value of the difference between the amount indicating the size of the overlapping area and the fixed amount C, and indicate the respective differences. As quantity.
  • Equations 4 to 6 the next detection area position of the self-powered mobile terminal P is calculated by using a generally known equation of the steepest descent method.
  • Equations 4 to 6 X ′, ⁇ ′, ⁇ ′, ⁇ ′, ⁇ ′, ⁇ ′, ⁇ ′ are each a camera
  • PI terminal 10A-1 Indicates the position of the next detection area of the IOC, where ⁇ is a constant. Finally, the detection area position of the camera P101 is adjusted to the same detection area position.
  • AL and AR must each be independently adjustable. Same for X and X, ⁇ and X
  • UP A (X AL , X AR ) UP AL (X AL ) + UP AR (X AR )
  • UP B (X B! ., X RR ) UP BL (X AL ) + UP BR (X AR )
  • UP C (X C ,, X CR ) UP CL (X CL ) + UP CR (X CR )
  • the adjusting unit 102 sequentially performs the processing of Step 301, Step 302, and Step 303, and returns to the processing of Step 301 after the processing of Step 303 is completed. Then, the adjustment unit 102 adjusts the detection range of the camera P101 while constantly repeating the processing from step 301 to step 303.
  • the operation of the detection area adjusting apparatus according to Embodiment 1 of the present invention is as described above.
  • the amount indicating the size of the overlapping area is set to 0 or 0 or more so as to approach a certain amount C.
  • the next detection area position of self-powered camera terminal P is calculated using the formula of the descent method, and the detection area position of each camera terminal P1 10A-110C is adjusted to adjust the detection area position of camera P101 to the same detection area position.
  • the detection region 140A, the detection region 140B, the detection region 140C, and the non-detection target region overlap each other by repeating the processing from step 301 to step 303 with 0 or a fixed amount C of 0 or more. .
  • the detection areas of each of the camera terminals P110A-110C including the non-detection area overlap with 0 or a certain amount C of 0 or more. Since the detection areas are included in the sum of the detection areas of the terminals P110A to 110C, the detection area adjustment device of the present invention can detect the detection target area 130 without blind spots by using the camera terminals P110A to 110C.
  • the adjustment unit 102 has an effect of detecting the detection target area 130 without blind spots.
  • the processing of steps 302 and 303 of this repeatedly performed processing is performed on the detection area of the other power camera P adjacent to the detection area of the self-powered camera terminal P selected in step 301.
  • the detection area adjustment device of the present invention is According to the change of the detection area position or the detection target area position, the detection target area 130 can be detected without a blind spot using each camera terminal P.
  • the function UP () indicating the difference between the amount indicating the size of the overlapping region and 0 or a certain amount C equal to or greater than 0 is calculated by using the above equations 1 to 3 or 7 As shown in Equation 9, the square value of the difference between the amount indicating the size of the overlap region and the fixed amount C was used, but as shown in Fig. 13, the function UP () was And the fixed amount C, the even-numbered value of the difference such as the fourth, sixth, or tenth-order value of the difference between the amount indicating the size of the overlap region and the function UP (). Even if the absolute value of the difference between these functions is UP (), X -X
  • step 303 Since the steepest descent method performed in step 303 has the minimum value at the time of the AL TL force, the amount indicating the size of the overlapping region approaches the constant amount C, and it is needless to say that the same effect can be obtained.
  • a function UP indicating the difference between the amount indicating the size of the overlap region and 0 or a certain amount C equal to or greater than 0
  • the adjustment units 102 are dispersedly provided in the camera terminals P 11 OA-110C, but the detection area shown in FIG. As in the case of the adjusting device, if there is only one adjusting unit 102 and only one adjusting unit 102 adjusts the entire detection area position of the camera P 101 of each camera terminal P 11 OA-110C. Needless to say, a similar effect can be obtained.
  • the camera P101 that handles the camera P101 as a general camera may be a camera that detects visible light or invisible light such as infrared light or ultraviolet light.
  • a general sensor having a detection area for detecting various physical quantities such as a fine movement sensor, a pressure sensor, a temperature sensor, and an air pressure sensor, and having a variable detection area position.
  • the same effect can be obtained.
  • a microphone having a directional characteristic as shown in Fig. 16 (a) as shown in Fig. 16 (b)
  • the direction (region) where sound can be detected with a sensitivity above a certain level is set as the sensing region (detection region).
  • the position of the microphone is controlled in the same manner as the pan and tilt of the camera according to the present embodiment, it can be defined instead of the camera according to the present embodiment, or In addition to a camera, it is possible to construct a detection area adjustment device composed of a plurality of microphones. That is, the present invention can also be applied to the various sensors described above that are not limited to cameras.
  • the dynamic network 112 that handles the network 112 as a network line used for general communication is the same even if the dynamic network 112 is a wired or wireless network. Needless to say, the effect can be obtained.
  • processing on the X axis is mainly described. However, by applying the same processing on the Y axis, it is possible to avoid the occurrence of a blind spot area in a plane. ing. As shown in FIG. 17, processing on the X-axis according to the present embodiment (processing for setting the overlapping area to 0 or more)
  • the present invention relates to a detection region adjustment device capable of acquiring a photographed image of a subject.
  • FIG. 18 is a configuration block diagram of a detection area adjustment device according to Embodiment 2 of the present invention.
  • This detection area adjusting device also includes a plurality of camera terminals PR11 10A-C connected via a network 112, and two operation terminals 1111L and 1111R.
  • Plurality of camera terminals PR1110A-C are camera terminals that operate autonomously and cooperatively while communicating with each other, and include the same components (camera PR1101, adjustment unit 1102, and communication unit 1103).
  • Camera PR1101 is a camera whose detection area position, which is the position of the detection area of the camera, is variable and the spatial resolution of the detection area, which is the spatial resolution of the detection area of the camera, is variable (for example, zoom control is possible).
  • Unit 1102 is the detection area for camera PR1101.
  • the processing unit for adjusting the area position and the detection area resolution and the communication unit 1103 are processing units that communicate detection area position information and detection area resolution information of the camera PR1101.
  • Adjustment section 1102 is based on the detection area position information and detection area resolution information of the self-powered camera terminal and the detection area position information and detection area resolution information of another camera terminal received by communication section 1103! In order to ensure that the area obtained by adding the detection areas of the multiple camera terminals PR1110A-C covers the entire detection target area, and that the spatial resolutions of the detection areas of the multiple camera terminals PR1110A-C are substantially the same, It controls the camera of the camera terminal to adjust the position and spatial resolution of the detection area. More specifically, the adjustment unit 1102 prevents the non-detection area that does not belong to any of the detection areas of the plurality of camera terminals PR1110A-C from being generated in the peripheral area in contact with the detection area of the self-powered camera terminal. The position and spatial resolution of the detection area of the self-propelled camera terminal are adjusted so that the spatial resolution of the detection area of the self-produced camera terminal and the spatial resolution of the detection areas of other camera terminals adjacent to the detection area are substantially the same. .
  • the operation terminal 1111L and the operation terminal 1111R are terminals that acquire instructions from the user and notify the instructions to the camera terminals PR1110A-C, and include a communication unit 1103 that communicates detection target position information.
  • the network 1112 is a network line used for communication via the communication unit 1103 in each of the camera terminals PR1110A-1110C, the operation terminal 1111L, and the operation terminal 1111R.
  • Each camera terminal PR1110A- 1110C communicates the detection area position information and the detection area spatial resolution information of the camera PR1101 in each camera terminal PR through the same network 1112, and the operation terminal 1111L and the operation terminal 1111R communicate through the same network 1112. Communicate the detection target area to each camera terminal PR1110A-1110C.
  • the operation terminal 1111L, the operation terminal 1111R, and the network 1112 are the same as the operation terminal 111L, the operation terminal 111R, and the network 112 in FIG. 8 according to the first embodiment of the present invention, respectively.
  • the difference from the first embodiment is that, in the second embodiment, not only the detection area position but also the detection area spatial resolution of the camera PR1101 is variable, and accordingly, the adjustment unit 1102 and the communication unit 1103 are connected to the detection area position.
  • the point is to handle not only the information but also the detection area spatial resolution information.
  • the spatial resolution is the spatial resolution of the image captured by the camera. And corresponds to a value obtained by dividing the area of the detection region by the number of imaging elements. This spatial resolution changes mainly due to the zoom control of the camera, and has a higher value (a state in which a detailed image can be obtained) as the area of the detection region is smaller.
  • X and X which are the positions of the detection area
  • X and X which are the detection areas 1140B and the position of that area.
  • a size indicator indicates the overlap area 1141CT and the size of that area
  • the quantity X—X is no different from the first embodiment of the present invention shown in FIG. R is a turtle
  • R is the detection area of camera terminal PR1110B
  • the spatial resolution, R indicates the spatial resolution of the detection area of the camera terminal PR1110C.
  • FIG. 19A is a diagram showing the internal configuration of the camera PR1101.
  • the camera PR1101 includes a lens 1201, an imaging surface 1202, an image processing unit 1203, and a posture control unit 1204.
  • the lens 1201 is a lens for forming an image
  • the imaging surface 1202 is an element such as a CCD for capturing an image formed by the lens 1201
  • the image processing unit 1203 is for processing an image captured on the imaging surface 1202.
  • the processing section and the attitude control section 1204 are processing sections that control the attitude of the lens 1201 and the imaging surface 1202, and the distance between the lens 1201 and the imaging surface 1202.
  • the lens 1201, the imaging surface 1202, and the image processing unit 1203 are the same as the lens 201, the imaging surface 202, and the image processing unit 203 in FIG. 10A in Embodiment 1 of the present invention, respectively.
  • the difference between the first embodiment and the second embodiment of the present invention is that, in the second embodiment shown in FIG. 19A, the posture control unit 1204 determines whether the posture or the interval of the lens 1201 and the imaging surface 1202 is different. The point is that the posture and interval of the slanting lens 1201 and the imaging surface 1202 are simultaneously controlled.
  • the attitude control unit 1204 controls the attitude of the lens 1201 and the imaging surface 1202, which are controls generally called pan and tilt, and the control, which is generally called zoom. The distance between the lens 1201 and the imaging surface 1202 is simultaneously controlled.
  • the camera PRl 101 detects the detection target and information based on its own shooting range determined by the attitude of the lens 1201 and the imaging surface 1202 and the distance between them in the real space. Perform detection operations such as extraction.
  • the detected information of the detection target is sent to the adjustment unit 1102 in FIG.
  • the camera PR1101 detects the camera PR1101 by controlling the posture of the force lens 1201 and the imaging surface 1202, and the distance between the lens 1201 and the imaging surface 1202, as shown in FIG.
  • the position of the area is adjusted to the position of the detection area indicated by the adjustment unit 1102 in FIG.
  • the posture control unit 1204 sends to the adjustment unit 1102 the current position information of the detection area of the camera PR1101 for determining the current posture and spacing force of the lens 1201 and the imaging surface 1202.
  • the detection area spatial resolution of the camera PR1101 is set to the detection area indicated by the adjustment unit 1102 in FIG. Adjust to the spatial resolution.
  • the attitude control unit 1204 sends the spatial resolution of the detection area of the current force camera PR1101 that also determines the current gap force between the lens 1201 and the imaging surface 1202 to the adjustment unit 1102.
  • the position of the detection area of camera PR1101 is controlled by adjustment unit 1102, and the current detection area of camera PR1101 is detected.
  • the position information of the camera PR1101 is sent to the adjustment unit 1102, and the spatial resolution of the detection area of the camera PR1101 is further controlled by the adjustment unit 1102 in Embodiment 2 of the present invention, and the spatial resolution information of the current detection area of the camera PR1101 is Is sent to the adjustment unit 1102.
  • the adjustment unit 1102 periodically transmits the position information and the spatial resolution information of the detection area of the camera PR1101 sent from the camera PR1101 via the communication unit 1103 and the network 1112 to the adjustment unit 1102 of the second party terminal PR.
  • adjustment section 1102 receives position information and spatial resolution information of the detection area of camera PR1101 of other power terminal PR periodically transmitted from adjustment section 1102 of other power terminal PR.
  • the communication unit 1103 transmits the position information of the detection target area 1130 to the adjustment unit 1102 of each of the camera terminals PRl 110A-1110C via the network 1112 via the operation terminals 1111L and 1111R. Send periodically.
  • adjustment section 1102 and communication section 1103 transmit and receive the spatial resolution of the detection area between camera terminals PR1110A-1110C.
  • each adjustment section 1102 provides position information and spatial resolution information of the detection area of camera PR1101 of self-powered terminal P and passive power terminal P, and position information of the detection target area.
  • each adjustment unit 1102 includes X and X, which are the positions of the detection area 1140A of the camera terminal PR1110A, and the detection area 1140B of the camera terminal PR1110B. Is the position of X
  • R which is the spatial resolution of area 1140B, the detection area 1140C of camera terminal PR1110C
  • the inter-resolution R is periodically acquired via the communication unit 1103 and the network 1112.
  • adjustment unit 1102 performs the following steps shown in FIG. 20.
  • the adjustment unit 1102 obtains, from information indicating the detection area position of the camera PR1101 of the self-powered mobile terminal PR and the self-powered mobile terminal PR, the detection area of the self-powered mobile terminal PR adjacent to the detection area of the self-powered mobile terminal PR. Or, select a non-detection target area (step 1301). This process is the same as in the first embodiment of the present invention.
  • adjustment section 1102 calculates an amount indicating the size of the overlapping area in which the detection area selected in step 1301 and the detection area of self-powered mobile terminal P overlap (step 1302). This processing is the same as in the first embodiment of the present invention.
  • the adjusting unit 1102 determines the spatial resolution of the detection area selected in step 1301 and its own An amount indicating the difference from the spatial resolution of the detection area of the camera terminal P is calculated (step 1303).
  • the amount R—R which indicates the difference between the detection area resolutions in the detection area 1140A of the camera terminal itself and the detection area 1140B adjacent thereto,
  • the quantity R-R indicating the difference between the detection area resolutions of the detection area 1140B of the camera itself and the detection area 1140A adjacent to the own detection area 1140B.
  • the detection area in each of the output area 1140B and the detection area 1140C adjacent to the output area 1140B is an amount R—R indicating the difference in resolution, and the camera terminal PR1110C has its own detection area 11
  • the adjustment unit 1102 adjusts the detection area position of the self-service terminal PR so that the amount indicating the size of the overlapping area calculated in step 1303 approaches a certain amount C (step 1304).
  • This processing is the same as in the first embodiment of the present invention.
  • the detection area spatial resolution of self-service camera terminal PR is adjusted so that the amount indicating the difference in the detection area spatial resolution calculated in step 1303 approaches zero. This adjustment method will be described below.
  • a function UR () is determined as an amount indicating a difference in detection area spatial resolution.
  • a function UR () is determined as an amount indicating a difference in detection area spatial resolution.
  • Equations 13 to 15 above are for the camera terminals PR1110A to 1110C, respectively, and the square value of the amount indicating the difference in the detection area spatial resolution is an amount indicating the difference.
  • the next detection area spatial resolution of the self-powered mobile terminal PR is calculated using a generally known steepest descent method. [0095] [Number 16]
  • R'A, R'B, and R'C indicate the spatial resolution of the next detection area of each camera terminal PR111OA-1110C, respectively, and ⁇ is a constant. Finally, the detection area spatial resolution of camera PR1101 is adjusted to the same detection area spatial resolution.
  • the adjusting unit 1102 sequentially performs the processing of step 1301, step 1302, step 1303, and step 1304, and returns to the processing of step 1301 after the processing of step 1304 is completed. Then, the adjustment unit 1102 adjusts the detection area of the camera PR1101 while constantly repeating the processing from step 1301 to step 1304.
  • step 1303 the next detection area spatial resolution of the self-powered mobile terminal PR is calculated using the steepest descent method so that the amount indicating the difference in the detection area spatial resolution approaches 0.
  • the detection area spatial resolution of each of the camera terminals PR1110A-1110C is mutually exclusive, and the processing from step 1301 to step 1304 is repeated.
  • the use of the detection region adjustment device of the present invention makes it possible to acquire images of the same spatial resolution and taken by the camera PR1101 in the camera terminals PR1110A-1110C. Further, when the detection area spatial resolutions of the camera terminals PR1110A-1110C match, this indicates that in the present embodiment, each of the camera terminals PR1110A-1110C has the same resolution. Since the number of elements on the imaging surface 1202 is the same, it means that the area of the detection area in which each camera terminal PR1110A-1110C is in charge of detection is the same.
  • step 1302 the adjustment unit 1102 has the effect that it is possible to acquire images captured by the cameras with the same spatial resolution.
  • the processing of step 1302 and step 1304 of this repeatedly performed processing is performed on the detection area of the other camera PR adjacent to the detection area of the own camera terminal PR selected in step 1301.
  • the function UR () indicating the difference in the detection area spatial resolution is defined as the square value of the difference in the detection area spatial resolution as shown in the above Expressions 13 to 15.
  • the function UR () is used to calculate the even-numbered value of the difference such as the fourth, sixth, or tenth value of the detection area spatial resolution, or the function UR ( ) Is the absolute value of the difference in the detection area spatial resolution, these functions UR () have the minimum value at the time of
  • Is also a function UR () that has a minimum value at the time of R—R force ⁇ within the range where R R can be changed.
  • adjustment units 1102 are distributed among camera terminals PR 1110A-1110C, but as shown in the configuration diagram of FIG. If there is only one adjustment unit 1102 and only one adjustment unit 1102 adjusts the spatial resolution of the detection area of each camera terminal PRl 110A-1110C camera PR1101, the same applies. Needless to say, the effect can be obtained.
  • the camera PR1101 is handled as a general camera.
  • the 1S camera PRl 101 is a camera that detects visible light or invisible light such as infrared light or ultraviolet light. Needless to say, the same effect can be obtained even with a general sensor having a detection area and a variable detection area spatial resolution.
  • network 1112 is treated as a network line used for general communication.
  • network 1112 is a wired or wireless network, the same applies. Needless to say, you can get the effect of! / ,.
  • each camera terminal communicates with another camera terminal whose detection region is adjacent to each other, and thereby the spatial resolution of its own detection region and the empty space of the detection region of another camera terminal.
  • the present invention is not limited to this method, and each camera terminal has its own detection area so as to have the highest spatial resolution without communicating with other camera terminals. May be fixed.
  • the adjacent detection areas have overlapping areas, and all the detection areas have the highest spatial resolution. Therefore, the detection area adjusting apparatus according to the present embodiment provides the highest spatial resolution ( In the state where the most detailed image can be obtained), the entire detection target area is photographed throughout.
  • the camera P101 and the camera P101 described in the first and second embodiments are used.
  • a method for calculating the detection area of the camera PR1101 will be described in detail.
  • FIG. 21 is a view for explaining variable detection areas of the camera P101 and the camera PR1101.
  • a lens 2101 is a lens 201 shown in FIG. 10 (a) and a lens 1201 shown in FIG. 19 (a)
  • an imaging surface 2102 is an imaging surface 202 and FIG. 19 (a) shown in FIG. 10 (a).
  • the image plane 2102 is located at a distance f away from the lens 2101 in the direction of the Z axis 2106, and c of 2WX 2H
  • the X-axis 2107 is the X-axis 120 shown in FIG.
  • the X axis 1120 and Z axis 2109 are the Z axis 122 shown in FIG. 8 and the Z axis 11 shown in FIG.
  • the camera 2103 is positioned at (X, ⁇ , Z) in the world coordinate system.
  • a camera coordinate axis system composed of the X axis 2104, the Y axis 2105, and the Z axis 2106
  • the points (X, Y, Z) are expressed by the following equation (19) as X axis 2107, Y axis 2108, and Z axis.
  • Equation 19 the 3X3 matrix value where M is also an element of M is the attitude of the camera 2103
  • the matrix value (X, ⁇ , Z) represents the position reference point of the camera 2103 (the position of the camera 2103).
  • It can be calculated by adjusting to the reference point and the position reference point, or using the current posture and position of the camera 2103 as the posture reference point and the position reference point, and using a calibration method and the like shown in the following document 1. It is calculated in advance before the operation of the detection area adjustment device of the present invention starts.
  • Equation 20 The 3 ⁇ 3 matrix value with the R force R as an element, as shown in Equation 20 below,
  • the rotation angles ( ⁇ , ⁇ , ⁇ ) are determined according to the first and second embodiments of the present invention.
  • the position displacement ( ⁇ , ⁇ , ⁇ ) of the camera 2103 from the position reference point is the same force.
  • the mechanism changes the position of the camera 2103 using a stepping motor or the like, the displacement can be read from the stepping motor.
  • each point (one W, -H, f), (W, H, f), (-W, H, f), (W, H, f)
  • the detection area position of the camera 2103 can be calculated by the above equation (22).
  • FIG. 23 is a diagram showing an internal configuration of a camera P2301 including a laser pointer.
  • the camera P2301 includes a lens 2301, an imaging surface 2302, an image processing unit 2303, an attitude control unit 2304, and a laser pointer 2305.
  • the lens 2301 is a lens for forming an image
  • the imaging surface 2302 is an element such as a CCD for capturing an image formed by the lens 2301
  • the image processing unit 2303 is for an image captured on the imaging surface 2302.
  • the processing unit that performs processing controls the posture of the lens 2301, the imaging surface 2302, and the laser pointer 2305, and the processing unit that controls the distance between the lens 2301 and the imaging surface 2302, and the laser pointer 2305 includes the lens 2301,
  • the posture is changed by the posture control unit 2304 in conjunction with the surface 2302, and the laser is projected to the end of the detection area of the force camera P2301.
  • the lens 2301, the imaging surface 2302, and the image processing unit 2303 are the same as the lens 201, the imaging surface 202, and the image processing unit 203 in FIG. 10A in Embodiment 1 of the present invention, respectively.
  • the difference from the first embodiment of the present invention is that the attitude control unit 2304 controls the attitude of the laser pointer 2305 as well as the lens 2301 and the imaging surface 2302, so that the laser pointer 2305 detects the detection area of the camera P2301. Is the point where the laser is projected on the edge of the.
  • the laser pointer 2305 projects a laser beam at the end of the detection area of the camera.
  • the projected laser hits the real space plane 125 shown in FIG. 8, and a light spot appears on the same plane.
  • the light spot indicates the end of the detection area of the camera P2301, and the other camera adjacent to the camera captures the light spot, and the image processing unit 2303 uses the general image processing method to perform the same light spot. Extract the position of.
  • the position of the light spot extracted in the image processing unit 2303 is the position in the camera coordinate system, but as described in Supplementary explanation 1, the position in the world coordinate system is calculated by using the above equation (19). be able to.
  • the detection area position can be calculated by using the camera P2301 shown in FIG. 23, and the detection area position information of the self-powered camera P2301 can be obtained without using the network 112 shown in FIG. Transmission of detection area position information to other cameras adjacent to the camera can do.
  • the case where the detection area is a line has been described as an example.
  • a case where the detection area is a plane or a three-dimensional object will be described as an example.
  • FIG. 24 shows that, on the line passing through the point (X, Y) and the point (X, Y),
  • FIG. 7 is a diagram showing whether a point (X, Y) exists in a region. Pass through point (X, Y) and point (X, Y)
  • FIGS. 25 (a) and 25 (b) show examples where the detection area is a plane.
  • FIG. 25 (c) shows an example in which the detection area is a three-dimensional object.
  • the position of each vertex of the detection area can be calculated using Equation 19 above.
  • the center of gravity of the camera 101 of the other camera terminal ⁇ ⁇ can be easily calculated by knowing the top position of the detection area of the camera ⁇ ⁇ ⁇ 101 of the other camera terminal ⁇ , and the position of the center of gravity is expressed as (X, ⁇ ). I do. Using the above relationship
  • the detection area of the camera P101 of the other camera terminal P is adjacent to the area D of the output area, the relationship of the above equations 30 and 31 is satisfied. As described above, even if the detection area is on the surface, the information indicating the detection area position of the camera P101 of the own camera terminal P and the other camera terminal P indicates that the other camera terminal P adjacent to the detection area of the own camera terminal P A detection area or a non-detection area can be selected.
  • Fig. 25 (b) is obtained by changing the way of drawing a straight line passing through each vertex in Fig. 25 (a).
  • the own camera terminal P and the passive camera terminal are displayed. It is needless to say that the detection area or the non-detection area of the other mobile terminal P adjacent to the detection area of the self-powered mobile terminal P can be selected from the information indicating the detection area position of the camera P101 of P.
  • Fig. 25 (c) shows an example in which the detection area is a three-dimensional object.
  • the camera of the own camera terminal P and the camera terminal P of the other power terminal are also obtained in the same manner as described above. It goes without saying that, based on the information indicating the position of the detection area in P101, the detection area or the non-detection area of the other-power mobile terminal P adjacent to the detection area of the self-powered mobile terminal P can be selected.
  • operation terminal 111L and operation terminal 111R in FIG. 8 has a function of transmitting the position information of the detection target area from the communication unit 103 or the communication unit 1103 to each camera terminal P 11 OA-11OC in FIG. 8 and each camera terminal P 111ROA-1110C in FIG.
  • the operation terminal includes a communication unit 103 or a communication unit 1103, and the force communication unit also exists in each camera terminal P or each camera terminal PR. If the communication unit 103 or the communication unit 1103 in each camera terminal P or each camera terminal PR transmits the position information of the detection target area, each camera terminal P or each camera terminal PR also has the function of the operation terminal. Will be. In this case, the operation terminal is not particularly required.
  • each operating terminal transmits end position information of a detection target area, and a closed area formed by each end position is set as a detection target area.
  • the effect of the detection region adjustment device of the present invention can be obtained even if one operation terminal transmits all end position information of the detection target region and a closed region formed by each end position is set as the detection target region. Needless to say.
  • two operation terminals respectively transmit two end position information of the detection target area, but if there are N ends of the detection target area, N The operation terminals may transmit the end position information.
  • the information on the position of the detection target area transmitted by the operation terminal is a predetermined constant value.
  • the detection area adjustment device of the present invention can cope with the change even when the position of the detection target area transmitted from the operation terminal is changed. As a result, it is possible to obtain the effect of detecting the detection target area without blind spots. For this reason, the information on the position of the detection target area transmitted by the operation terminal may be a force even if the detection area adjustment device of the present invention is operating or a value that changes over time.
  • a camera terminal 4101 is provided according to the first and second embodiments of the present invention. And the camera terminal P or the camera terminal PR in the form 2 and communicates information with the remote terminal 4101 and the operation terminal 4105 via the wireless network 4102.
  • the car 4103 is a car that runs on a road 4104, and is equipped with an operation terminal 4105.
  • the detection area 4106A and the detection area 4106B are detection areas at each time of the car 4103 traveling on the road 4104, and the detection area is centered on the position of the car obtained using a GPS, a gyrocompass, or the like. This area has a certain size, and is transmitted from the operation terminal 4105.
  • the operation of such a detection area adjustment device is as follows.
  • the plurality of camera terminals 4101 of the detection area adjustment device of the present invention installed on the road 4104 communicate with the other terminal using the wireless network 4102.
  • the operation terminal 4105 installed on the vehicle 4103 running on the road 4104 transmits detection area position information centered on the current position of the vehicle 4103 to each camera terminal 4101 using the wireless network 4102.
  • the detection area adjusting device can constantly capture an image in the detection area centered on the position of the car 4103 that changes with time, without blind spots.
  • the image information photographed without blind spots is provided to the driver of the car 4103 using the wireless network 4102, so that the driver of the car 4103 can acquire information about the surroundings of the car without blind spots.
  • Driving and parking are supported.
  • each camera terminal P110A—HOC in FIG. 8 and each camera terminal P111R0A—1110C in FIG. 18 are based on the procedures of the flowcharts shown in FIG. 11 and FIG. Perform the operation. In this supplementary explanation, it is assumed that the operation is performed based on the procedure of the flowchart shown in FIG. 27 for each camera terminal P and FIG. 28 for each camera terminal PR.
  • the flowchart shown in FIG. 27 is obtained by adding steps 5104 and 5105 to the flowchart shown in FIG. 11 described in the first embodiment of the present invention. If the determination in step 5104 is No, that is, if the detection area is not specified, the processing of steps 5101 to 5103 similar to that of the first embodiment of the present invention is repeated. It goes without saying that the effect of the device can be obtained.
  • the flowchart shown in FIG. 28 is obtained by adding Step 5205 and Step 5206 to the flowchart shown in FIG.
  • Step 5205 is No, that is, the detection area
  • the processing of steps 5201 to 5204 similar to that of the second embodiment of the present invention is repeated, so that the effect of the detection area adjustment device of the present invention can be obtained.
  • step 5104 or step 5205 if the determination in step 5104 or step 5205 is Yes, that is, if the detection range is specified, in step 5105 or step 5206, camera terminal P or camera PR
  • the detection area position or the detection area spatial resolution is adjusted to the detection area position or the detection area spatial resolution designated in step 5104 or step 5205.
  • step 5104 and step 5205 the position of the designated detection region and the spatial resolution of the detection region are designated by a human.
  • the image processing unit 203 in FIG. 10 (a) and the image processing unit 1203 in FIG. 19 (a) the image power captured by the camera terminals P and PR also determines the position and size of the detection target by pattern matching or the like. It is detected by a general image processing method. Then, with the position of the detected object as the center, the detection area position and the detection area spatial resolution are specified so that the detected object falls within the detection area.
  • camera terminal P and the camera terminal PR operate based on the flowcharts shown in Figs. 27 and 28, if the detection area position or the detection area spatial resolution is specified, Alternatively, for camera terminals P and PR with the same designation, camera terminal P and camera terminal PR are adjusted to the same detection area position or the same detection area spatial resolution, and the detection area position or the detection area spatial resolution is specified. If there is no camera terminal P or camera terminal P and camera terminal PR that do not have the same designation, camera terminal P and camera terminal PR cover the detection target area with a blind spot, as in the first and second embodiments of the present invention.
  • a camera terminal 5301A is a camera terminal P or a camera terminal PR according to Embodiments 1 and 2 of the present invention, and operates based on the flowcharts shown in FIGS. 27 and 28.
  • the network 5302 is a network for transmitting information between the camera terminals 5301A to 5301E, and the detection target 5303 is a target to be detected by the camera terminals 5301A to 5301E, and exists in the detection target area 5304.
  • Each of the camera terminals 5301A-5301E operates based on the flowchart shown in FIG. 27 or FIG. That is, unlike the other camera terminals, the camera terminal 5301B detects the detection target 5303, and thus the detection area position or the detection area spatial resolution is specified in steps 5104 and 5205.
  • the specified detection area position and detection area spatial resolution are the detection area position and the detection area spatial resolution centered on the position of the detection object 5303 and within which the detection object 5303 falls within the detection area.
  • the camera terminal 5301B is adjusted to the detection area position and the detection area spatial resolution where the detection object 5303 fits within the detection area with the position of the detection object 5303 as the center.
  • the adjacent camera terminals 5301A, 5301C, 5301D, and 5301E do not detect the detection target 5303, the adjacent camera terminals 5301A, 5301C, The detection area position is adjusted to have a certain overlap area with the area.
  • the position of the detection target 5303 is automatically set to the center. A detailed image in which the detection target object 5303 falls within the detection area is obtained, and the detection target area 5304 is always detected without blind spots. Needless to say, the above operation is the same as the above operation, even if the detection object 5303 moves, only the camera terminal that detects the detection object 5303 is switched.
  • camera terminal 5401A has a camera terminal 5401E according to the first embodiment of the present invention. And the camera terminal P or the camera terminal PR in the mode 2 and operates based on the flowcharts shown in FIGS. 27 and 28.
  • the network 5402 is a network for transmitting information between the camera terminals 5401A-5401C, and the detection target 5403 is a target detected by each of the camera terminals 5401A-5401C, and exists in the detection target area 5404. The above is the same as in FIG. 29.From this, the camera terminals 5401A to 5401C automatically detect the detection target object 5403 even when the detection target object 5403 exists in the detection target area 5404. A detailed image in which the detection target object 5403 falls within the detection area around the position of 5403 is obtained, and the detection target area 5404 is always detected without blind spots.
  • the detection area adjustment device shown in FIG. 30 is different from the detection area adjustment device of the present invention shown in FIG. 29 in that new processing units (image synthesis unit 5405, display unit 5406, and instruction unit 5407) are added. Have been.
  • the image synthesizing unit 5405 is a processing unit for synthesizing each image acquired by each of the camera terminals 5401A-5401C into one image or the like
  • the display unit 5406 is a processing unit for displaying the image synthesized by the image synthesizing unit 5405.
  • the instruction unit 5407 is a processing unit that specifies a detection area or a detection area spatial resolution for each of the camera terminals 5401A to 5401C.
  • the image combining unit 5405 receives, via the network 5402, the image captured by each of the camera terminals 5401A to 5401C and the detection area position information transmitted by each of the camera terminals 5401A to 5401C.
  • the image synthesizing unit 5405 synthesizes an image captured by each camera terminal into an image in which the spatial positions of each image are continuous as shown in FIG. 31 using the detection area position information of each camera terminal.
  • the synthesized image is displayed on the display portion 5406, and the image information is presented to a human.
  • the image obtained by each of the camera terminals 5401A-5401C and the positions of the pixels constituting the image used in the image synthesizing unit 5405 in the world coordinate axis system can be calculated by the above equation 19;
  • the image combining unit 5405 can combine images in which spatial positions of various viewpoints are continuous.
  • the person viewing the composite image displayed on display portion 5406 inputs the position or spatial resolution of the region on the composite image desired by himself to instruction portion 5407.
  • the position or spatial resolution of the area is indicated using a pointing device or the like.
  • the indicator 5407 that has received the position or spatial resolution of the area specified by the human
  • the camera terminal in the area is determined. This determination can be easily made using the detection area information transmitted by each of the camera terminals 5401A-5401C.
  • the instructing unit 5407 determines the position or spatial resolution of the region specified by the human in the detection region position or the detection region The resolution is indicated via the network 5402.
  • the camera terminal whose detection area position or detection area spatial resolution is specified adjusts the detection area position or detection area spatial resolution of the camera terminal to the specified detection area position or detection area spatial resolution.
  • the human can always receive the detection target area 5404 as image information in which the blind spot is always blind spot, from various viewpoints, and spatial positions are continuous. Furthermore, by specifying the position or spatial resolution of the specified area based on the image information, it is possible to acquire an image of a specific area position or spatial resolution. For example, if a human inputs to the instructing unit 5407 so as to increase the spatial resolution of a certain area, an image having a high spatial resolution, that is, an image with a high resolution for the same area will be displayed on the display unit 5406. These effects are very useful for monitoring a building having a wide detection target area.
  • the position and area of the detection area (the highest! State), and control was performed so that adjacent detection areas overlapped for all camera terminals including that one camera.However, as another method to obtain a similar result, one camera For camera terminals, the position and area of the detection area (the highest and spatial resolution) are fixed, and control is performed so that adjacent detection areas overlap for all camera terminals except one. May be. In other words, one camera terminal that is capturing an object to be detected may be excluded as a camera terminal to be subjected to control for overlapping detection areas. In other words, the object to be detected may be photographed, and one camera terminal may be deemed to have failed, and control may be performed to overlap the detection area only with another camera terminal excluding the camera terminal. . As a result, an image of the object to be detected is obtained with the highest spatial resolution, and the entire area to be detected is photographed throughout.
  • the detection region adjusting device according to the present invention has been described in the embodiment and the supplementary description. Force described on the basis of the present invention is not limited to only these examples.
  • various modifications and functions may be conceived by those skilled in the art without departing from the spirit of the invention, and each component in each embodiment may be arbitrarily added as long as the functions can coexist. They may be combined.
  • each of the plurality of camera terminals constituting the detection area adjustment device is capable of controlling pan, tilt, and zoom.
  • the configuration is not limited, and some or all of the camera terminals may be fixed in any of pan, tilt, and zoom.
  • ADVANTAGE OF THE INVENTION According to the present invention, a plurality of camera terminals constituting a detection region adjustment device communicate with each other to adjust autonomously and cooperatively to overlap adjacent detection regions or to match spatial resolution. Therefore, it is only necessary that one camera terminal adjacent to the detection area has a function of adjusting pan, tilt, and zoom. Even in such a case, as a result, the entire detection target region is adjusted so that the adjacent detection regions overlap or the spatial resolution is adjusted to match.
  • the camera terminal is a fixed camera terminal fixed to a specific place, but may be a mobile camera terminal.
  • FIG. 32 is a block diagram showing a configuration of a monitoring system when the detection area adjustment device according to the present invention is applied to a monitoring system including a mobile camera terminal camera.
  • the surveillance system also includes a plurality of mobile camera terminals 6101 connected by a communication network 6103, and the plurality of mobile camera terminals 6101 adjust pan and tilt so that the monitoring area 6111 can be monitored throughout. It is unique in that it moves in an autonomous and cooperative manner.
  • the mobile camera terminal 6101 is a camera terminal that moves while being supported by the moving unit 6102.
  • the moving unit 6102 is a mechanism unit or the like that changes a shooting position of the mobile camera terminal 6101.
  • the communication network 6103 is a transmission line connecting a plurality of mobile camera terminals 6101.
  • the communication unit 6104 is a communication interface for the mobile camera terminal 6101 to exchange information with another mobile camera terminal via the communication network 6103.
  • the adjacent shooting area specifying unit 6105 is a processing unit that estimates a mobile camera terminal whose shooting area is adjacent to the other mobile camera terminal power information notified to the communication unit 6104.
  • the imaging element 6106 is a CCD camera or the like that captures an image in the monitoring area.
  • the imaging area estimation unit 6107 determines the characteristics of the imaging element
  • the position force of the unit 6102 is also a processing unit for estimating the shooting area of the mobile camera terminal 6101.
  • the monitoring range storage unit 6108 is a memory or the like that stores a range of an area to be monitored by the mobile camera terminal 6101.
  • the photographing position evaluation unit 6109 is a processing unit that evaluates the distance between the photographing region of the mobile camera terminal 6101 and the overlapping region of the neighboring photographing regions or the boundary of the monitoring region.
  • the shooting position changing unit 6110 is a control unit that controls the moving unit 6102 and changes the shooting position of the mobile camera terminal 6101.
  • the monitoring area 6111 is an area to be monitored by the mobile camera terminal 6101.
  • the photographing area 6112 is an area photographed by the mobile camera terminal 6101.
  • the mobile camera terminal 6101 notifies the surrounding mobile camera terminals of information about the shooting area estimated based on its own shooting position and the characteristics of the imaging element 6106, By changing the pan, tilt and shooting position in coordination with the surrounding mobile camera terminals so that the size of the overlapping area with the adjacent shooting area and the distance from the boundary of the monitoring area approach a predetermined state, In simultaneous imaging by a plurality of mobile camera terminals 6101, it is possible to move to an imaging position where blind spots in the monitoring area are reduced.
  • FIG. 33 shows the operation of mobile camera terminal 6101 in such a monitoring system.
  • a mobile camera terminal 6101 that can be moved in the horizontal direction (one dimension) is installed on the ceiling of a room with a fixed height to monitor the floor surface for simplicity.
  • the mobile camera terminals will not overlap with the width C of the overlapping area of the shooting areas or the boundary of the monitoring area.
  • the shooting position so that the distance D approaches a predetermined value, the entire monitoring area is automatically moved to a position where multiple mobile camera terminals can shoot simultaneously, as shown in the lower diagram of this figure. It is possible to do.
  • the mobile camera terminal 6101 can be used for simultaneous shooting with multiple mobile camera terminals. Since the mobile camera terminal automatically moves to a position where the blind spot is reduced, it is possible to determine the installation position of the mobile camera terminal, to perform the installation work, and to reduce the burden on the terminal.
  • a rail is installed in the monitoring area, and the system is configured so that the mobile camera terminal moves on the track of the rail.
  • the detection area adjusting device is particularly applicable to a monitoring system using a plurality of cameras, a sensing system for measuring a physical quantity using a plurality of sensor elements, and the like. It is useful as a high-performance monitoring system that monitors a wide area without causing blind spots, for example, as a monitoring system for suspicious persons in schools and buildings.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Indication And Recording Devices For Special Purposes And Tariff Metering Devices (AREA)

Abstract

 予め人間が規則的な位置に固定カメラを設置することなく、かつ、カメラが故障した場合であっても、自動的に、死角なく検出対象とする領域をくまなく検出することが可能な検出領域調整装置を提供する。  検出領域調整装置は、複数のカメラ端末Pを備える。複数のカメラ端末Pは、検出領域の位置が可変なカメラPと、カメラPを制御することにより検出領域の位置を調整する調整部102と、カメラPの検出領域を示す検出領域情報を送受信する通信部103とを備え、調整部102は、自カメラ端末PのカメラPの検出領域と他カメラ端末PのカメラPの検出領域とに基づき、複数のカメラ端末Pの検出領域を和した領域が検出対象領域130をくまなく覆うように、自カメラ端末PのカメラPの検出領域の位置を調整する。   

Description

明 細 書
検出領域調整装置
技術分野
[0001] 本発明は、複数のカメラを用いて撮影する領域を調整する検出領域調整装置に関 し、特に、複数のカメラを用いた監視システムに好適な装置に関する。
背景技術
[0002] 近年、主に監視用途に利用される複数のカメラを用いた装置に対する研究開発が 盛んに行われている。このような装置は、その利用目的のために、監視を行う対象領 域である検出対象領域に対し、検出対象領域内を死角なく常時監視し、同領域内の 検出対象を検出するという要求や、検出対象領域内に存在する検出対象の詳細な 情報を取得するという要求を達成することが求められる。
[0003] 従来の複数のカメラを用いた装置では、各カメラの撮影範囲を自動調整することに より、上記要求を達成している。そのような代表的な従来の複数のカメラを用いた装 置として、特許文献 1および特許文献 2に示されるものがある。
[0004] 図 1は、上記特許文献 1に記載されたカメラの撮影領域を自動調整する装置を示す ものである。検出カメラ装置 9010では、カメラ 9011および反射鏡 9012により、広い 撮影領域にわたって検出対象を撮影し、移動物体抽出部 9013が撮影した同画像よ り検出対象を抽出し、位置情報抽出部 9014が同検出対象の位置情報を抽出するた め、検出カメラ装置 9010は、広い検出領域にわたって検出対象の位置情報を取得 する。判定カメラ装置 9020では、カメラ制御部 9022が検出対象の位置情報をもとに カメラ 9021の旋回角および俯角およびズーム比率を制御し、判定カメラ装置 9020 は検出対象の拡大画像を撮影するため、判定カメラ装置 9020は、検出対象の詳細 な情報を取得する。
[0005] 図 2は、検出カメラ装置 9010および判定カメラ装置 9020の検出領域を示す図であ る。同図において、黒丸は検出カメラ装置 9010の設置位置を示し、同検出カメラ装 置 9010は固定されたカメラである。円または六角形は各検出カメラ装置 9010の検 出領域を示す。同図に示されるように、各検出カメラ装置 9010を人為的に規則正し く設置すれば、監視する対象領域である検出対象領域内を死角なく常時検出するこ とが可能になる。
[0006] 図 3は、上記特許文献 2に記載されたカメラの撮影領域を自動調整する装置を示す ものである。本図において、広い撮影領域にわたって検出対象を撮影する目的を負 う移動物体検出用カメラ 9211は、姿勢制御手段 9212により自身の撮影領域を変更 し、検出対象の拡大画像を撮影する目的を負う監視用カメラ 9221は、姿勢制御手段 9222により自身の撮影範囲を変更する。
[0007] 各カメラの撮影領域は画像処理装置 9240において、移動物体検出用カメラ 9211 が撮影した画像力 抽出した検出対象の位置および各カメラの撮影領域から、カメラ 画角記憶手段 9231およびカメラ画角記憶手段 9232に予め記憶させた情報をもとに 決定する。
[0008] その各カメラの撮影領域決定方法は次に通りである。図 4一図 6は、各カメラの撮影 領域決定方法の説明に用いる図であり、数個のブロック画像に分割した移動物体検 出用カメラ 9211が撮影した画像である。まず、移動物体検出用カメラ 9211の撮影領 域は以下のように決定される。図 4の斜線で示すブロックに検出対象が存在する場合 には、それぞれのブロック位置が図 4に示されるブロック位置と対応している図 5の各 ブロックに記載した矢印の方向が示す方向に移動物体検出用カメラ 9211の姿勢を 変化させ、同カメラの撮影領域を変更する。各ブロック位置に対応した移動物体検出 用カメラ 9211の撮影領域は予め人間が決定しており、同情報はカメラ画角記憶手段 9231に予め設定されている。次に、監視用カメラ 9221の撮影領域は以下のように 決定される。図 6に示されるブロック位置に検出対象が存在する場合には、破線で示 した撮影領域になるよう監視用カメラ 9221の姿勢を変化させ、同カメラの撮影領域を 変更する。各ブロック位置に対応した監視用カメラ 9221の撮影領域は予め人間が決 定しており、同情報はカメラ画角記憶手段 9232に予め設定されている。
[0009] 上記従来の複数のカメラを用いた装置の特徴は次の通りである。なお、これら装置 において、各カメラは同カメラで撮影した撮影範囲内の情報をもとに、検出対象を検 出する、または、検出対象の詳細な情報を取得している。このため、各カメラの撮影 範囲は、同カメラが行う検出対象の検出や情報取得の検出範囲と同意である。そこ で、以後、カメラの撮影範囲をカメラの検出範囲として記載する。
[0010] まず、特許文献 1に示される従来の装置では、検出カメラ装置 9010が、特許文献 2 に示される従来の装置では、移動物体検出用カメラ 9211が、広い検出領域にわた つて検出対象を検出する役割を負い、特許文献 1に示される従来の装置では、判定 カメラ装置 9020が、特許文献 2に示される従来の装置では、監視用カメラ 9221が、 検出対象の拡大画像のような、検出対象の詳細な情報を取得する役割を負う、という ように、各カメラは、それぞれの固定した予め決められた役割を分担し、一方の役割 を負うカメラが検出対象領域全体を監視し、もう一方の役割を負うカメラが詳細な情 報を取得している。
[0011] また、特許文献 2に示される従来の装置では、例えば、移動物体検出用カメラ 921 1の検出領域は、図 4の左上ブロックに検出対象があるという状況変化に対し、図 5の 左上ブロックに示されるような左上方向に移動した検出領域に変更するとように、予 め人間が想定し作成した状況変化内容と 1対 1に対応した検出領域が記載されたテ 一ブル形式の情報をもとに各カメラの検出領域を決定し調整する。
[0012] し力しながら、上記特許文献 1の装置では、人間が予め規則的な位置に固定カメラ を設置することによって検出対象領域全体を監視しているので、カメラが 1つでも故 障した場合には、もはや監視を継続することはできない。そのために、例えば、図 7に 示されるように、検出カメラ装置 9010の数を増やすことにより、うち 1つが故障した場 合でも死角なく検出対象領域を覆うことはできるが、非効率と言わざるを得ない。
[0013] また、上記特許文献 2の装置では、まず、予め人間が想定し設定した状況変化内 容と 1対 1に対応した検出領域が記載されたテーブル形式の情報をもとに各カメラの 検出領域を決定し調整しているために、カメラ毎に、状況変化内容と 1対 1に対応し た検出領域が記載されたテーブル形式の情報を人間が逐一想定し作成する必要が ある。その情報は、検出対象領域の位置や広さ、人間が想定した状況変化内容、各 カメラを設置する位置や台数などに依存しており、これらに変更などがあった場合に は、その度に同情報を人間が逐一作成し直す必要がある。この作業は、カメラ台数が 増えれば増えるほど煩雑であり、それに対するコストや負荷は膨大なものとなる。ビル 内のカメラを用いた監視システムなどでは、 10数台のカメラを用いることはごく一般的 である。
特許文献 1:特許第 3043925号公報
特許文献 2:特許第 3180730号公報
発明の開示
発明が解決しょうとする課題
[0014] そこで、本発明は、上記従来の課題を解決するものであり、人間が予め状況変化を 予測してテーブルを作成しておく必要がなぐかつ、カメラが故障した場合であっても 死角なく検出対象とする領域をくまなく検出することが可能な検出領域調整装置を提 供することを目的とする。
課題を解決するための手段
[0015] 上記目的を達成するために、本発明に係る検出領域調整装置は、通信路で接続さ れた複数のカメラ端末力 構成され、前記複数のカメラ端末の撮影領域である検出 領域を調整することによって、検出対象領域の撮影を可能にする検出領域調整装置 であって、前記複数のカメラ端末は、前記検出対象領域に含まれる検出領域を撮影 するとともに、前記検出領域の位置を変更する手段を有するカメラと、前記検出領域 を特定する検出領域情報を前記通信路を介して他のカメラ端末に送信するとともに、 他のカメラ端末から検出領域情報を受信する通信手段と、当該カメラ端末の検出領 域情報と前記通信手段で受信された他のカメラ端末の検出領域情報とに基づいて、 前記複数のカメラ端末の検出領域を和した領域が前記検出対象領域をくまなく覆う ように、当該カメラ端末のカメラを制御して検出領域の位置を調整する調整手段とを 備えることを特徴とする。
[0016] 例えば、前記調整手段は、当該カメラ端末の検出領域と接する周辺の領域におい て、前記複数のカメラ端末の検出領域のいずれにも属さない非検出領域が発生しな V、ように、前記検出領域の位置を調整するのが好ま 、。
[0017] これによつて、結果として、検出対象領域内に死角領域が発生することが回避され 、検出対象領域全体にわたって、くまなく検出される。そして、各カメラ端末は、同一 の機能を有し、検出領域が隣接する他のカメラ端末と通信し合いながら、自律協調 的に動作するので、人間が予め状況変化を予測してテーブルを作成しておく必要が なぐかつ、カメラが故障した場合であっても死角なく検出対象とする領域がくまなく 撮影される。
[0018] ここで、前記カメラは、前記検出領域の空間分解能を変更する手段を有し、前記検 出領域情報には、前記検出領域の空間分解能を特定する情報が含まれ、前記調整 手段は、当該カメラ端末の検出領域情報と前記通信手段で受信された他のカメラ端 末の検出領域情報とに基づいて、前記複数のカメラ端末の検出領域を和した領域が 前記検出対象領域をくまなく覆い、かつ、前記複数のカメラ端末の検出領域の空間 分解能がほぼ同一となるように、当該カメラ端末のカメラを制御して検出領域の位置 および空間分解能を調整するのが更に好ましい。
[0019] これによつて、各カメラ端末は、カメラの向き (パン、チルト等)だけでなぐズーム比 率も制御することで、検出領域の位置と大きさが調整され、結果として、検出対象領 域全体が均一化された空間分解能でくまなく撮影される。
[0020] なお、本発明は、各カメラ端末に調整手段を設けた分散制御型の構成だけでなぐ 全てのカメラ端末の検出領域を調整する共通の調整手段を設けた集中制御型の構 成で実現したり、検出領域調整方法、および、その方法をコンピュータに実行させる プログラムとして実現したりすることもできる。さらに、本発明は、カメラによる撮影可能 な領域である検出領域に代えて、マイク等の物理量の検出が可能なセンサの検出領 域を調整する装置として実現することもできる。なお、本発明に係るプログラムを CD— ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるの は言うまでもない。
発明の効果
[0021] 本発明に検出領域調整装置よれば、各カメラ端末のカメラの検出領域を和した領 域が所定の検出対象領域をくまなく覆うように各カメラ端末のカメラの検出領域が自 動調整されるので、従来のようにカメラ毎に状況変化に対応した検出領域情報を人 間が逐一想定して作成しておく必要がなぐかつ、カメラが幾つか故障した場合にお いても、死角なぐ所定の検出対象領域が効率的に覆われる。
[0022] よって、本発明により、任意の空間が死角なく検出されることが保証され、特に、学 校やビル等における不審者の監視用システム等として、その実用的価値が高い。 図面の簡単な説明
[図 1]図 1は、従来の技術 1における構成ブロック図である。
[図 2]図 2は、従来の技術 1におけるカメラ視野範囲を示す説明図である。
[図 3]図 3は、従来の技術 2における構成ブロック図である。
[図 4]図 4は、従来の技術 2における動作説明図である。
[図 5]図 5は、従来の技術 2における動作説明図である。
[図 6]図 6は、従来の技術 2における動作説明図である。
[図 7]図 7は、従来の技術 2における動作説明図である。
[図 8]図 8は、本発明の実施の形態 1における検出領域調整装置の構成ブロック図で ある。
[図 9]図 9は、検出領域および重複領域の例を示す図である。
[図 10]図 10は、カメラ Pの構成ブロック図である。
[図 11]図 11は、調整部が行う処理を示すフローチャートである。
[図 12]図 12は、隣接する検出領域を示す説明図である。
[図 13]図 13は、関数 U ()を示す説明図である。
[図 14]図 14は、別の関数 U ()を示す説明図である。
[図 15]図 15は、 1つの調整部が全ての検出領域を調整する集中制御型の検出領域 調整装置の構成を示すブロック図である。
[図 16]図 16は、本発明をマイクに適用した例を説明する図である。
[図 17]図 17は、 X軸上での処理を Y軸上にも適用する方法を示す図である。
[図 18]図 18は、本発明の実施の形態 2における検出領域調整装置の構成ブロック図 である。
[図 19]図 19は、カメラ PRの構成ブロック図である。
[図 20]図 20は、調整部が行う処理を示すフローチャートである。
[図 21]図 21は、本発明の補足説明 1における検出領域位置算出に対する説明図で ある。
[図 22]図 22は、本発明の補足説明 1における検出領域調整装置の構成ブロック図で ある。 [図 23]図 23は、本発明の補足説明 1におけるカメラの構成ブロック図である。
[図 24]図 24は、本発明の補足説明 2における検出領域に隣接する領域の判定方法 を示す図である。
[図 25]図 25は、本発明の補足説明 2における検出領域に隣接する領域の判定方法 を示す図である。
[図 26]図 26は、本発明の補足説明 3における検出領域調整装置の構成ブロック図で ある。
[図 27]図 27は、本発明の補足説明 4における調整部が行う処理を示すフローチヤ一 トである。
[図 28]図 28は、本発明の補足説明 4における調整部が行う処理を示すフローチヤ一 トである。
[図 29]図 29は、本発明の補足説明 4における検出領域調整装置の構成ブロック図で ある。
[図 30]図 30は、本発明の補足説明 4における別の検出領域調整装置の構成ブロック 図である。
[図 31]図 31は、合成画像の例を示す図である。
[図 32]図 32は、移動式カメラ端末から構成される監視システムの構成を示すブロック 図である。
[図 33]図 33は、監視システムにおける移動式カメラ端末の動作の様子を示す図であ る。
[図 34]図 34は、監視領域内に設置されたレールの軌道上を移動式カメラ端末が移 動する様子を示す図である。
符号の説明
P101、 PR1101、 PR1201、 2103、 P2301 カメラ
102、 1102、 調整部
103、 1103、 6104 通信部
P110、 Pi l l, PR1110、 4101、 5301、 5401 カメラ端末
112、 1112、 4102、 5302、 5402、 6103 ネットワーク 201、 1201、 2101、 2301 レンズ
202、 1202、 2102、 2302 撮像面
203、 1203、 2303 画像処理部
204、 1204、 2304 姿勢制御部
1111、 4105 操作端末
2305 レーザーポインタ
4103 車
4104 道路
5405 画像合成部
5406 表示部
5407 指示部
6101 移動式カメラ端末
6102 移動部
6105 隣接撮影領域特定部
6106 撮影素子
6107 撮影領域推定部
6108 監視範囲記憶部
6109 撮影位置評価部
6110 撮影位置変更部
発明を実施するための最良の形態
[0025] 以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態 1)
まず、本発明の実施の形態 1について説明する。
[0026] 本実施の形態は、各カメラ端末のカメラの検出領域を和した領域が所定の検出対 象領域をくまなく覆うように各カメラ端末のカメラの検出領域が自動調整される検出領 域調整装置に関し、図 8から図 14を用いて説明する。
[0027] 図 8は、本発明の実施の形態 1における検出領域調整装置の構成ブロック図である
。この検出領域調整装置は、ネットワーク 112で接続された複数のカメラ端末 P110A 一 Cと、 2台の操作端末 111Lおよび 111Rと力ら構成されて!、る。
[0028] 複数のカメラ端末 P110A— Cは、相互に通信し合いながら自律協調的に動作する カメラ端末であり、同一の構成要素 (カメラ P101、調整部 102および通信部 103)を 備える。カメラ P 101は同カメラの検出領域の位置である検出領域位置が可変なカメ ラ、調整部 102はカメラ P101の検出領域位置を調整する処理部、通信部 103はカメ ラ P 101の検出領域位置情報を通信する処理部である。
[0029] 調整部 102は、自力メラ端末の検出領域位置情報と通信部 103で受信された他の カメラ端末の検出領域位置情報とに基づいて、複数のカメラ端末 P110A— Cの検出 領域を和した領域が検出対象領域をくまなく覆うように、自力メラ端末のカメラ P101 を制御して検出領域の位置を調整する。より、詳しくは、調整部 102は、自力メラ端末 の検出領域と接する周辺の領域において、複数のカメラ端末 P110A— Cの検出領 域の 、ずれにも属さな 、非検出領域が発生しな 、ように、自カメラ端末の検出領域 の位置を調整する。
[0030] 操作端末 111Lおよび操作端末 111Rは、ユーザからの指示を取得し、その指示を カメラ端末 PR1110A— Cに通知する端末であり、検出対象位置情報を通信する通 信部 103を備える。ネットワーク 112は、各カメラ端末 P110A— 110Cおよび操作端 末 111Lおよび操作端末 111R内の通信部 103を介した通信時に利用されるネットヮ ーク回線である。各カメラ端末 P110A— 110Cは同ネットワーク 112を通じて各カメラ 端末 P内のカメラ P101の検出領域位置情報を通信し、操作端末 111Lおよび操作 端末 111Rは同ネットワーク 112を通じて各カメラ端末 PI 10A— 110Cに検出対象 領域を通信する。
[0031] ここで、領域や同領域の位置を表現するためにお互い直交する X軸 120および Z
W
軸 122を定める。実空間面 125は、各カメラ端末 P110A— 110Cが存在する実空
W
間上の面、例えば、各カメラ端末 P110A— 110Cが天井から下向きに設定させてい る場合は、床などの面であり、本実施の形態 1においては、 X軸 120と一致し、各種
W
領域および同領域の位置はこの面を用いて表現する。同実空間面 125上において、 検出対象領域 130は、本発明における検出を対象とする全体の領域であり、その領 域の位置を X および X で表現する。検出対象外領域 131は、本発明における検 出を対象としな 、領域である。
[0032] 各カメラ P101から放射された破線は、各カメラ P101の検出領域の端を示す。検出 領域 140Aはカメラ端末 P110Aの検出領域であり、その領域の位置を X および X
AL AR
で表現する。検出領域 140Bは、カメラ端末 P110Bの検出領域であり、その領域の 位置を X および X で表現する。検出領域 140Cは、カメラ端末 P110Cの検出領域
Bし BR
であり、その領域の位置を X および X で表現する。重複領域 141TAは、カメラ端
CL CR
末 P110Aの検出領域である検出領域 140Aと検出対象外領域 131が重複する領域 であり、その領域の大きさを示す量は X — X で表現される。重複領域 141ABは、力
TL AL
メラ端末 PI 10Aの検出領域である検出領域 140Aとカメラ端末 PI 10Bの検出領域 である検出領域 140Bが重複する領域であり、その領域の大きさを示す量は X — X
AR BL
で表現される。重複領域 141BCは、カメラ端末 P110Bの検出領域である検出領域 1 40Bとカメラ端末 P110Cの検出領域である検出領域 140Cが重複する領域であり、 その領域の大きさを示す量は X — X で表現される。重複領域 141CTは、カメラ端
BR CL
末 P110Cの検出領域である検出領域 140Cと検出対象外領域 131が重複する領域 であり、その領域の大きさを示す量は X — X
CR TRで表現される。
[0033] なお、本図では、説明の便宜上、検出領域および重複領域は、 1次元の X軸 120
W
上だけで示されたが、実際には、平面上に検出領域および重複領域が存在する。図 9 (a)は、本実施の形態の検出領域を 2次元で示した図であり、図 9 (b)は、検出領域 が矩形である場合の検出領域(四角形)と重複領域 (斜線部)の例を示し、図 9 (c)は 、検出領域が円形である場合の検出領域(円形)と重複領域 (斜線部)の例を示す図 である。本実施の形態の検出領域調整装置は、後述するように、検出領域が面だけ でなく立体である場合にも適用できる装置である力 処理としては、 1次元上の処理 を 2次元、 3次元へと拡張することによって可能となるため、以下では、 X軸だけに絞 つて説明する。
[0034] 図 10 (a)は、カメラ P101の内部構成を示す図である。カメラ P101は、レンズ 201、 撮像面 202、画像処理部 203および姿勢制御部 204を備える。レンズ 201は、像を 結像させるためのレンズ、撮像面 202は、レンズ 201で結像した像を撮影する CCD などの素子、画像処理部 203は、撮像面 202で撮影した画像を処理する処理部、姿 勢制御部 204は、レンズ 201および撮像面 202の姿勢、または、レンズ 201と撮像面 202の間隔を制御する処理部である。姿勢制御部 204が行う、レンズ 201および撮 像面 202の姿勢の制御とは、一般的にパンやチルトと呼ばれる制御であり、図 10 (b) に示されるように、レンズ 201および撮像面 202は連動して、ある点または軸を中心 に回転される。また、姿勢制御部 204が行う、レンズ 201および撮像面 202の間隔の 制御とは、一般的にズームと呼ばれる制御であり、図 10 (c)に示されるように、レンズ 201および撮像面 202の間隔が増減する。
[0035] 図 8を用いて、本発明の実施の形態 1における検出領域調整装置の動作を説明す る。各カメラ端末 P110A— 110Cにおいて、カメラ13101は図10 (&)に示される内部 構成をもつ。カメラ P101では、図 10 (a)に示されるレンズ 201により結像した像を撮 像面 202で画像信号に変換し、画像処理部 203にお ヽて一般的な画像処理技術や 画像認識技術などにより、同画像信号から検出対象の検出や情報抽出を行う。この ように、カメラ P101は実空間に対して、レンズ 201および撮像面 202の姿勢およびそ れぞれの間隔により決定する自身の撮影範囲を検出領域とした、検出対象の検出や 情報抽出などの検出動作を行う。検出した検出対象の情報は、図 8における調整部 102に送られる。なお、上記した一般的な画像処理技術や画像認識技術としては広 く知られている背景差分法や動差分法などが挙げられる。
[0036] 更に、カメラ P101では、図 10 (a)に示される姿勢制御部 204力 レンズ 201および 撮像面 202の姿勢、または、レンズ 201および撮像面 202の間隔を制御することによ り、カメラ P101の検出領域の位置を、図 8における調整部 102が指示する検出領域 の位置に合わせる。また、姿勢制御部 204は、現在のレンズ 201および撮像面 202 の姿勢または間隔力も決定する現在のカメラ P101の検出領域の位置情報を調整部 102に送る。このように、カメラ P101の検出領域の位置は、調整部 102により制御さ れると共に、現在のカメラ P101の検出領域の位置情報は、調整部 102に送られる。 なお、現在のレンズ 201および撮像面 202の姿勢または間隔力も決定する現在の力 メラ P101の検出領域の位置を算出する方法については後述する補足説明 1におい て詳細に説明する。また、レンズ 201および撮像面 202の姿勢および間隔は、例え ばステッピングモータなどを用いれば変化させることが可能であり、また、その現在の 姿勢および間隔も読み取り可能である。
[0037] 調整部 102は、カメラ P101から送られたカメラ P101の検出領域の位置情報を通 信部 103およびネットワーク 112を介して、周期的に他力メラ端末 Pの調整部 102に 送信する。また、調整部 102は、他力メラ端末 Pの調整部 102から周期的に送信され る他力メラ端末 Pのカメラ P101の検出領域の位置情報を受信する。さらに、操作端末 111Lおよび操作端末 111Rにお 、て、通信部 103は検出対象領域 130の位置情 報を、ネットワーク 112を介して、各カメラ端末 P110A— 110Cの調整部 102に周期 的に送信する。
[0038] このため、各カメラ端末 P110A— 110Cにおいて、調整部 102は自力メラ端末 Pお よび他力メラ端末 Pのカメラ P 101の検出領域の位置情報および検出対象領域の位 置情報を周期的に取得することになり、本実施の形態 1においては、各調整部 102 は、カメラ端末 P110Aの検出領域 140Aの位置である X および X 、カメラ端末 P1
AL AR
10Bの検出領域 140Bの位置である X および X 、カメラ端末 P110Cの検出領域 1
Bし BR
40Cの位置である X および X 、検出対象領域 130の位置である X および X を通
CL CR TL TR
信部 103およびネットワーク 112を介して周期的に取得する。
[0039] 更に、調整部 102は、自力メラ端末の検出領域と接する周辺の領域において複数 のカメラ端末 P110A— Cの検出領域のいずれにも属さない非検出領域が発生しな
V、ようにするために、取得した上記検出領域の位置情報および検出対象領域の位置 情報をもとに、図 11に示される以下のステップの処理を行う。
[0040] まず、自力メラ端末 Pおよび他力メラ端末 Pのカメラ P101の検出領域位置を示す情 報より、自力メラ端末 Pの検出領域に隣接する他力メラ端末 Pの検出領域または検出 対象外領域を選択する (ステップ 301)。この選択方法の一例を、図 12を用いて以下 に説明する。
[0041] 図 12 (a)は、図 12 (b)に示されるような検出領域が矩形である場合における X軸
W
上での検出領域と重複領域を示す図である。まず、自力メラ端末 Pの検出領域の中 心位置、および他力メラ端末 Pの検出領域の中心位置、および検出対象外領域の中 心位置を算出する。そして、自力メラ端末 Pの検出領域の中心位置より数値的に小さ い中心位置をもつ他力メラの検出領域または検出対象外領域を左隣に隣接する検 出領域として選択する。また、自力メラ端末 Pの検出領域の中心位置より数値的に大 きい中心位置をもつ他力メラの検出領域または検出対象外領域を右隣に隣接する検 出領域として選択する。なお、数値的に小さいまたは大きい中心位置をもつ他力メラ の検出領域または検出対象外領域が複数存在する場合には、そのうち、自力メラ端 末 Pの検出領域の中心位置から最も距離的に近 、位置に中心位置をもつ領域のほ うを選択する。このため、カメラ端末 P110Aにおいては、左隣として検出対象外領域 131、右隣として検出領域 140B、カメラ端末 PI 10Bにおいては、左隣として検出領 域 140A、右隣として検出領域 140C、カメラ端末 PI IOCにおいては、左隣として検 出領域 140B、右隣として検出対象外領域 131が選択される。なお、上記隣接する 領域の選択方法以外にも幾つかの方法が存在する。他方法については後述する補 足説明 2において説明する。
[0042] つぎに、ステップ 301で選択した検出領域と自力メラ端末 Pの検出領域が重複した 領域である重複領域の大きさを示す量を算出する (ステップ 302)。この算出方法は、 図 12に示されるとおり、選択した検出領域位置および自カメラ端末 Pの検出領域位 置の大小関係により簡単に算出可能である。このため、カメラ端末 P110Aにおいて は、左隣の重複領域である重複領域 141TAの大きさを示す量 X — X 、右隣の重
TL AL
複領域である重複領域 141ABの大きさを示す量 X -X 、カメラ端末 P110Bにお
AR BL
いては、左隣の重複領域である重複領域 141ABの大きさを示す量 X — X 、右隣
AR BL
の重複領域である重複領域 141BCの大きさを示す量 X —X 、カメラ端末 P110C
BR CL
においては、左隣の重複領域である重複領域 141BCの大きさを示す量 X — X 、右
BR CL
隣の重複領域である重複領域 141CTの大きさを示す量 X — X が算出される。
CR TR
[0043] つぎに、ステップ 302で算出した重複領域の大きさを示す量を、一定の量 Cに近づ くように自カメラ端末 Pの検出領域位置を調整する (ステップ 303)。この調整方法を 以下に説明する。まず、重複領域の大きさを示す量と 0または 0以上の一定量じとの 差を示す量として関数 UP ()を定める。本実施の形態 1では、以下の式 1から式 3に 示されるように、各カメラ端末 P110A— 110Cについて、同関数とする。
[0044] [数 1] ひ ん) = [X L - XAL -cf UPAR {XAR ) = {XAR - XBL - C)2 —(式 1 ) [0045] [数 2]
UPbl (xBL ) = {XAR - XBL - C)2 UPBR {XTIR ) = {XBR - XCL - Cf —(式 2 )
[0046] [数 3]
UPCL {XA, ) = {xBli - XC.L― cf UPcr (xCR ) = {λ CR - xm - cf —(式 3 )
[0047] 上記式 1から式 3は、それぞれ、カメラ端末 P110A— 110Cに対するものであり、重 複領域の大きさを示す量と一定量 Cとの差の 2乗値を、それぞれの差を示す量として いる。つぎに、以下の式 4から式 6に示されるように、一般に知られている最急降下法 の式を用いて、自力メラ端末 Pの次回の検出領域位置を算出する。
[0048] [数 4] dUP AAL, [X AL
^ AL = XAL— - (式 4)
dX AL dX AR
[0049] [数 5]
- (式 5)
Figure imgf000016_0001
[0050] [数 6] d " 5ひ ,.
■ CL ^ R― X「
dX 一(式 6)
CL , CR
[0051] 上記式 4から式 6において、 X' 、Χ' 、Χ' 、Χ' 、Χ' 、Χ' は、それぞれ、各カメ
AL AR BL BR CL CR
ラ端末 PI 10A— 1 IOCの次回の検出領域位置を示し、 αは定数である。最後に同 次回の検出領域位置にカメラ P101の検出領域位置を調整する。
[0052] なお、上記手法では、自力メラ端末 Ρの検出領域位置である X X
ALおよび ARがそれぞ れ独立に調整可能である必要がある。 X および X 、Χ および X についても同様
BL BR CL CR
である。一般的なカメラは、図 10 (a)や後述する補足説明 1に記載するように、これら を独立に調整することは難しい。このように、それぞれ独立に調整することが不可能 である場合は、関数 UP ()を以下の式 7から式 9に示されるものとし、以下の式 10から 式 12に示される最急降下法の式を用いれば上記調整と同様な調整が行えることが できる。
[0053] [数 7]
UPA (XAL ,XAR) = UPAL {XAL ) + UPAR {XAR )
XAI, =^,. ,^ ...),^« =^«(^4,^ .. すると
PA (XAL,XM) = UPA (0 A-) = (^TL― PAL AA- -C +{FA A A-)-XB -C)
-ぱ 7)
[0054] [数 8]
UPB (XB!. ,xRR) = UPBL {XAL ) + UPBR {XAR )
= FBL(0lB,e2B.. ,XBR = … すると
upB{xBL,xm) = υρΒφλΒ...)
Figure imgf000017_0001
-c)
(式 8)
[0055] [数 9]
UPC {XC,, XCR ) = UPCL {XCL ) + UPCR {XCR )
Figure imgf000017_0002
<;,¾;… すると 一(式 9)
[0056] [数 10] dUP人 5υΡΛθ
Figure imgf000017_0003
δθ. 一(式 10)
[0057] [数 11]
Figure imgf000017_0004
一(式 11)
[0058] [数 12] 一(式 12)
Figure imgf000017_0005
[0059] 調整部 102は、ステップ 301、ステップ 302、ステップ 303の処理を順次行い、ステ ップ 303の処理終了後にステップ 301の処理に戻る。そして、調整部 102は、絶えず ステップ 301からステップ 303の処理を繰り返しながら、カメラ P101の検出範囲を調 整する。 [0060] 本発明の実施の形態 1における検出領域調整装置の動作は以上のとおりであり、 ステップ 303において重複領域の大きさを示す量を 0または 0以上の一定量 Cに近づ くよう最急降下法の式を用いて自力メラ端末 Pの次回の検出領域位置を算出し、同次 回の検出領域位置にカメラ P101の検出領域位置を調整するため、各カメラ端末 P1 10A— 110Cの検出領域である検出領域 140Aおよび検出領域 140Bおよび検出 領域 140Cおよび検出対象外領域はお互い、ステップ 301からステップ 303の処理 を繰り返すことにより、 0または 0以上の一定量 Cの大きさで重複することになる。図 8 に示されるように、検出対象外領域を含め、各カメラ端末 P110A— 110C検出領域 がそれぞれ 0または 0以上の一定量 Cの大きさで重複することとなり、検出対象領域 1 30が各カメラ端末 P110A— 110C検出領域の和した領域に包括されるので、本発 明の検出領域調整装置は、各カメラ端末 P110A— 110Cを用いて検出対象領域 13 0を死角なく検出することができる。
[0061] また、調整部 102が、ステップ 301からステップ 303の処理を繰り返すことにより、検 出対象領域 130を死角なく検出するという効果が奏される。この繰り返し行われる処 理のステップ 302およびステップ 303の処理は、ステップ 301にお!/、て選択した自力 メラ端末 Pの検出領域に隣接する他力メラ Pの検出領域に対して行われる。
[0062] このため、各時刻において自力メラ端末 Pの検出領域に隣接する他力メラ Pの検出 領域の位置または検出対象領域の位置に変化が生じたとしても、その変化に対応し て、検出対象領域 130を死角なく検出するという効果を得ることができる。上記検出 領域位置または検出対象領域位置に変化が生ずる場合としては、
(1)カメラ端末 Pの検出領域位置が変更される、
(2)カメラ端末 Pが新設される、
(3)各カメラ端末 Pのうち幾つかのカメラ端末 Pが取り除かれる、または故障する、
(4)操作端末から送信する検出対象領域位置が変更される、
が挙げられる。これらの変化状況に対する本発明の動作は、後述する補足説明 3 および補足説明 4に記載するが、これら変化により、各カメラ端末 Pが送信する検出 領域位置や操作端末が送信する検出対象領域位置が変化する、または、送信され ない、新たな検出領域位置が送信されたとしても、本発明の検出領域調整装置は、 検出領域位置または検出対象領域位置の変化に応じ、各カメラ端末 Pを用いて検出 対象領域 130を死角なく検出することができる。
[0063] なお、本実施の形態 1では、重複領域の大きさを示す量と 0または 0以上の一定量 Cとの差を示す関数 UP ()を、上記式 1から式 3や上記式 7から式 9に示されるように、 重複領域の大きさを示す量と一定量 Cとの差の 2乗値としたが、図 13に示されるよう に、関数 UP ()を重複領域の大きさを示す量と一定量 Cとの差の 4乗値、 6乗値、 10 乗値などのような差の偶数乗値や、関数 UP ()を重複領域の大きさを示す量と一定 量 Cとの差の絶対値としても、これら関数 UP ()は X -X
AL TL力 の時において最小値 をもっために、ステップ 303で行う最急降下法の効果により重複領域の大きさを示す 量が一定量 Cに近づくので、同様の効果を得られることは言うまでもない。
[0064] また、重複領域の大きさを示す量と 0または 0以上の一定量 Cとの差を示す関数 UP
0が、図 14で示すような、 X -X 力 の時において最小値ではなぐ極小値もつ関
AL TL
数 UP ()であったとしても、 X -X の
AL TL 変化が可能な範囲において X -X
AL TLが Cの時 に最小値となる関数 UP ()であれば、同様の効果を得られることは言うまでもな 、。
[0065] また、本実施の形態 1では、図 8に示されるように、調整部 102が各カメラ端末 P 11 OA— 110Cに分散して存在して 、るが、図 15に示される検出領域調整装置のように 、調整部 102が 1つしか存在せず、一つしか存在しない調整部 102が、各カメラ端末 P 11 OA— 110Cのカメラ P 101の検出領域位置を全て調整するのであれば、同様の 効果を得られることは言うまでもな 、。
[0066] また、本実施の形態 1では、カメラ P101を、一般的なカメラとして取り扱つている力 同カメラ P101は可視光または赤外や紫外などの非可視光を検知するカメラであって も、同様の効果を得られることは言うまでもなぐ更に、微動センサ、圧力センサ、温 度センサ、気圧センサなど、各種物理量を検出する検出領域をもち、かつ、検出領 域位置が可変な一般的にセンサであっても、同様の効果を得られることは言うまでも ない。たとえば、図 16 (a)に示されるような指向特性をもったマイクについて、図 16 (b )に示されるように、一定以上の感度で音を検知できる方向(領域)をセンス領域 (検 出領域)と定義できるので、本実施の形態におけるカメラのパンおよびチルトと同様 にマイクの姿勢を制御することで、本実施の形態におけるカメラに代えて、あるいは、 カメラに加えて、複数のマイクから構成される検出領域調整装置を構築することがで きる。つまり、本発明は、カメラだけでなぐ上記の各種センサにも適用することもでき る。
[0067] また、本実施の形態 1では、ネットワーク 112を、一般的な通信時に利用されるネッ トワーク回線として取り扱つている力 同ネットワーク 112は有線または無線のネットヮ ークであっても、同様の効果を得られることは言うまでもない。
[0068] なお、本実施の形態において、主に X軸上での処理を説明したが、同様の処理を Y 軸上にも適用することで、平面的に死角領域が発生することを回避している。図 17に 示されるように、本実施の形態における X軸上の処理 (重複領域を 0以上にする処
W
理)を、 X
W軸を一定間隔で Y軸方向に移動させながら、繰り返し、いずれの Y軸上の 位置であっても重複領域が 0以上となるように各カメラ端末の検出領域を設定 (各カメ ラ端末ごとに、 Y軸方向へのスキャンにおける最大の検出領域に調整)する。これに よって、各カメラ端末力 ^、かなる分布で配置されていても、あるいは、検出領域の形 状に拘わらず、平面上における死角領域の発生が回避される。このような次元の拡 張は、 Z軸にっ 、ても適用することができるのは言うまでもな!/、。
[0069] (実施の形態 2)
次に、本発明の実施の形態 2について説明する。
[0070] 本実施の形態は、自力メラ端末の検出領域に隣接する他力メラの検出領域の空間 分解能に変化が生じたとしても、その変化に対応して、空間解像度が一致した各カメ ラの撮影画像を取得することが可能になる検出領域調整装置に関する。
[0071] 図 18は、本発明の実施の形態 2における検出領域調整装置の構成ブロック図であ る。この検出領域調整装置は、ネットワーク 112で接続された複数のカメラ端末 PR11 10A— Cと、 2台の操作端末 1111Lおよび 1111Rと力も構成されて 、る。
[0072] 複数のカメラ端末 PR1110A— Cは、相互に通信し合いながら自律協調的に動作 するカメラ端末であり、同一の構成要素 (カメラ PR1101、調整部 1102および通信部 1103)を備える。カメラ PR1101は、同カメラの検出領域の位置である検出領域位置 が可変、かつ、同カメラの検出領域の空間分解能である検出領域空間分解能が可 変(例えば、ズーム制御が可能)なカメラ、調整部 1102は、カメラ PR1101の検出領 域位置および検出領域分解能を調整する処理部、通信部 1103は、カメラ PR1101 の検出領域位置情報および検出領域分解能情報を通信する処理部である。
[0073] 調整部 1102は、自力メラ端末の検出領域位置情報および検出領域分解能情報と 通信部 1103で受信された他のカメラ端末の検出領域位置情報および検出領域分 解能情報とに基づ!、て、複数のカメラ端末 PR1110A— Cの検出領域を和した領域 が検出対象領域をくまなく覆い、かつ、複数のカメラ端末 PR1110A— Cの検出領域 の空間分解能がほぼ同一となるように、自力メラ端末のカメラを制御して検出領域の 位置および空間分解能を調整する。より詳しくは、調整部 1102は、自力メラ端末の検 出領域と接する周辺の領域にぉ 、て複数のカメラ端末 PR1110A— Cの検出領域の いずれにも属さない非検出領域が発生することなぐかつ、自力メラ端末の検出領域 の空間分解能とその検出領域に隣接する他のカメラ端末の検出領域の空間分解能 とがほぼ同一となるように、自力メラ端末の検出領域の位置および空間分解能を調整 する。
[0074] 操作端末 1111Lおよび操作端末 1111Rは、ユーザからの指示を取得し、その指 示をカメラ端末 PR1110A— Cに通知する端末であり、検出対象位置情報を通信す る通信部 1103を備える。ネットワーク 1112は各カメラ端末 PR1110A— 1110Cおよ び操作端末 1111Lおよび操作端末 1111R内の通信部 1103を介した通信時に利 用されるネットワーク回線である。各カメラ端末 PR1110A— 1110Cは、同ネットヮー ク 1112を通じて各カメラ端末 PR内のカメラ PR1101の検出領域位置情報および検 出領域空間分解能情報を通信し、操作端末 1111Lおよび操作端末 1111Rは、同 ネットワーク 1112を通じて各カメラ端末 PR1110A— 1110Cに検出対象領域を通信 する。
[0075] 操作端末 1111L、操作端末 1111R、ネットワーク 1112は、それぞれ、本発明の実 施の形態 1における図 8の操作端末 111L、操作端末 111R、ネットワーク 112と同様 である。実施の形態 1との相違点は、本実施の形態 2では、カメラ PR1101が検出領 域位置のみならず検出領域空間分解能が可変となり、それに伴い、調整部 1102お よび通信部 1103が検出領域位置情報のみならず検出領域空間分解能情報も取り 扱う点である。なお、空間分解能とは、カメラが撮像した画像における空間的な分解 能であり、検出領域の面積を撮像素子の数で除した値に相当する。この空間分解能 は、主にカメラのズーム制御によって変化し、検出領域の面積が小さいほど高い値( 詳細な画像を取得できる状態)となる。
[0076] X軸 1120、 Z軸 1122、実空間面 1125、検出対象領域 1130およびその領域の
W W
位置である X および X 、検出対象外領域 1131、検出領域 1140Aおよびその領
TL TR
域の位置である X および X 、検出領域 1140Bおよびその領域の位置である X お
AL AR BL
よび X 、検出領域 1140Cおよびその領域の位置である X および X 、重複領域 1
BR CL CR
141TAおよびその領域の大きさを示す量である X -X 、重複領域 1141ABおよ
TL AL
びその領域の大きさを示す量である X — X 、重複領域 1141BCおよびその領域の
AR BL
大きさを示す量である X — X 、重複領域 1141CTおよびその領域の大きさを示す
BR CL
量である X — X は図 8に示される本発明の実施の形態 1と変わりはない。 Rはカメ
CR TR A
ラ端末 PR1110Aの検出領域空間分解能、 Rはカメラ端末 PR1110Bの検出領域
B
空間分解能、 Rはカメラ端末 PR1110Cの検出領域空間分解能を示す。
c
[0077] 図 19 (a)は、カメラ PR1101の内部構成を示す図である。カメラ PR1101は、レンズ 1201、撮像面 1202、画像処理部 1203および姿勢制御部 1204を備える。レンズ 1 201は、像を結像させるためのレンズ、撮像面 1202は、レンズ 1201で結像した像を 撮影する CCDなどの素子、画像処理部 1203は、撮像面 1202で撮影した画像を処 理する処理部、姿勢制御部 1204は、レンズ 1201および撮像面 1202の姿勢、およ び、レンズ 1201と撮像面 1202の間隔を制御する処理部である。
[0078] レンズ 1201、撮像面 1202、画像処理部 1203は、それぞれ、本発明の実施の形 態 1における図 10 (a)のレンズ 201、撮像面 202、画像処理部 203と同様である。本 発明の実施の形態 1と形態 2の相違点は、図 19 (a)に示される本実施の形態 2では、 姿勢制御部 1204が、レンズ 1201および撮像面 1202の姿勢または間隔のどちらか ではなぐレンズ 1201および撮像面 1202の姿勢および間隔を同時に制御する点で ある。姿勢制御部 1204は、図 19 (b)に示されるように、一般的にパンやチルトと呼ば れる制御であるレンズ 1201および撮像面 1202の姿勢と、一般的にズームと呼ばれ る制御であるレンズ 1201および撮像面 1202の間隔を同時に制御する。
[0079] 図 18を用いて、本発明の実施の形態 2における検出領域調整装置の動作を説明 する。各カメラ端末 PRl 110A— 11 IOCにおいて、カメラ PRl 101は実空間に対しレ ンズ 1201および撮像面 1202の姿勢およびそれぞれの間隔により決定する自身の 撮影範囲を検出領域とした、検出対象の検出や情報抽出などの検出動作を行う。検 出した検出対象の情報は図 18における調整部 1102に送られる。更に、カメラ PR11 01では、図 19 (a)に示される姿勢制御部 1204力 レンズ 1201および撮像面 1202 の姿勢、および、レンズ 1201および撮像面 1202の間隔を制御することにより、カメラ PR 1101の検出領域の位置を、図 18における調整部 1102が指示する検出領域の 位置に合わせる。また、姿勢制御部 1204は、現在のレンズ 1201および撮像面 120 2の姿勢および間隔力 決定する現在のカメラ PR1101の検出領域の位置情報を調 整部 1102に送る。
[0080] 以上の動作は、本発明の実施の形態 1におけるカメラ端末 P110A— 110Cと同様 である。本発明の実施の形態 2では、更に、姿勢制御部 1204力 レンズ 1201および 撮像面の間隔を制御することにより、カメラ PR1101の検出領域空間分解能を、図 1 8における調整部 1102が指示する検出領域空間分解能に合わせる。また、姿勢制 御部 1204は、現在のレンズ 1201および撮像面 1202の間隔力も決定する現在の力 メラ PR1101の検出領域の空間分解能を調整部 1102に送る。
[0081] このように、本発明の実施の形態 2では、本発明の実施の形態 1と同様に、カメラ P R1101の検出領域の位置が調整部 1102により制御され、現在のカメラ PR1101の 検出領域の位置情報が調整部 1102に送られる共に、本発明の実施の形態 2では更 に、カメラ PR1101の検出領域の空間分解能が調整部 1102により制御され、現在の カメラ PR1101の検出領域の空間分解能情報が調整部 1102に送られる。
[0082] 調整部 1102は、カメラ PR1101から送られたカメラ PR1101の検出領域の位置情 報および空間分解能情報を通信部 1103およびネットワーク 1112を介して、周期的 に他力メラ端末 PRの調整部 1102に送信する。また、調整部 1102は、他力メラ端末 PRの調整部 1102から周期的に送信される他力メラ端末 PRのカメラ PR1101の検出 領域の位置情報および空間分解能情報を受信する。さらに、操作端末 1111Lおよ び操作端末 1111Rにお!、て、通信部 1103は検出対象領域 1130の位置情報を、 ネットワーク 1112を介して、各カメラ端末 PRl 110A— 1110Cの調整部 1102に周 期的に送信する。
[0083] 以上の動作、つまり、各カメラ端末 PR1110A— 1110Cおよび操作端末 1111Lお よび操作端末 1111R間で調整部 1102や通信部 1103が検出領域の位置情報を送 受信する点は、本発明の実施の形態 1である。本発明の実施の形態 2では更に、各 カメラ端末 PR1110A— 1110C間で調整部 1102や通信部 1103が検出領域の空 間分解能を送受信している。
[0084] このため、各カメラ端末 PR1110A— 1110Cにおいて、調整部 1102は自力メラ端 末 Pおよび他力メラ端末 Pのカメラ PR1101の検出領域の位置情報および空間分解 能情報、検出対象領域の位置情報を周期的に取得することになり、本発明の実施の 形態 1と同様に、各調整部 1102は、カメラ端末 PR1110Aの検出領域 1140Aの位 置である X および X 、カメラ端末 PR1110Bの検出領域 1140Bの位置である X
AL AR BL
および X 、カメラ端末 PR1110Cの検出領域 1140Cの位置である X および X 、
BR CL CR
検出対象領域 1130の位置である X および X を通信部 1103およびネットワーク 11
TL TR
12を介して周期的に取得すると共に、本発明の実施の形態 2では更に、カメラ端末 P R1110Aの検出領域 1140Aの空間分解能である R、カメラ端末 PR1110Bの検出
A
領域 1140Bの空間分解能である R、カメラ端末 PR1110Cの検出領域 1140Cの空
B
間分解能である Rを通信部 1103およびネットワーク 1112を介して周期的に取得す
C
る。
[0085] 更に、調整部 1102は、取得した上記検出領域の位置情報および空間分解能情報 、検出対象領域の位置情報をもとに、図 20に示される以下のステップの処理を行う。
[0086] まず、調整部 1102は、自力メラ端末 PRおよび他力メラ端末 PRのカメラ PR1101の 検出領域位置を示す情報より、自力メラ端末 PRの検出領域に隣接する他力メラ端末 PRの検出領域または検出対象外領域を選択する (ステップ 1301)。この処理は本発 明の実施の形態 1と同様である。
[0087] つぎに、調整部 1102は、ステップ 1301で選択した検出領域と自力メラ端末 Pの検 出領域が重複した領域である重複領域の大きさを示す量を算出する (ステップ 1302 )。この処理も本発明の実施の形態 1と同様である。
[0088] つぎに、調整部 1102は、ステップ 1301で選択した検出領域の空間分解能と自力 メラ端末 Pの検出領域の空間分解能との差を示す量を算出する (ステップ 1303)。こ れにより、カメラ端末 PR1110Aにおいては、自身の検出領域 1140Aおよびそれに 隣接する検出領域 1140Bそれぞれにおける検出領域分解能の差を示す量 R— R、
A B
カメラ端末 PRl 110Bにお 、ては、自身の検出領域 1140Bおよびそれに隣接する検 出領域 1140Aそれぞれにおける検出領域分解能の差を示す量 R— R、自身の検
B A
出領域 1140Bおよびそれに隣接する検出領域 1140Cそれぞれにおける検出領域 分解能の差を示す量 R— R、カメラ端末 PR1110Cにおいては、自身の検出領域 11
B C
40Cおよびそれに隣接する検出領域 1140Bそれぞれにおける検出領域分解能の 差を示す量 R— R
C Bが算出される。
[0089] つぎに、調整部 1102は、ステップ 1303で算出した重複領域の大きさを示す量が 一定量 Cに近づくように自力メラ端末 PRの検出領域位置を調整する (ステップ 1304) 。この処理は本発明の実施の形態 1と同様である。本発明の実施の形態 2では更に、 ステップ 1303で算出した検出領域空間分解能の差を示す量が 0に近づくように自力 メラ端末 PRの検出領域空間分解能を調整する。この調整方法を以下に説明する。
[0090] まず、検出領域空間分解能の差を示す量として関数 UR ()を定める。本実施の形 態 2では、以下の式 13から式 15に示されるものを同関数 UR ()と定める。
[0091] [数 13]
URAR (RA ) = {RA - H —(式 1 3)
5
[0092] [数 14]
URBL (RB ) = (RB一 Λ URBR、Ri^ =、RB - RCY 一(式 1 4) [0093] [数 15]
URCL (RC ) = (R( - RBy 一(式 i s)
[0094] 上記式 13から式 15は、それぞれ、カメラ端末 PR1110A— 1110Cに対するもので あり、検出領域空間分解能の差を示す量の 2乗値を、それぞれの差を示す量として いる。つぎに、以下の式 16から式 18に示されるように、一般に知られている最急降下 法の式を用いて、自力メラ端末 PRの次回の検出領域空間分解能を算出する。 [0095] [数 16]
■ „ dURAL (RA )
_ d 一(式 1 6)
[0096] [数 17] d(UR (RB + URM ))
—(式 1 7)
Figure imgf000026_0001
[0097] [数 18] dURrJR,
Rc = Rc - cc ~ 一(式 1 8)
[0098] 上記式 16から式 18において、 R'A、 R'B、 R'Cは、それぞれ、各カメラ端末 PR111 OA— 1110Cの次回の検出領域空間分解能を示し、 αは定数である。最後に同次 回の検出領域空間分解能にカメラ PR1101の検出領域空間分解能を調整する。
[0099] 調整咅 1102は、ステップ 1301、ステップ 1302、ステップ 1303、ステップ 1304の 処理を順次行い、ステップ 1304の処理終了後にステップ 1301の処理に戻る。そし て、調整部 1102では、絶えずステップ 1301からステップ 1304の処理を繰り返しな がら、カメラ PR1101の検出領域を調整する。
[0100] 本発明の実施の形態 2における検出領域調整装置の動作は、以上のとおりであり、 本発明の実施の形態 2での動作は、本発明の実施の形態 1での動作を完全に包括 しているため、本発明の実施の形態 1に示した効果を有することは自明である。本発 明の実施の形態 2では更に、ステップ 1303において検出領域空間分解能の差を示 す量が 0に近づくよう最急降下法の式を用いて自力メラ端末 PRの次回の検出領域空 間分解能を算出し、同次回の検出領域空間分解能にカメラ PR1101の検出領域空 間分解能を調整するため、各カメラ端末 PR1110A— 1110Cの検出領域空間分解 能はお互!、ステップ 1301からステップ 1304の処理を繰り返すことにより、一致するこ とになる。このため、本発明の検出領域調整装置を用いれば、空間解像度が一致し た、カメラ端末 PR1110A— 1110C内のカメラ PR1101で撮影した各画像を取得す ることが可能になる。また、各カメラ端末 PR1110A— 1110Cの検出領域空間分解 能が一致すると 、うことは、本実施の形態ではカメラ端末 PR1110A— 1110Cの各 撮像面 1202の素子数が同じであることから、各カメラ端末 PR1110A— 1110Cが検 出を担当している検出領域の面積が同じになることを意味する。
[0101] また、調整部 1102力 ステップ 1301からステップ 1304の処理を繰り返すことにより 、空間解像度一致した各カメラの撮影画像を取得することが可能になるという効果が 奏される。この繰り返し行われる処理のステップ 1302およびステップ 1304の処理は 、ステップ 1301にお 、て選択した自カメラ端末 PRの検出領域に隣接する他力メラ P Rの検出領域に対して行われる。
[0102] このため、各時刻において自力メラ端末 PRの検出領域に隣接する他力メラ PRの検 出領域の空間分解能に変化が生じたとしても、その変化に対応して、空間解像度一 致した各カメラの撮影画像を取得することが可能になるという効果が奏される。上記 検出領域空間分解能に変化が生ずる場合としては、
(1)カメラ端末 PRの検出領域空間分解能が変更される、
(2)カメラ端末 PRが新設される、
(3)各カメラ端末 PRのうち幾つかのカメラ端末 PRが取り除かれる、または故障する、 が挙げられる。これらの変化状況に対する本発明の動作は、後述する補足説明 3 および補足説明 4に記載するが、これら変化により、各カメラ端末 PRが送信する検出 領域空間分解能情報が変化する、または、送信されない、新たな検出領域空間分解 能情報が送信されたとしても、本発明の検出領域調整装置は、検出領域空間分解 能に変化に応じ、空間解像度一致した各カメラの撮影画像を取得することが可能とな る。
[0103] なお、本実施の形態 2では、検出領域空間分解能の差を示す関数 UR ()を、上記 式 13から式 15に示されるように、検出領域空間分解能の差の 2乗値としたが、本発 明の実施の形態 1同様に、関数 UR()を検出領域空間分解能の差の 4乗値、 6乗値 、 10乗値などのような差の偶数乗値や、関数 UR ()を検出領域空間分解能の差の絶 対値としても、これら関数 UR()は R -R力 SOの時において最小値をもっために、ステ
A B
ップ 1304で行う最急降下法の効果により検出領域空間分解能の差を示す量が 0に 近づくので、同様の効果を得られることは言うまでもない。
[0104] また、本発明の実施の形態 1と同様に、検出領域空間分解能の差を示す関数 UR( )力 R R力^の時において最小値ではなぐ極小値もつ関数 UR ()であったとして
A B
も、 R Rの変化が可能な範囲において R— R力^の時に最小値となる関数 UR()
A B A B
であれば、同様の効果を得られることは言うまでもな 、。
[0105] また、本実施の形態 2では、図 18に示されるように、調整部 1102が各カメラ端末 P R1110A— 1110Cに分散して存在しているが、図 15に示される構成図のように、調 整部 1102が 1つしか存在せず、同一つしか存在しない調整部 1102が、各カメラ端 末 PRl 110A— 1110Cのカメラ PR1101の検出領域空間分解能を全て調整するの であれば、同様の効果を得られることは言うまでもな 、。
[0106] また、本実施の形態 2では、カメラ PR1101を、一般的なカメラとして取り扱つている 1S 同カメラ PRl 101は可視光または赤外や紫外などの非可視光を検知するカメラ であっても、同様の効果を得られることは言うまでもなぐ更に、検出領域をもちかつ 検出領域空間分解能が可変な一般的なセンサであっても、同様の効果を得られるこ とは言うまでもない。
[0107] また、本実施の形態 2では、ネットワーク 1112を、一般的な通信時に利用されるネ ットワーク回線として取り扱って 、るが、同ネットワーク 1112は有線または無線のネッ トワークであっても、同様の効果を得られることは言うまでもな!/、。
[0108] また、本実施の形態 2では、各カメラ端末は、検出領域が隣接する他のカメラ端末と 通信し合うことで、自己の検出領域の空間分解能と他のカメラ端末の検出領域の空 間分解能とを一致させるように調整したが、本発明は、この方法だけに限られず、各 カメラ端末は、他のカメラ端末と通信し合うことなぐ最も高い空間分解能となるように 自己の検出領域の空間分解能を固定していてもよい。これによつて、結果として、隣 接する検出領域が重複領域をもち、かつ、全ての検出領域が最高の空間分解能とな るので、本実施の形態の検出領域調整装置によって、最も高い空間分解能 (最も詳 細な画像を取得できる状態)で、検出対象領域全体がくまなく撮影される。
[0109] 次に、実施の形態 1および実施の形態 2で説明した内容を補足すると共に、本発明 の具体例にっ 、て説明する。
(補足説明 1)
本補足説明にお 、て、実施の形態 1および実施の形態 2で説明したカメラ P101お よびカメラ PR1101の検出領域の算出方法について詳細に説明する。
[0110] 図 21は、カメラ P101およびカメラ PR1101の可変な検出領域を説明する図である 。図 21において、レンズ 2101は図 10 (a)に示されるレンズ 201および図 19 (a)に示 されるレンズ 1201、撮像面 2102は図 10 (a)に示される撮像面 202および図 19 (a) に示される撮像面 1202、カメラ 2103は図 10 (a)に示されるカメラ P101および図 19 (a)に示されるカメラ PR1201にあたる。 X軸 2104および Y軸 2105および Z軸 21
C C C
06は、お互い直交し、レンズ 2101を原点としたカメラ座標軸系を構成する。カメラ 21
03は各軸回りに、パン (Y軸 2105回り回転)、チルト(X軸 2104回り回転)、ロール c c
(Z軸 2106回り回転)回転する。それぞれの回転角度を Θ 、 Θ 、 Θ と示す。撮
C PC TC RC
像面 2102はレンズ 2101より Z軸 2106方向に f離れた距離に存在し、 2WX 2Hの c
大きさをもつ。 X軸 2107および Y軸 2108および Z軸 2109は、お互い直行し、世 w w w
界座標軸系を構成する。 X軸 2107は図 8に示される X軸 120および図 18に示され
W W
る X軸 1120、 Z軸 2109は図 8に示される Z軸 122および図 18に示される Z軸 11
W W W W
22にあたる。カメラ 2103は世界座標軸系において、(X , Υ , Z )で示される位置
T T T
存在し、同位置を基点として(ΔΧ , ΔΥ , Δ Ζ )だけ移動する。
TW TW TW
[0111] X軸 2104および Y軸 2105および Z軸 2106で構成されるカメラ座標軸系上のあ
C C C
る点(X , Y , Z )は、以下の式 19により、 X軸 2107および Y軸 2108および Z軸
C C C W W W
2109で構成される世界座標軸上の点 (X , Υ , Z )に変換できる。
[0112] [数 19] 、 ヽ ί
Λ' 01 02 【00 M 01 JW02
Rr Ml0 M M12 一(式 1 9) ム 7
Figure imgf000029_0001
,, Λ 22ノ、^ 20 M21 M12
Figure imgf000029_0002
[0113] 上記式 19において、 M 力も M を要素とする 3 X 3行列値は、カメラ 2103の姿勢
22
基準点(カメラ 2103の姿勢の回転角度(Θ , Θ , Θ ) = (0, 0, 0) )の行列値、 R
PC TC RC
から R を要素とする 3 X 3行列値は、カメラ 2103の姿勢基準点力もの姿勢変位を
22
あらわす行列値、(X , Υ , Z )は、カメラ 2103の位置基準点(カメラ 2103の位
TW TW TW
置の変位(ΔΧ , ΔΥ , Δ Ζ ) = (0, 0, 0) )の位置、(ΔΧ , ΔΥ , Δ Ζ )は
TW TW TW TW TW TW
、カメラ 2103の位置基準点からの位置変位をあらわす。 [0114] M 力も M を要素とする 3 X 3行列値や (X , Υ , Z )は、カメラ 2103を姿勢基
00 22 TW TW TW
準点および位置基準点に合わせる、または、現在のカメラ 2103の姿勢および位置を それぞれ姿勢基準点および位置基準点とし、以下の文献 1に示されるキヤリブレーシ ヨン方法などを用いることにより算出可能であり、本発明の検出領域調整装置の動作 開始前に事前に算出しておく。
文献 1
[0115] R. Tsai. A Versatile Camera Calibration Technique for High— Ac c uracy 3D Machine Vision Metrology Using Off— the— helf TV Cam eras and Lenses. IEEE journal of Robotics and Automation, Vol . RA-3, No. 4, pp. 323-344, 1987
R 力 R を要素とする 3 X 3行列値は、以下の式 20に示されるように、カメラ 2103
22
の姿勢である回転角度(Θ , Θ , Θ )より算出可能である。
[0116] [数 20]
V 0 0 Y cos Θ 0 - sin ©
0 cos © sin 0 0 1 0
Figure imgf000030_0001
0 - sin © cos © ノ V sin © 0 cos©
(式 20)
[0117] なお、回転角度(Θ , Θ , Θ )は、本発明の実施の形態 1および実施の形態 2
PC TC RC
においては、それぞれ、図 10 (a)に示される姿勢制御部 204、図 19 (a)に示される 姿勢制御部 1204が読み取る。
[0118] カメラ 2103の位置基準点からの位置変位である(Δ Χ , Δ Υ , Δ Ζ )は、同力
TW TW TW
メラ 2103の位置をステッピングモータなどで変化させる仕組みであれば、同ステツピ ングモータよりその変位を読み取れる。
[0119] 撮像面 2102上の各点 (X , Y , f)は、以下の式 21により、 Z =Cである実空間
PC PC W
面 2110上に投影される。
[0120] [数 21]
Figure imgf000031_0001
z
Figure imgf000031_0004
3
一(式 21 )
Figure imgf000031_0002
[0121] このため、撮像面 4隅の各点 (一 W, -H, f)、 (W, H, f)、 (-W, H, f)、 (W, H, f
)は、以下の式 22により Z =Cである実空間面 2110上に投影される
W
[0122] [数 22]
( 、
Figure imgf000031_0005
Figure imgf000031_0003
( -ん c D3
0 +
Z
01 R0 R。: M0, M0 M0 W y0 + Z R、' M, H
、 W 3 Zr
Figure imgf000031_0006
R,, Rつ Mつ, M, 一(式 22) [0123] この Z =Cである実空間面 2110上に投影された撮像面 4隅の各点から構成される 面がカメラ 2103の検出領域である。本発明の実施の形態 1および形態 2では特に、 実空間面 2110を Z =0としたため、以下の式 23によりカメラ 2103の検出領域が算 出できる。
[0124] [数 23]
ΖΗΧΤ
Figure imgf000032_0002
Figure imgf000032_0003
Figure imgf000032_0004
Figure imgf000032_0001
一(式 23)
[0125] なお、図 22は、図 8および図 18と同様の実空間面 2210を Z =Cとした場合におけ る本発明の検出領域調整装置の構成ブロック図である。本発明の実施の形態 1およ び形態 2においては、実空間面 2110を Z =0とした。実空間面 2110を Z =Cとした 場合であっても上記式 22により、カメラ 2103の検出領域位置は算出できる。この図 2 2に示されるように、実空間面 2210を Z =Cとすれば、 Z =0から Z =Cまで幅をも つ検出対象領域 2230においても、各カメラ端末 Pを用いて死角なく検出することが できる。
[0126] 以上、カメラ P101およびカメラ PR1101の検出領域の算出方法について説明した 力 上記以外に、レーザーポインタなど、カメラ P101およびカメラ PR1101が検出可 能な信号を送出するデバイスを用いる方法もある。以下にその例を示す。
[0127] 図 23は、レーザーポインタを備えるカメラ P2301の内部構成を示す図である。この カメラ P2301は、レンズ 2301、撮像面 2302、画像処理部 2303、姿勢制御部 2304 およびレーザーポインタ 2305を備える。レンズ 2301は、像を結像されるためのレン ズ、撮像面 2302は、レンズ 2301で結像した像を撮影する CCDなどの素子、画像処 理部 2303は、撮像面 2302で撮影した画像を処理する処理部、姿勢制御部 2304 は、レンズ 2301および撮像面 2302およびレーザーポインタ 2305の姿勢、および、 レンズ 2301と撮像面 2302の間隔を制御する処理部、レーザーポインタ 2305は、レ ンズ 2301および撮像面 2302と連動して姿勢制御部 2304により姿勢を変化させ、力 メラ P2301の検出領域の端にレーザーを投射するものである。
[0128] レンズ 2301、撮像面 2302、画像処理部 2303は、それぞれ、本発明の実施の形 態 1における図 10 (a)のレンズ 201、撮像面 202、画像処理部 203と同様である。本 発明の実施の形態 1との相違点は、姿勢制御部 2304が、レンズ 2301および撮像面 2302のみならずレーザーポインタ 2305の姿勢を制御し、これにより、同レーザーポ インタ 2305がカメラ P2301の検出領域の端にレーザーを投射する点である。
[0129] 図 23〖こ示されるカメラ P2301〖こおいて、レーザーポインタ 2305は、同カメラの検出 領域の端にレーザーを投射する。投射されたレーザーは、図 8に示される実空間面 1 25に当たり、同面に光点が現れる。同光点はカメラ P2301の検出領域端を示すもの であり、同カメラに隣接する他力メラは同光点を撮影し、画像処理部 2303において、 一般的な画像処理方法を用いて同光点の位置を抽出する。画像処理部 2303にお いて抽出した光点の位置は、カメラ座標系での位置であるが、補足説明 1で説明した ように、上記式 19を用いれば、世界座標軸系での位置を算出することができる。以上 のように、図 23に示されるカメラ P2301を用いれば、検出領域位置を算出することが でき、かつ、図 8に示されるネットワーク 112を用いずとも、自力メラ P2301の検出領 域位置情報が必要となる、自カメラに隣接する他力メラに検出領域位置情報を伝達 することができる。
(補足説明 2)
本補足説明にお 、て、自カメラ端末 Pおよび他力メラ端末 Pのカメラ P 101の検出領 域位置を示す情報より、自力メラ端末 Pの検出領域に隣接する他力メラ端末 Pの検出 領域または検出対象外領域を選択する方法に関して補足する。
[0130] 本発明の実施の形態 1では検出領域を線である場合を例に挙げて説明した。以下 は、検出領域が面や立体である場合を例に挙げて説明する。
[0131] 図 24は、点 (X , Y )および点 (X , Y )を通る直線に対し、同直線のどちら側の領
1 1 2 2
域に点 (X , Y )が存在するかを示す図である。点 (X , Y )および点 (X , Y )を通る
A A 1 1 2 2 直線は以下の式 24であらわすことができる。
[0132] [数 24]
- )=~χ^] — (式24)
[0133] そして、同直線に対し領域 Α側に点 (X , Y )が存在する場合は、以下の式 25に示
A A
される関係に、同直線に対し領域 B側に点 (X , Y )が存在する場合は、以下の式 2
A A
6に示される関係となる。
[0134] [数 25]
{ΥΑ~Ά)> ΧΑ~ΧΙ) - (式 25)
[0135] [数 26]
Α - Υ{ ) < - Χχ ) 一 (式 26)
Figure imgf000034_0001
[0136] この関係を用いれば、既知である 2点を通る直線のどちら側に判定対象となる点が 存在するかが判定できる。既知である 2点は自力メラ端末 Ρのカメラ P101の検出領域 の各頂点とし、判定対象となる点は、他力メラ端末 Ρのカメラ P101の検出領域の重心 位置などとすれば、他力メラ端末 Ρのカメラ P101の検出領域力 自力メラ端末 Ρの力 メラ P101の検出領域に対し、どちら側に隣接するかを判定できる。 [0137] 図 25 (a)および図 25 (b)は、検出領域が面である場合の例である。図 25 (c)は、検 出領域が立体である場合の例である。
[0138] 図 25 (a)において、自力メラ端末 Pのカメラ P101の検出領域の頂点 (X , Y )およ
1 1 び頂点 (X , Y )を通る直線は、以下の式 27、頂点 (X , Y )および頂点 (X , Y )を
3 3 2 2 4 4 通る直線は、以下の式 28で示される。
[0139] [数 27] 产 - ) —(式 27 )
[0140] [数 28]
(γ - γ2 ) = ^χ χ^ (χ - χι ) 一(式 28)
[0141] なお、検出領域の各頂点の位置は、上記式 19を用いれば算出できる。また、他カメ ラ端末 Ρのカメラ Ρ 101の重心位置は、他力メラ端末 Ρのカメラ Ρ 101の検出領域の頂 点位置がわかれば簡単に算出でき、同重心位置を (X , Υ )とする。上記関係を用
C C
いれば、領域 Α側に重心位置 (X , Y )があれば、つまり、自力メラ端末 Pのカメラ P1
C C
01に検出領域の領域 A側に他力メラ端末 Pのカメラ P101の検出領域が隣接してい れば、以下の式 29および式 31の関係を満たす。
[0142] 領域 B側に重心位置 (X , Y )があれば、つまり、 自力メラ端末 Pのカメラ P101に検
C C
出領域の領域 B側に他力メラ端末 Pのカメラ P101の検出領域が隣接していれば、以 下の式 29および式 32の関係を満たす。
[0143] 領域 C側に重心位置 (X , Y )があれば、つまり、自力メラ端末 Pのカメラ P101に検
C C
出領域の領域 C側に他力メラ端末 Pのカメラ P101の検出領域が隣接していれば、以 下の式 30および式 32の関係を満たす。
[0144] [数 29]
(YA - > - ,) - (式 29)
Figure imgf000035_0001
[0145] [数 30] {YA - ) < ( : ( —(式 30) [0146] [数 31]
( )、 ( —(式 31 ) [0147] [数 32]
( ^ ( — - (式 32) [0148] 領域 D側に重心位置 (X , Y )があれば、つまり、自力メラ端末 Pのカメラ P101に検
C C
出領域の領域 D側に他力メラ端末 Pのカメラ P101の検出領域が隣接していれば、上 記式 30および式 31の関係を満たす。以上により、検出領域が面においても、自カメ ラ端末 Pおよび他力メラ端末 Pのカメラ P101の検出領域位置を示す情報より、自カメ ラ端末 Pの検出領域に隣接する他力メラ端末 Pの検出領域または検出対象外領域を 選択することができる。
[0149] 図 25 (b)は、図 25 (a)に対し各頂点の通る直線の引き方を変えたものであり、以上 に説明した同様の方法で、自カメラ端末 Pおよび他力メラ端末 Pのカメラ P 101の検出 領域位置を示す情報より、自力メラ端末 Pの検出領域に隣接する他力メラ端末 Pの検 出領域または検出対象外領域を選択することができることは言うまでもない。
[0150] また、図 25 (c)は、検出領域が立体である場合の例である力 これに関しても、以 上に説明した同様の方法で、自カメラ端末 Pおよび他力メラ端末 Pのカメラ P 101の検 出領域位置を示す情報より、自力メラ端末 Pの検出領域に隣接する他力メラ端末 Pの 検出領域または検出対象外領域を選択することができることは言うまでもない。
(補足説明 3)
本補足説明において、本発明の実施の形態 1および形態 2で説明した本発明の検 出領域調整装置の操作端末に関していくつか補足する。
[0151] 本発明の実施の形態 1および実施の形態 2において、図 8における操作端末 111L および操作端末 111R、図 18における操作端末 1111Lおよび操作端末 1111Rは、 通信部 103または通信部 1103より検出対象領域の位置情報を図 8における各カメラ 端末 P 11 OA— 11 OC、図 18における各カメラ端末 P 111ROA— 1110Cに送信する 機能をもつ。
[0152] なお、本発明の実施の形態 1および実施の形態 2で説明した各カメラ端末の動作 および構成であれば、操作端末は必要となるが、各カメラ端末に予め検出対象領域 情報が設定するのであれば、操作端末は特に必要ではな 、。
[0153] また、操作端末は、通信部 103または通信部 1103から構成されている力 同通信 部は、各カメラ端末 Pまたは各カメラ端末 PRにも存在する。各カメラ端末 Pまたは各力 メラ端末 PRに存在する通信部 103または通信部 1103が、検出対象領域の位置情 報を送信すれば、各カメラ端末 Pまたは各カメラ端末 PRは操作端末の機能を兼ねる ことになる。この場合、操作端末は特に必要とされない。
[0154] また、本発明の実施の形態 1および実施の形態 2では、各操作端末が検出対象領 域の各端位置情報を送信し、各端位置で構成される閉領域を検出対象領域としてい るが、 1台の操作端末が検出対象領域の全ての端位置情報を送信し、各端位置で 構成される閉領域を検出対象領域としても本発明の検出領域調整装置の効果が得 られることは言うまでもない。さらに、本発明の実施の形態 1および実施の形態 2では 、検出対象領域の 2つの端位置情報を 2つの操作端末がそれぞれ送信しているが、 検出対象領域の端が N個あれば、 N個の操作端末がそれぞれの端位置情報を送信 してちよい。
[0155] また、操作端末が送信する検出対象領域の位置の情報は、本発明の実施の形態 1 および形態 2では、予め定めた一定の値であった。本発明の実施の形態 1および形 態 2で説明したように、本発明の検出領域調整装置は、操作端末から送信する検出 対象領域位置が変更される場合であっても、その変更に対応して、検出対象領域を 死角なく検出するという効果を得ることができる。このため、操作端末が送信する検出 対象領域の位置の情報は、本発明の検出領域調整装置が動作中であっても、時間 的に変化する値であっても力まわな 、。
[0156] 以上のような補足内容を加味した本発明の検出領域調整装置の動作例を、図 26 を用いて説明する。図 26において、カメラ端末 4101は、本発明の実施の形態 1およ び形態 2におけるカメラ端末 Pまたはカメラ端末 PRであり、無線ネットワーク 4102を介 して他力メラ端末 4101および操作端末 4105と情報を通信する。車 4103は、道路 4 104を走行する車であり、同車には操作端末 4105が備え付けられている。検出領域 4106Aおよび検出領域 4106Bは、道路 4104を走行する車 4103の各時刻におけ る検出領域であり、同検出領域は、 GPSやジャイロコンパスなどを用いて取得した同 車の位置を中心とした一定の大きさをもつ領域であり、操作端末 4105から送信され る。
[0157] このような検出領域調整装置の動作は以下の通りである。道路 4104上に複数台設 置された本発明の検出領域調整装置のカメラ端末 4101は、無線ネットワーク 4102 を用いて他力メラ端末と通信する。道路 4104上を走行する車 4103に設置された操 作端末 4105は、車 4103の現在の存在位置を中心とした検出領域位置情報を各力 メラ端末 4101に無線ネットワーク 4102を用いて送信する。これによつて、この検出領 域調整装置は、時間的に刻々と変化する車 4103の位置を中心とした検出領域内を 常時死角なく撮影することが可能となる。これら常時死角なく撮影された画像情報は 、無線ネットワーク 4102を用いて車 4103の運転者に提供されることにより、車 4103 の運転者は車の周囲情報を死角なく取得ことができ、車の安全走行や駐車が支援さ れる。
(補足説明 4)
本補足説明において、本発明の実施の形態 1および形態 2で説明した本発明の検 出領域調整装置のカメラ端末 Pおよびカメラ端末 PRの検出領域の指定方法に関し ていくつか補足する。
[0158] 本発明の実施の形態 1および形態 2において、図 8における各カメラ端末 P110A — HOC,図 18における各カメラ端末 P111R0A— 1110Cは、図 11および図 20に 示されるフローチャートの手順をもとに動作を行う。本補足説明では、各カメラ端末 P に関しては図 27、各カメラ端末 PRに関しては図 28に示されるフローチャートの手順 をもとに動作を行うものとする。
[0159] 図 27に示されるフローチャートは、本発明の実施の形態 1において説明した図 11 に示されるフローチャートに対しステップ 5104およびステップ 5105が加えられたもの であり、ステップ 5104における判断が No、つまり検出領域の指定がなければ、本発 明の実施の形態 1と同様のステップ 5101からステップ 5103の処理が繰り返されるた めに、本発明の検出領域調整装置の効果が得られることは言うまでもない。図 28に 示されるフローチャートは、本発明の実施の形態 2において説明した図 20に示される フローチャートに対しステップ 5205およびステップ 5206が加えられたものであり、ス テツプ 5205における判断が No、つまり検出領域または空間解像度の指定がなけれ ば、本発明の実施の形態 2と同様のステップ 5201からステップ 5204の処理が繰り返 されるために、本発明の検出領域調整装置の効果が得られることは言うまでもない。
[0160] 図 27および図 28に示されるフローチャートにおいて、ステップ 5104またはステップ 5205における判断が Yes、つまり検出範囲の指定があった場合は、ステップ 5105ま たはステップ 5206において、カメラ端末 Pまたはカメラ PRの検出領域位置または検 出領域空間分解能を、ステップ 5104またはステップ 5205で指定された検出領域位 置または検出領域空間分解能に調整する。
[0161] ステップ 5104およびステップ 5205における、指定される検出領域の位置および検 出領域空間分解能は、人間が指定する。または、図 10 (a)における画像処理部 203 、図 19 (a)における画像処理部 1203において、カメラ端末 Pおよびカメラ端末 PRが 撮影した画像力も検出対象物の位置および大きさをパターンマッチングなどの一般 的な画像処理手法により検出する。そして、同検出した検出対象物の位置を中心と し、同検出対象物が検出領域内に収まる、検出領域位置および検出領域空間分解 能を指定する。
[0162] 以上のように、図 27および図 28に示されるフローチャートをもとにカメラ端末 Pおよ びカメラ端末 PRが動作を行えば、検出領域位置または検出領域空間分解能の指定 がある場合、または、同指定があるカメラ端末 Pおよびカメラ端末 PRに対しては、同 検出領域位置または同検出領域空間分解能にカメラ端末 Pおよびカメラ端末 PRは 調整され、検出領域位置または検出領域空間分解能の指定がない場合、または、同 指定がないカメラ端末 Pおよびカメラ端末 PRに対しては、本発明の実施の形態 1およ び形態 2同様に、カメラ端末 Pおよびカメラ端末 PRが検出対象領域を死角なく検出 する動作を行う。 [0163] 以上、カメラ端末 Pおよびカメラ端末 PRの検出領域の指定方法に関して幾つかの 補足説明をした。以下、同補足内容を加味した本発明の検出領域調整装置の動作 例を、図 29—図 31を用いて説明する。
[0164] 図 29において、カメラ端末 5301A力 カメラ端末 5301Eは本発明の実施の形態 1 および形態 2におけるカメラ端末 Pまたはカメラ端末 PRであり図 27および図 28に示さ れるフローチャートをもとに動作する。ネットワーク 5302は各カメラ端末 5301A— 53 01E間の情報を伝達するネットワーク、検出対象物 5303は各カメラ端末 5301A— 5 301Eが検出する対象物であり、検出対象領域 5304内に存在する。
[0165] 動作は以下の通りである。各カメラ端末 5301A— 5301Eは図 27または図 28に示 されるフローチャートをもとに動作する。つまり、カメラ端末 5301Bは、他のカメラ端末 と異なり、検出対象物 5303を検出しているため、ステップ 5104およびステップ 5205 において、検出領域位置または検出領域空間分解能が指定される。指定される検出 領域位置および検出領域空間分解能は、検出対象物 5303の位置を中心とし、同検 出対象物 5303が検出領域内に収まる検出領域位置および検出領域空間分解能で ある。この結果、カメラ端末 5301Bは検出対象物 5303の位置を中心とし、同検出対 象物 5303が検出領域内に収まる検出領域位置および検出領域空間分解能に調整 される。
[0166] 一方、他のカメラ端末 5301A、カメラ端末 5301C、カメラ端末 5301D、カメラ端末 5301Eは、検出対象物 5303を検出していないため、本発明の実施の形態 1および 形態 2同様に隣接する検出領域と一定の重複領域をもつように検出領域位置が調整 される。
[0167] 以上のようなカメラ端末 5301Aからカメラ端末 5301Eの動作によれば、検出対象 物 5303が検出対象領域 5304に存在する場合においても、自動的に、検出対象物 5303の位置を中心とし同検出対象物 5303が検出領域内に収まる詳細な画像を取 得すると共に、検出対象領域 5304を常時死角なく検出する。以上の動作は、検出 対象物 5303が移動したとしても、検出対象物 5303を検出するカメラ端末が切り替わ るだけであるので、同様の動作をすることは言うまでもな 、。
[0168] 図 30において、カメラ端末 5401A力 カメラ端末 5401Eは本発明の実施の形態 1 および形態 2におけるカメラ端末 Pまたはカメラ端末 PRであり、図 27および図 28に示 されるフローチャートをもとに動作する。ネットワーク 5402は、各カメラ端末 5401A— 5401C間の情報を伝達するネットワーク、検出対象物 5403は、各カメラ端末 5401 A— 5401Cが検出する対象物であり、検出対象領域 5404内に存在する。以上のこ とは、図 29と同様であり、このことから、カメラ端末 5401Aからカメラ端末 5401Cは、 検出対象物 5403が検出対象領域 5404に存在する場合においても、自動的に、検 出対象物 5403の位置を中心とし同検出対象物 5403が検出領域内に収まる詳細な 画像を取得すると共に、検出対象領域 5404を常時死角なく検出する。
[0169] 図 30に示される検出領域調整装置は、図 29に示される本発明の検出領域調整装 置に対し、新たな処理部(画像合成部 5405、表示部 5406および指示部 5407)が 付加されている。画像合成部 5405は、各カメラ端末 5401 A— 5401 Cが取得した各 画像を 1枚の画像などに合成する処理部、表示部 5406は、画像合成部 5405が合 成した画像を表示する処理部、指示部 5407は、各カメラ端末 5401A— 5401Cに対 し検出領域または検出領域空間分解能を指定する処理部である。
[0170] このような検出領域調整装置の動作は以下の通りである。つまり、画像合成部 540 5は、各カメラ端末 5401A— 5401Cが撮影した画像および、各カメラ端末 5401A— 5401Cが送信する検出領域位置情報を、ネットワーク 5402を介して受け取る。画像 合成部 5405は、各カメラ端末の検出領域位置情報を用いて、各カメラ端末が撮影し た画像を図 31に示されるような、各画像の空間位置が連続する画像を合成する。合 成した画像は、表示部 5406に表示され、同画像情報は人間に提示される。なお、画 像合成部 5405で合成に利用される各カメラ端末 5401A— 5401Cが取得した画像 および同画像を構成する画素の世界座標軸系の位置は上記式 19により算出可能で あるため、一般的な投影変換手法を用いれば、さまざまな視点の空間位置が連続す る画像を合成することが画像合成部 5405において可能である。
[0171] 表示部 5406に表示された合成画像を見た人間は、自分が希望する合成画像上の 領域の位置または空間分解能を指示部 5407に入力する。入力にお 、てはポインテ イングデバイスなどを用いて領域の位置または空間分解能を指示する。人間が指定 した領域の位置または空間分解能を受けた指示部 5407は、現在同領域を検出領 域内にもつカメラ端末を判定する。同判定は、各カメラ端末 5401A— 5401Cが送信 する検出領域情報を用いれば簡単に判断することができる。そして指示部 5407は、 上記判定により決定した人間が指定した領域を検出領域内にもつカメラ端末に対し、 人間が指定した領域の位置または空間分解能を同カメラ端末の検出領域位置また は検出領域空間分解能としてネットワーク 5402を介して指示する。検出領域位置ま たは検出領域空間分解能が指定されたカメラ端末は、同カメラ端末の検出領域位置 または検出領域空間分解能を、指定した検出領域位置または検出領域空間分解能 に調整する。
[0172] 以上の動作によれば、人間は、検出対象領域 5404の領域を常時死角なぐかつ、 さまざまな視点で、かつ、空間位置が連続する画像情報として受け取ることができる。 更に、同画像情報をもとに指定した領域の位置または空間分解能を指定することに より、特定の領域位置または空間分解能の画像も取得可能となる。例えば、ある領域 の空間分解能を高くするように人間が指示部 5407に入力すれば、同領域に対し空 間分解能つまり解像度が高い画像が表示部 5406に表示されることになる。これらの 効果は、広範囲な検出対象領域をもつビルなどの監視にぉ 、て有益である。
[0173] なお、以上の図 29—図 31に示された例では、検出対象物を撮影する 1台のカメラ 端末にっ 、て、検出領域の位置と面積 (最も高!、空間分解能となる状態)を固定し、 その 1台を含む全てのカメラ端末について、隣接する検出領域が重複するように制御 したが、同じような結果を得る別の方法として、検出対象物を撮影する 1台のカメラ端 末につ 、ては、検出領域の位置と面積 (最も高 、空間分解能となる状態)を固定し、 その 1台を除く全てのカメラ端末について、隣接する検出領域が重複するように制御 してもよい。つまり、検出領域を重複させる制御の対象となるカメラ端末として、検出 対象物を撮影している 1台のカメラ端末を除外してもよい。言い換えると、検出対象物 を撮影して 、る 1台のカメラ端末が故障して 、るものとみなして、そのカメラ端末を除く 他のカメラ端末だけで検出領域を重複させる制御をしてもよい。これによつて、検出 対象物に対しては、最高の空間分解能で画像が得られるとともに、検出対象領域全 体がくまなく撮影される。
[0174] 以上、本発明に係る検出領域調整装置について、実施の形態および補足説明に 基づいて説明した力 本発明は、これらの例だけに限られない。各実施の形態では、 発明の趣旨を逸脱しない範囲で、当業者が思いつく各種変形や機能追加をしてもよ いし、機能的に併存し得る限り、各実施の形態における各構成要素を任意に組み合 わせてもよい。
[0175] たとえば、上記実施の形態では、検出領域調整装置を構成する複数のカメラ端末 は、いずれも、パン、チルトおよびズームの制御が可能であった力 本発明は、必ず しもこのような構成に限られず、一部のカメラ端末がパン、チルトおよびズームのいず れか又は全てが固定されていてもよい。本発明によれば、検出領域調整装置を構成 する複数のカメラ端末が通信し合うことで、自律協調的に、隣接する検出領域が重な るように調整したり、空間分解能を一致させたりするので、検出領域が隣接する一方 のカメラ端末がパン、チルトおよびズームを調整できる機能を有していればよい。その 場合でも、結果として、検出対象領域全体として、隣接する検出領域が重なるように 調整されたり、空間分解能が一致するように調整される。
[0176] また、上記実施の形態では、カメラ端末は特定の場所に固定された固定式カメラ端 末であつたが、移動式カメラ端末であってもよい。図 32は、本発明に係る検出領域調 整装置を移動式カメラ端末カゝら構成される監視システムに適用した場合の監視シス テムの構成を示すブロック図である。この監視システムは、通信ネットワーク 6103で 接続された複数の移動式カメラ端末 6101等力も構成され、監視領域 6111をくまなく 監視できるように、それら複数の移動式カメラ端末 6101がパンおよびチルトを調整す るだけでなぐ自律協調的に移動する点に特徴を有する。移動式カメラ端末 6101は 、移動部 6102に支持されて移動するカメラ端末である。移動部 6102は、移動式カメ ラ端末 6101の撮影位置を変更させる機構部等である。通信ネットワーク 6103は、複 数の移動式カメラ端末 6101を結ぶ伝送路である。通信部 6104は、移動式カメラ端 末 6101が通信ネットワーク 6103を介して他の移動式カメラ端末と情報のやりとりを 行うための通信インターフェースである。隣接撮影領域特定部 6105は、通信部 610 4に通知された他の移動式カメラ端末力 の情報に対して、撮影領域が隣り合う移動 式カメラ端末を推定する処理部である。撮影素子 6106は、監視領域内の映像を取り 込む CCDカメラ等である。撮影領域推定部 6107は、撮影素子 6106の特性と、移動 部 6102の位置力も移動式カメラ端末 6101の撮影領域を推定する処理部である。監 視範囲記憶部 6108は、移動式カメラ端末 6101が監視すべき領域の範囲を記憶し ているメモリ等である。撮影位置評価部 6109は、移動式カメラ端末 6101の撮影領 域と互いに隣り合う撮影領域の重なり領域、または監視領域の境界との距離を評価 する処理部である。撮影位置変更部 6110は、移動部 6102を制御し、移動式カメラ 端末 6101の撮影位置を変更させる制御部である。監視領域 6111は、移動式カメラ 端末 6101が監視すべき領域である。撮影領域 6112は、移動式カメラ端末 6101に よって撮影されて 、る領域である。
[0177] このような監視システムによれば、移動式カメラ端末 6101は、自身の撮影位置と撮 影素子 6106の特性により推定される撮影領域に関する情報を周囲の移動式カメラ 端末と通知し合い、隣り合う撮影領域との重なり領域の大きさと、監視領域の境界と の距離が所定の状態に近づくように周囲の移動式カメラ端末と協調しながらパン、チ ルトおよび撮影位置を変更することにより、複数の移動式カメラ端末 6101による同時 撮影において監視領域内の死角が少なくなる撮影位置に移動することができる。
[0178] 図 33は、そのような監視システムにおける移動式カメラ端末 6101の動作の様子を 示す。本図では、説明を簡単にするために横方向(1次元)に移動できる移動式カメ ラ端末 6101を高さが一定な部屋の天井に設置し、床面を監視させる場合が示され ている。本図の上図に示されるように、移動式カメラ端末 6101を天井の適当な位置 に設置しても、移動式カメラ端末は互 、の撮影領域の重なり領域の幅 Cまたは監視 領域の境界との距離 Dが所定の値に近づくように撮影位置を変更することにより、本 図の下図に示されるように、監視領域全体を複数の移動式カメラ端末で端末同時に 撮影できる位置に自動的に移動することが可能となる。さらに、例えば高い天井など のように設置作業が難しい場所において、一ヶ所にまとめて移動式カメラ端末 6101 を設置しても、移動式カメラ端末の方が複数の移動式カメラ端末による同時撮影にお いて死角が少なくなる位置に自動的に移動するため、移動式カメラ端末の設置位置 の決定や設置作業と 、つた負担を減らすことが可能となる。この実現方法の一例とし ては、図 34に示されるように、監視領域内にレールを設置し、そのレールの軌道上を 移動式カメラ端末が移動するようにシステムを構成すればょ 、。 産業上の利用可能性
本発明に係る検出領域調整装置は、複数のカメラを用いた監視システム、複数の センサ素子を用いて物理量を計測するセンシングシステム等として、特に、撮影領域 の変更が可能な複数のカメラ端末力 構成され、広範囲の領域において死角を生じ ることなく監視する高機能な監視システムとして、例えば、学校やビル等における不 審者の監視用システム等として有用である。

Claims

請求の範囲
[1] 通信路で接続された複数のカメラ端末力 構成され、前記複数のカメラ端末の撮影 領域である検出領域を調整することによって、検出対象領域の撮影を可能にする検 出領域調整装置であって、
前記複数のカメラ端末は、
前記検出対象領域に含まれる検出領域を撮影するとともに、前記検出領域の位置 を変更する手段を有するカメラと、
前記検出領域を特定する検出領域情報を前記通信路を介して他のカメラ端末に送 信するとともに、他のカメラ端末から検出領域情報を受信する通信手段と、
当該カメラ端末の検出領域情報と前記通信手段で受信された他のカメラ端末の検 出領域情報とに基づいて、前記複数のカメラ端末の検出領域を和した領域が前記検 出対象領域をくまなく覆うように、当該カメラ端末のカメラを制御して検出領域の位置 を調整する調整手段とを備える
ことを特徴とする検出領域調整装置。
[2] 前記調整手段は、当該カメラ端末の検出領域と接する周辺の領域において、前記 複数のカメラ端末の検出領域の 、ずれにも属さな 、非検出領域が発生しな 、ように 、前記検出領域の位置を調整する
ことを特徴とする請求項 1記載の検出領域調整装置。
[3] 前記調整手段は、当該カメラ端末の検出領域と当該検出領域に隣接する他のカメ ラ端末の検出領域とが重複する領域の量である重複領域量力^以上の一定量である 目標量となるように、前記検出領域の位置を調整する
ことを特徴とする請求項 2記載の検出領域調整装置。
[4] 前記調整手段は、
当該カメラ端末の検出領域に隣接する検出領域を前記複数のカメラ端末の検出領 域の中から選択するステップと、選択された検出領域と当該カメラ端末の検出領域と の重複領域量と、前記目標量との差である重複領域差分量を算出するステップと、 前記重複領域差分量を 0に近づける当該カメラ端末の検出領域の位置を算出するス テツプとを繰り返し、 当該カメラ端末の検出領域の位置が前記繰り返しステップで得られた位置となるよ うに前記調整をする
ことを特徴とする請求項 3記載の検出領域調整装置。
[5] 前記調整手段は、前記重複領域量と前記目標量とが等しい時に最小値をとる関数 を用いて、前記重複領域差分量を算出する
ことを特徴とする請求項 4記載の検出領域調整装置。
[6] 前記カメラは、一定範囲内で前記検出領域の位置が可変であり、
前記関数は、当該カメラ端末の検出領域が前記一定範囲内にある場合において、 前記重複領域量と前記目標量とが等 、時に最小値をとる
ことを特徴とする請求項 5記載の検出領域調整装置。
[7] 前記調整手段は、当該カメラ端末のカメラが検出対象物を検知した場合、または、 検出対象物の位置に関する指示を受けた場合には、前記調整に優先して、検知さ れた前記検出対象物または指示された前記検出対象物が前記カメラによって撮像さ れるように、前記検出領域の位置を調整する
ことを特徴とする請求項 1記載の検出領域調整装置。
[8] 前記カメラは、前記検出領域の空間分解能を変更する手段を有し、
前記検出領域情報には、前記検出領域の空間分解能を特定する情報が含まれ、 前記調整手段は、当該カメラ端末の検出領域情報と前記通信手段で受信された他 のカメラ端末の検出領域情報とに基づいて、前記複数のカメラ端末の検出領域を和 した領域が前記検出対象領域をくまなく覆い、かつ、前記複数のカメラ端末の検出領 域の空間分解能がほぼ同一となるように、当該カメラ端末のカメラを制御して検出領 域の位置および空間分解能を調整する
ことを特徴とする請求項 1記載の検出領域調整装置。
[9] 前記調整手段は、当該カメラ端末の検出領域と接する周辺の領域において前記複 数のカメラ端末の検出領域のいずれにも属さない非検出領域が発生することなぐか つ、当該カメラ端末の検出領域の空間分解能と当該検出領域に隣接する他のカメラ 端末の検出領域の空間分解能とがほぼ同一となるように、前記検出領域の位置およ び空間分解能を調整する ことを特徴とする請求項 8記載の検出領域調整装置。
[10] 前記調整手段は、当該カメラ端末の検出領域と当該検出領域に隣接する他のカメ ラ端末の検出領域とが重複する領域の量である重複領域量力^以上の一定量である 目標量となるように、前記検出領域の位置を調整し、当該カメラ端末の検出領域の空 間分解能と当該検出領域に隣接する他のカメラ端末の検出領域の空間分解能とが ほぼ同一となるように、前記検出領域の空間分解能を調整する
ことを特徴とする請求項 9記載の検出領域調整装置。
[11] 前記調整手段は、
当該カメラ端末の検出領域に隣接する検出領域を前記複数のカメラ端末の検出領 域の中から選択するステップと、選択された検出領域と当該カメラ端末の検出領域と の重複領域量と、前記目標量との差である重複領域差分量を算出するステップと、 選択された検出領域の空間分解能と当該カメラ端末の検出領域の空間分解能との 差である空間分解能差分量を算出するステップと、前記重複領域差分量および前記 空間分解能差分量を 0に近づける当該カメラ端末の検出領域の位置および空間分 解能を算出するステップとを繰り返し、
当該カメラ端末の検出領域の位置および空間分解能が前記繰り返しステップで得 られた位置および空間分解能となるように前記調整をする
ことを特徴とする請求項 10記載の検出領域調整装置。
[12] 前記調整手段は、選択された前記検出領域の空間分解能と当該カメラ端末の検出 領域の空間分解能とが等しい時に最小値をとる関数を用いて、前記空間分解能差 分量を算出する
ことを特徴とする請求項 11記載の検出領域調整装置。
[13] 前記カメラは、一定範囲内で前記検出領域の空間分解能が可変であり、
前記関数は、当該カメラ端末の検出領域の空間分解能が前記一定範囲内にある 場合において、選択された前記検出領域の空間分解能と当該カメラ端末の検出領 域の空間分解能とが等しい時に最小値をとる
ことを特徴とする請求項 12記載の検出領域調整装置。
[14] 前記調整手段は、当該カメラ端末のカメラが検出対象物を検知した場合、または、 空間分解能に関する指示を受けた場合には、前記調整に優先して、当該カメラ端末 の検出領域の空間分解能を、検知された前記検出対象物に基づく空間分解能また は指示された前記空間分解能に調整する
ことを特徴とする請求項 8記載の検出領域調整装置。
[15] 前記検出領域は、平面または立体の領域である
ことを特徴とする請求項 1記載の検出領域調整装置。
[16] 前記検出領域調整装置はさらに、検出対象領域の指示を取得する操作端末を備 え、
前記調整手段は、前記複数のカメラ端末の検出領域を和した領域が、前記操作端 末が取得した検出対象領域をくまなく覆うように、前記調整をする
ことを特徴とする請求項 1記載の検出領域調整装置。
[17] 前記複数のカメラ端末はさらに、
当該カメラ端末の検出領域を特定するレーザーを投射するレーザーポインタと、 他のカメラ端末から投射されたレーザーが検出対象領域に照射されて生成される 光点を当該カメラ端末のカメラで撮像し、撮像された画像を処理することによって、前 記光点の位置を特定する画像処理手段とを備え、
前記調整手段は、当該カメラ端末の検出領域情報と前記画像処理手段で特定され た前記光点の位置とに基づ!、て、前記検出領域の位置を調整する
ことを特徴とする請求項 1記載の検出領域調整装置。
[18] 前記検出領域調整装置はさらに、
前記複数のカメラ端末のカメラが撮像した画像を取得し、空間的に連続した画像と して合成する合成手段と、
合成された画像を表示する表示手段とを備える
ことを特徴とする請求項 1記載の検出領域調整装置。
[19] 通信路で接続された複数のカメラ端末と調整装置とから構成され、前記複数のカメ ラ端末の撮影領域である検出領域を調整することによって、検出対象領域の撮影を 可能にする検出領域調整装置であって、
前記複数のカメラ端末は、 前記検出対象領域に含まれる検出領域を撮影するとともに、前記検出領域の位置 を変更する手段を有するカメラと、
前記検出領域を特定する検出領域情報を前記通信路を介して前記調整装置に送 信するとともに、前記調整装置から指示を受信し、受信した指示に従って、当該カメラ 端末のカメラを制御して検出領域の位置を調整する通信手段とを備え、
前記調整装置は、前記複数のカメラ端末から前記検出領域情報を受信し、受信し た検出領域情報に基づ!/、て、前記複数のカメラ端末の検出領域を和した領域が前 記検出対象領域をくまなく覆うように、前記複数のカメラ端末に指示する通信手段を 備える
ことを特徴とする検出領域調整装置。
[20] 前記カメラは、前記検出領域の空間分解能を変更する手段を有し、
前記検出領域情報には、前記検出領域の空間分解能を特定する情報が含まれ、 前記複数のカメラ端末の通信手段はさらに、前記調整装置から受信した指示に従 つて、当該カメラ端末のカメラを制御して検出領域の空間分解能を調整し、
前記調整装置の通信手段は、前記検出領域情報に基づいて、前記複数のカメラ 端末の検出領域を和した領域が前記検出対象領域をくまなく覆い、かつ、前記複数 のカメラ端末の検出領域の空間分解能がほぼ同一となるように、前記複数のカメラ端 末に指示する
ことを特徴とする請求項 19記載の検出領域調整装置。
[21] 通信路で接続された複数のセンサ端末から構成され、前記複数のセンサ端末が物 理量の検出する検出領域を調整することによって、検出対象領域に対する物理量の 検出を可能にする検出領域調整装置であって、
前記複数のセンサ端末は、
前記検出対象領域に含まれる検出領域に対する物理量を検出するとともに、前記 検出領域の位置を変更する手段を有するセンサと、
前記検出領域を特定する検出領域情報を前記通信路を介して他のセンサ端末に 送信するとともに、他のセンサ端末から検出領域情報を受信する通信手段と、 当該センサ端末の検出領域情報と前記通信手段で受信された他のセンサ端末の 検出領域情報とに基づいて、前記複数のセンサ端末の検出領域を和した領域が前 記検出対象領域をくまなく覆うように、当該センサ端末のセンサを制御して検出領域 の位置を調整する調整手段とを備える
ことを特徴とする検出領域調整装置。
[22] 前記センサは、前記検出領域の空間分解能を変更する手段を有し、
前記検出領域情報には、前記検出領域の空間分解能を特定する情報が含まれ、 前記調整手段は、当該センサ端末の検出領域情報と前記通信手段で受信された 他のセンサ端末の検出領域情報とに基づいて、前記複数のセンサ端末の検出領域 を和した領域が前記検出対象領域をくまなく覆い、かつ、前記複数のセンサ端末の 検出領域の空間分解能がほぼ同一となるように、当該センサ端末のセンサを制御し て検出領域の位置および空間分解能を調整する
ことを特徴とする請求項 21記載の検出領域調整装置。
[23] 撮影領域である検出領域の位置が可変なカメラと、前記カメラの検出領域を示す検 出領域情報を送受信する通信手段とを有する複数のカメラ端末から構成されるカメラ システムにおいて、検出領域を調整することによって、検出対象領域の撮影を可能 にする検出領域調整方法であって、
前記複数のカメラ端末が、当該カメラ端末の検出領域情報と前記通信手段で受信 された他のカメラ端末の検出領域情報とに基づいて、前記複数のカメラ端末の検出 領域を和した領域が前記検出対象領域をくまなく覆うように、当該カメラ端末のカメラ を制御して検出領域の位置を調整する調整ステップを含む
ことを特徴とする検出領域調整方法。
[24] 前記カメラは、前記検出領域の空間分解能を変更する手段を有し、
前記検出領域情報には、前記検出領域の空間分解能を特定する情報が含まれ、 前記調整ステップでは、当該カメラ端末の検出領域情報と前記通信手段で受信さ れた他のカメラ端末の検出領域情報とに基づいて、前記複数のカメラ端末の検出領 域を和した領域が前記検出対象領域をくまなく覆い、かつ、前記複数のカメラ端末の 検出領域の空間分解能がほぼ同一となるように、当該カメラ端末のカメラを制御して 検出領域の位置および空間分解能を調整する ことを特徴とする請求項 23記載の検出領域調整方法。
撮影領域である検出領域の位置が可変なカメラと、前記カメラの検出領域を示す検 出領域情報を送受信する通信手段とを有する複数のカメラ端末から構成されるカメラ システムにおいて、検出領域を調整することによって、検出対象領域の撮影を可能 にするカメラ端末のためのプログラムであって、
前記請求項 23記載の検出領域調整方法に含まれるステップをコンピュータに実行 させる
ことを特徴とするプログラム。
PCT/JP2005/000544 2004-02-03 2005-01-18 検出領域調整装置 WO2005076620A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005517639A JP3905116B2 (ja) 2004-02-03 2005-01-18 検出領域調整装置
EP05703781A EP1771005B1 (en) 2004-02-03 2005-01-18 Detection range adjustment device
AT05703781T ATE547896T1 (de) 2004-02-03 2005-01-18 Detektionsbereichs-einstelleinrichtung
US11/115,152 US7880766B2 (en) 2004-02-03 2005-04-27 Detection area adjustment apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-027294 2004-02-03
JP2004027294 2004-02-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/115,152 Continuation US7880766B2 (en) 2004-02-03 2005-04-27 Detection area adjustment apparatus

Publications (1)

Publication Number Publication Date
WO2005076620A1 true WO2005076620A1 (ja) 2005-08-18

Family

ID=34835883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000544 WO2005076620A1 (ja) 2004-02-03 2005-01-18 検出領域調整装置

Country Status (5)

Country Link
EP (1) EP1771005B1 (ja)
JP (1) JP3905116B2 (ja)
CN (1) CN100566405C (ja)
AT (1) ATE547896T1 (ja)
WO (1) WO2005076620A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068041A (ja) * 2005-09-01 2007-03-15 Matsushita Electric Ind Co Ltd 広域監視パノラマシステム
JP2007208387A (ja) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd センサー配置装置、センサー制御装置およびセンサー制御システム
JP2009527149A (ja) * 2006-02-13 2009-07-23 ソニー株式会社 複数のビデオストリームを組み合わせるシステムおよび方法
CN101636769B (zh) * 2006-12-07 2012-07-04 传感电子公司 用于视频监视系统视野对准的方法和装置
JP2015060327A (ja) * 2013-09-17 2015-03-30 株式会社リコー 投影装置、投影方法及び情報処理システム
JP2016220145A (ja) * 2015-05-25 2016-12-22 キヤノン株式会社 画像解析装置、画像解析方法、およびプログラム
JP2018074528A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 情報処理システムおよびその構成機器、実空間の監視方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
JP4418805B2 (ja) * 2004-02-03 2010-02-24 パナソニック株式会社 検出領域調整装置
CN106950925A (zh) * 2007-09-10 2017-07-14 费舍-柔斯芒特系统股份有限公司 过程控制系统中的位置依赖控制访问
JP5428210B2 (ja) * 2008-06-11 2014-02-26 ソニー株式会社 情報処理装置、撮像システム、録画制御方法及びプログラム
WO2016040085A1 (en) * 2014-09-10 2016-03-17 Siemens Aktiengesellschaft Gas turbine failure prediction utilizing supervised learning methodologies
WO2016132267A2 (en) * 2015-02-19 2016-08-25 Spark S.R.L. A video management system and method
CN105554449B (zh) * 2015-12-11 2018-04-27 浙江宇视科技有限公司 一种用于快速拼接摄像机图像的方法及装置
CN105956555A (zh) * 2016-04-29 2016-09-21 广东小天才科技有限公司 拍照搜题的方法及装置
CN106202359B (zh) * 2016-07-05 2020-05-15 广东小天才科技有限公司 拍照搜题的方法及装置
CN106454068B (zh) * 2016-08-30 2019-08-16 广东小天才科技有限公司 一种快捷获取有效图像的方法和装置
CN106303255B (zh) * 2016-08-30 2019-08-02 广东小天才科技有限公司 快速获取目标区域图像的方法和装置
CN111095031B (zh) * 2017-09-12 2023-06-13 三菱电机株式会社 人体检测装置以及照明装置
CN112004028B (zh) * 2020-09-03 2021-06-15 南京国础工程技术有限公司 一种基于机器视觉的智慧社区智能安防监测管理系统
CN112969034B (zh) * 2021-03-01 2023-03-03 华雁智能科技(集团)股份有限公司 摄像装置布点方案图的验证方法、装置及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083243A (ja) * 1998-09-04 2000-03-21 Canon Inc 撮像装置、撮像システム、撮像制御方法、及び記憶媒体
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2002077887A (ja) * 2000-09-04 2002-03-15 Mitsubishi Electric Corp 自動監視方法および自動監視装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3618891B2 (ja) * 1996-04-08 2005-02-09 キヤノン株式会社 カメラ制御装置及びカメラ制御情報の表示方法
US6778207B1 (en) * 2000-08-07 2004-08-17 Koninklijke Philips Electronics N.V. Fast digital pan tilt zoom video
US20030053658A1 (en) * 2001-06-29 2003-03-20 Honeywell International Inc. Surveillance system and methods regarding same
JP3870124B2 (ja) * 2002-06-14 2007-01-17 キヤノン株式会社 画像処理装置及びその方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083243A (ja) * 1998-09-04 2000-03-21 Canon Inc 撮像装置、撮像システム、撮像制御方法、及び記憶媒体
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2002077887A (ja) * 2000-09-04 2002-03-15 Mitsubishi Electric Corp 自動監視方法および自動監視装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068041A (ja) * 2005-09-01 2007-03-15 Matsushita Electric Ind Co Ltd 広域監視パノラマシステム
JP4527638B2 (ja) * 2005-09-01 2010-08-18 パナソニック株式会社 広域監視パノラマシステム
JP2007208387A (ja) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd センサー配置装置、センサー制御装置およびセンサー制御システム
JP2009527149A (ja) * 2006-02-13 2009-07-23 ソニー株式会社 複数のビデオストリームを組み合わせるシステムおよび方法
US9182228B2 (en) 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
CN101636769B (zh) * 2006-12-07 2012-07-04 传感电子公司 用于视频监视系统视野对准的方法和装置
JP2015060327A (ja) * 2013-09-17 2015-03-30 株式会社リコー 投影装置、投影方法及び情報処理システム
JP2016220145A (ja) * 2015-05-25 2016-12-22 キヤノン株式会社 画像解析装置、画像解析方法、およびプログラム
JP2018074528A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 情報処理システムおよびその構成機器、実空間の監視方法

Also Published As

Publication number Publication date
JP3905116B2 (ja) 2007-04-18
EP1771005A1 (en) 2007-04-04
CN1914919A (zh) 2007-02-14
CN100566405C (zh) 2009-12-02
EP1771005B1 (en) 2012-02-29
JPWO2005076620A1 (ja) 2008-01-10
EP1771005A4 (en) 2010-03-17
ATE547896T1 (de) 2012-03-15

Similar Documents

Publication Publication Date Title
WO2005076620A1 (ja) 検出領域調整装置
JP4418805B2 (ja) 検出領域調整装置
JP3887403B2 (ja) カメラ端末および撮影領域調整装置
JP3886524B2 (ja) カメラ端末および監視システム
JP3968376B2 (ja) 撮影領域調整装置
JP3902222B2 (ja) 監視システム、監視方法及びカメラ端末
US7787013B2 (en) Monitor system and camera
US7880766B2 (en) Detection area adjustment apparatus
JP4931218B2 (ja) 撮像装置、物体検出方法及び姿勢パラメータの算出方法
JP3700707B2 (ja) 計測システム
US20060017812A1 (en) Camera link system, camera device and camera link control method
US20060055792A1 (en) Imaging system with tracking function
JP2016177640A (ja) 映像監視システム
JP7204346B2 (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2009010728A (ja) カメラ設置支援装置
JP4227037B2 (ja) 撮像システム及び校正方法
KR101916093B1 (ko) 객체 추적 방법
JP3875199B2 (ja) 撮影装置
WO2021251171A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2006033188A (ja) 監視装置および監視方法
KR101996907B1 (ko) 객체 추적 장치
JP2004320175A (ja) 監視カメラシステム
JP4846203B2 (ja) 画像領域設定装置及び画像領域設定方法
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム
WO2023166649A1 (ja) 移動軌跡情報処理装置、移動軌跡情報処理方法、および記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 11115152

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005517639

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005703781

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580004019.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005703781

Country of ref document: EP