WO2007013231A1 - 撮影領域調整装置 - Google Patents

撮影領域調整装置 Download PDF

Info

Publication number
WO2007013231A1
WO2007013231A1 PCT/JP2006/311863 JP2006311863W WO2007013231A1 WO 2007013231 A1 WO2007013231 A1 WO 2007013231A1 JP 2006311863 W JP2006311863 W JP 2006311863W WO 2007013231 A1 WO2007013231 A1 WO 2007013231A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
camera
cycle
shooting
period
Prior art date
Application number
PCT/JP2006/311863
Other languages
English (en)
French (fr)
Inventor
Katsuji Aoki
Atsushi Yoshida
Shoichi Araki
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2006535681A priority Critical patent/JP3968376B2/ja
Priority to US11/667,768 priority patent/US8154599B2/en
Publication of WO2007013231A1 publication Critical patent/WO2007013231A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to an apparatus for acquiring real-space image information using a plurality of cameras, and more particularly to an automatic adjustment apparatus and method for adjusting a shooting region of a camera.
  • the device has a first request to constantly monitor the area to be imaged without blind spots and to detect the object to be detected in the area to be monitored. Therefore, it is necessary to achieve the two requirements of the second requirement to acquire detailed information of the detection target existing in the imaging target area.
  • Patent Document 1 and Patent Document 2 are examples of such a typical conventional apparatus using a plurality of cameras.
  • FIG. 1 shows an apparatus for automatically adjusting the photographing region of the camera described in Patent Document 1 above.
  • the detection camera device 10010 uses the camera 10011 and the reflector 10012 to photograph the detection target over a wide imaging area, and extracts the detection target from the same image captured by the moving object extraction unit 10013. Since the position information extraction unit 10014 extracts the position information of the detection target, the detection camera device 10010 acquires the position information of the detection target over a wide imaging region.
  • the camera control unit 10022 controls the turning angle and the depression angle and the zoom ratio of the camera 10021 based on the position information of the detection target, and the determination camera device 1 0020 captures an enlarged image of the detection target.
  • the determination camera device 10020 acquires detailed information about the detection target.
  • FIG. 2 is a diagram showing imaging areas of the detection camera device 10010 and the determination camera device 10020.
  • black circles indicate the installation positions of the detection camera device 10110, and the detection camera device 10110 is a fixed camera. Circle or hexagon is each detection camera device 10110 The shooting area is shown. As shown in the figure, if each detection camera device 10110 is artificially and regularly installed, it becomes possible to always detect within the imaging target area, which is the monitoring target area, without a blind spot.
  • FIG. 3 shows an apparatus for automatically adjusting the photographing area of the camera described in Patent Document 2.
  • the moving object detection camera 10 211 that has the purpose of photographing the detection target over a wide photographing area has the purpose of changing its own photographing area by the posture control means 10212 and photographing an enlarged image of the detection target.
  • the monitoring camera 10221 changes its own shooting area by the posture control means 10222.
  • the shooting area of each camera is determined by the camera processing angle storage means 10231 and the camera angle of view storage means from the position of the detection target extracted from the image taken by the moving object detection camera 10211 and the shooting area of each camera in the image processing apparatus 10240. Determine based on information stored in advance in 10232.
  • FIG. 4 are diagrams used for explaining the method for determining the imaging region of each camera, and are images captured by the moving object detection camera 10211 divided into several block images.
  • the shooting area of the moving object detection camera 10211 is determined as follows. If there is a detection target in the block indicated by the diagonal lines in FIG. 4, each block position corresponds to the block position shown in FIG. 4 and the moving object moves in the direction indicated by the arrow in each block in FIG. The posture of the detection camera 1021 is changed to change the shooting area of the camera.
  • the imaging region of the moving object detection camera 10211 corresponding to each block position is determined in advance by a human, and the same information is preset in the camera angle-of-view storage means 10231.
  • the shooting area of the surveillance camera 10221 is determined as follows. When the detection target exists at the block position shown in FIG. 6, the posture of the monitoring camera 10221 is changed so that the imaging region indicated by the broken line is changed, and the imaging region of the camera is changed.
  • the photographing area of the monitoring camera 10221 corresponding to each block position is determined in advance by a human, and this information is preset in the camera angle-of-view storage means 10232.
  • the detection camera device 10010 is a patent document.
  • the moving object detection camera 10211 has a role of detecting a detection target over a wide imaging region.
  • the determination camera apparatus 10020 is described in Patent Document 2.
  • each camera has a fixed predetermined role, such that the monitoring camera 10221 is responsible for acquiring detailed information about the detection target, such as a magnified image to be detected.
  • the camera having one role fulfills the first requirement, and the camera having the other role fulfills the second requirement (first feature of the prior art).
  • the imaging region of the moving object detection camera 10211 is in the upper left block in FIG. 5 in response to a situation change in which there is a detection target in the upper left block in FIG. Based on information in a table format that describes the situation changes that were created in advance by humans and the shooting areas that correspond one-to-one. In addition, the shooting area of each camera is determined and adjusted (second feature of the prior art).
  • Patent Document 1 achieves the first requirement by installing a fixed camera in a regular position by a human in advance ( Third feature of the prior art).
  • Patent Document 3 discloses an apparatus that uses the camera No. 1 and automatically adjusts the shooting area of the camera. Patent Document 3 discloses two methods called “auto scan” and “auto pan” as methods for automatically adjusting the imaging region of a camera.
  • Fig. 8 is a diagram used to explain the "auto scan” method.
  • the camera 10701 sequentially selects a plurality of shooting areas from the first shooting area 10711 to the Nth shooting area 1071N shown in the figure. This is a method of automatically taking pictures.
  • shooting area information from the first shooting area 10711 to the Nth shooting area 107 1N is recorded in advance, and the attitude control means 10702 is based on the same information recorded in the recording unit 10703, and the attitude of the camera 10701 is recorded.
  • this method is realized.
  • Fig. 9 is a diagram used to explain the ⁇ auto pan '' method.
  • the camera 10801 automatically moves between the first pan angle 10811 and the second pan angle 10812 shown in the figure.
  • This is a technique that automatically adjusts the shooting area of the same power camera 10801 by repeating left and right panning.
  • mechanical switches provided at the first pan angle 10811 and the second pan angle 10812 determine that the camera 10801 is facing each pan angle, and the attitude control means 10802 This method is realized by controlling the posture.
  • the shooting area of the camera 10701 is changed based on the shooting area information of the first shooting area 10711 to the Nth shooting area 1071 N recorded in the recording means 10703.
  • the table does not correspond to the situation change contents one-to-one, but a table that describes the shooting areas that were prepared in advance by humans.
  • the camera's shooting area is determined and adjusted based on the format information (second feature of the prior art).
  • Patent Document 1 Japanese Patent No. 3043925 (Figs. 1 and 6)
  • Patent Document 2 Japanese Patent No. 3180730 (Fig. 1, Fig. 7 to Fig. 9)
  • Patent Document 3 Japanese Patent Laid-Open No. 1 288696
  • each information is based on information in a table format in which a situation change content assumed and set in advance by a human being and a shooting area corresponding to one-to-one are described. Because the camera's shooting area is determined and adjusted (second feature of the above-mentioned conventional technology), information on the table format that describes the situation change contents and the shooting area corresponding to each camera is displayed for each camera. It is necessary for human beings to make every assumption.
  • the information depends on the position and size of the area to be imaged, the situation changes assumed by humans, the position and number of cameras installed, and if there are changes, Each time, humans need to recreate the information. This work increases the number of cameras The more it increases, the more complicated it becomes, and the cost and load for it becomes enormous. In surveillance systems using cameras in buildings, it is very common to use more than a dozen cameras.
  • the first request is achieved by a human being installing the fixed camera at a regular position in advance (third feature of the conventional technique). If even one force S1 fails, the first requirement can no longer be achieved.
  • An object of the present invention is to provide an imaging area adjusting device capable of imaging an entire area to be imaged without blind spots.
  • an imaging area adjustment device is an imaging area adjustment device including a plurality of camera terminals, and each of the plurality of camera terminals is constant within a certain time.
  • a camera that shoots a virtual shooting area that is a virtual shooting area obtained by changing the position of the shooting area within the area, a communication means that transmits and receives virtual shooting area information indicating the virtual shooting area, and a self-camera Based on the virtual shooting area of the terminal and the virtual shooting area of the other power camera terminal indicated by the virtual shooting area information received by the communication device, the area obtained by adding the virtual shooting areas of the plurality of camera terminals is a predetermined shooting.
  • An adjustment means for adjusting the position of the virtual shooting area of the self-powered Mera terminal so as to cover the entire target area is provided.
  • the imaging target area is covered with a plurality of virtual imaging areas without blind spots by the cooperative operation of the plurality of camera terminals. Since the virtual shooting area is used compared to the method of covering the shooting target area with the actual shooting area, it is possible to arbitrarily set the area to be shot by one camera terminal, which has various sizes and sizes.
  • An imaging area adjusting device corresponding to the shape imaging target area is realized.
  • the “virtual imaging region” in the claims is, for example, the period in the embodiment.
  • T Corresponds to the shooting area, where one camera terminal takes a certain amount of time ⁇ ⁇ to pan and tilt
  • the “virtual detection area” is, for example, the period ⁇ detection area in the embodiment.
  • one sensor terminal changes the posture in the detection direction over a certain time T
  • the imaging area adjusting device further divides the area including the virtual imaging area of N ( ⁇ 2) camera terminals out of the plurality of camera terminals into N, and divides N A region dividing unit that assigns each of the regions to the N camera terminals, and the adjustment unit performs the adjustment using the region assigned to the camera terminal by the region dividing unit as a new virtual imaging region. It is good also as a structure to perform.
  • the area dividing means performs the division and the assignment when the virtual shooting areas of the N camera terminals are in an inclusive relationship, or the virtual shooting areas of the N camera terminals In the case of being adjacent, it is preferable to perform the division and the assignment.
  • the shooting target area is efficiently covered without blind spots by the virtual shooting areas of the plurality of camera terminals.
  • the area to be imaged is covered all over by the virtual imaging areas of multiple camera terminals, but this is not the optimal covering method. If there is a virtual shooting area that requires a very long shooting time compared to the virtual shooting area, it is possible to get out of that solution and find a global optimum solution.
  • the area dividing means reduces the time required for the camera to shoot a virtual shooting area for at least one camera terminal to be assigned, or is actually used by the camera. It is preferable that the division and the allocation are performed so that a portion other than the virtual shooting area in the area to be shot becomes small. Specifically, it is preferable that the area dividing unit performs the division and the allocation so that an aspect ratio of the virtual shooting area of the camera terminal approaches a aspect ratio of the shooting area of the camera. Specifically, the region dividing means may be configured to perform the division by selecting one division pattern from a plurality of predetermined division patterns. With this, There is a high possibility that a global optimum solution will be searched by escaping from the local optimum solution, which is great for shooting multiple camera terminals in the same area or shooting a virtual shooting area. Problems such as taking time are eliminated.
  • the camera may repeat changing the position of the imaging area within the virtual imaging area at a constant cycle.
  • the area dividing means may be placed in at least one camera terminal of the plurality of camera terminals.
  • the present invention is a centralized control type configuration in which a common adjustment unit for adjusting the detection area of all the camera terminals is provided only by the distributed control type configuration in which the adjustment unit is provided in each camera terminal. It can also be realized as a shooting area adjustment method and a program for causing a computer to execute the method. Also, it can be realized as a shooting area adjustment device (or system) consisting of a plurality of camera terminals, or can be realized as a single camera terminal. Furthermore, the present invention can be realized as a device that adjusts a detection area of a sensor capable of detecting a physical quantity, such as a fine movement sensor, instead of an imaging area that can be captured by a camera. Needless to say, the program according to the present invention can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
  • the camera cycle T of each camera terminal is automatically adjusted so that the total area covers the entire target area.
  • FIG. 1 is a block diagram showing the configuration of the first conventional technique.
  • FIG. 2 is an explanatory diagram showing a camera field of view according to the first prior art.
  • FIG. 3 is a block diagram showing the configuration of the second conventional technique.
  • FIG. 4 is an operation explanatory diagram of the second conventional technique.
  • FIG. 5 is an operation explanatory diagram of the second prior art.
  • FIG. 6 is an operation explanatory diagram of the second prior art.
  • FIG. 7 is an explanatory diagram of the operation in the second prior art.
  • FIG. 8 is a diagram for explaining the operation in the third prior art.
  • FIG. 9 is an operation explanatory diagram of the third prior art.
  • FIG. 10 is a diagram for explaining a photographing region of the camera according to the present invention.
  • FIG. 11 is a diagram for explaining the relationship between the period T of the camera and the size of the imaging region and various parameters.
  • FIG. 12 is a diagram for explaining the relationship between the period T of the camera and the size of the imaging region and various parameters.
  • FIG. 13 is a diagram for explaining the position of the imaging region of the camera.
  • FIG. 14 is a diagram for explaining an imaging method of a period T imaging area.
  • FIG. 15 is a diagram for explaining an imaging method of a period ⁇ imaging area.
  • FIG. 16 is a flowchart showing the procedure of the imaging method for the period ⁇ imaging area.
  • FIG. 17 is a flowchart showing the procedure of the imaging method for the period T imaging area.
  • FIG. 18 is a flowchart showing a procedure of an imaging method for a period T imaging area.
  • FIG. 19 is a diagram for explaining the shape of the imaging region.
  • FIG. 20 is a diagram for explaining the shape of an imaging region.
  • FIG. 21 is a diagram for explaining a region determination method.
  • Fig. 22 is a diagram for explaining a method of determining in which direction the other imaging area exists with respect to the imaging area.
  • FIG. 23 is a diagram for explaining a method for determining an imaging region adjacent to the imaging region.
  • FIG. 24 is a block diagram showing the configuration of an imaging area adjusting device according to the first embodiment of the present invention. It is.
  • FIG. 25 is a block diagram showing the configuration of the camera terminal according to Embodiment 1 of the present invention.
  • Fig. 26 is a block diagram showing the configuration of the operation terminal according to the first embodiment of the present invention.
  • FIG. 27 is a flowchart showing the processing performed by the adjustment unit A in Embodiment 1 of the present invention.
  • FIG. 28 is an explanatory diagram showing the function FA () according to the first embodiment of the present invention.
  • FIG. 29 is an explanatory diagram showing the function FA () according to Embodiment 1 of the present invention.
  • FIG. 30 is a diagram for explaining photographing efficiency in Embodiment 2 of the present invention.
  • FIG. 31 is a diagram for explaining the photographing efficiency in the second embodiment of the present invention.
  • FIG. 32 is a block diagram showing the configuration of the camera terminal according to Embodiment 2 of the present invention.
  • FIG. 33 is a flowchart showing the processing performed by the adjustment unit B in the second embodiment of the present invention.
  • FIG. 34 is a flowchart showing the processing performed by adjustment unit B in the second embodiment of the present invention.
  • FIG. 35 is a diagram for explaining the reassignment of the imaging area in the second embodiment of the present invention.
  • FIG. 36 is a diagram for explaining reassignment of the imaging area in the second embodiment of the present invention.
  • FIG. 37 is a diagram for explaining a division pattern of the imaging region in the second embodiment of the present invention.
  • FIG. 38 is a block diagram showing the configuration of the imaging area adjusting apparatus according to the third embodiment of the present invention.
  • FIG. 39 is a diagram for explaining an example in which the present invention is applied to a microphone.
  • FIG. 40 is a block diagram showing a configuration of a monitoring system including mobile cameras.
  • FIG. 41 is a diagram showing the behavior of the moving camera in the surveillance system.
  • Fig. 42 is a diagram showing how the moving camera moves on the rail track installed in the surveillance area. Explanation of symbols
  • the camera described here is a camera that can be used to take still pictures, such as a camera that shoots moving images that are continuous in time, such as 30 consecutive shots per second. Indicates.
  • FIG. 10 is a diagram for explaining a shooting area of the camera.
  • 5001 is the camera
  • FIG. 10 (c) is a graph showing the imaging region position at each time l ”T of the camera 5001 shown in FIGS. 10 (a) and 10 (b).
  • the expression "camera shooting area” is simply expressed, it is usually considered as an area where the camera is shooting at a certain time instant. If the camera does not change its posture at each moment, this is not a problem. However, if the camera is changing the posture of the camera at each moment, it is necessary to distinguish the “camera shooting area” separately as shown below.
  • the shooting area is referred to as a time T shooting area.
  • the first imaging area 5002 is the time 0 imaging area
  • the second imaging area 5003 is the time Ijl imaging area.
  • the area obtained by adding the first imaging area 5002 and the second imaging area 5003 is the period 0 to 1 imaging area or the period 2 imaging area.
  • the first imaging area 5002 and the second imaging area 5003 in the same imaging area have periodicity, and the period is 2.
  • Period 2 is also a shooting area.
  • 5201 is a camera, and the posture of the camera 5201 is variable by pan and tilt operations, and the angle of view of the camera 5201 is also variable.
  • 5202 is the time T shooting area, which is the area to be captured by the camera 5201 power IJT, and 5203 is the camera 5201 shooting at the period T.
  • the period T is the image area, and 5204 is the horizontal angle of view of the camera 5201.
  • Flat angle of view ⁇ a, C205 is the vertical angle of view of the camera 5201.
  • Time T This is the travel route of the shooting area 5202.
  • the camera 5201 will pan over time.
  • the position of the time T imaging region 5202 is moved along the route indicated by the time T imaging region moving path 5206 by changing the posture of the subject by tilting and tilting operations.
  • the size of the period T imaging area 5203 is the size of the camera 5201.
  • Pan and tilt movement speed and time to change posture T Camera to determine the size of shooting area 5202 5201 horizontal angle of view ⁇ a 5204 and vertical angle of view ⁇ a 5205, cycle T
  • the size of the period T imaging area 5203 increases.
  • Fig. 11 (b) is equivalent to the camera 5201 shown in Fig. 11 (a) in the period T.
  • FIG. 11 (b) time T shooting area 5202
  • the period T imaging area 5203 and the time T imaging area moving path 5205 are the same as in FIG.
  • the angle of view of the camera 5211 is also variable.
  • the period T camera 5211 has a different posture from the camera 5201 in the same position in the force space.
  • Reference numeral 13 denotes a vertical field angle @b which is a vertical field angle of the period T camera 5211.
  • the camera 5201 captures the period T imaging region 5203 in the period T.
  • the camera 5201 has the same period ⁇ ⁇ shooting area.
  • the horizontal field of view is the horizontal field of view 0b 5212 and the vertical field of view.
  • the angle can be regarded as a vertical angle of view 0b 5212.
  • the angle of view depends on the aspect ratio of the imaging surface such as a CCD, so the horizontal angle of view ⁇ a 5204 and the vertical angle of view ⁇ a 5205 Is German
  • the period T shooting area 5203 is determined by the
  • the vertical angle of view ® b 5212 can be controlled independently.
  • FIGS. 12 (a) and 12 (b) are diagrams showing the angle of view, pan or tilt angle of the camera 5201 in FIG. 11 (a) and the period T camera 5211 in FIG. 11 (b).
  • Fig. 12 (a) the force
  • the camera 5201 and the period T camera 5211 are respectively connected to the camera 5201 in FIG.
  • 5220 is the auxiliary line
  • 5221 is the maximum horizontal angle of view of the camera 5201 in the horizontal direction ⁇ a
  • 5222 is the maximum angle of view
  • ⁇ a / 2, 5223 is the maximum pan angle 0 a which is the maximum pan angle of the camera 5201
  • the camera 5201 has a maximum pan angle up and down around the auxiliary line 5220 ⁇ a 522
  • Pan up to 3. 5224 is the horizontal maximum angle of view of the period T camera 5211
  • Period T Camera Maximum Horizontal Angle of View ⁇ b, 5225 is the horizontal direction of Period T Camera 5211
  • the angle of view is the period T camera horizontal angle of view, 5226 is the period ⁇ camera horizontal angle of view ⁇
  • FIG. 12 (b) the camera 5201 and the period T camera 5211 are respectively shown in FIG.
  • camera 5201 and period T camera 5211 are in the same position in space.
  • the maximum tilt angle ⁇ &, and the camera 5201 is above the auxiliary line 5220
  • T The period that is the vertical angle of view of the camera 5211 ⁇
  • Period T Camera Vertical Angle of View ⁇ b / 2, 5237 is the tilt angle of Period T Camera 5211
  • the minimum horizontal angle of view @b in the horizontal direction is the minimum horizontal angle of view of the camera 5201 in the horizontal direction ⁇ a
  • Period equal to H_MIN H— T Minimum vertical field of view ®b of camera 5211 ®b is camera 52 IN CYCLE V. IN
  • the minimum vertical angle of view in the vertical direction of 01 is equal to a.
  • Angle is the maximum angle of camera 5201 ⁇ a 5223 and the maximum angle respectively.
  • ⁇ A 5233 equal period, period T pan angle of camera 5211 0b 5227 and
  • T—MAX CYCLE P Tilt angle 0b 5237 is a variable value within the range shown in (Equation 4).
  • V_MAX 0 6b T: MAX +-... (Equation 1)
  • FIG. 13 is a diagram for explaining the position of the imaging region of the camera.
  • 5301 is a lens for forming an image
  • 5302 is an image pickup surface such as a CCD for taking an image formed by the lens 5301
  • 5303 is a camera constituted by a lens 5301 and an image pickup surface 5302 force.
  • 5311 is the X-axis
  • 5312 is the Y-axis
  • 5313 is the Z-axis.
  • the camera coordinate axis system with 301 as the origin is constructed.
  • the Z axis 5313 is the line of sight of the camera 5303.
  • 5317 is the focal length f which is the distance from the lens 5301 force to the imaging surface 5302
  • 5318 is the imaging surface horizontal size W which is the horizontal size of the imaging surface 5302
  • 5319 is the imaging which is the vertical size of the imaging surface 5302.
  • the surface vertical size is H.
  • Configure the world coordinate system. 5324 is the displacement of the camera 5303 in the X-axis 5321 direction
  • 5327 is the horizontal angle of view of the 5303 camera.
  • the flat angle of view ⁇ , 5328 is the vertical angle of view ⁇ which is the vertical angle of view of the 5303 camera. 533
  • the upper shooting area, 5333 is the real space plane 5331 where the Z axis 5313 and the shooting area 5332 exist.
  • the points (X, Y, Z) are determined by the equation shown in (Equation 5) and the X-axis 5321 and Y-axis 5322 and
  • the 3 ⁇ 3 matrix value with M force as an element is the attitude reference point of camera 5303 (camera 53
  • P T R 00 22 3X3 matrix value is a matrix value representing the attitude displacement from the attitude reference point of the camera 5303, (X
  • the matrix value is calculated based on the rotation angle ( ⁇ , ⁇ , ⁇ ), which is the posture of the camera 5303.
  • the displacement can be read from the stepping motor.
  • the horizontal angle of view ⁇ 5327 and the vertical angle of view ⁇ 5328 are determined by the focal length f5317 and the imaging.
  • the position of the imaging region 5332 of the camera 5303 can be calculated.
  • the method for calculating the position of the shooting area of the camera is applied not only to the calculation of the position and viewpoint of the time T shooting area, but also to the calculation of the position and viewpoint of the period T shooting area.
  • TW TW TW TW TW TW TW TW ) Is the period T for shooting the shooting area.
  • 5401 is the period T imaging area
  • 5402 is the period T imaging area 5401 in the horizontal direction.
  • Size Lb, 5403 is the period T Vertical size Lb of the shooting area 5401
  • Horizontal size La of the shooting area 5404, 5406 is the current time T of the shooting area 5404
  • the vertical size La, 5407 is taken at the shooting time T next to the current time T.
  • Time T Moving distance L to the shooting area 5407, 5409 is the moving path of the time T shooting area
  • 5421 to 5423 are horizontal positions, respectively, from position H to position H, 5431 force, etc. 5
  • FIG. 16, FIG. 17, and FIG. 18 are flowcharts showing the procedure of the imaging method for the period T imaging area.
  • FIGS. 16 (a), 16 (b), 17 (a), and 17 (b) are flowcharts showing subroutines for moving the time T imaging region horizontally and vertically to the horizontal and vertical end positions.
  • the subroutine for moving in the horizontal left direction shown in Fig. 16 (a) is described below.
  • the subroutine calculates a moving distance L 5408 in FIGS. 14 and 15.
  • the moving distance L5408 is calculated by the equation shown in (Equation 18).
  • V is a predetermined pan speed.
  • T is a predetermined camera shooting interval.
  • step 5503 the water calculated in step 5502 is
  • step 550 If the horizontal surplus distance L is not less than the moving distance L5408, step 550
  • step 5504 the camera is left panned. As a result, in step 5504, the camera
  • the camera continues to pan, and in step 5505, the shooting period is
  • the shooting area reaches the horizontal end position.
  • step 5511 the subroutine calculates a moving distance L5408 in FIGS. 14 and 15.
  • the travel distance L5408 is calculated by the equation shown in (Equation 18).
  • step 5512 the current time T shooting area 5404 right end position.
  • Step 5514 If the moving distance is not less than L5408, proceed to Step 5514 and set the pan speed V to (Equation 21).
  • step 5514 the camera has a horizontal surplus distance L that is a moving distance L540.
  • the camera is operated to pan right during the shooting period T at the panning speed V shown in (Equation 22).
  • V P .- ( ⁇ 22)
  • step 5521 the subroutine calculates a moving distance L5408 in FIGS.
  • the travel distance L5408 is calculated by the equation shown in (Equation 23).
  • step 5522 the current time T
  • step 5 The vertical surplus distance L, which is the distance from the position to the vertical end position, is calculated. Then step 5
  • the vertical surplus distance L calculated in step 5522 is calculated in step 5521.
  • Step 5524 If the distance is not less than L5408, proceed to Step 5524 and set the tilt speed V to (Equation 24).
  • the camera is panned up for the shooting period ⁇ at the same tilt speed V (tilt speed
  • step a If the value is a positive value, it is an upward tilt operation, and if it is a negative value, it is a downward tilt operation), step
  • step 5524 the camera moves the vertical surplus distance L to the moving distance.
  • step 5525 the camera is raised only for the shooting period T at the tilt speed V shown in (Equation 25)
  • the camera In order to perform tilt operation, the camera is tilted upward by the vertical surplus distance L, and the camera time T Shooting area
  • step 5531 the subroutine calculates a moving distance L5408 in FIG. 14 and FIG.
  • the travel distance L5408 is calculated by the equation shown in (Equation 23).
  • step 5532 the current time T shooting area 5404 lower end position.
  • step 5 The vertical surplus distance L, which is the distance from the position to the vertical end position, is calculated. Then step 5
  • step 533 the vertical surplus distance L calculated in step 5532 is calculated in step 5531.
  • step 5534 If the distance is not less than L5408, go to step 5534 and set the tilt speed V to (Equation 26).
  • step 5534 the camera moves the vertical surplus distance L to the moving distance L54.
  • the time T shooting area is moved horizontally and vertically to the horizontal and vertical end positions. It can be moved.
  • the shooting interval T is the time T shooting area horizontal size La 5405 and time T shooting area vertical support.
  • the flowchart shown in FIG. 18 shows the time T imaging region shown in FIG. 16 (a) using the subroutine shown in FIGS. 16 (a), (b), 17 (a), and (b). Flow chart showing the main routine for moving along the moving path 5409 and shooting in the period T shooting area 5401
  • step 5541 the current time T shooting area 5404 in FIG.
  • the camera's time T shooting range is moved to the lower right position of the period T shooting area 5401.
  • step 5542 and step 5543 the horizontal end position is set to position H 5
  • the camera is panned to position H 5421 using the subroutine shown in Fig. 16 (b).
  • step 5544 and step 5545 the vertical end position is set to position V 5431, and the camera is moved to position V 5431 using the subroutine shown in FIG.
  • step 5546 and step 5547 the horizontal end position is set as position H 5422, and the position shown in FIG.
  • step 5548 and step 5549 the vertical end position is set to position V 5432 and the position V is set using the subroutine shown in FIG.
  • step 5550 and step 5551 the horizontal end position is set to position H 5423 and the subroutine shown in Fig. 16 (b) is used.
  • the time T shooting area is moved along the time T shooting area moving path 5409 in FIG.
  • the period T can be shot in the shooting area 5401.
  • FIG. 18 shows a flow in which the time T imaging region is moved along the time T imaging region moving path 5409 in FIG. 14 (a) and the period T imaging region 5401 is imaged.
  • the position H 5421 to the position H 5423 set as the horizontal end position, and the vertical end position
  • Position V 5431 to Position V 5434 are set to the position T
  • the period T shooting area vertical size Lb 5403 is the time T shooting area vertical size.
  • V 5432 is the vertical size of the shooting area La 5406
  • V 5432 is the vertical size of the shooting area La.
  • the time T shooting area is the period T shooting area 5401
  • period T imaging area horizontal size Lb 5402 period T imaging area vertical size
  • Period T calculated from roll angle ⁇ , horizontal angle of view ⁇ , vertical angle of view ⁇ , etc.
  • FIGS. 14 (a), 14 (b), and 15 show three examples of the time T imaging area moving path 5409.
  • the time T imaging area moving path 5409 is not limited to this. . If possible, a route that allows you to shoot evenly within the period T shooting area 5401 with a single stroke.
  • time T imaging region moving path 5409 has a period ⁇ imaging region horizontal size Lb 540
  • Period T Shooting area is equal or smaller than Time T shooting area, such as below the angle of view of 02
  • the entire period T shooting area can be shot at once with the time T shooting area.
  • the position of the time T imaging region is not moved by sequentially moving the position of the time ⁇ imaging region according to the method described above, and the position of the time T imaging region (the bread production
  • the roll angle) and size (zoom ratio) may be adjusted.
  • the period of the shadow area is 0, and the entire period T imaging area is always captured. In addition, time
  • the position and size of the T shooting area is determined by the time T shooting area and the period T shooting area.
  • the entire area can be shot and the period T shooting area is shot.
  • the time when the area is the least ⁇ The position and size of the shooting area should be adjusted.
  • FIG. 19 is a diagram for explaining the shape of the time T imaging region.
  • 5301 is a lens, 5302 ⁇ image pickup surface, 5303 ⁇ camera, 5313 car drive, 5321 car drive, 5322 ⁇ car drive, 5322 ⁇ car drive, 532
  • the shape, 5610 force, etc. 5613 are respectively the four corners of the ijT imaging area 5332 on the X axis 5321
  • Position X force, position X, 5620 force, etc. 5623 are respectively in Y axis 5322
  • the imaging area is a quadrangle consisting of sides parallel to the X axis 5321 and the Y axis 5322. Shi As shown in Fig. 19, when the camera 5303 is used, the IJT shooting area 5332 shows the shooting direction of the camera 5303.When the Z axis 5313 and the Z axis 5323 are not parallel, the X axis 5321 and the Y axis 532
  • the time T imaging area inscribed rectangle 5601 is inscribed in the time T imaging area 5332, and the X axis 5321 and the Y axis
  • a square consisting of sides parallel to 5322 is defined as the time T imaging region.
  • the positions of the four corners of the time T imaging area inscribed rectangle 5601 are as shown in FIG.
  • T Shooting area 5332 which is the position of the four corners From Y 5630 to Y 5633
  • the positions of the four corners of the inscribed rectangle 5601 at the time T photographing area are the positions.
  • the time T shooting area inscribed rectangle 5601 is not a square as described above, but is a rectangle that is inscribed in the time T shooting area 5332 and has side forces parallel to the X axis 5321 and the Y axis 5322.
  • FIG. 20 is a diagram for explaining the shape of the period ⁇ ⁇ imaging region.
  • 5321 is a diagram for explaining the shape of the period ⁇ ⁇ imaging region.
  • Is the X axis, 5322 is the Y axis, and 5332 is the time T imaging region, which is the same as in Fig. 13.
  • . 5630 is the period T imaging area, 5631 is inscribed in the period T imaging area 5630, and the X axis
  • Position X force position which is the position of the four corners of the imaging area 5630
  • the position of the corner is from position Y to position Y. As shown in Figure 20, the time T shooting area 53
  • the period T imaging area 5630 is parallel to the X-axis 5321 and Y-axis 5322.
  • the period ⁇ is within the imaging area.
  • a quadrangle consisting of sides parallel to the Y axis 5322 is defined as the period T imaging area.
  • Period T The position of the four corners of the imaging area inscribed rectangle 5631 is X axis 5 as shown in FIG.
  • the second and third largest positions in Y 5653 are the period T.
  • the period T is inscribed in the imaging area 5630 and the X axis 532
  • Position X 5643, and Y 5650 to Y 5653 position are the shooting areas of the camera described above.
  • pan angle ⁇ pan angle ⁇
  • tilt angle ⁇ tilt angle ⁇
  • roll angle ⁇ horizontal angle of view ⁇
  • the adjacent shooting area is the other shooting area closest to each direction such as up, down, left, and right with respect to the shooting area.
  • the procedure for obtaining an imaging area adjacent to the imaging area will be described below.
  • FIG. 21 is a diagram for explaining an area determination method.
  • 5701 is a point ⁇ existing at coordinates (X, ⁇ )
  • 5702 is a coordinate (X
  • the upper right region ⁇ ⁇ 5705 divided by the straight line ⁇ 5703 is the upper right region ⁇ ⁇ divided by the straight line ⁇ 5703.
  • the center of gravity point (an average value of each vertex position of the imaging region) of the other imaging region is set as the point ⁇ ⁇ , and it is determined in which direction the imaging region is located.
  • Figures 22 (a), (b), (c), and (d) determine in which direction the other shooting area exists relative to the shooting area. It is a figure explaining the method to do.
  • 5801 is a period T imaging region
  • the first vertex A, 5803 of 801 is a period T present at coordinates (X, Y).
  • the second vertex B of 1 and 5804 are the period T in the coordinate (X, Y) T
  • the third vertex C, 5805 is the period T that exists at the coordinates (X, Y).
  • the vertex D of the eye, 5806 is the period corresponding to the shooting area T Upward of the shooting area 5801
  • Areas B and 5808 are periods corresponding to the relevant imaging area.
  • Areas C and 5809 are the period corresponding to the shooting area T Left-hand area of the shooting area 5801
  • the other imaging area with the closest distance in each direction is set as an adjacent imaging area in the same direction. If there is another shooting area force determined in the above procedure and in a certain direction, it is set as an adjacent shooting area in the same direction, and if it is more than one, it is from the center of gravity of the other shooting area to the center of gravity of the shooting area. The other imaging area with the shortest distance is set as the adjacent imaging area.
  • the period T imaging region 5801 is assumed to be a plane as shown in FIG. 22 (a), but the period T imaging is taken as shown in FIGS. 22 (c) and (d).
  • the shadow area 5801 is a three-dimensional object, it is possible to obtain the adjacent photographing area in the same manner.
  • the adjacent shooting areas are other shooting areas that are closest to each direction such as up, down, left, and right with respect to the shooting area. Should be done for each subregion of the side. Then, among the adjacent other imaging areas selected in the partial areas of the side, the other imaging area with the longest distance should be the final adjacent imaging area. This is an example of the upper and right sides of the periodic TA imaging area 5901 shown in Fig. 23.
  • the period TB imaging area 5902 is changed to the partial area U2.
  • Cycle TB shooting area 5902 (Cycle TB shooting area 5902 is cycle TC shooting.
  • the shadow area 5903 is closer), and in the partial area U3, the periodic TC imaging area 5903 is adjacent.
  • the shooting area is in contact.
  • the other imaging area with the longest distance is the periodic TC imaging area 5903.
  • TA shooting area 5901 can be shot without blind spots on the upper side of 5901.
  • period TD shooting area 5904 is
  • the non-imaging area 122 (which will be described in detail in Embodiment 1 to be described later, but in the present invention, the non-imaging area is selected when there is no P-contact imaging area), and in the partial area R3, the period TE imaging area 5905 is determined as an adjacent imaging region.
  • the non-imaging area 122 is selected as the final adjacent imaging area. This is so that the right side of the period TA shooting area 5901 and the shooting target area boundary 5910 overlap.
  • the subject area is captured without a blind spot with respect to the right side of the period TA shooting area 5901.
  • the area of the camera period T of each camera terminal which is the sum of the shooting areas, covers the entire target shooting area.
  • the adjustment device will be described with reference to FIGS.
  • FIG. 24 (a) is a block diagram showing the configuration of the imaging area adjusting apparatus in the present embodiment.
  • This The imaging region adjusting apparatus includes a camera terminal A 101A to a camera terminal C 101C, an operation terminal 102, and a network 103 used during communication between the camera terminals 101A to 101C and the operation terminal 102.
  • an X-axis 110, a Y-axis 111, and a vertical axis 112 that are orthogonal to each other are defined in order to express the region and the position of the region. 113 is
  • the period TA shooting area 120A is the camera terminal A
  • period TB shooting area 120B is a camera
  • C is an area where the camera terminal C101C periodically shoots at the period TC, and the shooting target area 121
  • a non-photographing region 122 is a region other than the photographing target region 121.
  • Fig. 24 (b) is a diagram showing in detail the position of each imaging region on the real space surface 113 of the imaging region adjustment apparatus in the present embodiment shown in Fig. 24 (a).
  • 130AL, 130AR, 130AU, and 130AB each have a period TA imaging area 12
  • Shooting area 120A is surrounded by X 130AL, X 130AR, Y 130AU and Y 130AB
  • 0BL, 130BR, 130BU and 130BB each have a period TB shooting area of 120B.
  • Area 120A is an area surrounded by X 130BL, X 130BR, Y 130BU and Y 130BB.
  • 130CR, 130CU and 130CB are each the left end of the period TC shooting area 120C X
  • CL CR CU CB CYCLE OA is an area surrounded by X 130CL, X 130CR, Y 130CU and Y 130CB.
  • TR, 131TU, and 131TB are the left end X, right end X,
  • the shooting target area 121 is X 131TL X
  • This area is surrounded by 131TR, Y 131TU, and Y 131TB, and is a non-shooting area 12
  • period TA shooting area 120A and period TB shooting area 120B overlap.
  • the area surrounded by X 130BL X 130AR Y 130BU and Y 130AB is the camera
  • the terminal A 101A and the camera terminal B 101B are areas to be photographed in an overlapping manner, and the same area is defined as a photographing overlap area AB.
  • the size of the same region in the X axis 1 10 direction is X —X
  • the area surrounded by 30CL, X 130BR, Y 130CU and Y 130BB is the camera terminal.
  • the size of the region in the X-axis 1 10 direction is X -X.
  • the area surrounded by L, X 131TL, Y 130AU and Y 130AB is not subject to imaging
  • the area is AL.
  • the size of the region in the X axis 1 10 direction is X —X.
  • the area surrounded by OCR, Y 130CU and Y 130CB is the non-shooting overlap area CR.
  • the size of the region in the X axis 1 10 direction is X —X.
  • the area surrounded by 130AU and Y13 ITU is defined as the non-imaging overlap area AU. Same
  • the size of the axis 1 1 1 direction is Y -Y.
  • the area surrounded by 131TU is defined as a non-imaging overlap area BU.
  • the size of the direction is Y — Y.
  • the area surrounded by is the non-photographing overlap area BB. Same area Y axis 1 1 1 size
  • the size is Y -Y.
  • the area surrounded by X130CL, X130CR, Y130CU, and Y131TU is the non-imaging overlap area CU.
  • the size of ⁇ axis 1 1 1 direction in the same area is ⁇ ⁇
  • FIG. 25 is a configuration block diagram of each of the camera terminals 101A to 101C in FIG.
  • the camera terminals 101A to 101C include a camera 201, an adjustment unit A202 that is a processing unit that adjusts the shooting region position of the camera 201, and a communication unit 203 that communicates the shooting region position of the camera 201 via the network 103.
  • the lens 21 1 is a lens that forms an image
  • the imaging surface 212 is an imaging surface such as a CCD that captures an image formed by the lens 21 1
  • the image processing unit 213 processes an image captured on the imaging surface 2 12.
  • posture control unit 214 is a processing unit for controlling the posture of lens 21 1 and imaging surface 212, and the distance between lens 211 and imaging surface 212, and periodic imaging control unit 215 is periodically transmitted to posture control unit 214.
  • This is a processing unit that controls the camera 201 to capture the period T imaging region in period T by sending a typical attitude control signal.
  • Camera 20
  • the posture control of the lens 211 and the imaging surface 212 performed by the posture control unit 214 is a control generally referred to as panning or tilting, and the lens 211 and the imaging surface 212 are linked to each other. Or rotated around the axis.
  • the control of the distance between the lens 211 and the imaging surface 212 performed by the posture control unit 214 is a control generally referred to as zooming, and the camera is controlled by increasing or decreasing the distance between the lens 211 and the imaging surface 212.
  • the angle of view of La 201 is adjusted. More specifically, the camera 201 is a camera that captures a virtual imaging area, which is a virtual imaging area obtained by changing the position of the imaging area within a certain area within a certain time.
  • the communication unit 203 is a communication interface that transmits and receives virtual shooting area information indicating a virtual shooting area.
  • the adjustment unit A202 includes a plurality of camera terminals A to C based on the virtual shooting area of the self-powered Mera terminal and the virtual shooting area of the other power Mera terminal indicated by the virtual shooting area information received by the communication unit 203.
  • This is a processing unit that adjusts the position of the virtual shooting area of the own camera terminal so that the area obtained by adding the virtual shooting areas covers the predetermined shooting target area.
  • FIG. 26 is a block diagram showing the configuration of the operation terminal 102 in FIG. 24 (a).
  • the operation terminal 102 has X 131TL, X 131TR, Y 131TU and Y
  • Input section 301 for inputting 131 TB, position of imaging target area 121 input from input section 301
  • a camera 201 which is a component of each of the camera terminals 101A to 101C has an internal configuration shown in FIG.
  • the camera 201 an image formed by the lens 211 is converted into an image signal by the imaging surface 212, and the image processing unit 213 detects the image signal force detection target by a general image processing technique or an image recognition technique. And information extraction.
  • the camera 201 performs detection operations such as detection of a detection target and information extraction using the own time T imaging region determined by the posture of the lens 211 and the imaging surface 212 and the respective intervals with respect to the real space as the detection region. Do.
  • the camera 201 captures the period T imaging area in the period T by the period imaging control unit 215. For this reason, the camera 201 is
  • a detection operation such as detection of a detection target or information extraction is performed as an area.
  • Detected Information to be detected is sent to the communication unit 203.
  • the attitude control unit 214 force controls the attitude of the lens 211 and the imaging surface 212, or the distance between the lens 211 and the imaging surface 212, so Is moved to the position of the time T imaging region by the attitude control signal instructed by the periodic imaging control unit 215.
  • the posture control unit 214 acquires the position information of the time T photographing region of the camera 201 determined from the posture or interval of the lens 211 and the imaging surface 212 at the time T, and sends it to the periodic photographing control unit 215.
  • the position of the time T imaging region of the camera 201 is controlled by the periodic imaging control unit 215, and the position information of the time T imaging region of the camera 201 at the time T is sent to the periodic imaging control unit 215.
  • the method for calculating the position of the time T imaging region of the camera 201 determined from the attitude or interval of the lens 211 and the imaging surface 212 at 1 JT has been described in the above-mentioned imaging region position of the camera. Further, the posture and interval of the lens 211 and the imaging surface 212 can be changed by using, for example, a stepping motor, and the posture and interval at the time T can also be read.
  • the periodical imaging control unit 215 performs the method described in the period T imaging area imaging method.
  • attitude control signals such as pan speed V and tilt speed V are sent to attitude control unit 214.
  • the shooting interval ⁇ is necessary. In this embodiment, these values are determined in advance.
  • the adjustment unit A202 transmits the period T shooting range of the camera 201 sent from the cycle shooting control unit 215.
  • the position information of the area is periodically transmitted to the adjustment unit A202 of the other power camera terminal via the communication unit 203 and the network 103.
  • the adjustment unit A202 is a period T of the camera 201 in the other power camera terminal periodically transmitted from the adjustment unit A202 of the other power camera terminal.
  • the communication unit 203 of the operation terminal 102 periodically transmits the position information of the imaging target area 121 to the adjustment unit A202 of each camera terminal 101A 101C via the network 103.
  • the adjustment unit A202 includes the period T shooting area position information and shooting in the camera 201 of the self-powered Mera terminal and the other power Mera terminal.
  • each adjustment unit A202 is the position of the period TA imaging area 120A of the camera terminal 101A.
  • 131TL X 131TR Y 131TU and Y 131TB are connected to communication unit 203 and network
  • the adjustment unit A202 obtains the acquired position information of the period T imaging region and the imaging pair.
  • step 401 the period T of the camera 201 of the self-powered Mera terminal and the other power Mera terminal.
  • the period of the self-powered Mera terminal ⁇ is adjacent to the shooting area
  • the adjacent shooting target area is set as the non-shooting area 122. For this reason, in the camera terminal A101A, the non-shooting area 122 as the left neighbor, the top neighbor, and the bottom neighbor, and the period TB shooting area as the right neighbor
  • Non-shooting area 122 as upper and lower neighbors
  • periodic TC shooting area 120 as right neighbor
  • Camera terminal C101C has a period TB shooting area 120B on the left,
  • the non-imaging area 122 is selected as the lower neighbor and the right neighbor.
  • step 402 an amount indicating the size of the overlapping area, which is an area where the shooting area selected in step 401 and the shooting area of the own camera terminal overlap, is calculated. As shown in Fig. 24 (b), this calculation method can be easily calculated based on the size relationship between the selected shooting area position and the shooting area position of the self-powered Mera terminal. For this reason, in the camera terminal A101A, the amount X -X indicating the size of the non-shooting overlap area AL that is the overlap area on the left side
  • Amount X —X indicating the size of the shooting overlap area AB, which is the overlap area on the right
  • a non-photographing overlap area that is an area Amount Y — Y indicating the size of the AU, the overlap area below
  • Amount Y — Y indicating the size of a certain non-target overlapping area BU.
  • Amount Y — Y indicating the size of the non-shadow target overlap area BB.
  • a quantity Y -Y indicating the size of the non-shadowed overlapping area CB is calculated.
  • step 403 the photographing region position of the self-powered Mera terminal is adjusted so that the amount indicating the size of the overlapping region calculated in step 402 approaches a certain amount C.
  • the function FA () is defined as a quantity indicating the difference from In this embodiment, (Expression 33) to (Expression 3)
  • VERLAP The function shown in 5) is the same function.
  • is a constant.
  • X 130AL and X which are the positions of the periodic TA imaging area 120A

Abstract

 死角なく、撮影対象をくまなく撮影することが可能な撮影領域調整装置を提供する。  複数のカメラ端末を備え、複数のカメラ端末は、それぞれ、一定時間内に一定領域内で撮影領域の位置を変化させることによって得られる仮想的な撮影領域である仮想撮影領域を撮影するカメラ(201)と、カメラ(201)を制御することにより、仮想撮影領域の位置を調整する調整部B(204)とを備え、調整部B(204)は、自カメラ端末の仮想撮影領域と他カメラ端末の仮想撮影領域とに基づき、複数のカメラ端末の仮想撮影領域を和した領域が所定の撮影対象領域をくまなく覆うように、自カメラ端末の仮想撮影領域の位置およびアスペクト比を調整するとともに、当該カメラ端末の仮想撮影領域内にN個の他カメラ端末の仮想撮影領域Aが内包されている場合、当該カメラ端末の仮想撮影領域をN+1に分割する。

Description

明 細 書
撮影領域調整装置
技術分野
[0001] 本発明は、複数のカメラを用いて実空間の画像情報を取得する装置に関し、特に カメラの撮影領域を調整する自動調整装置および方法に関するものである。
背景技術
[0002] 近年、主に監視用途に利用される複数のカメラを用いた装置に対する研究開発が 盛んに行われている。同装置はその利用目的のために、監視を行う対象領域である 撮影対象領域に対し、撮影対象領域内を死角なく常時監視し、同領域内の検出対 象を検出するという第 1の要求と、撮影対象領域内に存在する検出対象の詳細な情 報を取得するという第 2の要求の 2つの要求を達成する必要がある。
[0003] 従来の複数のカメラを用いた装置では、各カメラの撮影領域を自動調整することに より、この 2つの要求を達成させている。そのような代表的な従来の複数のカメラを用 レ、た装置としては、特許文献 1および特許文献 2に示すものがある。
[0004] まず、特許文献 1に示す従来の装置について説明する。図 1は上記特許文献 1に 記載されたカメラの撮影領域を自動調整する装置を示すものである。図 1におレ、て、 検出カメラ装置 10010では、カメラ 10011および反射鏡 10012により、広い撮影領 域にわたって検出対象を撮影し、移動物体抽出部 10013が撮影した同画像より検 出対象を抽出し、位置情報抽出部 10014が同検出対象の位置情報を抽出するため 、検出カメラ装置 10010は、広い撮影領域にわたって検出対象の位置情報を取得 する。判定カメラ装置 10020では、カメラ制御部 10022が検出対象の位置情報をも とにカメラ 10021の旋回角および俯角およびズーム比率を制御し、判定カメラ装置 1 0020は検出対象の拡大画像を撮影するため、判定カメラ装置 10020は、検出対象 の詳細な情報を取得する。
[0005] 図 2は検出カメラ装置 10010および判定カメラ装置 10020の撮影領域を示す図で ある。同図において、黒丸は検出カメラ装置 10110の設置位置を示し、同検出カメラ 装置 10110は固定されたカメラである。円または六角形は各検出カメラ装置 10110 の撮影領域を示す。同図に示すように、各検出カメラ装置 10110を人為的に規則正 しく設置すれば、監視する対象領域である撮影対象領域内を死角なく常時検出する ことが可能になる。
[0006] つぎに、特許文献 2に示す従来の装置について説明する。図 3は上記特許文献 2 に記載されたカメラの撮影領域を自動調整する装置を示すものである。図 3において 、広い撮影領域にわたって検出対象を撮影する目的を負う移動物体検出用カメラ 10 211は、姿勢制御手段 10212により自身の撮影領域を変更し、検出対象の拡大画 像を撮影する目的を負う監視用カメラ 10221は、姿勢制御手段 10222により自身の 撮影領域を変更する。各カメラの撮影領域は画像処理装置 10240において、移動 物体検出用カメラ 10211が撮影した画像から抽出した検出対象の位置および各カメ ラの撮影領域から、カメラ画角記憶手段 10231およびカメラ画角記憶手段 10232に 予め記憶させた情報をもとに決定する。
[0007] 更に、各カメラの撮影領域決定方法を説明する。図 4および図 5および図 6は各カメ ラの撮影領域決定方法の説明に用いる図であり、数個のブロック画像に分割した移 動物体検出用カメラ 10211が撮影した画像である。まず、移動物体検出用カメラ 10 211の撮影領域は以下のように決定される。図 4の斜線で示すブロックに検出対象が 存在する場合には、それぞれのブロック位置が図 4に示すブロック位置と対応してい る図 5の各ブロックに記載した矢印の方向が示す方向に移動物体検出用カメラ 1021 ェの姿勢を変化させ、同カメラの撮影領域を変更する。各ブロック位置に対応した移 動物体検出用カメラ 10211の撮影領域は予め人間が決定しており、同情報はカメラ 画角記憶手段 10231に予め設定されている。次に、監視用カメラ 10221の撮影領 域は以下のように決定される。図 6に示すブロック位置に検出対象が存在する場合に は、破線で示した撮影領域になるよう監視用カメラ 10221の姿勢を変化させ、同カメ ラの撮影領域を変更する。各ブロック位置に対応した監視用カメラ 10221の撮影領 域は予め人間が決定しており、同情報はカメラ画角記憶手段 10232に予め設定され ている。
[0008] 上記従来の複数のカメラを用いた装置の撮影領域自動調整の特徴についてここに まとめる。まず、特許文献 1に示す従来の装置では検出カメラ装置 10010が、特許文 献 2に示す従来の装置では移動物体検出用カメラ 10211が、広い撮影領域にわた つて検出対象を検出する役割を負い、特許文献 1に示す従来の装置では判定カメラ 装置 10020が、特許文献 2に示す従来の装置では監視用カメラ 10221が、検出対 象の拡大画像のような、検出対象の詳細な情報を取得する役割を負う、というように、 各カメラはそれぞれの固定した予め決められた役割を分担し、一方の役割を負うカメ ラが上記第 1の要求を達成し、もう一方の役割を負うカメラが上記第 2の要求を達成し ている (従来技術の第 1の特徴)。
[0009] また、特許文献 2に示す従来の装置では、例えば、移動物体検出用カメラ 10211 の撮影領域は、図 4の左上ブロックに検出対象があるという状況変化に対し、図 5の 左上ブロックに示すような左上方向に移動した検出領域に変更するというように、予 め人間が想定し作成した状況変化内容と 1対 1に対応した撮影領域が記載されたテ 一ブル形式の情報をもとに各カメラの撮影領域を決定し調整する(従来技術の第 2の 特徴)。
[0010] また、特許文献 1に示す従来の装置は、図 2に示すように、予め人間が規則的な位 置に固定カメラを設置することにより、上記第 1の要求を達成している(従来技術の第 3の特徴)。
[0011] 以上、複数のカメラを用いた従来の装置の撮影領域の自動調整について説明した 、ここで、 1のカメラを用いた従来の装置の撮影領域の自動調整についても説明す る。 1のカメラを用レ、、同カメラの撮影領域を自動調整するものとして、特許文献 3に 示すものがある。特許文献 3では、カメラの撮影領域を自動調整する手法として、「ォ 一トスキヤン」および「オートパン」と呼ばれる 2つの手法を開示している。
[0012] まず、「オートスキャン」手法について説明する。図 8は「オートスキャン」手法の説明 に用いる図であり、「オートスキャン」手法は、同図に示す第 1撮影領域 10711から第 N撮影領域 1071Nの複数の撮影領域を、順次、カメラ 10701が自動的に撮影して レ、く手法である。記録手段 10703には、第 1撮影領域 10711から第 N撮影領域 107 1Nの撮影領域情報が予め記録されており、姿勢制御手段 10702が記録部 10703 に記録された同情報にもとづいてカメラ 10701の姿勢を制御し、カメラ 10701の撮影 領域を第 1撮影領域 10711から第 N撮影領域 1071Nの各撮影領域に順次変更さ せることにより、同手法は実現されている。
[0013] つぎに、「オートパン」手法について説明する。図 9は「オートパン」手法の説明に用 いる図であり、「オートパン」手法は、同図に示す第 1パン角度 10811から第 2パン角 度 10812の間を、カメラ 10801が自動的に左右パン動作を繰り返すことにより、同力 メラ 10801の撮影領域を自動調整する手法である。図 9に示していないが、第 1パン 角度 10811および第 2パン角度 10812に設けられた機械式スィッチにより、各パン 角度にカメラ 10801が向いたことを判定し、姿勢制御手段 10802がカメラ 10801の 姿勢を制御することにより、同手法は実現されている。
[0014] 上記従来の単体のカメラを用いた装置の撮影領域自動調整の特徴についてここに まとめる。特許文献 3に示す従来の装置では、例えば、カメラ 10701の撮影領域は、 記録手段 10703に記録された第 1撮影領域 10711から第 N撮影領域 1071 Nの撮 影領域情報をもとに変更されるように、複数のカメラを用いた装置の撮影領域自動調 整とほぼ同様に、状況変化内容と 1対 1に対応したものではないが、予め人間が想定 し作成した撮影領域が記載されたテーブル形式の情報をもとにカメラの撮影領域を 決定し調整する (従来技術の第 2の特徴)。
特許文献 1 :特許第 3043925号公報(図 1、図 6)
特許文献 2 :特許第 3180730号公報(図 1、図 7〜図 9)
特許文献 3:特開平 1 288696号公報
発明の開示
発明が解決しょうとする課題
[0015] し力 ながら、このような従来の装置では、まず、予め人間が想定し設定した状況変 化内容と 1対 1に対応した撮影領域が記載されたテーブル形式の情報をもとに各カメ ラの撮影領域を決定し調整しているために (上記従来技術の第 2の特徴)、カメラ毎 に、状況変化内容と 1対 1に対応した撮影領域が記載されたテーブル形式の情報を 人間が逐一想定し作成する必要がある。
[0016] 同情報は、撮影対象領域の位置や広さ、人間が想定した状況変化内容、各カメラ を設置する位置や台数などに依存しており、これらに変更などがあった場合には、そ の度に同情報を人間が逐一作成し直す必要がある。この作業は、カメラ台数が増え れば増えるほど煩雑であり、それに対するコストや負荷は膨大なものとなる。ビル内の カメラを用いた監視システムなどでは、 10数台のカメラを用いることはごく一般的であ る。
[0017] また、従来の装置では、予め人間が規則的な位置に固定カメラを設置することによ り上記第 1の要求は達成されているが(上記従来技術の第 3の特徴)、カメラ力 S1つで も故障した場合には、もはや上記第 1の要求を達成することはできない。
[0018] 仮に、図 7に示すように、検出カメラ装置 10010の数を増やすことにより、うち 1つが 故障した場合でも死角なく検出対象領域を覆うことはできるが、非効率と言わざるを 得ない。
[0019] そこで、本発明は、上記従来の課題を解決するものであり、人間が予め状況変化を 予測してテーブルを作成しておく必要がなぐかつ、カメラが故障した場合であっても 、死角なぐ撮影対象とする領域をくまなく撮影することが可能な撮影領域調整装置 を提供することを目的とする。
課題を解決するための手段
[0020] 上記目的を達成するために、本発明に係る撮影領域調整装置は、複数のカメラ端 末を備える撮影領域調整装置であって、前記複数のカメラ端末は、それぞれ、一定 時間内に一定領域内で撮影領域の位置を変化させることによって得られる仮想的な 撮影領域である仮想撮影領域を撮影するカメラと、前記仮想撮影領域を示す仮想撮 影領域情報を送受信する通信手段と、 自カメラ端末の仮想撮影領域と前記通信手 段によって受信される仮想撮影領域情報が示す他力メラ端末の仮想撮影領域とに基 づき、前記複数のカメラ端末の仮想撮影領域を和した領域が所定の撮影対象領域 をくまなく覆うように、 自力メラ端末の仮想撮影領域の位置を調整する調整手段とを備 えることを特徴とする。これによつて、複数のカメラ端末の協調動作により、複数の仮 想撮影領域によって撮影対象領域が死角なく覆われる。そして、実際の撮影領域に よって撮影対象領域を覆う方法に比べ、仮想撮影領域が使用されるので、 1台のカメ ラ端末が撮影する担当領域を任意に設定することができ、様々な大きさや形状の撮 影対象領域に対応した撮影領域調整装置が実現される。
[0021] なお、請求の範囲における「仮想撮影領域」は、例えば、実施の形態における周期 T 撮影領域に相当し、 1台のカメラ端末が一定時間 Τ をかけてパンやチルト
CYCLE CYCLE
等のスキャン動作をしながら連続撮影することによって得られる撮影領域の和である 。同様に、「仮想検出領域」は、例えば、実施の形態における周期 τ 検出領域に
CYCLE
相当し、 1台のセンサ端末が一定時間 T をかけて検出方向の姿勢を変化させる
CYCLE
スキャン動作をしながら連続検出することによって得られる検出領域 (検出空間)の和 である。
[0022] ここで、前記撮影領域調整装置は、さらに、前記複数のカメラ端末のうちの N (≥ 2) 個のカメラ端末の仮想撮影領域を内包する領域を N個に分割し、分割した N個の領 域それぞれを前記 N個のカメラ端末に割り当てる領域分割手段を備え、前記調整手 段は、前記領域分割手段によって自カメラ端末に割り当てられた領域を新たな仮想 撮影領域として、前記調整を行う構成としてもよい。このとき、前記領域分割手段は、 前記 N個のカメラ端末の仮想撮影領域が包含関係にある場合に、前記分割と前記割 り当てとを行ったり、前記 N個のカメラ端末の仮想撮影領域が隣接している場合に、 前記分割と前記割り当てとを行ったりするのが好ましい。これによつて、複数のカメラ 端末の仮想撮影領域によって撮影対象領域が効率良く死角なく覆われる。つまり、 複数のカメラ端末の仮想撮影領域によって撮影対象領域がくまなく覆われているが、 最適な覆い方とはいえない、局所的な最適解 (仮想撮影領域が包含関係にある場合 や、他の仮想撮影領域に比べて極めて大きな撮影時間を要する仮想撮影領域が存 在する場合など)に陥っている場合に、その解から脱出して大局的な最適解が求めら れ得る。
[0023] このとき、前記領域分割手段は、割り当ての対象となる少なくとも 1個のカメラ端末に ついて、前記カメラが仮想撮影領域を撮影するのに要する時間が小さくなる、又は、 前記カメラによって現実に撮影される領域のうち仮想撮影領域を除く部分が小さくな るように、前記分割と前記割り当てとを行うのが好ましい。具体的には、前記領域分割 手段は、前記カメラ端末の仮想撮影領域のアスペクト比が前記カメラの撮影領域のァ スぺタト比に近づくように、前記分割と前記割り当てとを行うのが好ましい。具体的に は、前記領域分割手段は、予め定められた複数の分割パターンの中から 1つの分割 パターン選択することによって、前記分割を行うように構成してもよい。これによつて、 局所的な最適解から脱出して大局的な最適解が探索される可能性が高くなり、同一 領域に対して複数のカメラ端末が重複して撮影したり、仮想撮影領域を撮影するの に大きな時間を要したりする等の不具合が解消される。
[0024] また、前記カメラは、一定周期で、前記仮想撮影領域内で撮影領域の位置を変化 させることを繰り返してもよい。さらに、前記領域分割手段は、前記複数のカメラ端末 の少なくとも 1個のカメラ端末内に置かれてもよい。
[0025] なお、本発明は、各カメラ端末に調整手段を設けた分散制御型の構成だけでなぐ 全てのカメラ端末の検出領域を調整する共通の調整手段を設けた集中制御型の構 成で実現したり、撮影領域調整方法、および、その方法をコンピュータに実行させる プログラムとして実現したりすることもできる。また、複数のカメラ端末からなる撮影領 域調整装置(あるいは、システム)として実現したり、個々のカメラ端末単体としても実 現できる。さらに、本発明は、カメラによる撮影可能な領域である撮影領域に代えて、 微動センサ等の物理量の検出が可能なセンサの検出領域を調整する装置として実 現することもできる。なお、本発明に係るプログラムを CD— ROM等の記録媒体ゃィ ンターネット等の伝送媒体を介して配信することができるのは言うまでもない。
発明の効果
[0026] 本発明の撮影領域調整装置よれば、各カメラ端末のカメラの周期 T 撮影領域
CYCLE
を和した領域が所定の撮影対象領域をくまなく覆うように各カメラ端末のカメラの周期 T 撮影領域が自動調整されるので、従来のようにカメラ毎に状況変化に対応した
CYCLE
周期 τ 撮影領域情報を人間が逐一想定して作成しておく必要がなぐかつ、カメ
CYCLE
ラが幾つか故障した場合においても、死角なく所定の撮影対象領域を効率的に覆う こと力 sできる。
[0027] よって、本発明により、任意の空間が死角なく撮影されることが保証され、特に、学 校やビル等における不審者の監視用システム等としてその実用的価値が高い。 図面の簡単な説明
[0028] [図 1]図 1は、第 1の従来技術における構成ブロック図である。
[図 2]図 2は、第 1の従来技術におけるカメラ視野範囲を示す説明図である。
[図 3]図 3は、第 2の従来技術における構成ブロック図である。 [図 4]図 4は、第 2の従来技術における動作説明図である。
園 5]図 5は、第 2の従来技術における動作説明図である。
園 6]図 6は、第 2の従来技術における動作説明図である。
園 7]図 7は、第 2の従来技術における動作説明図である。
園 8]図 8は、第 3の従来技術における動作説明図である。
園 9]図 9は、第 3の従来技術における動作説明図である。
[図 10]図 10は、本発明に係るカメラの撮影領域を説明する図である。
[図 11]図 11は.カメラの周期 T 撮影領域の大きさと各種パラメータの関係を説明 する図である。
[図 12]図 12は.カメラの周期 T 撮影領域の大きさと各種パラメータの関係を説明 する図である。
[図 13]図 13は.カメラの撮影領域の位置を説明する図である。
[図 14]図 14は.周期 T 撮影領域の撮影方法を説明する図である。
CYCLE
[図 15]図 15は.周期 τ 撮影領域の撮影方法を説明する図である。
CYCLE
[図 16]図 16は.周期 τ 撮影領域の撮影方法の手順を示すフローチャートである 園 17]図 17は、周期 T 撮影領域の撮影方法の手順を示すフローチャートである
CYCLE
[図 18]図 18は、周期 T 撮影領域の撮影方法の手順を示すフローチャートである
CYCLE
[図 19]図 19は 撮影領域の形状を説明する図である。
[図 20]図 20は 撮影領域の形状を説明する図である。
[図 21]図 21は 領域判定方法を説明する図である。
[図 22]図 22は 当該撮影領域に対し他撮影領域がどの方向に存在するかを判定す る方法を説明する図である。
園 23]図 23は、当該撮影領域に対する隣接する撮影領域を判定する方法を説明す る図である。
[図 24]図 24は、本発明の実施の形態 1における撮影領域調整装置の構成ブロック図 である。
園 25]図 25は、本発明の実施の形態 1におけるカメラ端末の構成ブロック図である。 園 26]図 26は、本発明の実施の形態 1における操作端末の構成ブロック図である。 園 27]図 27は、本発明の実施の形態 1における調整部 Aが行う処理を示すフローチ ヤートである。
園 28]図 28は、本発明の実施の形態 1における関数 FA ()を示す説明図である。 園 29]図 29は、本発明の実施の形態 1における関数 FA ()を示す説明図である。
[図 30]図 30は、本発明の実施の形態 2における撮影効率を説明する図である。 園 31]図 31は、本発明の実施の形態 2における撮影効率を説明する図である。 園 32]図 32は、本発明の実施の形態 2におけるカメラ端末の構成ブロック図である。 園 33]図 33は、本発明の実施の形態 2における調整部 Bが行う処理を示すフローチ ヤートである。
[図 34]図 34は、本発明の実施の形態 2における調整部 Bが行う処理を示すフローチ ヤートである。
園 35]図 35は、本発明の実施の形態 2における撮影領域の再割り当てを説明する図 である。
園 36]図 36は、本発明の実施の形態 2における撮影領域の再割り当てを説明する図 である。
園 37]図 37は、本発明の実施の形態 2における撮影領域の分割パターンを説明する 図である。
園 38]図 38は、本発明の実施の形態 3における撮影領域調整装置の構成ブロック図 である。
園 39]図 39は、本発明をマイクに適用した例を説明する図である。
[図 40]図 40は、移動カメラから構成される監視システムの構成を示すブロック図であ る。
園 41]図 41は、監視システムにおける移動カメラの動作の様子を示す図である。 園 42]図 42は、監視領域内に設置されたレールの軌道上を移動カメラが移動する様 子を示す図である。 符号の説明
[0029] 101 A〜C カメラ端末 A〜C
102 操作端末
103 ネットワーク
201 カメラ
202 調整部 A
203 通信部
204 調整部 B
211 レンズ
212 撮像面
213 画像処理部
214 姿勢制御部
215 周期撮影制御部
301 入力部
302 R己' 1思 p|5
発明を実施するための最良の形態
[0030] 以下、本発明の実施の形態について、図面を用いて詳細に説明する。
[0031] まず、具体的な実施の形態を説明する前に、レ、くつかの用語及び基本事項を説明 する。
[0032] (カメラの撮影領域)
まず、カメラの撮影領域について説明する。ここで説明するカメラとは、スチル写真 の撮影などに用いられる、ある一瞬の静止画像を撮影するカメラではなぐ例えば 1 秒間に 30枚連続撮影するなど、時間的に連続した動画像を撮影するカメラを示す。
[0033] 図 10はカメラの撮影領域を説明する図である。図 10 (a)及び (b)において、 5001 はカメラ、 5002はカメラ 5001力 S時亥 IJT= 0, 2, 4, · · , 2Nに撮影する領域である第 1 の撮影領域、 5003はカメラ 5001力 S時亥 IJT= 1 , 3, 5, · · , 2N + 1に撮影する領域で ある第 2の撮影領域である(Nは自然数)。図 10 (c)は、図 10 (a)及び (b)に示すカメ ラ 5001の各時亥 l」Tにおける撮影領域位置を示したグラフである。 [0034] 一般的に、「カメラの撮影領域」と単に表現した場合、ある時刻瞬間にカメラが撮影 している領域ととらえることが通常である。カメラが各瞬間に同カメラの姿勢を変更し ていないのであれば、このとらえ方は特に問題はなレ、。し力しカメラが各瞬間に同カメ ラの姿勢を変更しているのであれば、「カメラの撮影領域」は、以下に示すように、そ れぞれ区別してとらえることが必要である。
[0035] <時刻 T撮影領域 >
これは、時刻 Tの瞬間にカメラが撮影した領域を意味する。本明細書では、同撮影 領域を時刻 T撮影領域と表記する。図 10 (a)及び (b)におけて、第 1撮影領域 5002 は時刻 0撮影領域、第 2撮影領域 5003は時亥 Ij l撮影領域である。
[0036] <期間 T〜T撮影領域または期間 Τ撮影領域、および、周期 Τ 撮影領域 >
A B CYCLE
これらは、「仮想撮影領域」の一例であり、時刻 Tから時刻 Tの期間にカメラが撮影
A B
した領域を意味する。本明細書では、同領域を期間 τ〜 撮影領域と表記する。ま
A τ B
たは、時刻 Tから時刻 Tの期間 Tにカメラが撮影した領域として、期間 T撮影領域と
A B
表記する。更に、特に、同撮影領域内の各領域の撮影に周期性がある場合、同周期 性をもつ時間 T に撮影した領域といい、周期 T 撮影領域と表記する。図 10 (
CYCLE CYCLE
a)及び (b)において、第 1撮影領域 5002および第 2撮影領域 5003を和した領域は 、期間 0〜1撮影領域または期間 2撮影領域である。また、図 10 (c)に示すように、同 撮影領域内の第 1撮影領域 5002および第 2撮影領域 5003の撮影には周期性があ り、その周期は 2であるので、同撮影領域は周期 2撮影領域でもある。
[0037] (カメラの周期 T 撮影領域の大きさ)
CYCLE
つぎに、カメラの周期 T 撮影領域の大きさについて説明する。図 11 (a)及び (b
CYCLE
)は、カメラの周期 τ 撮影領域の大きさと各種パラメータの関係を説明する図であ
CYCLE
る。図 11 (a)において、 5201はカメラ、カメラ 5201の姿勢はパンおよびチルト動作に より可変であり、また、カメラ 5201の画角も可変である。 5202はカメラ 5201力時亥 IJT に撮影する領域である時刻 T撮影領域、 5203はカメラ 5201が周期 T に撮影す
CYCLE
る領域である周期 T 撮影領域、 5204はカメラ 5201の水平方向の画角である水
CYCLE
平画角 © a、 C205はカメラ 5201の垂直方向の画角である垂直画角 © a、 5206は
H V
時刻 T撮影領域 5202の移動経路である。カメラ 5201は、時間経過とともに、パンお よびチルト動作により自身の姿勢を変更させ、時刻 T撮影領域 5202の位置を時刻 T 撮影領域移動経路 5206に示す経路で移動することにより、周期 T 撮影領域 52
CYCLE
03を撮影している。このため、周期 T 撮影領域 5203の大きさは、カメラ 5201の
CYCLE
姿勢を変更するパンおよびチルト動作の速度、時刻 T撮影領域 5202の大きさを決 定するカメラ 5201の水平画角 © a 5204および垂直画角 © a 5205、周期 T の
H V CYCLE
時間的長さに依存することは明白であり、カメラ 5201のパンおよびチルト速度が早い ほど、また、カメラ 5201の画角が大きいほど、また、周期 T の時間的長さが長い
CYCLE
ほど、周期 T 撮影領域 5203の大きさは大きくなる。
CYCLE
[0038] (周期 τ 撮影領域を撮影するカメラの画角およびパンおよびチルト)
CYCLE
つぎに、周期 τ 撮影領域を撮影するカメラの画角およびパンおよびチルトにつ
CYCLE
いて説明する。図 11 (b)は、図 11 (a)に示すカメラ 5201と周期 T において等価
CYCLE
な周期 T カメラ 5211を示す図である。図 11 (b)において、時刻 T撮影領域 5202
CYCLE
、周期 T 撮影領域 5203および時刻 T撮影領域移動経路 5205は図 11 (a)と同
CYCLE
様である。 5211は周期 T 撮影領域 5203を撮影するカメラ、カメラ 5211の姿勢
CYCLE
はパンおよびチルト動作により可変であり、また、カメラ 5211の画角も可変である。た だし、周期 T カメラ 5211は、カメラ 5201と姿勢は異なる力 空間上同じ位置に存
CYCLE
在する。 5212は周期 T カメラ 5211の水平方向の画角である水平画角 、 52
CYCXE H
13は周期 T カメラ 5211の垂直方向の画角であるである垂直画角 @bである。
CYCLE V
図 11 (a)におけるカメラ 5201は、周期 T において周期 T 撮影領域 5203を
CYCLE CYCLE
撮影する。このため、周期 T においては、カメラ 5201は、同周期 Τ 撮影領域
CYCLE CYCLE
5203を撮影する図 11 (b)に示す周期 T カメラ 5211とみなせる。また、この周期
CYCLE
T カメラ 5211において、水平方向の画角は水平画角 0b 5212、垂直方向の画
CYCLE H
角は垂直画角 0b 5212とみなせる。
V
[0039] カメラ 5201などのような一般的なカメラにおいては、画角は CCDなどの撮像面のァ スぺタト比に依存しているために水平画角 © a 5204および垂直画角 © a 5205は独
H V
立した制御ができなレ、。し力、し、周期 T カメラ 5211におレヽては、カメラ 5201のパ
CYCLE
ンおよびチルト動作により周期 T 撮影領域 5203が決定しているため、一般的な
CYCLE
カメラのように CCDなどの撮像面のアスペクト比に依存せず、水平画角 0b 5212お
H よび垂直画角 ®b 5212は独立に制御することが可能である。
V
[0040] 図 12 (a)及び (b)は、図 11 (a)におけるカメラ 5201および図 11 (b)における周期 T カメラ 5211の画角、パンまたはチルト角を示す図である。図 12 (a)において、力
CYCLE
メラ 5201および周期 T カメラ 5211はそれぞれ、図 11 (a)におけるカメラ 5201お
CYCXE
よび図 11 (b)における周期 T カメラ 5211と同じものである。ただし、カメラ 5201
CYCLE
および周期 T カメラ 5211は空間上同じ位置に存在する力 図 12 (a)では見易く
CYCLE
するために、意図的にこれらカメラを並べて記載している。 5220は補助線、 5221は カメラ 5201の水平方向の最大画角である最大水平画角 © a 、 5222は最大画角
H— MAX
© a /2、 5223はカメラ 5201のパンの最大変位角である最大パン角 0 a で
H— MAX P— MAX あり、カメラ 5201は補助線 5220を中心に、それぞれ上下に最大パン角 © a 522
P— MAX
3までパン動作する。 5224は周期 T カメラ 5211の水平方向の最大画角である
CYCLE
周期 T カメラ最大水平画角 ©b 、 5225は周期 T カメラ 5211の水平方向
CYCLE H_ AX CYCLE
の画角である周期 T カメラ水平画角 、 5226は周期 Τ カメラ水平画角 Θ
CYCLE H CYCLE
b /2、 5227は周期 T カメラ 5211のパン角である周期 Τ カメラパン角
H CYCLE CYCLE P
である。
[0041] 図 12 (b)において、カメラ 5201および周期 T カメラ 5211はそれぞれ、図 11 (a
CYCLE
)におけるカメラ 5201および図 11 (b)における周期 T カメラ 5211と同じものであ
CYCLE
る。ただし、カメラ 5201および周期 T カメラ 5211は空間上同じ位置に存在する
CYCLE
力 図 12 (a)では見易くするために、意図的にこれらカメラを並べて記載している。 5 220は補助線、 5231はカメラ 5201の垂直方向の最大画角である最大垂直画角 Θ & 、 5232ま最大画角 Θ & /2、 5233ίまカメラ 5201のチノレ卜の最大変位角で
V— MAX V.MAX
ある最大チルト角 Θ & であり、カメラ 5201は補助線 5220を中心に、それぞれ上
T— MAX
下に最大チルト角 © a 5233までチノレト動作する。 5234は周期 T カメラ 5211
T— MAX CYCLE の垂直方向の最大画角である周期 T カメラ最大垂直画角 0b 、 5235は周期
CYCLE V— MAX
T カメラ 5211の垂直方向の画角である周期 Τ カメラ垂直画角 ©b 、 5236は
CYCLE CYCLE V
周期 T カメラ垂直画角 ©b /2、 5237は周期 T カメラ 5211のチルト角であ
CYCLE V CYCLE
る周期 τ カメラチルト角 ©bである。
CYCLE T
[0042] 図 12 (a)及び (b)に示すように、周期 T カメラ 5211の最大水平画角 0b 5
CYCLE H— MAX 224および最大垂直画角 5234は(式 1)で示され、周期 T カメラ 5211の
V— MAX CYCLE
水平方向の最小水平画角 @b は、カメラ 5201の水平方向の最小水平画角 Θ a
H_MIN H— に等しぐ周期 T カメラ 5211の垂直方向の最小垂直画角 ®b は、カメラ 52 IN CYCLE V. IN
01の垂直方向の最小垂直画角 © a に等しい。ただし、周期 T カメラ 5211が
V— MIN CYCLE
角 ©b 5227またはチノレト角 0b 5237だけパンまたはチルトしている場合、周期
T カメラ 5221の最大垂直画角 ©b 5224および最大垂直画角 0b 5234
CYCLE H— MAX V— MAX は、(式 2)に示す制限をうける。このため、周期 T カメラ 5211の水平画角 ©b 52
CYCLE H
25および水平画角 ©b 5235は、(式 3)に示す範囲の可変値である。また、図 12 (a
V
)及び (b)に示すように、周期 T カメラ 5211の最大パン角 0b および最大パ
CYCLE P— MAX
ン角 ©b はそれぞれ、カメラ 5201の最大 角 © a 5223および最大 角
P— MAX
© a 5233と等しレ 二のため、周期 T カメラ 5211のパン角 0b 5227および
T— MAX CYCLE P チルト角 0b 5237は、(式 4)に示す範囲の可変値である。
[0043] [数 1] θα
MAX +
eh V MAX
V_MAX 0) = 6b T: MAX + - …(式 1)
6 _ΜΆ' ~ H MIN
iON ~ V 層
[0044] [数 2] (式 2)
UUV一 MAX ( )≤6¾ 層 (0)-2χ| I .
[0045] [数 3] H _ 0bp
.(¾;3)
V 層 ≤^( )≤
[0046] [数 4]
0≤ΘΙ>ρ≤θαρ_
0 < ≤6b; T MAX [0047] (カメラの撮影領域位置および視点)
つぎに、カメラの撮影領域の位置および視点を算出する方法について説明する。 図 13はカメラの撮影領域の位置を説明する図である。図 13において、 5301は像を 結像させるためのレンズ、 5302はレンズ 5301で結像した像を撮影する CCDなどの 撮像面、 5303はレンズ 5301および撮像面 5302力、ら構成されるカメラである。 5311 は X軸、 5312は Y軸、 5313は Z軸であり、これらの各軸はお互い直交し、レンズ 5
C C C
301を原点としたカメラ座標軸系を構成し、特に Z軸 5313はカメラ 5303の視線 (撮 c
影方向)と一致する。 5314はカメラ 5303の Y軸 5312回りの回転角であるパン角 Θ c P
、 5315fまカメラ 5303の X車由 5311回りの回転角であるチノレ卜角 Θ 、 5316fまカメラ 5 c τ
303の Z軸 5313回りの回転角であるロール角 Θ である。カメラ 5303は自身の姿勢
C
をこれらの回転角だけ回転させる。 5317はレンズ 5301力ゝら撮像面 5302までの距離 である焦点距離 f、 5318は撮像面 5302の水平方向のサイズである撮像面水平サイ W、 5319は撮像面 5302の垂直方向のサイズである撮像面垂直サイズ Hである。
5321 ίま X軸、 5322ίま Υ軸、 5323ίま Ζ 軸であり、これらの各軸 ίまお互レヽ直交し、 w w w
世界座標軸系を構成する。 5324はカメラ 5303の X軸 5321方向の変位である変位
W
Δ Χ 、 5325ίまカメラ 5303の Y軸 5322方向の変位である変位 Δ Υ 、 5326ίま力
TW W TW
メラ 5303の Ζ 軸 5323方向の変位である変位 Δ Ζ である。カメラ 5303は世界座標
W TW
軸系において、(X , γ , ζ )で示される位置に存在し、同位置を基点として(Δ Χ
TW TW TW
, Δ Υ , Δ Ζ )だけ移動する。 5327は 5303カメラの水平方向の画角である水
TW TW TW
平画角 Θ 、 5328は 5303カメラの垂直方向の画角である垂直画角 Θ である。 533
Η V
1は Ζ =Ζ である実空間面、 5332はカメラ 5303が撮影している実空間面 5331
W CONST
上の撮影領域、 5333は、 Z軸 5313と撮影領域 5332が存在する実空間面 5331の
C
父点である視点であり、 Z軸 5313力 S示すカメラ 5303の視線の実空間面 5331上の c
位置を示す。
[0048] X軸 5321および Y軸 5322および Z軸 5323で構成されるカメラ座標軸系上のあ
C C C
る点(X , Y , Z )は、(式 5)に示す式により、 X軸 5321および Y 軸 5322および
PC PC PC W W
Z 軸 5323で構成される世界座標軸上の点 (X , Υ , Ζ )に変換できる。同式にお
W PC PC PW
いて、 M 力も M を要素とする 3 X 3行列値は、カメラ 5303の姿勢基準点(カメラ 53
00 22 03の姿勢の回転角度(Θ , Θ , Θ ) = (0, 0, 0))の行列値、 R 力 R を要素とす
P T R 00 22 る 3X3行列値は、カメラ 5303の姿勢基準点からの姿勢変位をあらわす行列値、(X
Τ
, Υ , Ζ )はカメラ 5303の位置基準点(カメラ 5303の位置の変位(ΔΧ , ΔΥ
W TW TW TW TVv
, ΔΖ ) = (0, 0, 0))の位置、(ΔΧ , ΔΥ , ΔΖ )はカメラ 5303の位置基準
TW TW TW TW
点からの位置変位をあらわす。
[数 5]
Figure imgf000018_0001
Figure imgf000018_0002
[0050] M 力 M を要素とする 3X3行列値や(X , Y , Z )は、カメラ 5303を姿勢基
00 22 TW TW TW
準点および位置基準点に合わせる、または、現在のカメラ 5303の姿勢および位置を それぞれ姿勢基準点および位置基準点とし、公知のキャリブレーション方法 (R. Tsa
1. A Versatile Camera Calibration 1 echmque tor High— Accuracy 3D Machine Vision Metrology Using Off— the— Shelf TV Cameras and Lenses. IEEE journal of Robotics and Automation, Vol. RA— 3 , No.4, pp. 323-344, 1987)などを用レヽることにより算出可肯であり、本発明の 撮影領域調整装置の動作開始前に事前に算出しておく。
[0051] カメラ 5303の姿勢基準点からの姿勢変位をあらわす R 力 R を要素とする 3X3
00 22
行列値は、(式 6)に示すように、カメラ 5303の姿勢である回転角度(Θ , Θ , Θ )よ
P T R
り算出可能である。カメラ 5303の姿勢である回転角度(Θ , Θ , Θ )、および、カメ
P T R
ラ 5303の位置基準点からの位置変位である(ΔΧ , ΔΥ , ΔΖ )は、同カメラ 53
TW TW TW
03の位置をステッピングモーターなどで変化させる仕組みであれば、同ステッピング モーターよりその変位を読み取れる。
[0052] [数 6]
Figure imgf000019_0001
sin ΘΆ OYl 0 0 cos Θ 0 一 sin©
■sin0j c Qn 0 cos ΘΓ sin©^ 1 0 …(式 6) 0 0 八 0 -sin Θ cos® C八 sin Θ 0 COS0^ J
[0053] 撮像面 5302上の各点(X , Y , f)は、 (式 7)により、 Ζ =Z である実空間面
PC PC W CONST
5331上に投影できる。撮像面 4隅の各点(一 W/2, — H/2, f )、 (W/2 , — Η/ 2, f)、(一W/2, H/2, f)、(W/2, H/2, f)を Z =Z である実空間面 5331
W CONST
上に投影した位置は、カメラ 5303の撮影領域 5332の 4隅の位置である。また、 Z軸 c
5313は撮像面 5302上の点(0, 0, f)をとおり、同点(0, 0, f )を Z =Z である実
W CONST
空間面 5331上に投影した位置は、カメラ 5303の視点 5333である。このため、(式 8 )〜(式 12)により、 Z =Z である実空間面 5331上のカメラ 5303の撮影領域 53
W CONST
32位置(点(X , Υ , Z )〜点(X , Υ , Z ))および視点 5333(点(X ,
PWO PWO PWO PW3 PW3 PW3 PW4
Υ , Ζ ))が算出可能である。
PW4 PW4
[0054] [数 7]
Figure imgf000019_0003
Figure imgf000019_0004
Figure imgf000019_0002
[0055] [数 8]
Figure imgf000020_0001
[0056] [数 9]
Figure imgf000020_0002
[0057] [数 10]
J …(式 10)
Figure imgf000021_0001
[0058] [数 11]
Figure imgf000021_0002
[0059] [数 12]
Figure imgf000021_0003
[0060] また、水平画角 Θ 5327および垂直画角 θ 5328は、焦点距離 f5317および撮像 面水平サイズ W5318および撮像面垂直サイズ H5319と(式 13 )に示すような関係 にある。このため、(式 14)〜(式 17)を用いても、 Z =Z である実空間面 5331上
W CONST
のカメラ 5303の撮影領域 5332位置が算出可能である。
[数 13]
Figure imgf000022_0001
[0062] [数 14]
Figure imgf000022_0002
[0063] [数 15]
Figure imgf000022_0004
Figure imgf000022_0003
[0064] [数 16]
Figure imgf000023_0001
[0065] [数 17]
7)
Figure imgf000023_0003
Figure imgf000023_0002
[0066] なお、上記カメラの撮影領域の位置を算出する方法は、時刻 T撮影領域の位置お よび視点の算出のみならず、周期 T 撮影領域の位置および視点の算出に適用
CYCLE
できる。周期 T 撮影領域の位置および視点の算出をするのであれば、(式 6)およ
CYCXE
び(式 13)〜(式 17)における、ノヽ。ン角 Θ 5314、チノレト角 Θ 5315、 ローノレ角 Θ 53
P T R
16、水平画角 Θ 5327および垂直画角 Θ 5328はそれぞれ、図 12 (a)及び(d)に
H V
示す、パン角 0b 5227、チノレト角 0b 5228、 ローノレ角 0b、水平画角 ©b 5225
P T R H
および垂直画角 ©b 5235とすればょレ、(ローノレ角 ©bは図 12 (a)及び(d)に示して
V R
いないが、カメラ 5201のロール角 0 aと同値である)。カメラ 5303の姿勢基準点の
R
行列値である M 力 M を要素とする 3 X 3行列値、カメラ 5303の位置基準点の位
00 22
置 (X , Υ , Ζ )、および、同位置基準点からの位置変位(ΔΧ , Δ Υ , Δ Ζ
TW TW TW TW TW TW )は、周期 T 撮影領域を撮影する周期 Τ カメラの位置および姿勢基準点は
CYCLE CYCLE
時刻 T撮影領域を撮影するカメラと同じとしたので、時刻 Τ撮影領域を撮影するカメラ のそれを用いればよい。
[0067] (周期 Τ 撮影領域の撮影方法)
CYCLE
つぎに、周期 T 撮影領域の撮影方法について説明する。図 14及び図 15は周
CYCLE
期 T 撮影領域の撮影方法を説明する図である。図 14 (a)、 (b)及び図 15におい
CYCLE
て、 5401は周期 T 撮影領域、 5402は周期 T 撮影領域 5401の水平方向の
CYCLE CYCLE
サイズ Lb、 5403は周期 T 撮影領域 5401の垂直方向のサイズ Lb
CYCLE V、 5404は現
H
時刻の時刻 T における撮影領域である現時刻 T 撮影領域、 5405は現時刻 T
NOW NOW N
撮影領域 5404の水平方向のサイズ La、 5406は現時刻 T 撮影領域 5404の
OW H NOW
垂直方向のサイズ La、 5407は現時刻の時刻 T の次の撮影時刻 T における
V NOW NEXT
撮影領域である現時刻 T 撮影領域、 5408は現時刻 Τ 撮影領域 5404から次
NEXT NOW
時刻 T 撮影領域 5407までの移動距離 L、 5409は時刻 T撮影領域の移動経路、
NEXT
5421から 5423はそれぞれ水平方向の位置である位置 Hから位置 H、 5431力ら 5
1 3
434はそれぞれ垂直方向の位置である位置 V力 位置 Vである。
1 4
[0068] また、図 16、図 17及び図 18は周期 T 撮影領域の撮影方法の手順を示すフロ
CYCLE
一チャートである。図 16 (a)、(b)、図 17 (a)、(b)に示すフローチャートはそれぞれ、 時刻 T撮影領域を左右上下に水平および垂直終端位置まで移動させるサブルーチ ンを示すフローチャートであり、まず、図 16 (a)に示す水平左方向へ移動させるサブ ルーチンを以下に説明する。まず同サブルーチンは、ステップ 5501において、図 14 及び図 15における移動距離 L5408を算出する。移動距離 L5408は、(式 18)に示 す式によって算出される。同式において、 V は、あらかじめ定めたパン速度であ
P— CONST
り、 Tは、あらかじめ定めたカメラの撮影間隔である。つぎに、ステップ 5502において
S
、現時刻 T 撮影領域 5404の左端位置から水平端位置までの距離である水平余
NOW
剰距離 Lを算出する。つぎに、ステップ 5503において、ステップ 5502で算出した水
H
平余剰距離 L力 Sステップ 5501で算出した移動距離 L5408以下であるかどうかを判
H
断する。そして、水平余剰距離 Lが移動距離 L5408以下でない場合、ステップ 550
H
4に進み、パン速度 Vを (式 19)に示す値とし、同パン速度 Vで撮影期間 T期間だ
P P S けカメラを左パン動作させ (パン速度が正の値の場合を右パン動作、負の値の場合 を左パン動作としている)、ステップ 5503に戻る。また、水平余剰距離 Lが移動距離
H
L5408以下である場合、パン速度 Vを(式 20)に示す値とし、同パン速度 Vで撮影
P P
期間 T期間だけカメラを左パン動作させる。この結果、ステップ 5504により、カメラは
S
水平余剰距離 Lが移動距離 L5408以下になるまで(式 19)に示すパン速度 Vで左
H P
パン動作し続け、さらに、ステップ 5505により、(式 20)に示すパン速度 Vで撮影期
P
間 T期間だけカメラを左パン動作させるために、水平余剰距離 Lだけ左パンし、カメ
S H
ラの時刻 τ撮影領域は水平端位置に達する。
[0069] [数 18]
CONST Χ Γ, ...^18)
[0070] [数 19] P
Figure imgf000025_0001
…(式 )
[0071] [数 20]
VP = ..^20)
ゾ s
[0072] つぎに、図 16 (b)に示す水平左方向へ移動させるサブルーチンを以下に説明する 。同サブルーチンの動作は図 16 (a)に示す水平右方向へ移動させるサブルーチン とほぼ同等である。まず同サブルーチンは、ステップ 5511において、図 14及び図 15 における移動距離 L5408を算出する。移動距離 L5408は(式 18)に示す式によって 算出される。つぎに、ステップ 5512において、現時刻 T 撮影領域 5404の右端位
NOW
置から水平端位置までの距離である水平余剰距離 Lを算出する。つぎに、ステップ
H
5513において、ステップ 5512で算出した水平余剰距離 L力 Sステップ 5511で算出
H
した移動距離 L5408以下であるかどうかを判断する。そして、水平余剰距離 Lが移
H
動距離 L5408以下でない場合、ステップ 5514に進み、パン速度 Vを(式 21)に示
P
す値とし、同パン速度 Vで撮影期間 T期間だけカメラを右パン動作させ、ステップ 5
P S
513に戻る。また、水平余剰距離 Lが移動距離 L5408以下である場合、パン速度 V
H
を (式 22)に示す値とし、同パン速度 Vで撮影期間 T期間だけカメラを右パン動作 させる。この結果、ステップ 5514により、カメラは水平余剰距離 Lが移動距離 L540
H
8以下になるまで(式 21)に示すパン速度 Vで右パン動作し続け、さらに、ステップ 5
P
515により、 (式 22)に示すパン速度 Vで撮影期間 T期間だけカメラを右パン動作さ
P S
せるために、水平余剰距離 Lだけ右パンし、カメラの時刻 T撮影領域は水平端位置
H
に達する。
[0073] [数 21]
^一曙 21)
[0074] [数 22]
VP = .-(^22)
[0075] つぎに、図 17 (a)に示す垂直上方向へ移動させるサブルーチンを以下に説明する 。同サブルーチンの動作は図 16 (a)に示す水平右方向へ移動させるサブルーチン とほぼ同等である。まず同サブルーチンは、ステップ 5521において、図 14及び図 15 における移動距離 L5408を算出する。移動距離 L5408は(式 23)に示す式によって 算出される。つぎに、ステップ 5522において、現時刻 T 撮影領域 5404の上端位
NOW
置から垂直端位置までの距離である垂直余剰距離 Lを算出する。つぎに、ステップ 5
V
523において、ステップ 5522で算出した垂直余剰距離 Lがステップ 5521で算出し
V
た移動距離 L5408以下であるかどうかを判断する。そして、垂直余剰距離 Lが移動
V
距離 L5408以下でない場合、ステップ 5524に進み、チルト速度 Vを(式 24)に示す
T
値とし、同チルト速度 Vで撮影期間 τ期間だけカメラを上パン動作させ (チルト速度
T S
が正の値の場合を上チルト動作、負の値の場合を下チルト動作としている)、ステップ
5523に戻る。また、垂直余剰距離 Lが移動距離 L5408以下である場合、チルト速
V
度 Vを (式 25)に示す値とし、同チルト速度 Vで撮影期間 T期間だけカメラを上チル
T T S
ト動作させる。この結果、ステップ 5524により、カメラは垂直余剰距離 Lが移動距離
V
L5408以下になるまで(式 24)に示すチルト速度 Vで上チルト動作し続け、さらに、
T
ステップ 5525により、(式 25)に示すチルト速度 Vで撮影期間 T期間だけカメラを上
T S
チルト動作させるために、垂直余剰距離 Lだけ上チルトし、カメラの時刻 T撮影領域
V
は垂直端位置に達する。 [0076] [数 23]
L = VT^CONST X TS … 23)
[0077] [数 24]
1 Γ =T COAST …^; 24)
[0078] [数 25]
Vr = …(式 25)
[0079] 最後に、図 17 (b)に示す垂直下方向へ移動させるサブルーチンを以下に説明する 。同サブルーチンの動作は図 16 (a)に示す水平右方向へ移動させるサブルーチン とほぼ同等である。まず同サブルーチンは、ステップ 5531において、図 14及び図 15 における移動距離 L5408を算出する。移動距離 L5408は(式 23)に示す式によって 算出される。つぎに、ステップ 5532において、現時刻 T 撮影領域 5404の下端位
NOW
置から垂直端位置までの距離である垂直余剰距離 Lを算出する。つぎに、ステップ 5
V
533において、ステップ 5532で算出した垂直余剰距離 Lがステップ 5531で算出し
V
た移動距離 L5408以下であるかどうかを判断する。そして、垂直余剰距離 Lが移動
V
距離 L5408以下でない場合、ステップ 5534に進み、チルト速度 Vを(式 26)に示す
T
値とし、同チルト速度 Vで撮影期間 T期間だけカメラを下パン動作させ、ステップ 55
T S
33に戻る。また、垂直余剰距離 Lが移動距離 L5408以下である場合、チルト速度 V
V
を (式 27)に示す値とし、同チルト速度 Vで撮影期間 T期間だけカメラを下チルト動
T T S
作させる。この結果、ステップ 5534により、カメラは垂直余剰距離 Lが移動距離 L54
V
08以下になるまで(式 26)に示すチルト速度 Vで下チルト動作し続け、さらに、ステツ
T
プ 5535により、(式 27)に示すチルト速度 Vで撮影期間 T期間だけカメラを下チルト
T S
動作させるために、垂直余剰距離 Lだけ下チルトし、カメラの時刻 T撮影領域は垂直
V
端位置に達する。
[0080] [数 26]
VT = VT CONST …(^ [0081] [数 27]
Vr = ^ … 7)
[0082] 以上のように、図 16 (a)、(b)、図 17 (a)、(b)に示すサブルーチンのフローに従え ば、時刻 T撮影領域を左右上下に水平および垂直終端位置まで移動させることが可 能となる。なお、あらかじめ定めるパン速度 V Tおよびチルト速度 V および
P.CONS T— CONST 撮影間隔 Tは、時刻 T撮影領域水平サイズ La 5405および時刻 T撮影領域垂直サ
S H
ィズ La 5406に対し、(式 28)に示す関係にあるものとする。
V
[0083] [数 28]
Figure imgf000028_0001
図 18に示すフローチャートは、上記図 16 (a)、 (b)、図 17 (a)、(b)に示すサブル 一チンを用いて時刻 T撮影領域を図 14 (a)の時刻 T撮影領域移動経路 5409に沿つ て移動させ、周期 T 撮影領域 5401内を撮影するメインルーチンを示すフローチ
CYCLE
ヤートである。まず、ステップ 5541において、図 14 (a)の現時刻 T 撮影領域 5404
NOW
のように、カメラの時刻 T撮影範囲を周期 T 撮影領域 5401の右下位置に移動さ
CYCLE
せる。つぎにステップ 5542およびステップ 5543において、水平終端位置を位置 H 5
1
421として、図 16 (b)に示すサブルーチンを用いて位置 H 5421までカメラを右パン
1
動作させる。つぎにステップ 5544およびステップ 5545において、垂直終端位置を位 置 V 5431として、図 17 (a)に示すサブルーチンを用いて位置 V 5431までカメラを
1 1
上チルト動作させる。つぎにステップ 5546およびステップ 5547において、水平終端 位置を位置 H 5422として、図 16 (a)に示すサブルーチンを用いて位置 H 5422ま
2 2 でカメラを左パン動作させる。つぎにステップ 5548およびステップ 5549において、 垂直終端位置を位置 V 5432として、図 17 (a)に示すサブルーチンを用いて位置 V
2 2
5432までカメラを上チルト動作させる。つぎにステップ 5550およびステップ 5551に おいて、水平終端位置を位置 H 5423として、図 16 (b)に示すサブルーチンを用い
3
て位置 H 5423までカメラを右パン動作させ、ステップ 541に戻る。このフローによれ
3
ば、時刻 T撮影領域を図 14 (a)の時刻 T撮影領域移動経路 5409に沿って移動させ 、周期 T 撮影領域 5401内を撮影することができる。
CYCLE
[0085] なお、図 18には、時刻 T撮影領域を図 14 (a)の時刻 T撮影領域移動経路 5409に 沿って移動させ、周期 T 撮影領域 5401内を撮影するフローを示したが、時刻 T
CYCLE
撮影領域を図 14 (b)の時刻 T撮影領域移動経路 5409に沿って移動させ、または、 時刻 T撮影領域を図 15の時刻 T撮影領域移動経路 5409に沿って移動させ周期 T
CY
撮影領域 5401内を撮影する場合には、水平および垂直終端位置の設定および
CLE
図 16 (a)、(b)、図 17 (a)、(b)に示すサブルーチンの呼び出し順番を入れ変えるこ とで撮影可能であることは自明であるので、説明を省略する。
[0086] また、水平終端位置に設定する位置 H 5421から位置 H 5423、および、垂直終端
1 3
位置に設定する位置 V 5431から位置 V 5434はそれぞれ、周期 T 撮影領域水
1 4 CYCLE
平サイズ Lb 5402、周期 T 撮影領域垂直サイズ Lb 5403、時刻 T撮影領域水
H CYCLE V
平サイズ La 5405、時刻 T撮影領域垂直サイズ La 5406の関係より算出可能である
H V
。たとえば、周期 T 撮影領域垂直サイズ Lb 5403が時刻 T 撮影領域垂直サイ
CYCLE V
ズ La 5406の 2. 8倍である場合、図 14 (a)の位置 V 5431は撮影領域垂直サイズ L
V 1
a 5406の 2倍の大きさ、図 14 (a)の位置 V 5432は撮影領域垂直サイズ La 5406
V 2 V の 2, 8倍の大きさとすればよぐ図 14 (a)の位置 V 5432は撮影領域垂直サイズ La
2 V
5406の 3倍の大きさであってもよい。図 14 (a)の位置 V 5432を撮影領域垂直サイ
2
ズ La 5406の 3倍の大きさとした場合、時刻 T撮影領域は周期 T 撮影領域 5401
V CYCLE
をはみ出すことになるが、周期 T 撮影領域 5401内はすべて撮影されるので、特
CYCLE
に問題はない。
[0087] また、周期 T 撮影領域水平サイズ Lb 5402、周期 T 撮影領域垂直サイズ
CYCLE H CYCLE
Lb 5403、時刻 T撮影領域水平サイズ La 5405、時刻 T撮影領域垂直サイズ La 5
V H V
406は、前記したカメラの撮影領域位置の算出方法を用レ、、パン角 Θ 、チルト角 Θ
P T
、ロール角 Θ 、水平画角 Θ および垂直画角 Θ などから算出した周期 T 撮影領
R H V CYCLE
域および時刻 T撮影領域の 4隅の位置をもとに算出することが可能である。
[0088] また、図 14 (a)、(b)及び図 15に、 3例の時刻 T撮影領域移動経路 5409を示した が、時刻 T撮影領域移動経路 5409はこれのみ限るものではなレ、。できることなら一 筆書きで、周期 T 撮影領域 5401内をまんべんなく撮影する経路ならよい。
CYCLE [0089] また、時刻 T撮影領域移動経路 5409は、周期 Τ 撮影領域水平サイズ Lb 540
CYCLE H
2、周期 T 撮影領域垂直サイズ Lb 5403、時刻 T撮影領域水平サイズ La 5405
CYCLE V H
、時刻 T撮影領域垂直サイズ La 5406の大きさにより、図 14 (a)、 (b)及び図 15など
V
に示す時刻 T撮影領域移動経路 5409を選択してもよい。
[0090] また、以上の説明は全て、時刻 T撮影領域よりも周期 T 撮影領域が大きい場合
CYCLE
を想定して説明している。図 11 (a)〜(b)によれば、時刻 Tカメラ水平画角 © a ≥周
H
期 T カメラ水平画角 、時刻 Tカメラ垂直画角 © a ≥周期 T カメラ垂直画
CYCLE H V CYCLE
角 ©bと、水平垂直方向共、周期 T 撮影領域 5203の画角が時刻 T撮影領域 53
V CYCLE
02の画角以下など、時刻 T撮影領域よりも周期 T 撮影領域が等しいまたは小さ
CYCLE
い場合は、時刻 T撮影領域をもって周期 T 撮影領域全域を一度に撮影できる。
CYCLE
この場合、以上説明した手法により時刻 τ撮影領域の位置を逐次移動して撮影せず 、周期 τ 撮影領域全域を撮影するように時刻 T撮影領域の位置 (パン产ノ
CYCLE
ロール角)および大きさ(ズーム比)を調整してやればよい。この場合、周期 T 撮
CYCLE
影領域の周期は 0であり、常時周期 T 撮影領域全域を撮影されている。なお、時
CYCLE
刻 T撮影領域の位置および大きさは、時刻 T撮影領域をもって周期 T 撮影領域
CYCLE
全域を撮影でき、かつ、周期 T 撮影領域を撮影してレ、ない時刻 T撮影領域内の
CYCLE
領域が最も少ない時刻 τ撮影領域の位置および大きさに調整されるべきである。
[0091] (撮影領域の形状)
つぎに、時刻 T撮影領域および周期 T 撮影領域の形状について説明する。図
CYCLE
19は、時刻 T撮影領域の形状を説明する図である。図 19において、 5301はレンズ、 5302ίま撮像面、 5303ίまカメラ、 5313ま Ζ車由、 5321ま X 車由、 5322ίま Υ 車由、 532
C W W
3は Ζ 軸、 5332は時亥 IJT撮影領域であり、これらは図 13と同様である。 5601は時亥 lj w
T撮影領域 5332に内接し、 X軸 5321および Y軸 5322に平行な辺からなる四角 w w
形、 5610力ら 5613はそれぞれ、 X 軸 5321における時亥 ijT撮影領域 5332の 4隅の w
位置である、位置 X力、ら位置 X、 5620力、ら 5623はそれぞれ、 Y 軸 5322における
1 4 W
時刻 T撮影領域 5332の 4隅の位置である、位置 Yから位置 Yである。
1 4
[0092] 本実施の形態では、説明を簡単にするために、時刻 T撮影領域および周期 T
CYCLE
撮影領域は X軸 5321および Y 軸 5322に平行な辺からなる四角形としている。し 力し図 19に示すように、カメラ 5303の時亥 IJT撮影領域 5332は、カメラ 5303の撮ノ影 方向を示す Z軸 5313と Z 軸 5323が平行でない場合、 X 軸 5321および Y軸 532
C W W W
2に平行でない辺からなる矩形の領域となる。このような場合、時刻 T撮影領域内接 四角形 5601に示すような、時刻 T撮影領域 5332に内接し、 X軸 5321および Y軸
W W
5322に平行な辺からなる四角形を時刻 T撮影領域とする。時刻 T撮影領域内接四 角形 5601の 4隅の位置は、図 19に示すように、 X 軸 5321における時刻 T撮影領域
W
5332の 4隅の位置である位置 X 5620力、ら位置 X 5623、 Y軸 5322における時亥 lj
1 4 W
T撮影領域 5332の 4隅の位置である位置 Y 5630から位置 Y 5633それぞれの大小
1 4
関係によって求めることができる。位置 X 5620から位置 X 5623の内の 2番目および
1 4
3番目に大きな位置、位置 Y 5630力、ら位置 Y 5633の内の 2番目および 3番目に大
1 4
きな位置が、時刻 T撮影領域内接四角形 5601の 4隅の位置である。なお、時刻 T撮 影領域内接四角形 5601は、上記のような求め方の四角形でなくても、時刻 T撮影領 域 5332に内接し、 X軸 5321および Y軸 5322に平行な辺力 なる四角形であれ
W W
ί よレヽ。また、位置 X 5620力ら位置 X 5623、および、位置 Υ 5630力ら位置 Υ 563
1 4 1 4
3は、前記したカメラの撮影領域位置の算出方法を用レ、、パン角 Θ 、チルト角 Θ 、口
Ρ Τ
ール角 Θ 、水平画角 Θ および垂直画角 Θ などから算出することが可能である。
R Η V
[0093] 図 20は、周期 Τ 撮影領域の形状を説明する図である。図 20において、 5321
CYCLE
は X軸、 5322は Y軸、 5332は時刻 T撮影領域であり、これらは図 13と同様である w w
。 5630は周期 T 撮影領域、 5631は周期 T 撮影領域 5630に内接し、 X 軸
CYCLE CYCLE W
5321および Y軸 5322ίこ平行な辺力らなる四角形、 5640力ら 5643ίまそれぞれ、 X w
軸 5321における周期 Τ 撮影領域 5630の 4隅の位置である、位置 X力 位置
W CYCLE 5
X、 5650力ら 5653はそれぞれ、 Y軸 5322における周期 T 撮景領域 5630の 4
8 W CYCXE
隅の位置である、位置 Yから位置 Yである。図 20に示すように、時刻 T撮影領域 53
5 8
32と同様に、周期 T 撮影領域 5630も、 X軸 5321および Y 軸 5322に平行で
CYCLE W W
ない辺からなる矩形の領域となることがある。このような場合、周期 τ 撮影領域内
CYCLE
接四角形 5631に示すような、周期 T 撮影領域 5630に内接し、 X 軸 5321およ
CYCLE W
び Y軸 5322に平行な辺からなる四角形を周期 T 撮影領域とする。
W CYCLE
[0094] 周期 T 撮影領域内接四角形 5631の 4隅の位置は、図 20に示すように、 X軸 5
CYCLE W 321における周期 T 撮影領域 5630の 4隅の位置である位置 X 5640から位置 X
CYCLE 5
5643、 Y車由 5322における周期 T 撮 ,影領域 5630の 4隅の位置である位置 Y 5
8 W CYCLE 5
650から位置 Y 5653それぞれの大小関係によって求めることができる。位置 X 564
8 5
0から位置 X 5643の内の 2番目および 3番目に大きな位置、位置 Y 5650から位置
8 5
Y 5653の内の 2番目および 3番目に大きな位置が、周期 T 撮影領域内接四角
8 CYCLE
形 5631の 4隅の位置である。なお、周期 T 撮影領域内接四角形 5631は、上記
CYCXE
のような求め方の四角形でなくても、周期 T 撮影領域 5630に内接し、 X 軸 532
CYCLE W
1および Y軸 5322に平行な辺からなる四角形であればよい。また、位置 X 5640力
W 5 ら位置 X 5643、および、置 Y 5650から位置 Y 5653は、前記したカメラの撮影領域
8 5 8
位置の算出方法を用い、パン角 Θ 、チルト角 Θ 、ロール角 θ 、水平画角 θ および
P T R Η
垂直画角 Θ などから算出することが可能である。
V
[0095] (隣接する撮影領域)
つぎに、隣接する撮影領域について説明する。隣接する撮影領域とは、当該撮影 領域に対し上下左右などの各方向に最も近い他撮影領域のことである。当該撮影領 域に対し隣接する撮影領域を求めるため手順を以下に説明する。
[0096] まず、当該撮影領域に対し他撮影領域がどの方向に存在するかを判定する。この 判定のために、図 21に示す判定方法を利用する。図 21は領域判定方法を説明する 図である。図 21において、 5701は座標(X , Υ )に存在する点 Α、 5702は座標(X
A A B
, Υ )に存在する^; Β、 5703ίま, A5701および^; Β5702を通る直 HAB、 5704ίま
Β
直線 ΑΒ5703により分割される図面右上の領域 Α、 5705は直線 ΑΒ5703により分 割される図面右上の領域 Βである。図 21において、座標 (X , Υ )に存在するある点
Ζ Ζ
Ζが領域 Α5704に存在するのであれば、(式 29)が成り立つ。また、点 Ζが領域 Β57 05存在するのであれば、(式 30)が成り立つ(なお、点 Ζが直線 ΑΒ5703上に存在す る場合は領域 Β5705存在するとしてレ、る)。両式を評価すれば点 Ζが領域 Α5704ま たは領域 Β5705のどちらに存在するか判定できる。
[0097] そこで上記方法を利用し、他撮影領域の重心点 (撮影領域の各頂点位置の平均値 )を上記点 Ζとし、当該撮影領域に対しどの方向にあるかを判定する。図 22 (a)、 (b) 、(c)及び (d)は、当該撮影領域に対し他撮影領域がどの方向に存在するかを判定 する方法を説明する図である。図 22において、 5801は周期 T 撮影領域であり、
CYCLE
当該撮影領域に該当する。 5802は座標 (X, Y )に存在する周期 T 撮影領域 5
A A CYCLE
801の 1つ目の頂点 A、 5803は座標(X , Y )に存在する周期 T 撮影領域 580
B B CYCLE
1の 2つ目の頂点 B、 5804は座標 (X , Y )に存在する周期 T 撮影領域 5801の
C C CYCLE
3つ目の頂点 C、 5805は座標 (X , Y )に存在する周期 T 撮影領域 5801の 4つ
D D CYCLE
目の頂点 D、 5806は当該撮影領域に該当する周期 T 撮影領域 5801の上方向
CYCLE
の領域 A、 5807は当該撮影領域に該当する周期 T E撮影領域 5801の右方向の
CYCし
領域 B、 5808は当該撮影領域に該当する周期 T 撮影領域 5801の下方向の領
CYCLE
域 C、 5809は当該撮影領域に該当する周期 T 撮影領域 5801の左方向の領域
CYCLE
Dである c
[0098] [数 29]
( - ) ... (式 29)
- )
[0099] [数 30]
(Yz -XA) …(式 30)
Figure imgf000033_0001
[0100] 図 21に示す判定方法を用いれば、図 22 (a)において、(式 29)および(式 31)が成 り立てば、他撮影領域の重心点である点 Ζは領域 Α5806に存在し、同他撮影領域 は当該撮影領域の上方向に存在すると判定する。また、(式 29)および(式 32)が成 り立てば、他撮影領域の重心点である点 Ζは領域 Β5807に存在し、同他撮影領域は 当該撮影領域の右方向に存在すると判定する。また、(式 30)および(式 32)が成り 立てば、他撮影領域の重心点である点 Ζは領域 C5808に存在し、同他撮影領域は 当該撮影領域の下方向に存在すると判定する。最後に、 (式 30)および(式 31)が成 り立てば、他撮影領域の重心点である点 Ζは領域 D5809に存在し、同他撮影領域 は当該撮影領域の左方向に存在すると判定する。
[0101] [数 31]
Figure imgf000033_0002
[0102] [数 32]
Figure imgf000034_0001
[0103] つぎに、方向毎に最も距離が近い他撮影領域を同方向に対する隣接撮影領域と する。上記手順で判定し存在するある方向の他撮影領域力 つであれば、それを同 方向に対する隣接撮影領域とし、複数であれば、他撮影領域の重心点から当該撮 影領域の重心点までの距離が最も小さい他撮影領域を隣接撮影領域とする。
[0104] 以上で、当該撮影領域に対し隣接する撮影領域を求める手順の説明を終える。以 上の手順では、判定に用いる点 Zを他撮影領域の重心点として説明したが、点 Zは 他撮影領域の視点であってもよい。同様に、他撮影領域の重心点から当該撮影領域 の重心点までの距離は、他撮影領域の視点から当該撮影領域の視点までの距離で あってもよレヽ。
[0105] また、上記手順の説明は、図 22 (a)に示すように領域を上下左右に分け、それぞれ の隣接撮影領域を求める手順を示したが、図 22 (b)に示すように、周期 T 撮影
CYCLE
領域 5801の各頂点を通る直線(図 22においは破線で図示)により領域を上下左右 、左上、右上、右下、左下に分けても、それぞれの隣接撮影領域を求めることは可能 であることは言うまでもない。さらに、上記手順の説明は、図 22 (a)に示すように周期 T 撮影領域 5801を平面としたが、図 22 (c)及び (d)に示すように、周期 T 撮
CYCLE CYCLE
影領域 5801を立体としても、同様に、隣接撮影領域を求めることは可能であることは 言うまでもない。
[0106] なお、上記手順では、隣接する撮影領域とは、当該撮影領域に対し上下左右など の各方向に最も近い他撮影領域のことであると説明したが、これらは、当該撮影領域 の各辺の部分領域毎に行うべきである。そして、辺の各部分領域で選択された隣接 する他撮影領域の内、最も距離の遠い他撮影領域を最終的な隣接する撮影領域と すべきである。このことを図 23に示す周期 TA 撮影領域 5901の上辺と右辺の例
CYCLE
をもって以下に説明する。周期 TA 撮影領域 5901の上辺(上方向)において、
CYCLE
上記手順によれば、部分領域 U1では周期 TB 撮影領域 5902が、部分領域 U2
CYCLE
では周期 TB 撮影領域 5902が(周期 TB 撮影領域 5902は周期 TC 撮
CYCLE CYCLE CYCLE 影領域 5903より距離が近い)、部分領域 U3では周期 TC 撮影領域 5903が隣
CYCLE
接する撮影領域と判定される。ここで、各部分領域 U1〜U3において最も距離の遠 い他撮影領域は周期 TC 撮影領域 5903であるので、最終的な隣接する撮影領
CYCLE
域として周期 TC 撮影領域 5903を選択する。これは、周期 TA 撮影領域 59
CYCLE CYCLE
01の上辺と周期 TC 撮影領域 5903の下辺が重複するように調整されれば、周
CYCLE
期 TA 撮影領域 5901の上辺に対しては死角なく撮影対象領域 121を撮影でき
CYCLE
るためである。また、周期 TA 撮影領域 5901の右辺(右方向)においては、上記
CYCLE
手順によれば、部分領域 R1では周期 TD 撮影領域 5904が、部分領域 R2では
CYCLE
撮影対象外領域 122が (後述する実施の形態 1において詳しく説明するが、本発明 においては、 P 接する撮影領域がない場合には撮影対象外領域を選択する)、部分 領域 R3では周期 TE 撮影領域 5905が隣接する撮影領域と判定される。ここで、
CYCLE
各部分領域 R1〜R3において最も距離の遠い他撮影領域は撮影対象外領域 122で あるので、最終的な隣接する撮影領域として撮影対象外領域 122を選択する。これ は、周期 TA 撮影領域 5901の右辺と撮影対象領域境界 5910が重複するように
CYCLE
調整されれば、周期 TA 撮影領域 5901の右辺に対しては死角なく撮影対象領
CYCXE
域 121を撮影できるためである。
[0107] 以上、カメラの撮影領域、検出対象と周期 T 撮影領域の関係、カメラの周期 T
CYCLE CY
撮影領域の大きさ、周期 τ 撮影領域を撮影するカメラの画角およびパンおよ
CLE CYCLE
びチルト、カメラの撮影領域位置、周期 T 撮影領域の撮影方法、撮影領域の形
CYCXE
状、隣接する撮影領域、領域分割について説明した。これを前提とし、以下、本発明 の実施の形態について、図面を参照しながら説明する。
[0108] (実施の形態 1)
まず、本発明の実施の形態 1について説明する。本実施の形態では、各カメラ端末 のカメラの周期 T 撮影領域を和した領域が所定の撮影対象領域をくまなく覆うよ
CYCLE
うに各カメラ端末のカメラの周期 T 撮影領域の位置が自動調整される撮影領域
CYCLE
調整装置に関し、図 24から図 29を用いて説明する。
[0109] まず、本実施の形態における撮影領域調整装置の構成要素について説明する。
図 24 (a)は、本実施の形態における撮影領域調整装置の構成ブロック図である。こ の撮影領域調整装置は、カメラ端末 A101A〜カメラ端末 C101C、操作端末 102、 及び、各カメラ端末 101A〜101Cおよび操作端末 102間の通信時に利用されるネ ットワーク 103から構成される。なお、図 24において、領域や同領域の位置を表現す るために、お互い直交する X軸 110、Y 軸 111、および Ζ 軸 112を定める。 113は
W W W
各カメラ端末 101A〜101Cが存在する実空間上の面、例えば各カメラ端末 101A〜 101Cが天井から下向きに設定させている場合は、床などの面であり、本実施の形態 においては、 Z 軸 112 = 0の面とし、各種領域および同領域の位置はこの面を用い
W
て表現する。実空間面 113上において、周期 TA 撮影領域 120Aはカメラ端末 A
CYCLE
101Aが周期 TA に周期的に撮影する領域、周期 TB 撮影領域 120Bはカメ
CYCLE CYCLE
ラ端末 B101Bが周期 TB に周期的に撮影する領域、周期 TC 撮影領域 120
CYCLE CYCLE
Cはカメラ端末 C101Cが周期 TC に周期的に撮影する領域、撮影対象領域 121
CYCLE
は本発明における撮影を対象とする領域、撮影対象外領域 122は撮影対象領域 12 1以外の領域である。
[0110] 図 24 (b)は、図 24 (a)に示した本実施の形態における撮影領域調整装置の実空 間面 113上における、各撮影領域位置を詳細に示す図である。図 24 (b)において、 X 軸 110、 Y軸 111、周期 TA 撮影領域 120A、周期 TB 撮影領域 120B、
W W CYCLE CYCLE
周期 TC 撮影領域 120C、撮影対象領域 121および撮影対象外領域 122は、図
CYCLE
24 (a)と同様である。
[0111] 130AL、 130AR、 130AUおよび 130ABはそれぞれ、周期 TA 撮影領域 12
CYCLE
OAの左端 X 、右端 X 、上端 Y および下端 Y 位置である。つまり、周期 TA
AL AR AU AB CYCLE
撮影領域 120Aは、 X 130AL、X 130AR、Y 130AUおよび Y 130ABに囲ま
AL AR AU ΑΒ
れた領域であり、これらを用いて周期 ΤΑ 撮影領域 120Aの位置を表現する。 13
CYCLE
0BL、 130BR、 130BUおよび 130BBはそれぞれ、周期 TB 撮影領域 120Bの
CYCLE
左端 X 、右端 X 、上端 Y および下端 Y 位置である。つまり、周期 TB 撮影領
BL BR BU BB CYCLE
域 120Aは、 X 130BL、X 130BR、 Y 130BUおよび Y 130BBに囲まれた領
BL BR BU ΒΒ
域であり、これらを用いて周期 ΤΒ 撮影領域 120Bの位置を表現する。 130CL、
CYCLE
130CR、 130CUおよび 130CBはそれぞれ、周期 TC 撮影領域 120Cの左端 X
CYCLE
、右端 X 、上端 Y および下端 Y 位置である。つまり、周期 TC 撮影領域 12
CL CR CU CB CYCLE OAは、 X 130CL、X 130CR、Y 130CUおよび Y 130CBに囲まれた領域で
CL CR CU CB
あり、これらを用いて周期 TC 撮影領域 120Cの位置を表現する。 131TL 131
CYCLE
TR、 131TUおよび 131TBはそれぞれ、撮影対象領域 121の左端 X 、右端 X 、
T TR
上端 Y および下端 Y 位置である。つまり、撮影対象領域 121は、 X 131TL X
TU TB TL TR
131TR、Y 131TUおよび Y 131TBに囲まれた領域であり、撮影対象外領域 12
TU TB
2は、 X 131TL、X 131TR、Y 131TUおよび Y 131TBに囲まれた領域以外
T TR TU TB
の領域であり、これらを用いて撮影対象領域 121および撮影対象外領域 122の位置 を表現する。
また、周期 TA 撮影領域 120Aおよび周期 TB 撮影領域 120Bが重複する
CYCLE CYCLE
X 130BL X 130AR Y 130BUおよび Y 130ABに囲まれる領域は、カメラ
BL AR BU AB
端末 A101Aおよびカメラ端末 B 101Bがそれぞれ重複して撮影する領域であり、同 領域を撮影重複領域 ABとする。同領域の X 軸 1 10方向の大きさは X —X である
W AR BL
。周期 TB 撮影領域 120Bおよび周期 TC 撮影領域 120Cが重複する、 X 1
CYCLE CYCLE C
30CL、X 130BR、Y 130CUおよび Y 130BBに囲まれる領域は、カメラ端末 Β
BR CU BB
101 Bおよびカメラ端末 C 101 Cがそれぞれ重複して撮影する領域であり、同領域を 撮影重複領域 BCとする。同領域の X 軸 1 10方向の大きさは X -X である。撮影
W BR CL
対象外領域 122と周期 TA 撮影領域 120Aが重複する領域において、 X 130A
CYCLE AL
L、X 131TL、Y 130AUおよび Y 130ABに囲まれる領域を、撮影対象外重複
TL AU ΑΒ
領域 ALとする。同領域の X 軸 1 10方向の大きさは X —X である。撮影対象外領
W TL AL
域 122と周期 TC 撮影領域 120Cが重複する領域において、 X 131TR X 13
CYCLE TR CR
OCR, Y 130CUおよび Y 130CBに囲まれる領域を、撮影対象外重複領域 CRと
CU CB
する。同領域の X 軸 1 10方向の大きさは X —X である。撮影対象外領域 122と周
W CR TR
期 TA 撮影領域 120Aが重複する領域において、 X 130AL X 130AR Y
CYCLE AL AR AU
130AUおよび Y 13 ITUに囲まれる領域を、撮影対象外重複領域 AUとする。同
TU
領域の Y軸 1 1 1方向の大きさは Y -Y である。撮影対象外領域 122と周期 TA
W TU AU CY
撮影領域 120Aが重複する領域において、 X 130AL X 130AR Y 131TB
CLE AL AR TB
および Y 130ABに囲まれる領域を、撮影対象外重複領域 ABとする。同領域の Y
AB W
軸 1 1 1方向の大きさは Y -Y である。撮影対象外領域 122と周期 TB
AB TB CYCLE 域 120Bが重複する領域において、 X 130BL、X 130BR、Y 130BUおよび Y
BL BR BU TU
131TUに囲まれる領域を、撮影対象外重複領域 BUとする。同領域の Y軸 1 1 1方
W
向の大きさは Y — Y である。撮影対象外領域 122と周期 TB 撮影領域 120B
TU BU CYCLE
が重複する領域において、 X 130BL、X 130BR、Y 131TBおよび Y 130BB
BL BR TB BB
に囲まれる領域を、撮影対象外重複領域 BBとする。同領域の Y軸 1 1 1方向の大き
W
さは Y -Y である。撮影対象外領域 122と周期 TC 撮影領域 120Cが重複す
BB TB CYCLE
る領域において、 X 130CL、X 130CR、Y 130CUおよび Y 131TUに囲まれ る領域を、撮影対象外重複領域 CUとする。同領域の Υ 軸 1 1 1方向の大きさは Υ τυ
-Υ である。撮影対象外領域 122と周期 TC 撮影領域 120Cが重複する領域
CU CYCLE
において、 X 130CL、X 130CR、Y 131TBおよび Y 130CBに囲まれる領域
Cし CR TB CB
を、撮影対象外重複領域 CBとする。同領域の Υ軸 1 1 1方向の大きさは X —X で
W CB ΤΒ
ある。
図 25は、図 24 (a)における各カメラ端末 101A〜101 Cの構成ブロック図である。力 メラ端末 101A〜101 Cは、カメラ 201、カメラ 201の撮影領域位置を調整する処理 部である調整部 A202、ネットワーク 103を介してカメラ 201の撮影領域位置を通信 する通信部 203を備える。レンズ 21 1は、像を結像させるレンズであり、撮像面 212は レンズ 21 1で結像した像を撮影する CCDなどの撮像面、画像処理部 213は撮像面 2 12で撮影した画像を処理する処理部、姿勢制御部 214はレンズ 21 1および撮像面 2 12の姿勢、および、レンズ 21 1と撮像面 212の間隔を制御する処理部、周期撮影制 御部 215は姿勢制御部 214に周期的な姿勢制御信号を送ることにより、カメラ 201が 周期 T に周期 T 撮影領域を撮影するように制御する処理部である。カメラ 20
CYCLE CYCLE
1はこれらレンズ 21 1、撮像面 212、画像処理部、 213、姿勢制御部 214、周期撮影 制御部 215から構成されている。なお、姿勢制御部 214が行う、レンズ 21 1および撮 像面 212の姿勢の制御とは、一般的にパンやチルトと呼ばれる制御であり、レンズ 21 1および撮像面 212は連動して、ある点または軸を中心に回転される。また、姿勢制 御部 214が行う、レンズ 21 1および撮像面 212の間隔の制御とは、一般的にズームと 呼ばれる制御であり、レンズ 21 1および撮像面 212の間隔が増減することにより、カメ ラ 201の画角が調整される。 [0114] より詳しくは、カメラ 201は、一定時間内に一定領域内で撮影領域の位置を変化さ せることによって得られる仮想的な撮影領域である仮想撮影領域を撮影するカメラで ある。
[0115] 通信部 203は、仮想撮影領域を示す仮想撮影領域情報を送受信する通信インタ 一フェースである。
[0116] 調整部 A202は、自力メラ端末の仮想撮影領域と通信部 203によって受信される仮 想撮影領域情報が示す他力メラ端末の仮想撮影領域とに基づき、複数のカメラ端末 A〜Cの仮想撮影領域を和した領域が所定の撮影対象領域をくまなく覆うように、 自 カメラ端末の仮想撮影領域の位置を調整する処理部である。
[0117] 図 26は、図 24 (a)における操作端末 102の構成ブロック図である。操作端末 102 は、撮影対象領域 121の位置である X 131TL、X 131TR、Y 131TUおよび Y
TL T TU T
131TBを入力する入力部 301、入力部 301から入力した撮影対象領域 121の位置
B
を記憶する記憶部 302、図 24における通信部 203と同様の通信部であって、ネットヮ ーク 103を介して記憶部 302に記録された撮影対象領域 121の位置を通信する通 信部 203を備える。なお、予め記憶部 302に撮影対象領域 121の位置が記録されて いるのであれば、入力部 301は必要としない。
[0118] つぎに、本実施の形態における撮影領域調整装置の動作を説明する。各カメラ端 末 101A〜101Cの構成要素であるカメラ 201は、図 25に示す内部構成をもつ。カメ ラ 201では、レンズ 211により結像した像を撮像面 212で画像信号に変換し、画像処 理部 213において一般的な画像処理技術や画像認識技術などにより、同画像信号 力 検出対象の検出や情報抽出が行う。このようにカメラ 201は実空間に対しレンズ 211および撮像面 212の姿勢およびそれぞれの間隔により決定する自身の時刻 T撮 影領域を検出領域とした、検出対象の検出や情報抽出などの検出動作を行う。なお 、上記した一般的な画像処理技術や画像認識技術としては広く知られてレ、る背景差 分法や動差分法などが挙げられる。また、後述するが、カメラ 201は周期撮影制御部 215により、周期 T に周期 T 撮影領域を撮影する。このため、カメラ 201は実
CYCLE CYCLE
空間に対し周期撮影制御部 215により決定する自身の周期 T 撮影領域を検出
CYCLE
領域とした、検出対象の検出や情報抽出などの検出動作を行うことになる。検出した 検出対象の情報は通信部 203に送られる。
[0119] 更に、カメラ 201では、姿勢制御部 214力 レンズ 211および撮像面 212の姿勢、 または、レンズ 211および撮像面 212の間隔を制御することにより、カメラ 201の時亥 IJ T撮影領域の位置を、周期撮影制御部 215が指示する姿勢制御信号により時刻 T撮 影領域の位置に移動させる。また、姿勢制御部 214は、時刻 Tのレンズ 211および撮 像面 212の姿勢または間隔から決定するカメラ 201の時刻 T撮影領域の位置情報を 取得するとともに、それを周期撮影制御部 215に送る。このように、カメラ 201の時刻 T撮影領域の位置は周期撮影制御部 215により制御されると共に、時刻 Tにおける カメラ 201の時刻 T撮影領域の位置情報は周期撮影制御部 215に送られる。なお、 時亥 1JTにおけるレンズ 211および撮像面 212の姿勢または間隔から決定するカメラ 2 01の時刻 T撮影領域の位置を算出する方法については、前記、カメラの撮影領域位 置において説明した。また、レンズ 211および撮像面 212の姿勢および間隔は、例え ばステッピングモーターなどを用いれば変化させることが可能であり、また、その時刻 Tにおける姿勢および間隔も読み取り可能である。
[0120] 周期撮影制御部 215は、前記、周期 T 撮影領域の撮影方法に説明した方法に
CYCLE
もとづき、姿勢制御部 214から送られる時刻 T撮影領域の位置情報、および、調整部 A202から指示される周期 T カメラパン角 および周期 T カメラチルト角 Θ
CYCLE P CYCLE
bおよび周期 T カメラ水平画角 および周期 Τ カメラ垂直画角 をもと
T CYCLE H CYCLE V
に、姿勢制御部 214にパン速度 Vおよびチルト速度 Vなどの姿勢制御信号を送るこ
P T
とにより、カメラ 201の時刻 T撮影領域の位置を制御し、カメラ 201を、周期 T 撮
CYCLE
影領域を撮影する周期 T カメラとして動作させる。なお、周期 T 撮影領域の
CYCLE CYCLE
撮影方法に説明したように、周期 T 撮影領域を撮影するには、調整部 A202から
CYCLE
指示される周期 T カメラパン角 0bおよび周期 T カメラチルト角 ©bおよび
CYCLE P CYCLE T
周期 Τ カメラ水平画角 および周期 Τ カメラ垂直画角 0bのほ力、に、周
CYCLE H CYCLE V
期 T 撮影領域を撮影するには、時刻 Τ撮影領域位置の算出に必要な時刻 Τカメ
CYCLE
ラ水平画角 Θ aおよび時刻 Tカメラ垂直画角 θ a 、パン速度 V 、チルト速度 V
H V P— CONST T—
、撮影間隔 τが必要である。本実施の形態では、これら値はあらかじめ決定され
CONST S
た固定値とし、たとえば、これらの値は記憶手段などに記録されているものとして、そ れらの値は周期撮影制御部 215に送られているものとする。なお、これらの値は、操 作端末 102から指示されてもよい。また、周期撮影制御部 215は、カメラ 201の周期 T 撮影領域の位置情報を調整部 A202に送る。なお、周期 T 撮影領域の位
CYCLE CYCLE
置を算出する方法については、前記、カメラの撮影領域位置において説明した。
[0121] 調整部 A202は、周期撮影制御部 215から送られたカメラ 201の周期 T 撮影領
CYCLE
域の位置情報を通信部 203およびネットワーク 103を介して、周期的に他力メラ端末 の調整部 A202に送信する。また、調整部 A202は、他力メラ端末の調整部 A202か ら周期的に送信される他力メラ端末におけるカメラ 201の周期 T 撮影領域の位置
CYCLE
情報を受信する。更に、操作端末 102の通信部 203は撮影対象領域 121の位置情 報を、ネットワーク 103を介して、各カメラ端末 101A 101Cの調整部 A202に周期 的に送信する。
[0122] このため、各カメラ端末 101A 101Cにおいて、調整部 A202は、自力メラ端末お よび他力メラ端末のカメラ 201における周期 T 撮影領域の位置情報および撮影
CYCLE
対象領域 121の位置情報を周期的に取得することになり、本実施の形態におレ、ては 、各調整部 A202は、カメラ端末 101Aの周期 TA 撮影領域 120Aの位置である
CYCLE
X 130AL X 130AR Y 130AUおよび Y 130AB、カメラ端末 101Bの周期
AL AR AU AB
TB 撮影領域 120Bの位置である X 130BL X 130BR Y 130BUおよび Y
CYCLE BL BR BU
130BB、カメラ端末 101Cの周期 TC 撮影領域 120Cの位置である X 130CL
BB CYCLE
X 130CR Y 130CUおよび Y 130CB、撮影対象領域 121の位置である X
CR CU CB Τ
131TL X 131TR Y 131TUおよび Y 131TBを通信部 203およびネットヮー
TR TU TB
ク 103を介して周期的に取得する。
[0123] 更に、調整部 A202は取得した上記周期 T 撮影領域の位置情報および撮影対
CYCLE
象領域 121の位置情報 (撮影対象外領域 122の位置情報でもある)をもとに、図 27 に示す以下のステップの処理を行う。
[0124] まずステップ 401において、 自力メラ端末および他力メラ端末のカメラ 201の周期 T
C
撮影領域位置を示す情報より、自力メラ端末の周期 τ 撮影領域に隣接する
YCLE CYCLE
他力メラ端末の周期 T 撮影領域または撮影対象外領域 122を選択する。 自カメ
CYCLE
ラ端末の周期 T 撮影領域に隣接する他力メラ端末の周期 T 撮影領域の選択
CYCLE CYCLE 方法は隣接する撮影領域において説明した。もし、隣接する撮影領域において説明 した選択方法において、隣接する撮影領域が存在しない場合は、隣接する撮影対象 領域を撮影対象外領域 122とする。このため、カメラ端末 A101Aにおいては、左隣 および上隣および下隣として撮影対象外領域 122、右隣として周期 TB 撮影領
CYCLE
域 120B、カメラ端末 B101Bにおいては、左隣として周期 TA 撮影領域 120A、
CYCLE
上隣および下隣として撮影対象外領域 122、右隣として周期 TC 撮影領域 120
CYCLE
C、カメラ端末 C101Cにおいては、左隣として周期 TB 撮影領域 120B、上隣お
CYCLE
よび下隣および右隣として撮影対象外領域 122が選択される。
[0125] つぎにステップ 402において、ステップ 401で選択した撮影領域と自カメラ端末の 撮影領域が重複した領域である重複領域の大きさを示す量を算出する。この算出方 法は、図 24 (b)に示すとおり、選択した撮影領域位置および自力メラ端末の撮影領 域位置の大小関係により簡単に算出可能である。このため、カメラ端末 A101Aにお いては、左隣の重複領域である撮影対象外重複領域 ALの大きさを示す量 X -X
TL AL
、右隣の重複領域である撮影重複領域 ABの大きさを示す量 X —X 、上隣の重複
AR BL
領域である撮影対象外重複領域 AUの大きさを示す量 Y — Y 、下隣の重複領域
TU AU
である撮影対象外重複領域 ABの大きさを示す量 Y — Y 、カメラ端末 B101Bにお
AB TB
いては、左隣の重複領域である撮影重複領域 ABの大きさを示す量 X —X 、右隣
AR BL
の重複領域である撮影重複領域 BCの大きさを示す量 X -X 、上隣の重複領域で
BR CL
ある撮影対象外重複領域 BUの大きさを示す量 Y — Y 、下隣の重複領域である撮
TU BU
影対象外重複領域 BBの大きさを示す量 Y — Y 、カメラ端末 C101Cにおいては、
BB TB
左隣の重複領域である撮影重複領域 BCの大きさを示す量 X -X 、右隣の重複領
BR CL
域である撮影対象外重複領域 CRの大きさを示す量 X -X 、上隣の重複領域であ
CR TR
る撮影対象外重複領域 CRの大きさを示す量 Y -Y 、下隣の重複領域である撮
TU CU
影対象外重複領域 CBの大きさを示す量 Y -Y が算出される。
CB TB
[0126] つぎにステップ 403において、ステップ 402で算出した重複領域の大きさを示す量 を、一定の量 C に近づくように自力メラ端末の撮影領域位置を調整する。この
OVERLAP
調整方法を以下に説明する。まず、重複領域の大きさを示す量と 0以上の一定量 C
〇 との差を示す量として関数 FA ()を定める。本実施の形態では、(式 33)〜(式 3
VERLAP 5)に示すものを同関数とする。
Figure imgf000043_0001
RR AR V^AR ) = \ ^AR - Λ HL - ^OVERLAP ,(¾33)
ひ、 ひ) - V rU ~ ^AU ~ ^-OVES P)
Figure imgf000043_0002
[0129] [数 35]
Figure imgf000043_0003
[0130] (式 33)〜(式 35)はそれぞれ、カメラ端末 A101Aからカメラ端末 C101Cに対する ものであり、重複領域の大きさを示す量と一定量 Cとの差の 2乗値を、それぞれの差 を示す量としている。つぎに、(式 36)〜(式 38)に示すように一般に知られている最 急降下法の式を用いて、自力メラ端末の次回の撮影領域位置を算出する。
[0131] [数 36]
Figure imgf000043_0004
[0132] [数 37]
SFABL[XBL) dFA^X^)
^ R = ^BR一 a
^BU =
dYBU
dFABBfyBB)
¾fl = ¾fl―な
BY S,B
[0133] [数 38]
Figure imgf000044_0001
[0134] (式 36)〜(式 38)におレ、て、 X,
AL AR AU AB B BR BU BB
' 、 Χ' 、 Υ' 、 Υ' はそれぞれ、次回の各カメラ端末の周期 Τ 撮影領域の位
CL CR CU CB CYCLE
置を示し、 αは定数である。
最後に同周期 Τ 撮影領域位置にそれぞれ、カメラ端末 A101A力もカメラ端末
CYCLE
C101Cの周期 T …—撮影領域位置を調整する。なお、上記手法では、カメラ端末 A
CYCLE
101Aにおいては、周期 TA 撮影領域 120Aの位置である X 130ALおよび X
CYCLE AL AR
130ARおよび X 130AUおよび X 130ABがそれぞれ独立に調整可能である必
AU AB
要がある。カメラ端末 B101Bおよびカメラ端末 C101Cついても同様である。独立に 調整することができない場合には、それぞれ独立に調整できない項目の関数 FA () を線形に加算した関数を定義し、同関数に対し最急降下法を用いればよい。たとえ ば、本実施の形態におけるカメラ 201では、関数 G Oを(式 39)〜(式 41)に示すもの とし、(式 42)〜(式 44)に示す最急降下法の式を用いれば上記調整と同様な調整が 行えることができる。上記式において、 0b および ©b , 0b および ©b および ®b はそれぞれ、各カメラ端末 A101Aからカメラ端末 C101Cの周期 T
TC CYCLE
カメラパン角および周期 T カメラチルト角、 @b および © b , 0b および @ b
CYCLE HA VA HB VB
、 および ©b はそれぞれ、各カメラ端末 AIOIAからカメラ端末 CIOICの周期
HC VC
τ カメラ水平画角および周期 τ カメラ垂直画角である。
CYCLE CYCLE
[0136] [数 39]
Figure imgf000045_0001
[0137] [数 40]
FAB
Figure imgf000045_0002
[0138] [数 41]
Figure imgf000046_0001
i [mo]
Figure imgf000046_0002
― we
( -
Bd.
W6
Ό-
[ε刚 [0刚
Figure imgf000046_0003
Figure imgf000046_0004
C98n£/900rdf/X3d ^ IZl^lLmi OAV [0142] 調整部 A202はステップ 401、ステップ 402、ステップ 403の処理を順次行レヽ、ステ ップ 403の処理終了後にステップ 401の処理に戻る。そして、調整部 A202では、絶 えずステップ 401からステップ 403の処理を繰り返しながら、上記式により算出した周 期 T カメラパン角 ©b, (または 0b, または 0b, )、および、周期 T カメラ
CYCLE PA PB PC CYCLE
チルト角 0b, (または 0b, または 0b, )、および、周期 T カメラ水平画角 Θ
TA TB TC CYCLE
b' (または ©b' または 0b' )、および、周期 T カメラ垂直画角 0b' (また
HA HB HC CYCLE VA
は 0b' または 0b' )の更新値を周期撮影制御部 215に送り、カメラ 201の周期 T
VB VC
撮影領域の位置を調整する。
CYCLE
[0143] 本実施の形態における撮影領域調整装置の動作は以上のとおりであり、ステップ 4 03において重複領域の大きさを示す量を 0以上の一定量 C に近づくよう最急
OVERLAP
降下法の式を用いて自力メラ端末の次回の周期 τ 撮影領域位置を算出し、同次
CYCLE
回の周期 T 撮影領域位置にカメラ 201の周期 T 撮影領域位置を調整するた
CYCLE CYCLE
め、各カメラ端末 101A〜101Cの周期 T 撮影領域である周期 TA 撮影領域
CYCLE CYCLE
120Aおよび周期 TB 撮影領域 120Bおよび周期 TC 撮影領域 120Cおよび
CYCLE CYCLE
撮影対象外領域 122はお互い、ステップ 401からステップ 403の処理を繰り返すこと により、 0以上の一定量 C の大きさで重複することになる。図 24に示すように、
OVERLAP
撮影対象外領域 122を含め、各カメラ端末の周期 T 撮影領域がそれぞれ 0以上
CYCLE
の一定量 C の大きさで重複すれば、撮影対象領域 121は各カメラ端末の周期
OVERLAP
T 撮影領域の和した領域に包括されるので、本発明の撮影領域調整装置は、各
CYCLE
カメラ端末 101A〜101Cを用いて撮影対象領域 121を死角なく撮影することができ る。
[0144] また、調整部 A202力 ステップ 401からステップ 403の処理を繰り返すことにより、 撮影対象領域 121を死角なく撮影するとレヽぅ効果を得てレ、る。この繰り返し行われる 処理のステップ 402およびステップ 403の処理は、ステップ 401において選択した自 カメラ端末の周期 T 撮影領域に隣接する他力メラの周期 T 撮影領域および
CYCLE CYCLE
撮影対象外領域 122に対して行われる。
[0145] このため、各時刻において自力メラ端末の周期 T 撮影領域に隣接する他力メラ
CYCLE
の周期 T 撮影領域の位置または撮影対象外領域 122の位置 (撮影対象領域 12
CYCLE 1の位置でもある)に変化が生じたとしても、その変化に対応して、撮影対象領域 121 を死角なく撮影するという効果を得ることができる。上記周期 T 撮影領域または
CYCLE
撮影対象領域 121の位置に変化が生ずる場合としては、
(1)カメラ端末の周期 T 撮影領域が意図的に変更される、
CYCLE
(2)カメラ端末が新設される、
(3)各カメラ端末のうち幾つかのカメラ端末が取り除かれる、または故障する、
(4)操作端末から送信する撮影対象領域の位置が変更される、
が挙げられる。これら変化により、各カメラ端末が送信する周期 T 撮影領域位
CYCLE
置や操作端末が送信する撮影対象領域位置が変化する、または、送信されない、新 たな周期 T 撮影領域位置が送信されたとしても、本発明の撮影領域調整装置は
CYCLE
、周期 τ 撮影領域位置または撮影対象領域位置の変化に応じ、各カメラ端末を
CYCLE
用いて撮影対象領域を死角なく撮影することができる。
[0146] なお、本実施の形態では、重複領域の大きさを示す量と 0以上の一定量 C と
OVERLAP
の差を示す関数 FA()を、(式 33)〜(式 35)に示すように、重複領域の大きさを示す 量と一定量 C との差の 2乗値とした力 図 28に示すように、関数 FA ()を重複領
OVERLAP
域の大きさを示す量と一定量 C との差の 4乗値、 6乗値、 10乗値などのような差
OVERLAP
の偶数乗値や、関数 FA ()を重複領域の大きさを示す量と一定量 C との差の
OVERLAP
絶対値としても、これら関数 FA()は X -X が C の時において最小値をもつ
AL TL OVERLAP
ために、ステップ 403で行う最急降下法の効果により重複領域の大きさを示す量が一 定量 C に近づくので、同様の効果を得られることは言うまでもない。
OVERLAP
[0147] また、重複領域の大きさを示す量と 0以上の一定量 C との差を示す関数 FA (
OVERLAP
)が図 29で示すような、 X -X が C の時において最小値ではなく極小値もつ
AL TL OVERLAP
関数 FA ()であったとしても、 X -X の変化が可能な範囲において X -X が C
AL TL AL TL OV
の時に最小値となる関数 FA ()であれば、同様の効果を得られることは言うまでも
ERLAP
ない。
[0148] また、本実施の形態では、図 25に示すように、調整部 A202が各カメラ端末 A101 Aからカメラ端末 C101Cに分散して存在している力 調整部 A202が 1つしか存在せ ず、一つしか存在しない調整部 A202が、各カメラ端末 A101Aからカメラ端末 C101 Cのカメラ 201の周期 T 撮影領域位置を全て調整するのであれば、同様の効果
CYCLE
を得られることは言うまでもない。
[0149] また、本実施の形態では、ネットワーク 103を、一般的な通信時に利用されるネット ワーク回線として取り扱つている力 同ネットワーク 103は有線または無線のネットヮ ークであっても、同様の効果を得られることは言うまでもない。
[0150] また、本実施の形態では、左右上下隣の重複領域の大きさを共通の一定量 C
OVERLA
に調整したが、左右上下隣別々の一定量 C に調整しても、さらに言えば、各力
P OVERLAP
メラ端末 A101Aからカメラ端末 C101C別々の一定量 C に調整したとしても、
OVERLAP
各一定量 c 力 so以上であれば、同様の効果を得られることは言うまでもない。
OVERLAP
[0151] (実施の形態 2)
つぎに、本発明の実施の形態 2について説明する。本実施の形態では、各カメラ端 末のカメラの周期 T 撮影領域を和した領域が所定の撮影対象領域をくまなく覆う
CYCLE
ように各カメラ端末のカメラの周期 T 撮影領域の位置が自動調整され、さらに、各
CYCLE
カメラ端末のカメラの周期 T 撮影領域を再割り当てすることにより、所定の撮影対
CYCLE
象領域を効率良く撮影する撮影領域調整装置に関し、図 30から図 37を用いて説明 する。つまり、本実施の形態では、撮影領域調整装置を構成する複数のカメラ端末 のそれぞれが、複数のカメラ端末の仮想撮影領域を和した領域が所定の撮影対象 領域をくまなく覆うように、 自力メラ端末の仮想撮影領域の位置を調整する調整機能 と、複数のカメラ端末のうちの N ( 2)個のカメラ端末の仮想撮影領域を内包する領 域を N個に分割し、分割した N個の領域それぞれを N個のカメラ端末に割り当てる領 域分割機能とを備えることを特徴とする撮影領域調整装置について説明する。
[0152] 本実施の形態ではアスペクト比と呼ばれるものを説明に用いる。そこでまず始めに 、このアスペクト比について説明する。本実施の形態における撮影領域のアスペクト 比とは、時刻 T撮影領域または周期 T 撮影領域の縦横比であり、これは一般的
CYCLE
に言われるアスペクト比と同じである。そして、図 11 (a)および図 11 (b)によれば、こ のアスペクト比はカメラの水平画角と垂直画角の比としても表現できる。そこで、本実 施の形態 1では、周期 T 撮影領域のアスペクト比を周期 T カメラ水平画角 Θ
CYCLE CYCLE
b Z周期 T カメラ垂直画角 ©b、時刻 T撮影領域のアスペクト比を時刻 Tカメラ
H CYCLE V 水平画角 © a /時刻 Tカメラ垂直画角
H Θ aと表現する。
V
[0153] つぎに、各カメラ端末のカメラの周期 T 撮影領域を再割り当てすることにより、
CYCLE
所定の撮影対象領域が効率良く撮影できることについて、図 30および図 31を用レ、、 レ、くつかの例を挙げて説明する。
[0154] 図 30 (a)および図 30 (b)に示す例は、各カメラ端末が撮影する周期 TA 撮影
CYCLE
領域 2101および周期 TB 撮影領域 2102および周期 TC 撮影領域 2103に
CYCLE CYCLE
より撮影対象領域 121は既にくまなく撮影されている状態となっており、この状態で、 周期 TD 撮影領域 2104を撮影するカメラ端末が実施の形態 1で説明した動作に
CYCLE
より自身が撮影する周期 τ 撮影領域の位置を調整する例を示している。
CYCLE
[0155] 図 30 (a)に示す例においては、前記隣接する撮影領域おいて説明した隣接する撮 影領域の選択方法によれば、周期 TD 撮影領域 2104を撮影するカメラ端末は、
CYCLE
上方向に隣接する周期 T 撮影領域として周期 TA 撮影領域 2101を、下方
CYCLE CYCLE
向に隣接する周期 T 撮影領域として周期 TB 撮影領域 2102を選択する。そ
CYCLE CYCLE
して、周期 TD 撮影領域 2104を撮影するカメラ端末は、同図の矢印が示すよう
CYCLE
に、周期 TD 撮影領域 2104の上辺が周期 TA 撮影領域 2101の下辺方向
CYCLE CYCLE
に、周期 TD 撮影領域 2104の下辺が周期 TB 撮影領域 2101の上辺方向
CYCLE CYCLE
にと、隣接するとして選択された周期 T 撮影領域と重複するように周期 TD
CYCLE CYCLE
撮影領域 2104の位置を調整する。その結果、図 30 (a)に示す例では、周期 TD
CYC
撮影領域 2104が消滅してしまう結果となる。
E
[0156] また、図 30 (b)に示す例においては、前記隣接する撮影領域おいて説明した隣接 する撮影領域の選択方法によれば、周期 TD 撮影領域 2104を撮影するカメラ
CYCLE
端末は、上および右方向に隣接する周期 T 撮影領域として撮影対象外領域 12
CYCLE
2、下方向に隣接する周期 T 撮影領域として周期 TB 撮影領域 2102、左方
CYCLE CYCLE
向に隣接する周期 T 撮影領域として周期 TC 撮影領域 2103と、周期 TA
CYCLE CYCLE < 撮影領域 2101を撮影するカメラ端末が選択する隣接する周期 T 撮影領域と全
E CYCLE
く同じくものを選択する。そして、周期 TD 撮影領域 2104を撮影するカメラ端末
CYCLE
は、この隣接するとして選択された周期 T 撮影領域と重複するように、周期 TD
CYCLE CYC
撮影領域 2104の位置を調整する。この結果、図 30 (b)に示す例では、周期 TD E CYC 撮影領域 2104は周期 TA 撮影領域 2101と全く同じ位置に調整され、同じ周
LE CYCLE
期 τ 撮影領域全域を重複して撮影してしまう結果となる。
CYCLE
[0157] そこで、図 30 (a)および図 30 (b)に示すような周期 TA 撮影領域 2101内に周
CYCLE
期 TD 撮影領域 2104が内包されている場合、周期 TA 撮影領域 2101を 2
CYCLE CYCLE
分割し、分割したそれぞれの領域を周期 TA 撮影領域 2101または周期 TD
CYCLE CYCLE
撮影領域 2104とすることにより、図 30 (a)および図 30 (b)に示すような結果となること を防ぐことができる。これにより、周期 TD 撮影領域 2104も含めた各周期 T
CYCLE CYCLE
撮影領域をもって撮影対象領域 121をくまなく撮影することができ、その結果、各周 期 T 撮影領域の大きさが小さぐつまり、各周期 T 撮影領域の撮影周期が短
CYCLE CYCLE
くなり、短時間で撮影対象領域 121を撮影することができる。より短時間で撮影対象 領域を撮影できることは監視用途などに用いられる本発明の撮影領域調整装置にお いて理想的であり、撮影対象領域 121を効率良く撮影できる言える。
[0158] また、図 31 (a)および図 31 (b)に示す例は、各カメラ端末が撮影する周期 TA
CYCLE
撮影領域 120Aおよび周期 TB 撮影領域 120Bにより撮影対象領域 121は既に
CYCLE
くまなく撮影されている状態となっており、このうち周期 TA 撮影領域 120Aを時
CYCXE
刻 T撮影領域 2001で撮影する例を示している。そして、図 31 (a)に示す例において は図 31 (b)に示す例に対し、時刻 Tカメラ水平画角 Θ & /時刻 Tカメラ垂直画角 Θ &
H
周期 T カメラ水平画角 /周期 T カメラ垂直画角 、つまり、時刻 T
V CYCLE H CYCLE V
撮影領域アスペクト比 周期 T 撮影領域アスペクト比である例を、また、図 31 (b
CYCLE
)に示す例においては図 31 (a)に示す例に対し、時刻 Tカメラ水平画角 /時刻
H
Tカメラ垂直画角 ≠周期 T カメラ水平画角 ®b /周期 T カメラ垂直画角
V CYCLE H CYCLE
©b、つまり、時刻 T撮影領域アスペクト比≠周期 T 撮影領域アスペクト比である
V CYCLE
例を示している。
[0159] 図 31 (a)に示す例においては、前記周期 T 撮影領域の撮影方法おいて説明
CYCLE
した撮影方法によれば、カメラ端末 A101 Aの時刻 T撮影領域は、 自身の周期 T
CYCLE
撮影領域である周期 TA 撮影領域 120A全域を撮影することになる。このため、
CYCLE
周期 TA 撮影領域 120Aの撮影周期は 0となり周期 TA 撮影領域 120Aは常
CYCLE CYCLE
時撮影されることになる。 [0160] また、図 31 (a)に示す例にぉレ、ては、前記周期 T 撮影領域の撮影方法おレ、て
CYCLE
説明した撮影方法によれば、カメラ端末 A101 Aの時刻 T撮影領域は、 自身の周期 T 撮影領域である周期 TA 撮影領域 120A全域を撮影することはできない。こ
CYCLE CYCLE
のため、ある撮影周期をもって周期 TA 撮影領域 120を撮影することになる。しか
CYCLE
も、カメラ端末 A101Aの時刻 T撮影領域は、 自身の周期 T 撮影領域ではない周
CYCLE
期 TB 撮影領域 120Bまでも撮影することになる。
CYCLE
[0161] これら図 31 (a)および図 31 (b)に示す例によれば、図 31 (a)に示す例のような、時 刻 T撮影領域とそれが撮影する周期 T 撮影領域の関係が時刻 T撮影領域ァス
CYCLE
ぺクト比 周期 τ 撮影領域アスペクト比である方が、撮影効率が良いと言える。し
CYCLE
力、しながら、実施の形態 1に説明した動作により、図 31 (b)に示す例のような位置に 各周期 T 撮影領域が調整された場合、各周期 T 撮影領域が隣接する周期 T
CYCLE CYCLE
撮影領域と既に重複し、それにより、各周期
CLE τ 撮影領域により撮影対象領域
CY CYCLE
121を既にくまなく撮影してしまっていることから、図 24に示す調整部 A202が行う( 式 42)〜(式 44)に示す式よる周期 T 撮影領域の位置の調整作用は働かなくな
CYCLE
る。このため、図 31 (b)に示す例のような位置に各周期 T 撮影領域が一度調整さ
CYCLE
れた場合、それから、調整部 A202の動作により、図 31 (a)に示すような位置に各周 期 T 撮影領域が調整されることはない。
CYCLE
[0162] そこで、図 31 (b)に示す例において、周期 TA 撮影領域 120Aおよび周期 TB
CYCLE C
撮影領域 120Bを内包する領域を 2分割し、分割したそれぞれの領域を周期 TA
YCLE C
撮影領域 120Aまたは周期 TB 撮影領域 120Bとする。さらに、同分割および
YCLE CYCLE
分割した領域への周期 TA 撮影領域 120Aまたは周期 TB 撮影領域 120B
CYCLE CYCLE
の割り当ては、各周期 T 撮影領域において時刻 T撮影領域ァスぺ外比 ^周期
CYCLE
T 撮影領域アスペクト比の関係になるものを選択する。これにより、図 31 (b)に示
CYCLE
す例ような位置に各周期 T 撮影領域が一度調整された場合においても、図 31 (a
CYCLE
)に示すような位置に各周期 τ 撮影領域が調整されることになり、撮影対象領域
CYCLE
121を効率良く撮影することができる。
[0163] つぎに、本実施の形態における撮影領域調整装置の構成要素について説明する 。図 32は、図 24 (a)における各カメラ端末 101A〜101Cに相当する本実施の形態 におけるカメラ 201の構成ブロック図である。各カメラ端末 101A〜101Cはそれぞれ 、少なくとも、カメラ 201、調整部 B204、通信部 203から構成されている。カメラ 201 はレンズ 211、撮像面 212、画像処理部 213、姿勢制御部 214、周期撮影制御部 21 5力、ら構成されてレヽる。図 32におレヽて、カメラ 201、通信咅 B203、レンズ 211、撮像面 212、画像処理部 213、姿勢制御部 214、周期撮影制御部 215は、図 24に示す実 施の形態 1における各カメラ端末 101A〜101Cの構成ブロック図と同様である。構 成要素における実施の形態 1と本実施の形態の差異は、実施の形態 1では調整部 A 202であったものが本実施の形態では調整部 B204に変更されている点である。
[0164] より詳しくは、カメラ 201は、一定時間内に一定領域内で撮影領域の位置を変化さ せることによって得られる仮想的な撮影領域である仮想撮影領域を撮影するカメラで ある。
[0165] 通信部 203は、仮想撮影領域を示す仮想撮影領域情報を送受信する通信インタ 一フェースである。
[0166] 調整部 B204は、 自力メラ端末の仮想撮影領域と通信部 203によって受信される仮 想撮影領域情報が示す他力メラ端末の仮想撮影領域とに基づき、複数のカメラ端末 A〜Cの仮想撮影領域を和した領域が所定の撮影対象領域をくまなく覆うように、 自 カメラ端末の仮想撮影領域の位置を調整する。本実施の形態では、この調整部 B20 4はさらに、複数のカメラ端末 A〜Cのうちの N ( 2)個のカメラ端末の仮想撮影領域 を内包する領域を N個に分割し、分割した N個の領域それぞれを、それら N個のカメ ラ端末に割り当てるとともに、自カメラ端末に割り当てた領域を新たな仮想撮影領域と して、上記調整を行う。
[0167] つぎに、本実施の形態における撮影領域調整装置の動作を説明する。本実施の 形態は実施の形態 1では調整部 A202であったものが調整部 B204に変更されただ けであるので、この調整部 B204の動作のみ以下に説明する。
[0168] 調整部 B204は調整部 A202と同様に、周期撮影制御部 215から送られたカメラ 2 01の周期 T 撮影領域の位置情報を通信部 203およびネットワーク 103を介して
CYCLE
、周期的に他力メラ端末の調整部 B204に送信する。また、調整部 B204はこれもは 調整部 A202と同様に、他力メラ端末の調整部 B204から周期的に送信される他カメ ラ端末におけるカメラ 201の周期 T 撮影領域の位置情報を受信する。このため、
CYCLE
各カメラ端末 101A〜101Cにおいて、調整部 B204は実施の形態 1と同様、 自力メラ 端末および他力メラ端末のカメラ 201における周期 T 撮影領域の位置情報およ
CYCLE
び撮影対象領域 121の位置情報を周期的に取得する。
[0169] 更に、調整部 B204は取得した上記周期 T 撮影領域の位置情報および撮影対
CYCLE
象領域 121の位置情報 (撮影対象外領域 122の位置情報でもある)をもとに、実施の 形態 1と同様に図 33に示すステップの処理を行う。
[0170] ステップ 404を除くステップ 401〜ステップ 403の処理は実施の形態 1 (図 27のステ ップ 401〜ステップ 403)と同様である。 自力メラ端末の周期 T 撮影領域に隣接
CYCLE
する他力メラ端末の周期 T 撮影領域または撮影対象外領域 122を選択し、そし
CYCLE
て、選択した撮影領域と自カメラ端末の撮影領域が重複した領域である重複領域の 大きさを示す量を算出し、そして、算出した重複領域の大きさを示す量を、一定の量 C に近づくように自カメラ端末の撮影領域の位置を調整する。そして、調整部 B
OVERLAP
204はステップ 401〜ステップ 403の処理を順次行レ、、ステップ 403の処理終了後に ステップ 401の処理に戻る。そして、調整部 B204では、絶えずステップ 401〜ステツ プ 403の処理を繰り返しながら、(式 42)〜(式 44)により算出した周期 T カメラパ
CYCXE
ン角 (または ©b' または ©b' )、および、周期 T カメラチルト角 ©b' (
PA PB PC CYCLE TA
または または ©b' )、および、周期 T カメラ水平画角 (または
TB TC CYCLE HA
または )、および、周期 T カメラ垂直画角 (または ©b' または Θ
HB HC CYCLE VA VB
b' )の更新値を周期撮影制御部 215に送り、カメラ 201の周期 T 撮影領域の位
VC CYCLE
置を調整する。このため、本実施の形態の撮影領域調整装置も実施の形態 1の撮影 領域調整装置と同様に、各カメラ端末 101A〜: 101Cを用いて撮影対象領域 121を 死角なく撮影することができることは自明である。
[0171] また、ステップ 404では、より詳しくは、調整部 B204により、図 34に示すステップの 処理により、 自力メラ端末の周期 T 撮影領域に対する再割り当てが行われる。こ
CYCLE
の図 34に示すステップ(つまり、図 33のステップ 404の詳細なステップ)の処理を以 下に説明する。
[0172] まず、ステップ 411において、調整部 B204は、 自力メラ端末の周期 T
CYCLE が他力メラ端末の周期 T 撮影領域を内包するかどうかを判定する。
CYCLE
[0173] そして、 自力メラ端末の周期 T 撮影領域が他力メラ端末の周期 T 撮影領域
CYCLE CYCLE
を内包しているのであれば、ステップ 412において、調整部 B204は、 自力メラ端末の 周期 T 撮影領域が N個の他力メラ端末の周期 T 撮影領域を内包する、自力
CYCLE CYCLE
メラ端末の周期 T 撮影領域を N + 1個に分割し、分割した領域をそれぞれ自カメ
CYCXE
ラ端末の周期 Τ 撮影領域および Ν個の内包する他力メラ端末の周期 Τ 撮影
CYCLE CYCXE
領域とする。つまり、調整部 B204は、分割後の領域を自力メラ端末の周期 T 撮
CYCLE
影領域として設定するとともに、分割後の領域を特定する情報を、通信部 203を介し て、上記 N個の他力メラ端末に通知する。その結果、自力メラ端末及び N個のカメラ 端末の調整部 B204において、いま再割当された周期 T 撮影領域を出発点とす
CYCLE
る再調整 (複数のカメラ端末 A〜Cの周期 T 撮影領域を和した領域が撮影対象
CYCLE
領域をくまなく覆うように、 自力メラ端末の周期 τ 撮影領域の位置を調整すること)
CYCLE
が開始される。
[0174] 図 35 (a)および図 35 (b)にステップ 412の動作例を示す。図 35 (a)に示す例にお いて、周期 TA 撮影領域 2601を自力メラ端末の周期 T 撮影領域とすると、
CYCLE CYCLE
自力メラ端末の周期 T 撮影領域は、周期 ΤΒ 撮影領域 2602および周期 TC
CYCLE CYCLE C
撮影領域 2603と、 2つの他力メラ端末の周期 T 撮影領域を内包する。ステツ
YCLE CYCLE
プ 412の処理では、調整部 B204は、図 35 (a)に示す例のものを図 35 (b)に示す例 のようにする。つまり、図 35 (a)に示す例における自力メラ端末の周期 T 撮影領
CYCLE
域である周期 TA 撮影領域 2603を 2 + 1分割し、図 35 (b)に示す例のように、同
CYCLE
分割した領域をそれぞれ自力メラ端末の周期 T 撮影領域である周期 TA 撮
CYCLE CYCLE
影領域 2603、または、内包する他力メラ端末の周期 T 撮影領域である周期 TB
CYCXE C
撮影領域 2602および周期 TC 撮影領域 2603とする。
YCLE CYCLE
[0175] また、 自力メラ端末の周期 T 撮影領域が他力メラ端末の周期 T 撮影領域を
CYCLE CYCLE
内包していないのであれば、ステップ 413において、調整部 B204は、自力メラ端末 の周期 T 撮影領域と自カメラ端末の周期 T 撮影領域に隣接する N個の他力
CYCLE CYCLE
メラ端末の周期 T 撮影領域を内包する領域を Ν+ 1個に分割し、分割した領域を
CYCLE
それぞれ、 自力メラ端末の周期 τ 撮影領域、および、 自力メラ端末の周期
CYCLE τ CYCLE 撮影領域に隣接する N個の他力メラ端末の周期 T 撮影領域とする。つまり、調整
CYCLE
部 B204は、分割後の領域を自カメラ端末の周期 T 撮影領域として設定するとと
CYCLE
もに、分割後の領域を特定する情報を、通信部 203を介して、上記 N個の他力メラ端 末に通知する。その結果、 自力メラ端末及び N個のカメラ端末の調整部 B204におい て、いま再割当された周期 T 撮影領域を出発点とする再調整 (複数のカメラ端末
CYCLE
A〜Cの周期 T 撮影領域を和した領域が撮影対象領域をくまなく覆うように、 自
CYCLE
カメラ端末の周期 τ 撮影領域の位置を調整すること)が開始される。
CYCLE
[0176] 図 36 (a)および図 36 (b)にステップ 413の動作例を示す。図 36 (a)に示す例にお いて、周期 TA 撮影領域 2701を自力メラ端末の周期 T 撮影領域とし、周期
CYCLE CYCLE
TB 撮影領域 2702および周期 TC 撮影領域 2703を自力メラ端末の周期 T
CYCLE CYCLE C
撮影領域に隣接する 2個の他力メラ端末の周期 T 撮影領域とする。ステップ 4
YCLE CYCLE
13の処理では、調整部 B204は、図 36 (a)に示す例のものを図 36 (b)に示す例のよ うにする。つまり、図 36 (a)に示す例における自力メラ端末の周期 T 撮影領域お
CYCLE
よび自力メラ端末の周期 T 撮影領域に隣接する 2個のカメラ端末の周期 T 撮
CYCLE CYCLE
影領域を内包する領域である、周期 TA 撮影領域 2701および周期 TB 撮影
CYCXE CYCLE
領域 2702および周期 TC 撮影領域 2703を囲う領域を 2+ 1分割し、図 36 (b)に
CYCLE
示す例のように、同分割した領域をそれぞれ自力メラ端末の周期 T 撮影領域で
CYCLE
ある周期 TA 撮影領域 2603、および、自力メラ端末の周期 T 撮影領域に隣
CYCLE CYCXE
接する 2個の他力メラ端末の周期 T 撮影領域である周期 TB 撮影領域 2602
CYCLE CYCLE
および周期 TC 撮影領域 2603とする。
CYCLE
[0177] なお、図 37 (a)に 2分割パターン、図 37 (b)に 3分割パターン、図 37 (c)に 4分割パ ターンの例を示すが、ステップ 412およびステップ 413で行われる分割は、図 37 (a) 〜図 37 (c)に示す例のような、予め用意した分割パターンにより分割すればよい。具 体的には、調整部 B204は、図 37 (a)〜(c)に示されるような複数の n分割パターンを 特定する情報を予め格納した記憶部を有し、領域分割をするときには、記憶部に格 納された複数の分割パターンの中から、分割数 nに対応する分割パターンを選択し、 その分割パターンの情報を参照することで、領域分割を行う。
[0178] また、図 37 (a)〜図 37 (c)に示す分割パターンの選択、および、分割した領域への 周期 T 撮影領域の割り当て、および、ステップ 413における自力メラ端末の周期
CYCLE
T 撮影領域に隣接する N個の他力メラ端末の周期 T 撮影領域の選択は、各
CYCLE CYCLE
カメラ端末の周期 T 撮影領域において、最も周期 Τ 撮影領域の撮影周期が
CYCLE CYCLE
短くなる、または、最も各カメラ端末においてカメラ端末の撮影領域が仮想撮影領域 以外の領域を撮影することが少なくなるような選択または割り当てとする。つまり、調 整部 B204は、割り当ての対象となる少なくとも 1個のカメラ端末について、周期 T
CYCL
撮影領域を撮影するのに要する時間が小さくなる、又は、現実に撮影される領域の
E
うち周期 τ 撮影領域を除く部分が小さくなるように、領域分割と割り当てとを行う。
CYCLE
[0179] これら選択または割り当ての評価については、これら評価に必要な調整部 B204が 各カメラ端末 101A〜: 101 Cの周期 T 撮影領域の位置情報および撮影対象領域
CYCLE
121の位置情報を周期的に取得していることから、ステップ 404を処理する調整部 B 204において十分実現可能であることは自明である。たとえば、「周期 T 撮影領
CYCLE
域を撮影するのに要する時間」については、周期 T で評価し、「現実に撮影され
CYCLE
る領域のうち周期 T 撮影領域を除く部分」については、周期 T において時刻
CYCLE CYCLE
τ撮影領域の移動によって覆われる全体の領域 (輪郭領域)から、割り当てられてい る周期 Τ 撮影領域を差し弓
CYCLE I V、た面積で評価できる。
[0180] また、ステップ 412およびステップ 413において分割した領域を他力メラ端末の周 期 T 撮影領域として割り付けた場合、 自カメラ端末の調整部 B204からネットヮー
CYCLE
ク 103を介して、同他力メラ端末に分割した領域を自身の周期 T 撮影領域とする
CYCLE
事を他力メラ端末の調整部 B204に通知する。そして、図 33および図 34に示すフロ 一チャートには図示されていないが、割り込みやポーリングなどにより調整部 B204は 同通知を受け、同通知された分割した領域を自身の周期 T 撮影領域とする。な
CYCLE
お、以上の他力メラ端末に対する通知は、ハンドシェーク通信などの要求およびその 応答 (許可/拒否)を確認する通知であることが望まれる。これは、一度に同じカメラ 端末の調整部 B204に対し複数の上記通知があった場合には、いずれか 1つの通知 に対する周期 T 撮影領域の変更しかできないため、また、カメラ端末の調整部 B
CYCLE
204に対し通知したが、既に他の通知により周期 T 撮影領域が変更されているこ
CYCLE
とがあるためである。 [0181] また、複数のカメラ端末が同時に領域分割を行うことによる不具合 (競合)を回避( 調停)する方法としては、各カメラ端末に対して予め優先順位を与えておく方法でも よい。このときには、領域分割の対象となる N + 1個のカメラ端末の中で最も優先順位 の高いカメラ端末だけが領域分割を行レ、、他のカメラ端末に分割後の領域を通知す ることになる。
[0182] 本実施の形態における撮影領域調整装置の動作は以上のとおりである。以上によ れば、ステップ 412では、自力メラ端末の周期 T 撮影領域が N個の他力メラ端末
CYCLE
の周期 T 撮影領域を内包する、自力メラ端末の周期 T 撮影領域を N+ 1個
CYCLE CYCLE
に分割し、分割した領域をそれぞれ自カメラ端末の周期 T 撮影領域または N個
CYCLE
の内包する他力メラ端末の周期 T 撮影領域とする。また、ステップ 413では、自力
CYCLE
メラ端末の周期 T 撮影領域と自カメラ端末の周期 T 撮影領域に隣接する N
CYCLE CYCLE
個の他力メラ端末の周期 T 撮影領域を内包する領域を N + 1個に分割し、分割し
CYCLE
た領域をそれぞれ、 自力メラ端末の周期 T 撮影領域、または、 自力メラ端末の周
CYCLE
期 T 撮影領域に隣接する N個の他力メラ端末の周期 T 撮影領域とする。そし
CYCLE CYCLE
て、これら分割の分割パターンの選択、および、分割した領域への周期 T
CYCLE
域の割り当て、および、ステップ 413における自力メラ端末の周期 T
CYCXE
隣接する N個の他力メラ端末の周期 T 撮影領域の選択は、各カメラ端末の周期
CYCLE
T 撮影領域において、最も周期 T 撮影領域の撮影周期が短くなる、または、
CYCLE CYCLE
最も各カメラ端末においてカメラ端末の撮影領域が仮想撮影領域以外の領域を撮影 することが少なくなるような選択または割り当てとする。このため、図 30および図 31の 例をもって説明したことによれば、本発明の撮影領域調整装置は実施の形態 1の撮 影領域調整装置と同様に、各カメラ端末 101A〜: 101Cを用いて撮影対象領域 121 を死角なく撮影することができと共に、さらに、撮影対象領域 121を効率良く撮影でき る。
[0183] つまり、複数のカメラ端末の仮想撮影領域によって撮影対象領域をくまなぐかつ、 効率よく覆うために、各カメラ端末に仮想撮影領域をいかに割り当てればよいかとい う問題の最適解を探索する処理において、局所的な最適解から脱出して大局的な最 適解が探索される可能性が高くなる。よって、同一領域に対して複数のカメラ端末が 重複して撮影したり、仮想撮影領域を撮影するのに大きな時間を要したりする等の不 具合が解消される。
[0184] なお、ステップ 413における処理では、 自力メラ端末の周期 T 撮影領域と自カメ
CYCXE
ラ端末の周期 T 撮影領域に隣接する他力メラ端末の周期 T 撮影領域を内包
CYCLE CYCXE
する領域を分割するとした。しかし、特に他力メラ端末の周期 τ 撮影領域は自力
CYCLE
メラ端末の周期 T 撮影領域に隣接する他力メラ端末の周期 T 撮影領域と限
CYCLE CYCLE
定する必要はない。隣接しない他力メラ端末の周期 τ 撮影領域を合わせて用い
CYCLE
ても良い。ただし、 自力メラ端末および他力メラ端末の周期 τ 撮影領域によりこれ
CYCLE
ら周期 T 撮影領域を内包する 1つの分割可能な領域を形成できることが必要とさ
CYCLE
れる。例えば図 36 (a)に示す例において、周期 TA 撮影領域 2701および周期 T
CYCLE
B 撮影領域 2702および周期 TC 撮影領域 2703および周期 TA 撮影領
CYCLE CYCLE CYCLE
域 2701に隣接していない周期 TG 撮影領域 2707を内包する領域を分割して、
CYCLE
分割した領域をこれらに割り当ても良い。このような場合においても、本発明の撮影 領域調整装置は同様の効果を得られることは言うまでもない。
[0185] また、ステップ 413の処理はある決まった時にのみ行ってもよい。例えば、図 30およ び図 31の例をもって説明したことによれば、ステップ 413の処理が必要となるのは、 撮影対象領域 121がくまなく撮影された時、各カメラ端末において言えば、 自身の周 期 T 撮影領域の各辺全てが隣接する周期 T 撮影領域または撮影対象外領
CYCLE CYCLE
域と重複した時である。このため、以上のような時にのみステップ 413の処理を行うし ても、同様の効果を得られることは言うまでもない。
[0186] また、分割の分割パターンの選択、および、分割した領域への周期 T 撮影領域
CYCLE
の割り当て、および、ステップ 413における自力メラ端末の周期 T 撮影領域に隣
CYCXE
接する N個の他力メラ端末の周期 T 撮影領域の選択は、全ての選択または割り
CYCLE
当てを評価して決定しなくとも良い。例えば、予め限定した選択または割り当てのみ を評価して決定したとしても、限定した選択または割り当ての中で同選択および割り 当てが、各カメラ端末の周期 T 撮影領域において、最も周期 T 撮影領域の
CYCLE CYCLE
撮影周期が短くなる、または、最も各カメラ端末においてカメラ端末の撮影領域が仮 想撮影領域以外の領域を撮影することが少なくなるような選択または割り当てであれ ば、同様の効果を得られることは言うまでもない。
[0187] また、ステップ 403で行われる処理において、 (式 45)に示す関数を定義し、(式 39 )〜(式 44)に示す実施の形態 1で用いた式を(式 46)〜(式 49)に示す式とすれば、 各カメラ端末は、 自身の周期 T 撮影領域を隣接する周期 T 撮影領域または
CYCLE CYCLE
撮影対象外領域と重複するように調整すると共に、 自身の周期 T …—撮影領域のァ
CYCLE
スぺタト比を時刻 T撮影領域のアスペクト比に近づくように調整する
[0188] [数 45]
Figure imgf000060_0001
[0189] [数 46] 具
A X FAA {6bPA, 6bVA) + βΒ x FBA (
'(式 46)
A x d 為 c , ) + x d ) J
[0190] [数 47]
Figure imgf000060_0002
[0191] [数 48]
Figure imgf000061_0001
[0192] [数 49]
Figure imgf000061_0002
[0193] このため、以上の変更により、本発明の撮影領域調整装置は、カメラ端末の周期 T 撮影領域の再割り当てにより撮影対象領域 121の撮影効率を良くすると共に、更
YCLE
に、撮影対象領域 121の撮影効率が良くなるように各カメラ端末の周期 T 撮影領
CYCLE
域を調整することができる。
[0194] また、本実施の形態では、図 32に示すように、調整部 B204が各カメラ端末 A101 Aからカメラ端末 C101Cに分散して存在している力 調整部 B204が 1つしか存在せ ず、一つしか存在しない調整部 B204が、各カメラ端末 A101Aからカメラ端末 C101 Cのカメラ 201の周期 T 撮影領域の位置およびアスペクト比を全て調整するので
CYCLE
あれば、同様の効果を得られることは言うまでもない。
[0195] また、本実施の形態では、ネットワーク 103を、一般的な通信時に利用されるネット ワーク回線として取り扱つている力 同ネットワーク 103は有線または無線のネットヮ ークであっても、同様の効果を得られることは言うまでもない。
[0196] (実施の形態 3)
次に、本発明の実施の形態 3について説明する。本実施の形態では、実施の形態 1から実施の形態 2に記した本発明の撮影領域調整装置に関して、更にいくつかの 点を補足する。
[0197] 上記実施の形態 1〜2に記した本発明の撮影領域調整装置においては、図 24に 示すように、実空間面 113を Z =0としていた。しかし、図 38に示すように(図 38の構
W
成要素は図 24と同じである)、実空間面 113を Z =C とした場合であっても、上記
W
実施の形態 1〜2に記した同様の効果を得られることはいうまでもない。更に、各カメ ラ端末が撮影する周期 T 撮影領域は、 Z 軸 112の 0方向近くなるほど、その周
CYCLE W
期 T 撮影領域は広がる。このため、図 38の撮影対象立体領域 213のように、撮
CYCLE
影対象領域が立体であっても、死角なく撮影することが可能である。
[0198] また、上記実施の形態:!〜 2では、カメラ 201を、一般的なカメラとして取り扱つてい るが、同カメラ 201は可視光または赤外や紫外などの非可視光を検知するカメラであ つても、同様の効果を得られることは言うまでもなぐ更に、微動センサ、圧力センサ、 温度センサ、気圧センサ、音センサ (マイク)など、撮影領域 (あるいは、検出領域)を もち、かつ、撮影領域位置 (あるいは、検出領域位置)が可変な一般的にセンサであ つても、同様の効果を得られることは言うまでもなレ、。更に、一般的なカメラとこれらセ ンサの組み合わせであっても、同様の効果を得られることは言うまでもない。
[0199] たとえば、図 39 (a)に示されるような指向特性をもったマイクについて、図 39 (b)に 示されるように、一定以上の感度で音を検知できる方向(領域)をセンス領域 (検出領 域)と定義できるので、上記実施の形態におけるカメラのパンおよびチルトと同様にマ イクの姿勢を制御して一定周期でスキャンさせることで、図 39 (c)に示されるように、 カメラ端末における周期 T 撮影領域に対応する周期 T 検出領域 (つまり、「
CYCLE CYCLE
仮想検出領域」)を定義することができる。つまり、本発明は、カメラだけでなぐ上記 の各種センサにも適用することができる。なお、図 39 (b)および図 39 (c)に示される ように、時刻 T撮影領域に対応するセンス領域 (検出領域)、および、周期 T 撮影
CYCLE
領域に対応する周期 τ 検出領域が円などの矩形でない場合、円の短径と長径
CYCLE
の比率(真円は 1)や図形の X 軸や γ軸方向の大きさの比率をアスペクト比とすれ
W W
ばよい。
[0200] また、上記実施の形態では、カメラは固定カメラであつたが、移動カメラであってもよ レ、。図 40は、本発明に係る撮影領域調整装置を移動カメラから構成される監視シス テムに適用した場合の監視システムの構成を示すブロック図である。この監視システ ムは、通信ネットワーク 1103で接続された複数の移動カメラ 1101等から構成され、 監視領域 1111をくまなく監視できるように、それら複数の移動カメラ 1101がパンおよ びチルトだけでなぐ自律協調的に移動する点に特徴を有する。移動カメラ 1101は 、移動部 1102に支持されて移動するカメラ装置である。移動部 1102は、移動カメラ 1101の撮影位置を変更させる機構部等である。通信ネットワーク 1103は、複数の 移動カメラ 1101を結ぶ伝送路である。通信部 1104は、移動カメラ 1101が通信ネッ トワーク 1103を介して他の移動カメラと情報のやりとりを行うための通信インターフエ ースである。隣接撮影領域特定部 1105は、通信部 1104に通知された他の移動カメ ラからの情報に対して、撮影領域が隣り合う移動カメラを推定する処理部である。撮 影素子 1106は、監視領域内の映像を取り込む CCDカメラ等である。撮影領域推定 部 1107は、撮影素子 1106の特性と、移動部 1102の位置から移動カメラ 1101の撮 影領域を推定する処理部である。監視範囲記憶部 1108は、移動カメラ 1101が監視 すべき領域の範囲を記憶しているメモリ等である。撮影位置評価部 1109は、移動力 メラ 1101の撮影領域と互いに隣り合う撮影領域の重なり領域、または監視領域の境 界との距離を評価する処理部である。撮影位置変更部 1110は、移動部 1102を制 御し、移動カメラ 1101の撮影位置を変更させる制御部である。監視領域 1111は、 移動カメラ 1101が監視すべき領域である。撮影領域 1112は、移動カメラ 1101によ つて撮影されている領域である。このような監視システムによれば、移動カメラ 1101 は、 自身の撮影位置と撮影素子 1106の特性により推定される撮影領域に関する情 報を周囲の移動カメラと通知し合い、隣り合う撮影領域との重なり領域の大きさと、監 視領域の境界との距離が所定の状態に近づくように周囲の移動カメラと協調しながら パン、チルトおよび撮影位置を変更することにより、複数の移動カメラ 1101による同 時撮影にぉレ、て監視領域内の死角が少なくなる撮影位置に移動することができる。 図 41は、その監視システムにおける移動カメラ 1101の動作の様子を示す。本図で は、説明を簡単にするために横方向(1次元)に移動できる移動カメラ 1101を高さが 一定な部屋の天井に設置し、床面を監視させる場合が示されている。上図に示され るように、移動カメラ 1101を天井の適当な位置に設置しても、移動カメラは互いの撮 影領域の重なり領域の幅 Cまたは監視領域の境界との距離 Dが所定の値に近づくよ うに撮影位置を変更することにより、下図に示されるように、監視領域全体を複数の 移動カメラで端末同時に撮影できる位置に自動的に移動することが可能となる。さら に、例えば高い天井などのように設置作業が難しい場所において、一ヶ所にまとめて 移動カメラ 1101を設置しても、移動カメラの方が複数の移動カメラによる同時撮影に おいて死角が少なくなる位置に自動的に移動するため、移動カメラの設置位置の決 定ゃ設置作業といった負担を減らすことが可能となる。この実現方法の一例としては 、図 42に示すように、監視領域内にレールを設置し、そのレールの軌道上を移動力 メラ力 S移動するようにシステムを構成すればょレ、。
また、上記実施の形態では、撮影領域調整装置は、各カメラ端末に調整部が設け られた分散制御型の構成を備えたが、本発明は、このような分散制御型に限定され るものではなぐ全てのカメラ端末の検出領域を統合して調整する共通の 1個の調整 部を設けた集中制御型の構成で実現してもよい。たとえば、複数のカメラ端末と、そ れらカメラ端末と通信ネットワークで接続された 1台の調整装置とを備える撮影領域 調整装置であって、複数のカメラ端末が、それぞれ、一定時間内に一定領域内で撮 影領域の位置を変化させることによって得られる仮想的な撮影領域である仮想撮影 領域を撮影するカメラと、仮想撮影領域を示す仮想撮影領域情報を送受信する通信 部と、自カメラ端末の仮想撮影領域と通信部によって受信される仮想撮影領域情報 が示す他力メラ端末の仮想撮影領域とに基づき、複数のカメラ端末の仮想撮影領域 を和した領域が所定の撮影対象領域をくまなく覆うように、 自力メラ端末の仮想撮影 領域の位置を調整する調整部とを備え、上記調整装置が、複数のカメラ端末のうち の N (≥ 2)個のカメラ端末の仮想撮影領域を内包する領域を N個に分割し、分割し た N個の領域それぞれを N個のカメラ端末に割り当てる領域分割部を備え、各カメラ 端末の調整部が、調整装置によって自カメラ端末に割り当てられた領域を新たな仮 想撮影領域として、上記調整を行う構成であってもよい。つまり、領域分割の処理が、 各カメラ端末に備えられるのではなぐ通信ネットワークを介して接続された 1台の装 置内に置かれてもよい。 [0203] また、本発明は、上記各実施の形態および変形例に限られず、それら実施の形態 および変形例の各構成要素を任意に組み合わせて実現される撮影領域調整装置も 本発明に含まれる。
産業上の利用可能性
[0204] 本発明にかかる撮影領域調整装置は、カメラ等の撮像装置の撮影領域を調整する 装置として、例えば、複数のカメラからなる監視装置や撮影システム等として、特に、 死角なく所定の撮影対象領域を効率的に覆う必要がある撮影システム等として、有 用である。

Claims

請求の範囲
[1] 複数のカメラ端末を備える撮影領域調整装置であって、
前記複数のカメラ端末は、それぞれ、
一定時間内に一定領域内で撮影領域の位置を変化させることによって得られる仮 想的な撮影領域である仮想撮影領域を撮影するカメラと、
前記仮想撮影領域を示す仮想撮影領域情報を送受信する通信手段と、 自力メラ端末の仮想撮影領域と前記通信手段によって受信される仮想撮影領域情 報が示す他力メラ端末の仮想撮影領域とに基づき、前記複数のカメラ端末の仮想撮 影領域を和した領域が所定の撮影対象領域をくまなく覆うように、 自力メラ端末の仮 想撮影領域の位置を調整する調整手段とを備え、
前記撮影領域調整装置は、さらに、前記複数のカメラ端末のうちの N ( 2)個の力 メラ端末の仮想撮影領域を内包する領域を N個に分割し、分割した N個の領域それ ぞれを前記 N個のカメラ端末に割り当てる領域分割手段を備え、
前記調整手段は、前記領域分割手段によって自カメラ端末に割り当てられた領域 を新たな仮想撮影領域として、前記調整を行う
ことを特徴とする撮影領域調整装置。
[2] 前記領域分割手段は、前記 N個のカメラ端末の仮想撮影領域が包含関係にある場 合に、前記分割と前記割り当てとを行う
ことを特徴とする請求項 1記載の撮影領域調整装置。
[3] 前記領域分割手段は、前記 N個のカメラ端末の仮想撮影領域が隣接してレ、る場合 に、前記分割と前記割り当てとを行う
ことを特徴とする請求項 1記載の撮影領域調整装置。
[4] 前記領域分割手段は、割り当ての対象となる少なくとも 1個のカメラ端末について、 前記カメラが仮想撮影領域を撮影するのに要する時間が小さくなる、又は、前記カメ ラによって現実に撮影される領域のうち仮想撮影領域を除く部分が小さくなるように、 前記分割と前記割り当てとを行う
ことを特徴とする請求項 1記載の撮影領域調整装置。
[5] 前記領域分割手段は、前記カメラ端末の仮想撮影領域のアスペクト比が前記カメラ の撮影領域のアスペクト比に近づくように、前記分割と前記割り当てとを行う ことを特徴とする請求項 4記載の撮影領域調整装置。
[6] 前記領域分割手段は、予め定められた複数の分割パターンの中から 1つの分割パ ターン選択することによって、前記分割を行う
ことを特徴とする請求項 1記載の撮影領域調整装置。
[7] 前記カメラは、一定周期で、前記仮想撮影領域内で撮影領域の位置を変化させる ことを繰り返す
ことを特徴とする請求項 1記載の撮影領域調整装置。
[8] 前記領域分割手段は、前記複数のカメラ端末の少なくとも 1個のカメラ端末内に置 かれている
ことを特徴とする請求項 1記載の撮影領域調整装置。
[9] 一定時間内に一定領域内で撮影領域の位置を変化させることによって得られる仮 想的な撮影領域である仮想撮影領域を撮影する複数のカメラ端末を用いて撮影領 域を調整する撮影領域調整方法であって、
前記複数のカメラ端末の仮想撮影領域を和した領域が所定の撮影対象領域をくま なく覆うように、各カメラ端末の仮想撮影領域の位置を調整する調整ステップと、 前記複数のカメラ端末のうちの N ( 2)個のカメラ端末の仮想撮影領域を内包する 領域を N個に分割し、分割した N個の領域それぞれを前記 N個のカメラ端末に割り当 てる領域分割ステップとを含み、
前記調整ステップでは、前記領域分割ステップによって割り当てられた領域を新た な仮想撮影領域として、前記調整を行う
ことを特徴とする撮影領域調整方法。
[10] 複数のカメラ端末を用いて撮影領域を調整する撮影領域調整装置を構成する 1台 のカメラ端末であって、
一定時間内に一定領域内で撮影領域の位置を変化させることによって得られる仮 想的な撮影領域である仮想撮影領域を撮影するカメラと、
前記仮想撮影領域を示す仮想撮影領域情報を送受信する通信手段と、 自力メラ端末の仮想撮影領域と前記通信手段によって受信される仮想撮影領域情 報が示す他力メラ端末の仮想撮影領域とに基づき、前記複数のカメラ端末の仮想撮 影領域を和した領域が所定の撮影対象領域をくまなく覆うように、 自力メラ端末の仮 想撮影領域の位置を調整する調整手段とを備え、
前記調整手段は、さらに、前記複数のカメラ端末のうちの N (≥ 2)個のカメラ端末の 仮想撮影領域を内包する領域を N個に分割し、分割した N個の領域それぞれを前記 N個のカメラ端末に割り当てるとともに、 自カメラ端末に割り当てた領域を新たな仮想 撮影領域として、前記調整を行う
ことを特徴とするカメラ端末。
[11] 複数のカメラ端末を用レ、て撮影領域を調整する撮影領域調整装置を構成する 1台 のカメラ端末による撮影領域調整方法であって、
一定時間内に一定領域内で撮影領域の位置を変化させることによって得られる仮 想的な撮影領域である仮想撮影領域を撮影するステップと、
前記仮想撮影領域を示す仮想撮影領域情報を送受信する通信ステップと、 自力メラ端末の仮想撮影領域と前記通信ステップで受信される仮想撮影領域情報 が示す他力メラ端末の仮想撮影領域とに基づき、前記複数のカメラ端末の仮想撮影 領域を和した領域が所定の撮影対象領域をくまなく覆うように、 自力メラ端末の仮想 撮影領域の位置を調整する調整ステップとを含み、
前記調整ステップでは、さらに、前記複数のカメラ端末のうちの N ( 2)個のカメラ 端末の仮想撮影領域を内包する領域を N個に分割し、分割した N個の領域それぞ れを前記 N個のカメラ端末に割り当てるとともに、 自力メラ端末に割り当てた領域を新 たな仮想撮影領域として、前記調整を行う
ことを特徴とする撮影領域調整方法。
[12] 複数のカメラ端末を用いて撮影領域を調整する撮影領域調整装置を構成する 1台 のカメラ端末のためのプログラムであって、
請求項 11記載の撮影領域調整方法に含まれるステップをコンピュータに実行させ る
ことを特徴とするプログラム。
[13] 複数のセンサ端末を備える検出領域調整装置であって、 前記複数のセンサ端末は、それぞれ、
一定時間内に一定領域内で検出領域の位置を変化させることによって得られる仮 想的な検出領域である仮想検出領域を検出するセンサと、
前記仮想検出領域を示す仮想検出領域情報を送受信する通信手段と、 自センサ端末の仮想検出領域と前記通信手段によって受信される仮想検出領域 情報が示す他センサ端末の仮想検出領域とに基づき、前記複数のセンサ端末の仮 想検出領域を和した領域が所定の検出対象領域をくまなく覆うように、 自センサ端末 の仮想検出領域の位置を調整する調整手段とを備え、
前記検出領域調整装置は、さらに、前記複数のセンサ端末のうちの N (≥ 2)個のセ ンサ端末の仮想検出領域を内包する領域を N個に分割し、分割した N個の領域それ ぞれを前記 N個のセンサ端末に割り当てる領域分割手段を備え、
前記調整手段は、前記領域分割手段によって自センサ端末に割り当てられた領域 を新たな仮想検出領域として、前記調整を行う
ことを特徴とする検出領域調整装置。
PCT/JP2006/311863 2005-07-29 2006-06-13 撮影領域調整装置 WO2007013231A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006535681A JP3968376B2 (ja) 2005-07-29 2006-06-13 撮影領域調整装置
US11/667,768 US8154599B2 (en) 2005-07-29 2006-06-13 Imaging region adjustment device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005219953 2005-07-29
JP2005-219953 2005-07-29

Publications (1)

Publication Number Publication Date
WO2007013231A1 true WO2007013231A1 (ja) 2007-02-01

Family

ID=37683135

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/311863 WO2007013231A1 (ja) 2005-07-29 2006-06-13 撮影領域調整装置

Country Status (3)

Country Link
US (1) US8154599B2 (ja)
JP (1) JP3968376B2 (ja)
WO (1) WO2007013231A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118136A (ja) * 2019-03-15 2019-07-18 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
CN113826378A (zh) * 2019-05-16 2021-12-21 佳能株式会社 布置确定装置、系统、布置确定方法和程序

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2559726C (en) * 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
US20080126533A1 (en) * 2006-11-06 2008-05-29 Microsoft Corporation Feedback based access and control of federated sensors
US8855856B2 (en) * 2007-05-08 2014-10-07 GM Global Technology Operations LLC Vehicle roll control method using controllable friction force of MR dampers
JP5141137B2 (ja) * 2007-08-21 2013-02-13 ソニー株式会社 カメラ制御方法、カメラ制御装置、カメラ制御プログラムおよびカメラシステム
EP2350792B1 (en) * 2008-10-10 2016-06-22 Qualcomm Incorporated Single camera tracker
KR101259559B1 (ko) * 2009-12-18 2013-04-30 한국전자통신연구원 멀티 카메라 연동 장치 및 방법
DE102012107153A1 (de) * 2012-08-03 2014-02-27 Hendrik Fehlis Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
US9791557B1 (en) * 2016-09-15 2017-10-17 Qualcomm Incorporated System and method for multi-area LIDAR ranging
US10970915B2 (en) * 2017-01-06 2021-04-06 Canon Kabushiki Kaisha Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
WO2018212008A1 (ja) * 2017-05-16 2018-11-22 富士フイルム株式会社 撮像装置及び画像合成装置
US10609342B1 (en) 2017-06-22 2020-03-31 Insight, Inc. Multi-channel sensing system with embedded processing
JP2019102907A (ja) * 2017-11-30 2019-06-24 キヤノン株式会社 設定装置、設定方法、及びプログラム
US11368991B2 (en) 2020-06-16 2022-06-21 At&T Intellectual Property I, L.P. Facilitation of prioritization of accessibility of media
US11411757B2 (en) 2020-06-26 2022-08-09 At&T Intellectual Property I, L.P. Facilitation of predictive assisted access to content
US11184517B1 (en) * 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
US11356349B2 (en) 2020-07-17 2022-06-07 At&T Intellectual Property I, L.P. Adaptive resource allocation to facilitate device mobility and management of uncertainty in communications
US11768082B2 (en) 2020-07-20 2023-09-26 At&T Intellectual Property I, L.P. Facilitation of predictive simulation of planned environment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2004304602A (ja) * 2003-03-31 2004-10-28 Toshiba Corp ネットワーク接続カメラ及び画像表示方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01288696A (ja) 1988-05-13 1989-11-20 Asahi Optical Co Ltd 雲台制御装置
JP3043925B2 (ja) 1993-07-15 2000-05-22 東京電力株式会社 移動物体検出判定装置
JPH07303207A (ja) 1994-05-09 1995-11-14 Canon Inc 撮像装置
JPH08223561A (ja) * 1995-02-17 1996-08-30 Nippon Denki Syst Kensetsu Kk モニタエリア図によるカメラの制御方法および装置
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6341044B1 (en) * 1996-06-24 2002-01-22 Be Here Corporation Panoramic imaging arrangement
US6631240B1 (en) * 1997-07-23 2003-10-07 University Of Washington Multiresolution video
JP3180730B2 (ja) 1997-09-29 2001-06-25 日本電気株式会社 監視カメラシステム
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6985178B1 (en) * 1998-09-30 2006-01-10 Canon Kabushiki Kaisha Camera control system, image pick-up server, client, control method and storage medium therefor
US6738059B1 (en) * 1998-12-18 2004-05-18 Kabushiki Kaisha Sega Enterprises Apparatus and methods for image processing using mixed display objects
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
JP3621003B2 (ja) * 1999-08-31 2005-02-16 松下電器産業株式会社 監視カメラ装置及び監視カメラの表示方法
JP3643513B2 (ja) 2000-03-01 2005-04-27 株式会社日立国際電気 侵入物体監視方法および侵入物体監視装置
JP3740011B2 (ja) * 2000-11-29 2006-01-25 コナミ株式会社 画像表示制御プログラムを記録したコンピュータ読み取り可能な記録媒体、ならびに、画像表示制御装置及び方法
US20030038814A1 (en) * 2001-08-27 2003-02-27 Blume Leo R. Virtual camera system for environment capture
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
US7386855B2 (en) * 2002-08-12 2008-06-10 Ntt Docomo, Inc. Application mobility service
JP2004234455A (ja) * 2003-01-31 2004-08-19 Canon Inc 情報処理方法および画像再生装置
JP3862688B2 (ja) * 2003-02-21 2006-12-27 キヤノン株式会社 画像処理装置及び画像処理方法
KR20050000276A (ko) * 2003-06-24 2005-01-03 주식회사 성진씨앤씨 감시 카메라 제어용 가상 조이스틱 시스템 및 제어 방법
JP4614653B2 (ja) * 2003-12-12 2011-01-19 ソニー株式会社 監視装置
US20050225635A1 (en) * 2004-04-09 2005-10-13 The United States Of America As Represented By The Secretary Of The Army Video based security system
JP2006013923A (ja) * 2004-06-25 2006-01-12 Sony Corp 監視装置
JP2006033570A (ja) * 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
US7796154B2 (en) * 2005-03-07 2010-09-14 International Business Machines Corporation Automatic multiscale image acquisition from a steerable camera
KR100793838B1 (ko) * 2006-09-27 2008-01-11 한국전자통신연구원 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법
JP5645450B2 (ja) * 2010-04-16 2014-12-24 キヤノン株式会社 画像処理装置および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2004304602A (ja) * 2003-03-31 2004-10-28 Toshiba Corp ネットワーク接続カメラ及び画像表示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118136A (ja) * 2019-03-15 2019-07-18 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
CN113826378A (zh) * 2019-05-16 2021-12-21 佳能株式会社 布置确定装置、系统、布置确定方法和程序
CN113826378B (zh) * 2019-05-16 2024-05-07 佳能株式会社 布置确定装置、系统、布置确定方法和存储介质

Also Published As

Publication number Publication date
JPWO2007013231A1 (ja) 2009-02-05
US8154599B2 (en) 2012-04-10
JP3968376B2 (ja) 2007-08-29
US20080259162A1 (en) 2008-10-23

Similar Documents

Publication Publication Date Title
WO2007013231A1 (ja) 撮影領域調整装置
JP3887403B2 (ja) カメラ端末および撮影領域調整装置
JP3905116B2 (ja) 検出領域調整装置
JP4418805B2 (ja) 検出領域調整装置
JP3886524B2 (ja) カメラ端末および監視システム
JP3902222B2 (ja) 監視システム、監視方法及びカメラ端末
JP6587113B2 (ja) 画像処理装置及び画像処理方法
JP3903062B2 (ja) 監視システムおよびカメラ端末
US20050206726A1 (en) Monitor system and camera
US20060017812A1 (en) Camera link system, camera device and camera link control method
JP3700707B2 (ja) 計測システム
JP2015026914A (ja) プログラム、情報処理装置、システム
JP6584093B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP3875199B2 (ja) 撮影装置
KR101341632B1 (ko) 줌 카메라의 광축 오차 보상 시스템, 그 보상 방법
CN100428781C (zh) 摄像机终端及摄影区域调整装置
JP2021197572A (ja) カメラ制御装置及びプログラム
WO2017094241A1 (en) Display processing apparatus, display processing method, and computer-readable medium for executing display processing method
KR20170012717A (ko) 영상정보를 기반으로 공간상의 위치정보를 생성하는 방법 및 그 장치
JP2016134765A (ja) 監視システム
US20180352155A1 (en) Monitoring system
CN111259825B (zh) 基于人脸识别的ptz扫描路径生成方法
WO2021020358A1 (ja) 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2005318354A (ja) 傾斜角度測定装置を備えたプロジェクタ
JP6852500B2 (ja) 情報出力装置、プログラム及び情報出力方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2006535681

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11667768

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06757298

Country of ref document: EP

Kind code of ref document: A1