WO2013015052A1 - カメラ制御システムおよびその動作制御方法 - Google Patents

カメラ制御システムおよびその動作制御方法 Download PDF

Info

Publication number
WO2013015052A1
WO2013015052A1 PCT/JP2012/065841 JP2012065841W WO2013015052A1 WO 2013015052 A1 WO2013015052 A1 WO 2013015052A1 JP 2012065841 W JP2012065841 W JP 2012065841W WO 2013015052 A1 WO2013015052 A1 WO 2013015052A1
Authority
WO
WIPO (PCT)
Prior art keywords
priority
camera control
camera
control
network line
Prior art date
Application number
PCT/JP2012/065841
Other languages
English (en)
French (fr)
Inventor
寺島 正之
三沢 充史
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2013525632A priority Critical patent/JP5782517B2/ja
Priority to EP12817700.3A priority patent/EP2739032B1/en
Publication of WO2013015052A1 publication Critical patent/WO2013015052A1/ja
Priority to US14/164,921 priority patent/US9106777B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00344Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a management, maintenance, service or repair apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • G02B7/102Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2207/00Control of exposure by setting shutters, diaphragms, or filters separately or conjointly
    • G03B2207/005Control of exposure by setting shutters, diaphragms, or filters separately or conjointly involving control of motion blur
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/005Blur detection

Definitions

  • the present invention relates to a camera control system and an operation control method thereof.
  • Some interchangeable lenses that can be attached to and detached from the camera body include a switch that transmits information about the moving direction of the lens and the amount of aperture by using a single signal line so as not to increase the number of lens contacts (Patent Document 1).
  • a switch that transmits information about the moving direction of the lens and the amount of aperture by using a single signal line so as not to increase the number of lens contacts
  • Patent Document 2 when the camera body sends a control signal to cause the interchangeable lens to perform each operation, it takes a long time to complete the process, so that a plurality of movable members are driven simultaneously.
  • Patent Document 3 there is a multiprocessor system that uses exclusive control to ensure real-time performance
  • JP 2011-112700 A JP 2010-15131 A JP 2010-140290 A Japanese Patent Laid-Open No. 7-99599
  • multiple camera control boards can simultaneously use the network line.
  • a collision of communication data occurs on the network line.
  • any camera, etc. it is not considered to control the camera using a plurality of camera control boards in which the boards are connected by a network line, so communication data on the network line is not considered. Is not considered about the collision.
  • An object of the present invention is to prevent collision of communication data on a network line.
  • a camera control circuit having a different control function is mounted on each of a plurality of independent camera control boards, and the camera control boards are connected by a network line.
  • One of the plurality of camera control boards determines the priority order of the camera control boards using the network line.
  • This invention also provides an operation control method suitable for the camera control system. That is, in this method, a camera control circuit having a different control function is mounted on each of a plurality of independent camera control boards, and the camera control boards are connected by a network line. In the system operation method, one camera control board of the plurality of camera control boards determines the priority order of the camera control boards using the network line.
  • each of the plurality of camera control boards is independent (separate boards), and a camera control circuit having a different control function is mounted on each camera control board.
  • a plurality of such camera control boards are connected by a network line (bus connection). Multiple camera control boards can control the camera independently, but since they are connected via a network line, if control data is sent simultaneously from multiple camera control boards, the control data on the network line A collision will occur.
  • the network line can be used according to the priority order. . It is possible to prevent a control data collision from occurring on the network line.
  • the one camera control board controls the plurality of camera control boards so that, for example, a camera control board having a higher priority order uses the network line more frequently within a certain period.
  • the one camera control board may perform a priority determination process of the camera control board that uses a network line every time the camera control by the camera control board ends.
  • a priority determined in advance may be given priority.
  • the plurality of camera control boards include, for example, a focus lens control board for controlling the focus lens, a zoom lens control board for controlling the zoom lens, and an iris control board for controlling the diaphragm.
  • a focus lens control board for controlling the focus lens
  • a zoom lens control board for controlling the zoom lens
  • an iris control board for controlling the diaphragm.
  • the plurality of camera control boards may further include, for example, a shake detection control board for detecting camera shake and a shake correction control board for correcting camera shake.
  • a shake detection control board for detecting camera shake
  • a shake correction control board for correcting camera shake.
  • the shake correction control board has a higher priority for using the network line.
  • the shake correction control board has a lower priority for using the network line.
  • 2 shows a data structure of CAN communication.
  • the relationship between the zoom amount, aperture value, and focus control priority is shown. It shows the relationship between zoom amount, camera shake amplitude, and anti-vibration lens control priority.
  • the graph shows the relationship among the zoom amount, camera shake frequency, and priority of vibration-proof lens control.
  • the relationship between priority and control cycle is shown.
  • FIG. 1 is a block diagram showing an electrical configuration of a photographing lens unit (camera control system) 1.
  • the photographing lens unit 1 includes a large number of CPU boards 10-22 (which are detachable from each other) which are independent (separate boards). A CPU is mounted on each of the CPU boards 10-22.
  • a CPU is mounted on each substrate. Therefore, a large number of processes can be performed simultaneously by simultaneously driving the CPUs mounted on the respective substrates.
  • the image data from the camera body 52 and various signals from the virtual system 53 that performs CG (computer graphic) processing are input to the CPU board 10 via an RS232C cable or the like.
  • the zoom request signal and the focus request signal given to the photographing lens unit 1 are given to the zoom request CPU board 11 and the focus request CPU board 12, respectively.
  • the photographing lens unit 1 is provided with various switches 31 and 32 and the like, and switch signals from these various switches 31 and 32 are given to the switch control CPU board 13. Further, the photographing lens unit 1 is provided with display devices 33 and 34 and the like, and these display devices 33 and 34 are controlled by the display control CPU board 14.
  • the zoom request CPU board 11 receives a given zoom request signal and transmits it to another board.
  • the focus request CPU board 12 receives a given focus request signal and transmits it to another board.
  • the switch control CPU board 13 performs switch control based on signals from the various switches 31 and 32.
  • the display control CPU board 14 controls display on the display devices (indicators) 33 and 34.
  • the zoom control CPU board 15 is connected with a zoom motor 41 that drives a zoom lens (not shown) and a sensor 42 that detects the position of the zoom lens.
  • the zoom control CPU board 15 drives the zoom motor 41 to control the zoom lens so that a desired zoom position is obtained.
  • the focus control CPU board 16 is connected with a focus motor 43 that drives a focus lens (not shown) and a sensor 44 that detects the position of the focus lens.
  • the focus control CPU board 16 drives the focus motor 43 to control the focus lens so that the focus position is the designated position for manual focus and the calculated focus position for auto focus.
  • the iris control CPU board 17 is connected to an iris motor 45 that drives an iris (not shown) and a sensor 46 that detects the iris aperture value.
  • the iris motor 45 is driven by the iris control CPU board 17 to control the iris so as to obtain a desired aperture value.
  • the anti-vibration correction control CPU board 18 is connected with an anti-vibration lens / motor 47 for driving an anti-vibration lens (not shown) for correcting camera shake and the like, and a sensor 48 for detecting the position of the anti-vibration lens.
  • the image stabilization lens is driven by the image stabilization control CPU board 18 so as to correct camera shake obtained by control of an angular velocity sensor control CPU board 19 described later.
  • An angular velocity sensor 49 is connected to the angular velocity sensor control CPU board 19.
  • the angular velocity sensor 49 detects the shake of the camera (photographing lens unit 1) in the vertical and horizontal directions. Needless to say, the camera body 52 is mounted on the photographing lens unit 1 and the camera body 52 is shaken. Data indicating the detected vertical shake and horizontal shake is input from the angular velocity sensor control CPU board 19 to the image stabilization control CPU board 18, and the image stabilization lens is driven by the image stabilization correction control CPU board 18. It will be. In each speed sensor control CPU board 18, the frequency and amplitude of shake of the camera body 52 are also calculated.
  • the PF unit CPU board 20 is obtained from a first AF CCD and a second AF CCD that are slightly shorter than the optical distance of the imaging CCD provided in the camera body 52 (both not shown). Two graphs representing the relationship between the AF evaluation value and the position of the focus lens are generated, and the in-focus position that is the intersection is calculated.
  • the additional control CPU boards 21 and 22 are used when the photographing lens unit 1 performs additional control.
  • the photographing lens unit 1 includes a first common bus BUS1 and a second common bus BUS2.
  • the zoom request CPU board 11, the focus request CPU board 12, the switch control CPU board 13, the display control CPU board 14 and the CPU board 10 are bus-connected to the first common bus BUS1.
  • the CPU board 10, zoom control CPU board 15, focus control CPU board 16, iris control CPU board 17, anti-vibration correction control CPU board 18, angular velocity sensor control CPU board 19, and PF unit CPU are connected to the second common bus BUS2.
  • a board 20 and additional control CPU boards 21 and 22 are connected by a bus.
  • the bus lines (network lines) or the bus line and the board are detachably connected by a connector (not shown). It goes without saying that the number of common buses is not two, but may be one or three or more.
  • the memory 60 and timer 61 are connected to the CPU board 10 by a network line.
  • the network communication between boards described above can use CAN (Controller Area Network) communication.
  • CAN Controller Area Network
  • FIG. 2 shows the structure of a data frame which is a transfer format for transmitting data in CAN communication.
  • Data frame is either recessive or dominant.
  • the numbers in each part indicate the number of bits.
  • the bus is recessive (bus idle).
  • the data frame includes a start of frame, an identifier field, an RTR, a control field, a data field, a CRC sequence, a CRC delimiter, an ACK slot, an ACK delimiter, and an end of frame. Is done.
  • the start of frame indicates the start of the data frame and is in a dominant state.
  • the CPU board (receiving node) on the receiving side can perform synchronization by changing the start of frame from recessive in bus idle to dominant.
  • the identifier field is used to identify the data contents and the CPU board (transmission node) on the transmission side.
  • the CPU board on the receiving side can determine whether the data frame is used by detecting the contents described in the identifier field.
  • the identifier field may determine the priority of communication arbitration.
  • RTR Remote Transmission Request
  • the RTR is used to identify a data frame for transmitting data and a remote frame for requesting data transmission. In the case of a data frame, the RTR is dominant.
  • the RTR is also used for communication arbitration in the same manner as the identifier field.
  • the control field indicates how many bytes are transmitted in the next data field.
  • the data field is the portion of data transmitted in the data frame.
  • CRC Cyclic Redundancy Check
  • the CRC delimiter is a delimiter that indicates the end of the CRC sequence and is fixed to a recessive 1-bit length.
  • ACK (Acknowledgement) slot is a field for normal reception confirmation.
  • the ACK delimiter is a delimiter that represents the end of the ACK slot and is fixed to a recessive 1-bit length.
  • the end-of-frame indicates the end of transmission or reception and is fixed to recessive.
  • communication arbitration is performed. For example, when two data frames are transmitted, one bit of data described in the identifier field of each of the two data frames is compared, and the first difference data becomes the dominant one. Data frames are transmitted with priority.
  • control data data frame
  • priority is given to the use of the network line (control by the control board), and the network line can be used according to the priority.
  • 3 to 5 are for assigning priorities used for determining the priorities, and show the relationship between the state and priority in camera control.
  • FIG. 3 shows the relationship between the zoom amount, the aperture value, and the priority for focus.
  • the horizontal axis indicates the zoom amount of the zoom lens
  • the vertical axis indicates the aperture value of the aperture.
  • Regions 71 to 74 are defined.
  • the area 71 defines the zoom amount on the tele side and the aperture value on the open side.
  • the zoom amount is on the tele side but the aperture value is slightly closed from the open side, and the zoom amount is on the wide side but the aperture value defines the open side.
  • the zoom amount is intermediate between the tele side and the wide side, the region where the aperture is relatively closed, and the zoom amount is intermediate between the tele side and the wide side, and the aperture is open and fully closed.
  • An intermediate region between the state and the zoom amount is relatively wide, and an intermediate region between the open state and the fully closed state is defined.
  • the area 74 defines an area on the side where the zoom amount is on the wide side and the aperture is closed.
  • the priority for the focus is specified to be high. Conversely, the closer the zoom lens is to the wide side and the closer the aperture, the deeper the depth of focus. In such a case, the priority for the focus is specified to be low. The priority for the focus is higher in the order of the areas 71, 72, 73, 74 (the priorities of the areas 71, 72, 73, 74 are 1, 2, 3, 4 respectively).
  • the zoom amount Z10 is at the wide end, the zoom amount becomes the tele side as Z11, Z12, Z13, and Z14, and the aperture is closed as I0, I1, I2, I3, I4, and I5.
  • the focus priority is 1.
  • the zoom amount is between Z13 and Z14 and the aperture is fully closed from I3, the focus priority is 2.
  • the priority is 1, 2, or 3 depending on the aperture state.
  • the priority is 1, 2, 3 or 4 depending on the aperture state.
  • the zoom amount is between Z10 and Z11, the priority is 2, 3 or 4 depending on the aperture state.
  • Priority of focus is determined by the state of zoom amount and aperture value.
  • FIG. 4 shows the relationship between the zoom amount, the camera shake amplitude, and the priority of the anti-vibration lens control.
  • Regions 81, 82 and 83 are defined.
  • a region 81 indicates a region where the zoom amount is on the tele side and the amplitude is large.
  • the region 83 indicates a region where the zoom amount is on the wide side and the amplitude is small.
  • the region 82 is a region between the region 81 and the region 83.
  • a0 is when the amplitude is minimum
  • a3 is when the amplitude is greater than or equal to a predetermined maximum
  • a1 and a2 are amplitudes between them (a1 ⁇ a2, where a2 is larger in amplitude).
  • the priority is 2 or 3 depending on the amplitude.
  • the priority is 1, 2, or 3 depending on the amplitude.
  • the priority is 2 or 3 depending on the amplitude.
  • the amplitude is between a0 and a1
  • the priority is 2 or 3 depending on the zoom amount.
  • the priority is 1, 2 or 3 depending on the zoom amount.
  • the amplitude is between a2 and a3, the priority is 2 or 3 depending on the zoom amount.
  • ⁇ Anti-vibration lens control priority is determined according to the zoom amount and amplitude.
  • FIG. 5 shows the relationship between the zoom amount, the camera shake frequency, and the priority of the anti-vibration lens control.
  • Regions 91, 92 and 93 are defined.
  • An area 91 indicates an area where the zoom amount is on the telephoto side and the frequency is high.
  • An area 93 indicates an area where the zoom amount is on the wide side.
  • Region 92 is a region between region 91 and region 93.
  • the priority of the anti-vibration lens control increases in the order of the areas 93, 92, and 91.
  • the priority is 3 according to the amplitude.
  • the priority is 2 or 3 depending on the frequency.
  • the priority is 2 when the zoom amount is between Z32 and Z33.
  • the priority is 1 or 2 depending on the frequency.
  • the frequency is between f0 and f1
  • the priority is 2 or 3 depending on the zoom amount.
  • the priority is 1, 2, or 3 depending on the zoom amount.
  • the priority of vibration-proof lens control is determined according to the zoom amount and frequency.
  • Fig. 6 shows the relationship between priority and control cycle.
  • the control cycle indicates the cycle for performing control with that priority.
  • the control periods of priority 1, 2, 3, 4 and 5 are 10 milliseconds, 20 milliseconds, 30 milliseconds, 40 milliseconds and 50 milliseconds, respectively. The higher the priority, the more times the control with that priority is performed.
  • This process may be always performed while power is supplied to the photographing lens unit 1 or may be performed at a constant cycle.
  • the timer 61 is reset and started (step 101).
  • step 102 From the CPU board 10 to the zoom control CPU board 15, the focus control CPU board 16, the iris control CPU board 17 and the angular velocity sensor control CPU board 19, the zoom lens amount, the focus lens position, the aperture value, and the vibration amplitude of the camera body 52 And a command to read the frequency state is provided (step 102).
  • the zoom control CPU board 15, the focus control CPU board 16, the iris control CPU board 17 and the angular velocity sensor control CPU board 19 cause the zoom lens amount, the focus lens position, the aperture value, and the amplitude and frequency of camera body 52 shake.
  • the state of is read. Data indicating each read state is given to the CPU board 10. When the data indicating the read state collides on the network line, it is given to the CPU board 10 in a predetermined order.
  • the focus priority and the anti-vibration lens control priority are calculated from the data indicating the read state as described above (step 103).
  • the priority of the anti-vibration lens control may be calculated using either amplitude or frequency, or may be calculated using both. In the case where the vibration-proof lens control priority is calculated using both the vibration amplitude and the frequency of the camera body 52, for example, the priority calculated based on the amplitude and the priority calculated based on the frequency are higher. This is the priority for vibration-proof lens control.
  • the default priority indicates the order in which the CPU board 11-22 included in the photographing lens unit 1 uses the network line (the order in which the CPU board 11-22 controls).
  • the control order is determined in advance such as zoom control, focus control, iris control, anti-vibration lens control, zoom control, and the like.
  • zoom control, focus control, iris control, and anti-vibration lens control the order of control of other CPU boards is also determined, but control with low priority is defined so that the number of times is reduced. Further, when a zoom request signal or a focus request signal given from the outside is input to the photographing lens unit 1, it is a request from the cameraman by manual, and therefore it may be controlled with the highest priority.
  • priority 1 camera control is performed (step 106). For example, if the focus control is priority 1, focus control is performed by the focus control CPU board 16, and priority is given to use of the network line by the focus control CPU board 16. As described above, priority is given to network line arbitration in CAN communication. When there are a plurality of priority 1 camera controls, the higher default priority is given priority. If 10 n milliseconds have not elapsed since the start of the timer 61 (NO in step 105), camera control is performed in accordance with the default priority read from the memory 60 (step 107).
  • priority 1 and priority 2 camera control is performed (step 109).
  • 20n milliseconds have elapsed from the start of the timer 61
  • 10n milliseconds have elapsed since the priority 1 camera control, so not only priority 2 but also priority 1 camera control is performed.
  • Either priority 1 camera control or priority 2 camera control may be given priority.
  • priority can be determined according to the default priority order. If 20 milliseconds have not elapsed since the start of the timer 61 (NO in step 108), camera control is performed in accordance with the default priority read from the memory 60 (step 110).
  • priority 1 and priority 3 camera control is performed (step 112), and if 30n milliseconds have not elapsed since the start of timer 61 (in step 111). NO), camera control is performed according to the default priority order read from the memory 60 (step 113).
  • priority 1, priority 2 and priority 4 camera control is performed (step 115), and 40n milliseconds have elapsed since timer 61 started. If not (NO in step 114), camera control is performed in accordance with the default priority read from the memory 60 (step 116).
  • step 117 when 50 n milliseconds have elapsed from the start of timer 61 (YES in step 117), priority 1 and priority 5 camera control is performed (step 118), and if 50 n milliseconds have not elapsed since the start of timer 61 (step 118).
  • step 117 the camera is controlled according to the default priority order read from the memory 60.
  • step 120 If the photographing lens unit 1 is not turned off (NO in step 120) due to, for example, the power supply to the photographing lens unit 1 being lost, the processing from step 102 is repeated.
  • step 121 final processing such as moving the zoom lens to the initial position is performed (step 121).
  • priority can be determined and camera control can be performed according to the priority even if data collision occurs on the network line. It becomes like this.
  • FIG. 9 and FIG. 10 show another embodiment, and are flowcharts showing the processing procedure of the photographing lens unit 1.
  • the zoom lens amount, the focus lens position, the aperture value, the camera body A command is given to read the state of the amplitude and frequency of 52 swings (step 132). Then, as described above, data indicating the zoom lens amount, the focus lens position, the aperture value, the shake amplitude of the camera body 52, and the state of the frequency are given to the CPU board 10.
  • the focus priority and the anti-vibration lens control priority are calculated from the data indicating the read state as described above (step 133).
  • camera control priority is determined (step 134).
  • This priority order may be determined in consideration of the priority calculated in the default priority order as described above, or may be determined separately from the default priority order. It is preferable to raise the priority from time to time for low priority boards such as the switch control CPU board 13. It is possible to prevent the fact that it cannot be controlled at all.
  • camera control with the highest priority among the determined priorities is determined (step 135).
  • an operation command is given from the CPU control board 10 to the focus control CPU board 16.
  • the focus / lens position is read by the focus control CPU board 16 (step 136), and the in-focus position is calculated by the PF unit board 20 (step 137).
  • the focus lens is driven by the focus control CPU board 16 so that the focus lens is positioned at the calculated in-focus position (step 138).
  • an operation command is given from the CPU board 10 to the anti-shake correction control CPU board 18.
  • the image stabilization lens position is read by the image stabilization correction control CPU board 18 (step 141).
  • the sensor 49 detects the shake direction and the shake amount of the camera body 52, and the image stabilization lens CPU calculates the image stabilization position of the image stabilization lens (step 142).
  • the image stabilization lens is positioned by the image stabilization control CPU board 18 so as to be positioned at the calculated correction position (step 143).
  • zoom lens control has the highest priority
  • an operation command is given from the CPU board 10 to the zoom control CPU board 15.
  • the zoom lens position (zoom amount) is read by the zoom control CPU board 15 (step 151), and the zoom lens position is calculated (step 152). For example, the zoom position is calculated based on the zoom request signal.
  • the zoom lens is driven by the zoom control CPU board 15 so as to reach the calculated zoom position (step 153).
  • step 161 If the other camera control has the highest priority, an operation command is given from the CPU board 10 to the corresponding control board (step 161). Control is performed on the corresponding control board (step 162).
  • step 171 If the photographing lens unit 1 is not turned off (NO in step 171), the processing from step 132 is repeated again.
  • a priority order determination process is performed every time camera control ends. The control with the highest priority is performed again. Since the control is not performed unless the priority is the highest, a history indicating what kind of control has been performed is stored, and if there is control that is not performed for a certain period of time, the control is performed. It is preferable to perform the highest priority.
  • FIG. 11 shows a modification and is a block diagram showing another electrical configuration of the photographing lens unit 1A.
  • zoom request CPU board 11 and focus request CPU board 12 In the modification shown in FIG. 11, zoom request CPU board 11 and focus request CPU board 12, focus request CPU board 12 and switch control board 13, switch control CPU board 13 and display control CPU board 14, zoom request CPU board 11 and CPU
  • the substrates 10 are detachably connected (bus connection) by network lines.
  • the CPU board 10 and the zoom control CPU board 15, the zoom control CPU board 15 and the focus control CPU board 16, the focus control CPU board 16 and the iris control CPU board 17, the iris control CPU board 17 and the image stabilization control CPU board 18, Anti-vibration correction control CPU board 18 and angular velocity sensor control board 19, angular velocity sensor control board 19 and PF unit CPU board 20, PF unit CPU board 20 and additional control CPU board 22, and additional control CPU boards 21 and 21 are also network
  • the line is detachably connected.
  • CAN communication is used, but network technologies other than CAN communication may be used.
  • PROFIBUS, CC-Link, Interbus, EC-NET, etc. can be used.
  • the CPU board 10-22 is connected by a network line, but these CPU boards 51-64 and the network line are detachably connected by a connector or the like.
  • the zoom control CPU board 15, the focus control CPU board 16, the iris control CPU board 17 and the image stabilization control CPU board 18 have the same configuration, and the boards are shared. Further, the zoom request CPU substrate 11, the focus request CPU substrate 12, and the angular velocity sensor control CPU substrate 18 are also shared, and all are mounted with a CPU. The zoom request signal, the focus request signal, or the sensor signal is input to the CPU mounted on the zoom request CPU board 11, the focus request CPU board 12, or the angular velocity sensor control CPU board 19 via the analog / digital conversion circuit. Further, the switch control CPU board 13 and the display control CPU board 14 have the same configuration, and signals input from the switches 31, 32, etc. are input to the CPU of the switch control CPU board 13 via the analog / digital conversion circuit, and the display control is performed. Control data from the CPU of the CPU board 14 is converted into an analog control signal in the digital / analog conversion circuit and input to the display devices 33 and 34. Further, the configurations of the PF unit CPU board 20 and the additional control CPU boards 21 and 22 may be the same.
  • the CPU control board 10-22 is mounted with a common communication circuit (transceiver) for communicating via the CPU and the network line, it is possible to share these circuits.
  • 1,1A Photography lens unit (camera control system) 10-22 CPU board (camera control board) 10 CPU board (one camera control board)

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

 ネットワーク・ライン上での通信データの衝突を未然に防止する。それぞれが独立し,それぞれにCPUが実装されている複数のCPU基板がネットワーク・ラインにより接続されている。ネットワーク・ラインに複数の制御データが送信されると,データの衝突が起きるので,カメラ制御の優先順位が決定される。ズーム・レンズがテレ側で,絞りが開放側であれば,フォーカス・レンズ制御の優先順位を高くする。ズーム・レンズがワイド側で,絞りの開口が小さいと,フォーカス・レンズ制御の優先順位は低くする。優先順位にしたがって,カメラ制御が行われるのでネットワーク・ラインでのデータの衝突が回避される。

Description

カメラ制御システムおよびその動作制御方法
 この発明は,カメラ制御システムおよびその動作制御方法に関する。
 カメラボディに着脱自在な交換レンズでは,レンズ接点を増やさないようにするために,レンズの移動方向と絞り量の情報を一つの信号線で切り替えて伝送するものがある(特許文献1)。また,カメラ本体が,交換レンズに対して一つ一つの動作を行わせるように制御信号を送信する場合,処理が終了するまでの時間が長くなることから,複数の可動部材の駆動を同時に行うものもある(特許文献2)。さらに,マルチプロセッサシステムにおいて排他制御を用いてリアルタイム性を確保するものもある(特許文献3)。また,テレビレンズ装置の電力不足によるノイズの混入を防止するもの(特許文献4)もある。
特開2011-112700号公報 特開2010-15131号公報 特開2010-140290号公報 特開平7-99599号公報
 それぞれが独立しており,基板同士がネットワーク・ラインによって接続されている複数のカメラ制御基板を用いてカメラの制御を行うことを考えた場合,複数のカメラ制御基板が同時にネットワーク・ラインを用いて通信すると,ネットワーク・ライン上で通信データの衝突が起きてしまう。しかしながら,いずれのカメラ等においても,基板同士がネットワーク・ラインによって接続されている複数のカメラ制御基板を用いてカメラの制御を行うことは考えられていないために,ネットワーク・ライン上での通信データの衝突について考えられていない。
 この発明は,ネットワーク・ライン上での通信データの衝突が起きないようにすることを目的とする。
 この発明によるカメラ制御システムは,それぞれが独立している複数のカメラ制御基板のそれぞれに,異なる制御機能を有するカメラ制御回路が実装されており,カメラ制御基板同士がネットワーク・ラインにより接続されており,上記複数のカメラ制御基板のうちの一のカメラ制御基板が,ネットワーク・ラインを使用するカメラ制御基板の優先順位を決定することを特徴とする。
 この発明は,カメラ制御システムに適した動作制御方法も提供している。すなわち,この方法は,それぞれが独立している複数のカメラ制御基板のそれぞれに,異なる制御機能を有するカメラ制御回路が実装されており,カメラ制御基板同士がネットワーク・ラインにより接続されているカメラ制御システムの動作方法であって,上記複数のカメラ制御基板のうちの一のカメラ制御基板が,ネットワーク・ラインを使用するカメラ制御基板の優先順位を決定するものである。
 この発明によると,複数のカメラ制御基板のそれぞれは独立しており(別々の基板),それぞれのカメラ制御基板には異なる制御機能を有するカメラ制御回路が実装されている。このような複数のカメラ制御基板同士がネットワーク・ラインにより接続(バス接続)されている。複数のカメラ制御基板は,それぞれが単独でカメラ制御できるが,ネットワーク・ラインで接続されているために,複数のカメラ制御基板から制御データが同時に送信された場合にはネットワーク・ライン上で制御データの衝突が起きてしまう。この発明によると,複数のカメラ制御基板のうちの一のカメラ制御基板がネットワーク・ラインを使用するカメラ制御基板の優先順位を決定するので,その優先順位にしたがってネットワーク・ラインを使用させることができる。ネットワーク・ライン上で制御データの衝突が起きてしまうことを未然に防止できる。
 上記一のカメラ制御基板は,たとえば,優先順位の高いカメラ制御基板ほど一定期間内においてネットワーク・ラインを使用する回数が多くなるように上記複数のカメラ制御基板を制御するものである。
 上記一のカメラ制御基板は,カメラ制御基板によるカメラ制御の終了ごとにネットワーク・ラインを使用するカメラ制御基板の優先順位決定処理を行うものでもよい。
 上記一のカメラ制御基板によって決定された優先順位が同じものについては,あらかじめ定められている優先順位を優先するものもよい。
 上記複数のカメラ制御基板には,たとえば,フォーカス・レンズを制御するフォーカス・レンズ制御基板,ズーム・レンズを制御するズーム・レンズ制御基板,および絞りを制御するアイリス制御基板が含まれている。このような場合には,たとえば,ズーム・レンズがテレ側であり,かつ絞りが開放側ほど,上記フォーカス・レンズ制御基板がネットワーク・ラインを使用する優先順位が高いものであり,ズーム・レンズがワイド側であり,かつ絞りが閉じているほどフォーカス・レンズ制御基板がネットワーク・ラインを使用する優先順位が低いものである。
 上記複数のカメラ制御基板には,たとえば,カメラの振れを検出する振れ検出制御基板,およびカメラの振れを補正する振れ補正制御基板がさらに含まれていてもよい。この場合,たとえば,ズーム・レンズがテレ側であり,かつカメラの振れの振幅が大きい,あるいはカメラの振れの周波数が高いほど振れ補正制御基板がネットワーク・ラインを使用する優先順位が高いものであり,ズーム・レンズがワイド側であり,かつカメラの振れの振幅が小さい,あるいはカメラの振れの周波数が低いほど振れ補正制御基板がネットワーク・ラインを使用する優先順位が低いものである。
撮影レンズ・ユニットの電気的構成を示すブロック図である。 CAN通信のデータ構造を示している。 ズーム量,絞り値,フォーカス制御のプライオリティの関係を示している。 ズーム量,カメラの振れの振幅,防振レンズ制御のプライオリティの関係を示している。 ズーム量,カメラの振れの周波数,防振レンズ制御のプライオリティの関係を示している。 プライオリティと制御周期との関係を示している。 撮影レンズ・ユニットの処理手順を示すフローチャートである。 撮影レンズ・ユニットの処理手順を示すフローチャートである。 撮影レンズ・ユニットの処理手順を示すフローチャートである。 撮影レンズ・ユニットの処理手順を示すフローチャートである。 撮像レンズ・ユニットの電気的構成を示すブロック図である。
 図1は,撮影レンズ・ユニット(カメラ制御システム)1の電気的構成を示すブロック図である。
 撮影レンズ・ユニット1には,それぞれが独立している(別々の基板)多数のCPU基板10-22(相互に着脱自在である)が含まれている。これらのCPU基板10-22のそれぞれにはCPUが実装されている。従来の撮影レンズ・ユニット1では,一つのCPUによって多数の処理が制御されているために,多数の処理を並行して行うことができないが,この実施例では,基板のそれぞれにCPUが実装されているので,それぞれの基板に実装されているCPUを同時に駆動することにより多数の処理を同時に行うことができる。
 カメラ本体52からの画像データ等およびCG(コンピュータ・グラフィック)処理を行うバーチャル・システム53などからの各種信号は,RS232CケーブルなどによりCPU基板10に入力する。
 撮影レンズ・ユニット1に与えられるズーム要求信号およびフォーカス要求信号は,ズーム要求CPU基板11およびフォーカス要求CPU基板12にそれぞれ与えられる。撮影レンズ・ユニット1には,各種スイッチ31,32などが設けられており,これらの各種スイッチ31,32などからのスイッチ信号はスイッチ制御CPU基板13に与えられる。また,撮影レンズ・ユニット1には,表示装置33,34などが設けられており,これらの表示装置33,34などは表示制御CPU基板14によって制御される。
 ズーム要求CPU基板11は,与えられるズーム要求信号を受信して他の基板に送信するものである。フォーカス要求CPU基板12は,与えられるフォーカス要求信号を受信して他の基板に送信するものである。スイッチ制御CPU基板13は,各種スイッチ31,32からの信号にもとづいてスイッチ制御を行うものである。表示制御CPU基板14は,表示装置(インジケータ)33,34の表示を制御するものである。
 ズーム制御CPU基板15には,ズーム・レンズ(図示略)を駆動するズーム・モータ41およびズーム・レンズの位置を検出するセンサ42が接続されている。ズーム制御CPU基板15により,ズーム・モータ41が駆動され,所望のズーム位置となるようにズーム・レンズが制御される。
 フォーカス制御CPU基板16には,フォーカス・レンズ(図示略)を駆動するフォーカス・モータ43およびフォーカス・レンズの位置を検出するセンサ44が接続されている。マニアル・フォーカスであれば指定された位置に,オート・フォーカスであれば算出された合焦位置となるように,フォーカス制御CPU基板16により,フォーカス・モータ43が駆動され,フォーカス・レンズが制御される。
 アイリス制御CPU基板17には,アイリス(図示略)を駆動するアイリス・モータ45およびアイリスの絞り値を検出するセンサ46が接続されている。所望の絞り値となるように,アイリス制御CPU基板17により,アイリス・モータ45が駆動され,アイリスが制御される。
 防振補正制御CPU基板18には,カメラの手振れなどを補正する防振レンズ(図示略)を駆動する防振レンズ・モータ47および防振レンズの位置を検出するセンサ48が接続されている。後述する角速度センサ制御CPU基板19の制御により得られるカメラの手振れを補正するように,防振補正制御CPU基板18により防振レンズが駆動させられる。
 角速度センサ制御CPU基板19には,角速度センサ49が接続されている。角速度センサ49により,垂直方向および水平方向のカメラ(撮影レンズ・ユニット1)の振れが検出される。撮影レンズ・ユニット1にカメラ本体52が装着されており,カメラ本体52の振れが検出されるのはいうまでもない。検出された垂直方向の振れおよび水平方向の振れを示すデータが角速度センサ制御CPU基板19から防振補正制御CPU基板18に入力し,防振補正制御CPU基板18により,防振レンズが駆動させられることとなる。また,各速度センサ制御CPU基板18において,カメラ本体52の振れの周波数および振幅も算出される。
 PFユニットCPU基板20は,カメラ本体52に設けられている撮像用CCDの光学的距離から少し短い第1のAF用CCDと少し長い第2のAF用CCDと(いずれも図示略)から得られるAF評価値と,フォーカス・レンズの位置と,の関係を表わす二つのグラフを生成し,その交点である合焦位置を算出するものである。
 追加制御CPU基板21および22は,撮影レンズ・ユニット1に追加の制御を行わせるときに利用されるものである。
 撮影レンズ・ユニット1には,第1の共通バスBUS1および第2の共通バスBUS2が含まれている。第1の共通バスBUS1に,ズーム要求CPU基板11,フォーカス要求CPU基板12,スイッチ制御CPU基板13,表示制御CPU基板14およびCPU基板10がバス接続されている。また,第2の共通バスBUS2に,CPU基板10,ズーム制御CPU基板15,フォーカス制御CPU基板16,アイリス制御CPU基板17,防振補正制御CPU基板18,角速度センサ制御CPU基板19,PFユニットCPU基板20,追加制御CPU基板21および22がバス接続されている。バス・ライン(ネットワーク・ライン)同士またはバス・ラインと基板とは,コネクタ(図示略)によって着脱自在に接続されている。共通バスは2つでなく,1つまたは3つ以上でもよいのはいうまでもない。
 CPU基板10には,メモリ60およびタイマ61がネットワーク・ラインにより接続されている。
 上述した基板間のネットワーク通信は,CAN(Controller Area Network)通信を利用できる。
 図2は,CAN通信においてデータを送信する転送フォーマットであるデータ・フレームの構造を示している。
 データ・フレームは,リセッシブまたはドミナントのいずれかとなる。各部の数字はビット数を示している。また,通信が行われていない場合,バスはリセッシブとなっている(バス・アイドル)。
 データ・フレームには,スタート・オブ・フレーム,識別子フィールド,RTR,コントロール・フィールド,データ・フィールド,CRCシーケンス,CRCデリミタ,ACKスロット,ACKデリミタ,エンド・オブ・フレームが含まれ,その順で送信される。
 スタート・オブ・フレームは,データ・フレームの開始を表わすものであり,ドミナント状態とされる。スタート・オブ・フレームがバス・アイドルのリセッシブからドミナントへ変化することにより受信側のCPU基板(受信ノード)は同期を行うことができる。
 識別子フィールドは,データ内容や送信側のCPU基板(送信ノード)を識別するために使用される。受信側のCPU基板は,識別子フィールドに記述されている内容を検出することにより,自分が使用するデータ・フレームかどうかを判断できる。識別子フィールドは通信調停の優先順位を決定することもある。
 RTR(Remote Transmission Request )は,データを送信するデータ・フレームとデータの送信を要求するリモート・フレームとを識別するために使用される。データ・フレームの場合には,RTRはドミナントとなっている。RTRも識別子フィールドと同様に通信調停に使用される。
 コントロール・フィールドは,次のデータ・フィールド内で何バイト送信されるかを示すものである。
 データ・フィールドは,データ・フレームで送信されるデータの部分である。
 CRC(Cyclic Redundancy Check )シーケンスは,データ送信時のデータ破壊をチェックするものである。
 CRCデリミタは,CRCシーケンスの終了を表す区切り記号で,1ビット長のリセッシブ固定である。
 ACK(Acknowledgement)スロットは,正常受信確認のためのフィールドである。
 ACKデリミタは,ACKスロットの終了を表す区切り記号で、1ビット長のリセッシブ固定である。
 エンド・オブ・フレームは,送信または受信の終了を示すものであり,リセッシブ固定となっている。
 複数のCPU基板から同時にデータ・フレームが送信されてしまう場合,通信調停が行われる。たとえば,二つのデータ・フレームが送信された場合,それらの二つのデータ・フレームのそれぞれの識別子フィールドに記述されているデータ1ビットずつ比較され,最初に相違したデータがドミナントとなっていた方のデータ・フレームが優先して送信される。
 上述したように,基板10-22はネットワーク・ラインにより接続されているから,同時に異なる制御データがネットワーク・ライン上に送信されると,制御データ(データ・フレーム)が衝突してしまう。この実施例では,ネットワーク・ラインの利用(制御基板による制御)に優先順位をつけ,その優先順位にしたがってネットワーク・ラインを利用できるようになる。
 図3から図5は,優先順位の決定に利用されるプライオリティを付与するためのもので,カメラ制御における状態とプライオリティとの関係を示している。
 図3は,ズーム量と絞り値とフォーカスについてのプライオリティとの関係を示している。
 横軸はズーム・レンズのズーム量を示し,縦軸は絞りの絞り値を示している。領域71から74が規定されている。領域71は,ズーム量がテレ側であり,かつ絞り値が開放側を規定している。領域72は,ズーム量がテレ側であるが絞り値は開放側よりやや閉じている領域とズーム量はワイド側であるが絞り値が開放側を規定している。領域73は,ズーム量がテレ側とワイド側との中間であり,絞りが比較的閉じられている領域と,ズーム量がテレ側とワイド側との中間であり,絞りが開放状態と全閉状態との中間領域と,ズーム量が比較的ワイド側であり,絞りが開放状態と全閉状態との中間領域と,規定している。領域74は,ズーム量がワイド側であり,かつ絞りが閉じられている側の領域を規定している。
 ズーム・レンズがテレ側であり,かつ絞りが開放に近いほど(開口の大きさが大きいほど),焦点深度が浅くなる。そのようなときには,フォーカスについてのプライオリティが高くなるように規定されている。逆にズーム・レンズがワイド側であり,かつ絞りが閉じているほど,焦点深度は深くなる。そのようなときには,フォーカスについてのプライオリティが低くなるように規定されている。領域71,72,73,74の順にフォーカスについてのプライオリティが高い(領域71,72,73,74のプライオリティは,それぞれ1,2,3,4。)。
 たとえば,ズーム量Z10がワイド端であり,Z11,Z12,Z13,Z14となるにつれてズーム量がテレ側となり,I0,I1,I2,I3,I4,I5となるにつれて絞りが閉じられるものとする。たとえば,ズーム量がZ13からZ14の間であり,絞りがI3より開放側の場合にはフォーカスのプライオリティは1となる。ズーム量がZ13からZ14の間であり,絞りがI3より全閉側の場合にはフォーカスのプライオリティは2となる。ズーム量がZ12からZ13の間は絞りの状態によりプライオリティが1,2または3となる。ズーム量がZ11からZ12の間は絞りの状態によりプライオリティが1,2,3または4となる。ズーム量がZ10からZ11の間は絞りの状態によりプライオリティが2,3または4となる。
 ズーム量と絞り値との状態によりフォーカスのプライオリティが決定される。
 図4は,ズーム量とカメラの振れの振幅と防振レンズ制御のプライオリティとの関係を示している。
 横軸はズーム量を示し,縦軸はカメラの振れの振幅を示している。領域81,82および83が規定されている。領域81はズーム量がテレ側であり,かつ振幅が大きい領域を示している。領域83は,領域81とは逆にズーム量がワイド側であり,かつ振幅が小さい領域を示している。領域82は領域81と領域83との間の領域である。
 ズーム量がテレ側にあり,かつ振幅が大きいほど撮像により得られた画像のブレが目立つので,ブレ補正のための防振レンズ制御のプライオリティが高くなる。逆にズーム量がワイド側にあり,かつ振幅が小さいと撮像により得られた画像のブレは目立たないので,ブレ補正のための防振レンズ制御のプライオリティは低くなる。領域83,82,81の順に防振レンズ制御のプライオリティは高くなる。
 ズーム量がワイド端のときをZ20,ズーム量がテレ端のときをZ23,ズーム量がワイド端とテレ端との間にあるときをZ21,Z22(Z21<Z23。Z23の方がテレ側。)とする。また,振幅が最小のときをa0,振幅が所定の最大以上のときをa3,それらの間の振幅をa1,a2とする(a1<a2。a2の方が,振幅が大きい。)。
 ズーム量がZ20からZ21の間は,振幅に応じてプライオリティが2または3となる。ズーム量がZ21からZ22の間は,振幅に応じてプライオリティが1,2または3となる。ズーム量がZ22からZ23の間は,振幅に応じてプライオリティが2または3となる。振幅がa0からa1の間は,ズーム量に応じてプライオリティが2または3となる。振幅がa1からa2の間は,ズーム量に応じてプライオリティが1,2または3となる。振幅がa2からa3の間は,ズーム量に応じてプライオリティが2または3となる。
 ズーム量と振幅とに応じて防振レンズ制御のプライオリティが決定される。
 図5は,ズーム量とカメラの振れの周波数と防振レンズ制御のプライオリティとの関係を示している。
 横軸はズーム量を示し,縦軸はカメラの振れの周波数を示している。領域91,92および93が規定されている。領域91はズーム量がテレ側であり,かつ周波数が高い領域を示している。領域93は,ズーム量がワイド側の領域を示している。領域92は領域91と領域93との間の領域である。
 ズーム量がテレ側にあり,かつ周波数が高いほど撮像により得られた画像のブレが目立つので,ブレ補正のための防振レンズ制御のプライオリティが高くなる。逆にズーム量がワイド側にあると画像のブレは目立たないので,ブレ補正のための防振レンズ制御のプライオリティは低くなる。領域93,92,91の順に防振レンズ制御のプライオリティは高くなる。
 ズーム量がワイド端のときをZ30,ズーム量がテレ端のときをZ34,ズーム量がワイド端とテレ端との間にあるときをZ31,Z32,Z33(Z31,Z32,Z33の順にテレ側。)とする。また,周波数が最小のときをf0,振幅が所定の最大以上のときをf2,それらの間の振幅をf1とする。
 ズーム量がZ30からZ31の間は,振幅に応じてプライオリティは3となる。ズーム量がZ31からZ32の間は,周波数に応じてプライオリティが2または3となる。ズーム量がZ32からZ33の間は,プライオリティが2となる。ズーム量がZ33からZ34の間は,周波数に応じてプライオリティが1または2となる。周波数がf0からf1の間は,ズーム量に応じてプライオリティが2または3となる。周波数がf1からf2の間はズーム量に応じてプライオリティが1,2または3となる。
 ズーム量と周波数とに応じて防振レンズ制御のプライオリティが決定される。
 図6は,プライオリティと制御周期との関係を示している。
 制御周期は,そのプライオリティをもつ制御を行う周期を示している。たとえば,プライオリティが1,2,3,4および5の制御周期はそれぞれ10ミリ秒,20ミリ秒,30ミリ秒,40ミリ秒および50ミリ秒である。プライオリティが高いほど,そのプライオリティをもつ制御が行われる回数が多くなる。
 図7および図8は,撮影レンズ・ユニット1の処理手順を示すフローチャートである。
 この処理は撮影レンズ・ユニット1に電源が供給されている間,常に行われていてもよいし,一定周期で行われてもよい。
 まず,タイマ61がリセットされ,かつスタートする(ステップ101)。
 CPU基板10からズーム制御CPU基板15,フォーカス制御CPU基板16,アイリス制御CPU基板17および角速度センサ制御CPU基板19に,ズーム・レンズ量,フォーカス・レンズ位置,絞り値,カメラ本体52の振れの振幅および周波数の状態を読み取る指令が与えられる(ステップ102)。すると,ズーム制御CPU基板15,フォーカス制御CPU基板16,アイリス制御CPU基板17および角速度センサ制御CPU基板19によって,ズーム・レンズ量,フォーカス・レンズ位置,絞り値,カメラ本体52の振れの振幅および周波数の状態が読み取られる。読み取られたそれぞれの状態を示すデータがCPU基板10に与えられる。読み取られた状態を示すデータがネットワーク・ライン上で衝突する場合には,あらかじめ定められている順にCPU基板10に与えられる。
 読み取られた状態を示すデータから上述のようにしてフォーカスのプライオリティおよび防振レンズ制御のプライオリティが算出される(ステップ103)。防振レンズ制御のプライオリティは振幅または周波数のいずれかを用いて算出してもよいし,両方を用いて算出するようにしてもよい。カメラ本体52の振れの振幅および周波数の両方を用いて防振レンズ制御のプライオリティが算出される場合には,例えば,振幅にもとづいて算出されたプライオリティと周波数にもとづいて算出されたプライオリティのうち高い方が防振レンズ制御のプライオリティとされる。
 つづいて,デフォルトの優先順位がメモリ60から読み取られる(ステップ104)。デフォルトの優先順位は,撮影レンズ・ユニット1に含まれるCPU基板11-22がネットワーク・ラインを使用する順番(CPU基板11-22が制御する順番)を示すものである。たとえば,ズーム制御,フォーカス制御,アイリス制御,防振レンズ制御,ズーム制御などのように制御の順番があらかじめ決められている。ズーム制御,フォーカス制御,アイリス制御,防振レンズ制御だけでなく,その他のCPU基板の制御の順番も決められているが,優先順位の低い制御については回数が少なくなるように規定されている。また,外部から与えられるズーム要求信号またはフォーカス要求信号が撮影レンズ・ユニット1に入力した場合には,マニアルによるカメラマンからの要求であるから,最優先で制御するようにしてもよい。
 タイマ61のスタートから10n(nは自然数)ミリ秒経過すると(ステップ105でYES),プライオリティ1のカメラ制御が行われる(ステップ106)。例えば,フォーカス制御がプライオリティ1であれば,フォーカス制御CPU基板16によるフォーカス制御が行われ,フォーカス制御CPU基板16によるネットワーク・ラインの使用が優先される。上述のようにCAN通信でのネットワーク・ラインの調停で優先するようになる。プライオリティ1のカメラ制御が複数ある場合には,デフォルトの優先順位の高い方が優先される。タイマ61のスタートから10nミリ秒経過していなければ(ステップ105でNO),メモリ60から読み取られたデフォルトの優先順位にしたがってカメラ制御が行われる(ステップ107)。
 タイマ61のスタートから20nミリ秒経過すると(ステップ108でYES),プライオリティ1およびプライオリティ2のカメラ制御が行われる(ステップ109)。タイマ61のスタートから20nミリ秒経過すると,プライオリティ1のカメラ制御から10nミリ秒経過していることとなるので,プライオリティ2だけでなくプライオリティ1のカメラ制御も行われる。プライオリティ1のカメラ制御とプライオリティ2のカメラ制御とは,どちらを優先してもよい。たとえば,デフォルトの優先順にしたがって優先順位を決定できる。タイマ61のスタートから20ミリ秒経過していなければ(ステップ108でNO),メモリ60から読み取られたデフォルトの優先順位にしたがってカメラ制御が行われる(ステップ110)。
 タイマ61のスタートから30nミリ秒経過すると(ステップ111でYES),プライオリティ1およびプライオリティ3のカメラ制御が行われ(ステップ112),タイマ61のスタートから30nミリ秒経過していなければ(ステップ111でNO),メモリ60から読み取られたデフォルトの優先順位にしたがってカメラ制御が行われる(ステップ113)。同様に,タイマ61のスタートから40nミリ秒経過すると(ステップ114でYES),プライオリティ1,プライオリティ2およびプライオリティ4のカメラ制御が行われ(ステップ115),タイマ61のスタートから40nミリ秒経過していなければ(ステップ114でNO),メモリ60から読み取られたデフォルトの優先順位にしたがってカメラ制御が行われる(ステップ116)。さらに,タイマ61のスタートから50nミリ秒経過すると(ステップ117でYES),プライオリティ1およびプライオリティ5のカメラ制御が行われ(ステップ118),タイマ61のスタートから50nミリ秒経過していなければ(ステップ117でNO),メモリ60から読み取られたデフォルトの優先順位にしたがってカメラ制御が行われる(ステップ119)。
 撮影レンズ・ユニット1への電源の供給がなくなるなどにより,撮影レンズ・ユニット1がオフしなければ(ステップ120でNO),ステップ102からの処理が繰り返される。撮影レンズ・ユニット1がオフとなると,ズーム・レンズなどが初期位置に移動させられる,などの最終処理が行われる(ステップ121)。
 複数のCPU基板がネットワーク・ラインにより接続されているような撮影レンズ・ユニット1においてネットワーク・ライン上でデータの衝突が生じても優先順位を決定して優先順位にしたがってカメラ制御を行うことができるようになる。
 図9および図10は,他の実施例を示すもので,撮影レンズ・ユニット1の処理手順を示すフローチャートである。
 上述したように,CPU基板10からズーム制御CPU基板15,フォーカス制御CPU基板16,アイリス制御CPU基板17および角速度センサ制御CPU基板19に,ズーム・レンズ量,フォーカス・レンズ位置,絞り値,カメラ本体52の振れの振幅および周波数の状態を読み取る指令が与えられる(ステップ132)。すると,上述したように,ズーム・レンズ量,フォーカス・レンズ位置,絞り値,カメラ本体52の振れの振幅および周波数の状態を示すデータがCPU基板10に与えられる。
 読み取られた状態を示すデータから上述のようにしてフォーカスのプライオリティおよび防振レンズ制御のプライオリティが算出される(ステップ133)。
 算出されたプライオリティにもとづいて,カメラ制御の優先順位が決定される(ステップ134)。この優先順位も上述したのと同様にデフォルトの優先順位に算出されたプライオリティを加味して決定してもよいし,デフォルトの優先順位とは別に決定してもよい。スイッチ制御CPU基板13などの優先順位の低い基板はときどき優先順位を上げるようにすることが好ましい。全く制御できないということを未然に防止できる。
 優先順位が決定されると,決定された優先順位の中でもっとも高い優先順位のカメラ制御が判定される(ステップ135)。
 フォーカス制御がもっとも高い優先順位であるとすると,CPU制御基板10からフォーカス制御CPU基板16に動作指令が与えられる。フォーカス制御CPU基板16によってフォーカス・レンズ位置が読み取られ(ステップ136),PFユニット基板20によって合焦位置が演算される(ステップ137)。演算された合焦位置にフォーカス・レンズが位置決めされるように,フォーカス制御CPU基板16によってフォーカス・レンズが駆動させられる(ステップ138)。
 防振レンズ制御がもっとも高い優先順位であるとすると,CPU基板10から防振補正制御CPU基板18に動作指令が与えられる。防振補正制御CPU基板18によって防振レンズ位置が読み取られる(ステップ141)。センサ49によってカメラ本体52の振れ方向および振れ量が検出され,防振補正制御CPU基板18によって防振レンズの補正位置が演算される(ステップ142)。演算された補正位置に位置決めされるように,防振補正制御CPU基板18によって防振レンズが位置決めさせられる(ステップ143)。
 ズーム・レンズ制御がもっとも高い優先順位であるとすると,CPU基板10からズーム制御CPU基板15に動作指令が与えられる。ズーム制御CPU基板15によってズーム・レンズ位置(ズーム量)が読み取られ(ステップ151),ズーム・レンズ位置が演算される(ステップ152)。たとえば,ズーム要求信号にもとづいてズーム位置が演算される。演算されたズーム位置となるようにズーム制御CPU基板15によってズーム・レンズが駆動される(ステップ153)。
 その他のカメラ制御がもっとも高い優先順位であるとすると,CPU基板10からその対応する制御基板に動作指令が与えられる(ステップ161)。対応する制御基板での制御が行われるようになる(ステップ162)。
 撮影レンズ・ユニット1がオフとならなければ(ステップ171でNO),再びステップ132からの処理が繰り返される。カメラ制御の終了ごとに優先順位決定処理が行われることとなる。優先順位のもっとも高い制御が再び行われる。優先順位がもっとも高くなければ制御が行われないので,どのような制御が行われたのかを示す履歴を記憶しておき,一定期間の間,行われない制御がある場合には,その制御を最優先に行うようにすることが好ましい。
 図11は,変形例を示すもので,撮影レンズ・ユニット1Aの他の電気的構成を示すブロック図である。
 図11において,図1に示すものと同一物については同一符号を付して説明を省略する。
 図11に示す変形例では,ズーム要求CPU基板11とフォーカス要求CPU基板12,フォーカス要求CPU基板12とスイッチ制御基板13,スイッチ制御CPU基板13と表示制御CPU基板14,ズーム要求CPU基板11とCPU基板10は,それぞれネットワーク・ラインにより着脱自在に接続(バス接続)されている。
 また,CPU基板10とズーム制御CPU基板15,ズーム制御CPU基板15とフォーカス制御CPU基板16,フォーカス制御CPU基板16とアイリス制御CPU基板17,アイリス制御CPU基板17と防振補正制御CPU基板18,防振補正制御CPU基板18と角速度センサ制御基板19,角速度センサ制御基板19とPFユニットCPU基板20,PFユニットCPU基板20と追加制御CPU基板22,および追加制御CPU基板21と21もそれぞれネットワーク・ラインにより着脱自在に接続されている。
 図11に示す構造であっても上述の処理を実現できる。
 上述した実施例では,CAN通信が利用されているがCAN通信以外のネットワーク技術を利用してもよい。たとえば,PROFIBUS,CC-Link,Interbus,EC-NETなどを利用することもできる。
 上述した実施例では,CPU基板10-22がネットワーク・ラインにより接続されているが,これらのCPU基板51-64とネットワーク・ラインとはコネクタ等により着脱自在に接続される。
 また,ズーム制御CPU基板15,フォーカス制御CPU基板16,アイリス制御CPU基板17および防振補正制御CPU基板18は同じ構成であり,基板の共通化が図られている。また,ズーム要求CPU基板11,フォーカス要求CPU基板12および角速度センサ制御CPU基板18も共通かされており,いずれもCPUが実装されている。ズーム要求信号,フォーカス要求信号またはセンサ信号がアナログ/ディジタル変換回路を介してズーム要求CPU基板11,フォーカス要求CPU基板12または角速度センサ制御CPU基板19に実装されているCPUに入力する。さらに,スイッチ制御CPU基板13と表示制御CPU基板14も同じ構成であり,スイッチ31,32などから入力する信号がアナログ/ディジタル変換回路を介してスイッチ制御CPU基板13のCPUに入力し,表示制御CPU基板14のCPUからの制御データがディジタル/アナログ変換回路においてアナログ制御信号に変換されて表示装置33,34に入力する。さらに,PFユニットCPU基板20,追加制御CPU基板21および22の構成も同じでもよい。
 CPU制御基板10-22にはCPUおよびネットワーク・ラインを介して通信するための通信回路(トランシーバ)が共通に実装されているので,それらの回路についての共通化を図ることもできる。
 1,1A 撮影レンズ・ユニット(カメラ制御システム)
 10-22 CPU基板(カメラ制御基板)
 10 CPU基板(一のカメラ制御基板)

Claims (7)

  1.  それぞれが独立している複数のカメラ制御基板のそれぞれに,異なる制御機能を有するカメラ制御回路が実装されており,カメラ制御基板同士がネットワーク・ラインにより接続されており,
     上記複数のカメラ制御基板のうちの一のカメラ制御基板が,ネットワーク・ラインを使用するカメラ制御基板の優先順位を決定する,
     カメラ制御システム。
  2.  上記一のカメラ制御基板は,
     優先順位の高いカメラ制御基板ほど一定期間内においてネットワーク・ラインを使用する回数が多くなるように上記複数のカメラ制御基板を制御するものである,
     請求項1に記載のカメラ制御システム。
  3.  上記一のカメラ制御基板は,
     カメラ制御基板によるカメラ制御の終了ごとにネットワーク・ラインを使用するカメラ制御基板の優先順位決定処理を行うものである,
     請求項1または2に記載のカメラ制御システム。
  4.  上記一のカメラ制御基板によって決定された優先順位が同じものについては,あらかじめ定められている優先順位を優先するものである,
     請求項1から3のうちいずれか一項に記載のカメラ制御システム。
  5.  上記複数のカメラ制御基板には,
     フォーカス・レンズを制御するフォーカス・レンズ制御基板,
     ズーム・レンズを制御するズーム・レンズ制御基板,および
     絞りを制御するアイリス制御基板が含まれており,
     ズーム・レンズがテレ側であり,かつ絞りが開放側ほど,上記フォーカス・レンズ制御基板がネットワーク・ラインを使用する優先順位が高いものであり,ズーム・レンズがワイド側であり,かつ絞りが閉じているほどフォーカス・レンズ制御基板がネットワーク・ラインを使用する優先順位が低いものである,
     請求項1から4のうち,いずれか一項に記載のカメラ制御システム。
  6.  上記複数のカメラ制御基板には,
     カメラの振れを検出する振れ検出制御基板,および
     カメラの振れを補正する振れ補正制御基板がさらに含まれており,
     ズーム・レンズがテレ側であり,かつカメラの振れの振幅が大きい,あるいはカメラの振れの周波数が高いほど振れ補正制御基板がネットワーク・ラインを使用する優先順位が高いものであり,ズーム・レンズがワイド側であり,かつカメラの振れの振幅が小さい,あるいはカメラの振れの周波数が低いほど振れ補正制御基板がネットワーク・ラインを使用する優先順位が低いものである,
     請求項5に記載のカメラ制御システム。
  7.  それぞれが独立している複数のカメラ制御基板のそれぞれに,異なる制御機能を有するカメラ制御回路が実装されており,カメラ制御基板同士がネットワーク・ラインにより接続されているカメラ制御システムの動作方法であって,
     上記複数のカメラ制御基板のうちの一のカメラ制御基板が,ネットワーク・ラインを使用するカメラ制御基板の優先順位を決定する,
     カメラ制御システムの動作制御方法。
PCT/JP2012/065841 2011-07-28 2012-06-21 カメラ制御システムおよびその動作制御方法 WO2013015052A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013525632A JP5782517B2 (ja) 2011-07-28 2012-06-21 カメラ制御システムおよびその動作制御方法
EP12817700.3A EP2739032B1 (en) 2011-07-28 2012-06-21 Camera control system and method of controlling operation thereof
US14/164,921 US9106777B2 (en) 2011-07-28 2014-01-27 Camera control system and method of controlling operation of same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011164947 2011-07-28
JP2011-164947 2011-07-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/164,921 Continuation US9106777B2 (en) 2011-07-28 2014-01-27 Camera control system and method of controlling operation of same

Publications (1)

Publication Number Publication Date
WO2013015052A1 true WO2013015052A1 (ja) 2013-01-31

Family

ID=47600911

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/065841 WO2013015052A1 (ja) 2011-07-28 2012-06-21 カメラ制御システムおよびその動作制御方法

Country Status (4)

Country Link
US (1) US9106777B2 (ja)
EP (1) EP2739032B1 (ja)
JP (1) JP5782517B2 (ja)
WO (1) WO2013015052A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016016984A1 (ja) * 2014-07-31 2017-06-01 日立マクセル株式会社 撮像装置およびその被写体追尾方法
CN111549504A (zh) * 2020-04-20 2020-08-18 五邑大学 智能衣架及其控制方法、计算机可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799599A (ja) 1993-09-27 1995-04-11 Canon Inc テレビレンズ装置
JP2002157111A (ja) * 2000-09-11 2002-05-31 Fuji Photo Film Co Ltd 画像制御装置およびその制御方法ならびにディジタルカメラ
JP2003132007A (ja) * 2001-10-22 2003-05-09 Fuji Photo Film Co Ltd バス制御方法及び装置並びにデジタルカメラ
JP2005151475A (ja) * 2003-11-19 2005-06-09 Kyocera Corp 撮像装置
JP2006054918A (ja) * 2005-09-21 2006-02-23 Hitachi Kokusai Electric Inc カメラ
JP2010015131A (ja) 2008-05-16 2010-01-21 Panasonic Corp カメラ本体、交換レンズ、撮像装置
JP2010140290A (ja) 2008-12-12 2010-06-24 Panasonic Corp マルチプロセッサシステム及びその排他制御の調停方法
JP2011065607A (ja) * 2009-09-18 2011-03-31 Keyence Corp 光学的情報読取装置
JP2011112700A (ja) 2009-11-24 2011-06-09 Nikon Corp レンズ交換式カメラボディおよび交換レンズ

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004350A (ja) * 2003-06-10 2005-01-06 Sony Ericsson Mobilecommunications Japan Inc リソース管理方法及び装置、リソース管理プログラム、記憶媒体
JP4460560B2 (ja) * 2006-09-29 2010-05-12 富士フイルム株式会社 撮像装置及び撮影方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0799599A (ja) 1993-09-27 1995-04-11 Canon Inc テレビレンズ装置
JP2002157111A (ja) * 2000-09-11 2002-05-31 Fuji Photo Film Co Ltd 画像制御装置およびその制御方法ならびにディジタルカメラ
JP2003132007A (ja) * 2001-10-22 2003-05-09 Fuji Photo Film Co Ltd バス制御方法及び装置並びにデジタルカメラ
JP2005151475A (ja) * 2003-11-19 2005-06-09 Kyocera Corp 撮像装置
JP2006054918A (ja) * 2005-09-21 2006-02-23 Hitachi Kokusai Electric Inc カメラ
JP2010015131A (ja) 2008-05-16 2010-01-21 Panasonic Corp カメラ本体、交換レンズ、撮像装置
JP2010140290A (ja) 2008-12-12 2010-06-24 Panasonic Corp マルチプロセッサシステム及びその排他制御の調停方法
JP2011065607A (ja) * 2009-09-18 2011-03-31 Keyence Corp 光学的情報読取装置
JP2011112700A (ja) 2009-11-24 2011-06-09 Nikon Corp レンズ交換式カメラボディおよび交換レンズ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2739032A4

Also Published As

Publication number Publication date
US20140139691A1 (en) 2014-05-22
US9106777B2 (en) 2015-08-11
JPWO2013015052A1 (ja) 2015-02-23
EP2739032A1 (en) 2014-06-04
EP2739032B1 (en) 2016-12-07
JP5782517B2 (ja) 2015-09-24
EP2739032A4 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
JP7409623B2 (ja) アクセサリ装置、カメラ、通信制御プログラム、およびカメラシステム
US10750078B2 (en) Image-capturing apparatus, accessory apparatus, and control method therefor with changing signal level of communication channel from one level to another
US10805517B2 (en) Accessory apparatus, image-capturing apparatus, control method and storage medium storing control program
US10057471B2 (en) Accessory apparatus, image-capturing apparatus, control apparatus, lens apparatus, control method and storage medium storing computer program
WO2018221591A1 (ja) アクセサリ装置、カメラおよび通信制御プログラム
JP5782517B2 (ja) カメラ制御システムおよびその動作制御方法
JP7171340B2 (ja) アダプタ装置、カメラシステム、制御方法、プログラム
WO2018221588A1 (ja) アクセサリ装置、カメラおよび通信制御プログラム
US20230379576A1 (en) Image pickup apparatus, accessory apparatus, and communication control method
US20230379577A1 (en) Image pickup apparatus, accessory apparatus, and communication control method
JP6701109B2 (ja) アクセサリ装置、撮像装置
JP5588940B2 (ja) 撮影レンズ・ユニットおよびその動作制御方法
JP5618937B2 (ja) 撮影レンズ・ユニットおよびその動作制御方法
US20210294181A1 (en) Camera body, camera accessory, and information transmission method
US20240163535A1 (en) Camera, accessory apparatus, communication control method, and storage medium
JP2020173337A (ja) アダプタ装置、通信方法、およびプログラム
JP6768419B2 (ja) アクセサリ装置、撮像装置および通信制御プログラム
JP5723237B2 (ja) 撮影レンズ・ユニットおよびその動作制御方法
JP2013029666A (ja) カメラの像ぶれ補正装置およびその動作制御方法
JPH1073861A (ja) カメラシステム及びカメラ及びカメラ用付属装置
JP2020204745A (ja) アダプタ装置、通信方法、およびプログラム
JP2013029626A (ja) レンズ/アイリス制御装置およびその動作制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12817700

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2013525632

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2012817700

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012817700

Country of ref document: EP