WO2021181589A1 - 監視カメラ装置 - Google Patents

監視カメラ装置 Download PDF

Info

Publication number
WO2021181589A1
WO2021181589A1 PCT/JP2020/010687 JP2020010687W WO2021181589A1 WO 2021181589 A1 WO2021181589 A1 WO 2021181589A1 JP 2020010687 W JP2020010687 W JP 2020010687W WO 2021181589 A1 WO2021181589 A1 WO 2021181589A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
evaluation value
degree
light source
focus lens
Prior art date
Application number
PCT/JP2020/010687
Other languages
English (en)
French (fr)
Inventor
裕 蓮江
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/010687 priority Critical patent/WO2021181589A1/ja
Publication of WO2021181589A1 publication Critical patent/WO2021181589A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a surveillance camera device equipped with a manual focus lens that manually adjusts the focus.
  • a surveillance camera system generally includes a surveillance camera device that is an imaging device, a recorder that records and reproduces images of the surveillance camera device, and a monitor that displays live images and recorded images.
  • the angle of view is adjusted so that the surveillance camera device can capture an appropriate range.
  • focus adjustment is performed to focus the subject to be monitored.
  • Focus adjustment is to drive the focus lens inside the lens in the direction of the optical axis and adjust the focus lens position so that the subject is in the best focus, that is, to find the in-focus point.
  • Auto Focus AF
  • manual adjustment is called manual focus (Manual Focus, MF). Since the accuracy of focus adjustment in the MF is required due to the increase in the number of pixels of the image sensor, a surveillance camera using an AF lens having an AF function such as a zoom lens is preferred.
  • MF lenses such as varifocal lenses or fixed focus lenses suitable for cost reduction are not used instead of expensive AF lenses.
  • the demand for surveillance cameras that use the lens is increasing.
  • a surveillance camera device using an MF lens has a focus aid function that outputs an adjustment sound according to the in-focus situation in order to improve the accuracy of manual focus adjustment (for example,). See Patent Document 1).
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide a surveillance camera device capable of adjusting the focus regardless of the installation environment.
  • the surveillance camera device is calculated using a manual focus lens, an image sensor that converts light from a subject incident on the focus lens of the manual focus lens into an electric signal, and an electric signal output from the image sensor.
  • a video signal processing unit and a video signal processing unit that obtain a degree of focusing indicating the degree of focusing with respect to a predetermined AF evaluation value and output a lighting pattern signal according to the degree of focusing. It is provided with a light source unit that displays the degree of focusing according to the lighting pattern signal output by.
  • the degree of focusing can be visually grasped by the light source unit that displays the degree of focusing obtained from the AF evaluation value, and the focus adjuster can independently perform efficiency regardless of the installation environment.
  • the focus can be adjusted.
  • FIG. This is an example of a schematic diagram of the surveillance camera device according to the first embodiment.
  • This is an example of a flowchart of MF adjustment.
  • It is a figure which shows the change of the AF evaluation value.
  • This is an example of a flowchart of AF adjustment.
  • This is an example of a flowchart of the direction determination process at the time of AF adjustment.
  • It is a figure which shows the change of the AF evaluation value when the focus lens position at the time of AF adjustment is on the NEAR side.
  • FIG. It is a table which summarized the example of the pattern 1 of the light source part which concerns on Embodiment 1.
  • FIG. It is a table which summarized the example of the pattern 2 of the light source part which concerns on Embodiment 1.
  • the configuration of the surveillance camera system including the surveillance camera device according to the third embodiment is shown. This is an example of a flowchart of the surveillance camera device according to the third embodiment.
  • FIG. 1 is an example of a schematic diagram of the surveillance camera device 101, which is a comparative example of the surveillance camera device 101a according to the present embodiment.
  • FIG. 2 is an example of a schematic diagram of the surveillance camera device 101a according to the present embodiment. The surveillance camera device 101a will be described with reference to FIGS. 1 and 2.
  • the surveillance camera device 101 includes a manual focus lens 102 such as a varifocal lens, an adjustment screw 108, and a surveillance camera.
  • the surveillance camera includes an image sensor 103, a video signal processing unit 104, a memory 105, a video signal compression unit 106, a network I / F unit 107, a video output terminal 109, and an adjustment monitor 110.
  • the video output terminal 109 is connected to the adjustment monitor 110.
  • the surveillance camera device 101a includes a manual focus lens 102, an adjustment screw 108, and a surveillance camera.
  • the surveillance camera includes an image sensor 103, a video signal processing unit 104a, a memory 105, a video signal compression unit 106, a network I / F unit 107, and a light source unit 112.
  • the manual focus lens 102 has a focus lens 111 and an adjusting screw 108.
  • the focus adjuster adjusts the focus by moving the position of the focus lens 111 by adjusting the adjustment screw 108.
  • the manual focus lens 102 is, for example, a varifocal lens.
  • the light incident on the focus lens 111 of the manual focus lens 102 from the subject is converted into an electric signal by the image sensor 103 and input to the video signal processing unit 104 and the video signal processing unit 104a.
  • Data of past captured images is stored in the memory 105, and the video signal processing unit 104 and the video signal processing unit 104a use the data of the captured images of the memory 105 to adjust the color of the subject and remove noise.
  • Perform processing The video signal compression unit 106 encodes the video signal processed by the video signal processing unit 104 and sends it to the network I / F unit 107.
  • the network I / F unit 107 transmits the digitally processed surveillance image to an external device such as a recorder.
  • the video processed by the video signal processing unit 104 is displayed on the adjustment monitor 110 via the video output terminal 109.
  • the focus adjuster manually adjusts the position of the focus lens 111 while checking the live image captured on the adjustment monitor 110.
  • the light source unit 112 displays the degree of focus focusing.
  • the focus adjuster manually adjusts the position of the focus lens 111 while grasping the degree of focusing of the focus by visually recognizing the lighting state of the light source unit 112.
  • the degree of focusing is a degree indicating how much the focus is with respect to the in-focus point, and the degree at which the calculated AF evaluation value is in focus with respect to the AF evaluation value possessed by the video signal processing unit 104a in advance. calculate. Details of the calculation of the degree of focus will be described later.
  • the light source unit 112 is provided in the main body of the surveillance camera device 101a, and an LED (light emitting diode) is used as the light source.
  • FIG. 3 is an example of a flowchart of MF adjustment.
  • FIG. 4 is a diagram showing a change in the AF evaluation value depending on the position of the focus lens 111.
  • FIG. 5 is an example of a flowchart of AF adjustment.
  • FIG. 6 is an example of a flowchart of the direction determination process at the time of AF adjustment.
  • FIG. 7 is a diagram showing a change in the AF evaluation value when the focus lens position at the time of AF adjustment is on the NEAR side.
  • FIG. 8 is a diagram showing changes in the AF evaluation value when the focus lens position during AF adjustment is on the FAR side.
  • FIG. 9 is an example of a flowchart of focus adjustment according to the present implementation.
  • the focus adjustment is performed by repeating the in-focus detection process A for determining whether or not the focus is in focus and the focus lens drive process B for driving the focus lens 111. Make adjustments.
  • the in-focus detection process A is composed of step S001 and step S002.
  • step S001 the focus adjuster visually confirms the camera image.
  • step S002 the focus adjuster determines whether or not the confirmed camera image is in focus. If the focus is in focus, the focus lens 111 ends at the confirmed position. If it is out of focus, the process proceeds to step S003.
  • step S003 the focus adjuster manually drives the focus lens in the direction in which the focus is in focus. Then, the process proceeds to step S001.
  • the focus adjuster visually determines whether or not the focus is in focus, and repeats steps S001 to S003 until the position of the focus lens 111 that can determine that the focus is most in focus.
  • focus adjustment by AF will be described with reference to FIGS. 4 to 6.
  • the point that the focus adjustment is performed by repeating the in-focus detection process A and the focus lens drive process B is the same as that of the MF, but in the case of the focus adjustment by AF, the in-focus detection process A is an image by the video signal processing unit 104. It is performed by analysis, and the focus lens drive process B is performed by stepping motor control by the image signal processing unit 104.
  • the in-focus detection process A by AF is performed by determining the AF evaluation value calculated from the video signal of the electric signal obtained from the image sensor 103.
  • the AF evaluation value a contrast value of an image or a high spatial frequency component which is a high frequency component value of a spatial frequency is used.
  • the contrast value is used to calculate the AF evaluation value
  • the sum of the differences between the adjacent pixels of the image captured from the image sensor 103 is taken.
  • a high spatial frequency component is used to calculate the AF evaluation value
  • the high frequency component value extracted by frequency analysis of the image captured by the image sensor 103 is taken.
  • the AF evaluation value may be obtained by using at least one of a contrast value and a high frequency component value.
  • FIG. 4 is a schematic diagram showing a change in the AF evaluation value depending on the position of the focus lens 111.
  • the horizontal axis represents the position of the focus lens 111
  • the vertical axis represents the AF evaluation value.
  • FAR The closer to the right side of the horizontal axis, the farther the position of the focus lens 111 is, which is represented by FAR.
  • NEAR The closer to the left side of the horizontal axis, the closer the position of the focus lens 111 is, which is represented by NEAR.
  • F represents the in-focus area
  • the arrow NF represents the out-of-focus area.
  • the AF evaluation value increases in the vicinity of the in-focus F to become the maximum value as compared with the non-focus region. Therefore, in the focus adjustment by AF, the AF evaluation is performed in the in-focus detection process A.
  • the change in value can be used.
  • FIG. 6 is a flowchart showing the direction determination process in FIG. 5 in detail.
  • 7 and 8 are examples of graphs according to the AF evaluation value and the positional relationship of the focus lens 111.
  • step S101 of FIG. 5 the direction determination process is first performed.
  • the direction determination process will be described with reference to FIG.
  • step S201 of FIG. 6 the focus lens 111 is first moved to the NEAR side as shown by the point r1 of FIGS. 7 and 8.
  • the video signal processing unit 104 calculates the AF evaluation value at point r1 as AFnea.
  • the focus lens 111 is moved to the FAR side as shown by the point r2 in FIGS. 7 and 8.
  • step S204 the video signal processing unit 104 calculates the AF evaluation value at point r2 as AFfar.
  • step S205 the magnitude of AFnea and AFfar are compared. If AFfar is larger as shown in FIG. 7, the process proceeds to step S206. If the AF near is larger as shown in FIG. 8, the process proceeds to step S207. In step S206, the moving direction of the focus lens 111 is set to Far. In step S207, the moving direction of the focus lens 111 is set to Near. After step S206 or step S207, the process proceeds to step S102 of FIG.
  • step S102 of FIG. 5 the focus lens 111 is moved in the moving direction of the focus lens 111 set in step S206 or step S207 of FIG. 6, and the AF evaluation value is calculated as shown by the point r3 of FIGS. 7 and 8. ..
  • step S103 of FIG. 5 the magnitude of the AF evaluation value calculated in step S101 and step S102 is compared. That is, the magnitude of the AF evaluation value of AFnea or AFfar calculated in step S101 is compared with the point r3, which is the AF evaluation value moved one step from AFnea or AFfar in the moving direction of the focus lens 111 set in step S101. .. If the AF evaluation value after moving one step is larger, it means that the focus is approaching. Therefore, the process proceeds to step S105.
  • step S105 the focus lens 111 is moved by one step in the moving direction set in step S101, and the process proceeds to step S102.
  • step S102 the AF evaluation value at point r5 in FIGS. 7 and 8 is calculated.
  • step S103 the points r3 and r5 of FIGS. 7 and 8 are compared, and since the point r5 is larger, the process proceeds to step S105. Then, the process is moved by one step to proceed to step S102, and the AF evaluation value at point r4 is calculated.
  • step S103 the calculated point r4 is smaller than the AF evaluation value of the point r5 one step before, so the point r5 one step before is the focus. Therefore, the process proceeds to step S104.
  • step S104 the focus lens 111 is moved back one step in the direction opposite to the moving direction set in step S106, and when it reaches the point r5 in FIGS. 7 and 8, the focus adjustment is completed.
  • the degree of focusing with respect to the AF evaluation value previously possessed by the video signal processing unit 104a is obtained.
  • the video signal processing unit 104a calculates the AF evaluation value of the position of the focus lens 111.
  • the degree of focusing of the calculated AF evaluation value is obtained from the AF evaluation value held in advance, and the lighting pattern signal corresponding to the degree of focusing is output to the light source unit 112.
  • the degree of focusing is, for example, 50% or more and less than 70% when the calculated AF evaluation value is a value of 0 to less than 20% of the pre-existing AF evaluation value, or 20% or more and less than 50%. It is divided into stages such as a value, a value of 70% or more and less than 90%, and a value of 90% or more. Then, a lighting pattern signal corresponding to the degree of focusing is output to the light source unit 112.
  • step S302 the light source unit 112 lights up so as to display the degree of focusing according to the lighting pattern signal.
  • the focus adjuster visually observes the lighting state of the light source unit 112 and determines whether or not the in-focus is in focus. If it is determined that the focus is in focus, the focus adjustment is completed. If it is not determined that the focus is in focus, the process proceeds to step S304.
  • step S304 the focus adjuster manually adjusts the focus lens 111 in the in-focus direction with the adjusting screw 108. Then, the process proceeds to step S301. By repeating steps S301 to S304, the focus is adjusted.
  • FIG. 10 is a diagram summarizing an example of the lighting pattern of the light source unit 112. 11 to 13 show each lighting pattern of the light source unit 112 in order. The pattern of the light source unit 112 will be described with reference to FIGS. 10 to 13.
  • Pattern 1 changes the blinking speed of the light source unit 112.
  • the blinking speed of the light source unit 112 is increased as the focus at the upper part of the table approaches the in-focus point, that is, as the AF evaluation value increases.
  • the blinking speed is slowed down as the AF evaluation value becomes smaller, that is, as the distance from the in-focus point increases.
  • Lighting and blinking are controlled by controlling the ON / OFF lighting cycle of the light source unit 112. In pattern 1, it is necessary to adjust the lighting cycle T at the time of design so that the blinking state cannot be visually recognized if the blinking speed is too fast, but the design is easy because of simple ON / OFF control.
  • the pattern 2 of FIG. 10 will be described with reference to FIG. Pattern 2 changes the lighting brightness of the light source unit 112.
  • the blinking brightness of the light source unit 112 is increased as the focus at the upper part of the table approaches the in-focus point, that is, as the AF evaluation value increases.
  • the blinking brightness is lowered as the AF evaluation value becomes smaller, that is, as the distance from the in-focus point increases.
  • the brightness of lighting and blinking is controlled by changing the ON / OFF ratio of the light source unit 112 by keeping the lighting cycle T constant by a PWM (Pulse Width Modulation, PWM) method.
  • PWM Pulse Width Modulation
  • the lighting brightness of the light source unit 112 becomes dark even in the focused state, so that it is difficult to check the lighting and blinking conditions in a bright environment work. Further, since the light source unit 112 is adjusted by the brightness and darkness, it is easy to determine whether the light source unit 112 is in focus, and the work efficiency is improved.
  • Pattern 3 changes the lighting color of the light source unit 112.
  • a light source 1 and a light source 2 which are two-color light sources are used.
  • the lighting color of the light source 1 is green, and the lighting color of the light source 2 is red.
  • the focus at the upper part of the table approaches the in-focus point, that is, as the AF evaluation value increases, the lighting brightness of the light source 1 of the light source unit 112 is increased and the lighting brightness of the light source 2 is decreased.
  • the lighting brightness of the light source 1 of the light source unit 112 is lowered and the lighting brightness of the light source 2 is increased.
  • the lighting is controlled by individually controlling the two colors of the light source 1 and the light source 2 by the PWM method and adjusting the mixing ratio to control the hue. Since the light source 1 and the light source 2 are used, the cost is higher than that of the light source of a single color, but since the lighting brightness is always constant, the visibility of the light source unit 112 is excellent.
  • the pattern 4 of FIG. 10 will be described.
  • the pattern 4 changes the number of lights of the light source unit 112.
  • the light source unit 112 is composed of five light sources 1 to 5, and in the pattern 4 in which five lights are turned on when the focus is reached, the focus approaches the focus, that is, AF evaluation.
  • the number of lights of the light source unit 112 is increased from 3 to 4, then 4 to 5, and so on.
  • the number of the light source units 112 is set to 3 to 2, then 2 to 1, and so on. Since the light source unit 112 is composed of a plurality of light sources, the cost is higher than that of one light source unit, but it is easy to determine whether or not the light source unit is lit, and the visibility is excellent.
  • the degree of focusing is grasped by visually recognizing the light source unit 112 instead of sound, the degree of focusing is visually recognized even in any installation environment such as a noisy environment or an installation environment where quietness is required. You can grasp and adjust the focus. Further, the focus adjuster can independently adjust the focus while visually recognizing the degree of focusing without providing an external device such as a monitor.
  • Embodiment 2 The difference between the first embodiment and the second embodiment is the presence or absence of a scanning function for changing the upper limit of the AF evaluation value.
  • the AF evaluation value is set as a fixed value when focusing on a complicated subject, but in the second embodiment, a scan process is added to the in-focus detection process of the first embodiment.
  • the AF evaluation value according to the subject is set instead of the fixed value.
  • FIG. 14 is an example of a configuration diagram of the surveillance camera device 101b according to the present embodiment.
  • an adjustment switch 113 for instructing the video signal processing unit 104b to perform the scan process when the focus adjuster wants to perform the scan process is provided.
  • the video signal processing unit 104b starts the scan process by the adjustment switch 113, but the adjustment switch 113 may not be provided, and for example, the scan process may be performed when the surveillance camera is activated.
  • the adjustment switch 113 is activated by the focus adjuster to operate the scan process of the video signal processing unit 104b.
  • the scan process is a process of calculating the AF evaluation value at predetermined fixed intervals over the entire moving range of the focus lens 111, and grasps the maximum value of the AF evaluation value which is the AF evaluation value at the time of focusing. It is a thing.
  • the video signal processing unit 104b performs a scanning process in addition to the AF evaluation value calculation process and the control of the light source unit 112 described in the first embodiment.
  • FIG. 15 is an example of a flowchart of focus adjustment of the surveillance camera device 101b according to the present embodiment.
  • FIG. 16 is an example of a flowchart of a scan process performed by the video signal processing unit 104b. The focus adjustment of the surveillance camera device 101b according to the present embodiment will be described with reference to FIGS. 15 and 16.
  • steps S401 to S404 are the in-focus detection process A, and step S405 is the focus lens drive process B.
  • the video signal processing unit 104b After the start of MF, in step S401, the video signal processing unit 104b performs scanning processing. The maximum value of the AF evaluation value can be obtained by the scanning process. After the scan process, steps S402 to S404 are the same as those in the first embodiment.
  • step S501 of FIG. 16 the focus adjuster moves the focus lens 111 to the NEAR end.
  • step S502 the focus adjuster activates the adjustment switch 113.
  • an instruction signal for starting scanning is sent to the video signal processing unit 104b.
  • step S503 the focus adjuster manually moves the focus lens 111 in the FAR direction.
  • step S504 when the video signal processing unit 104b receives the instruction signal, it calculates the AF evaluation value at the position where the focus lens 111 is currently located.
  • step S505 the difference between the previous AF evaluation value one step before and the current AF evaluation value is obtained. If the current AF evaluation value is the first AF evaluation value, 0 stored as the AF evaluation value one step before is used.
  • step S506 If the difference between the previous AF evaluation value one step before and the current AF evaluation value is larger than 0, the process proceeds to step S506. If the difference between the previous AF evaluation value one step before and the current AF evaluation value is 0 or less, the process proceeds to step S507. In step S506, the video signal processing unit 104b sends the current AF evaluation value to the memory 105.
  • step S507 it is confirmed whether or not the vehicle has moved to the FAR end. If it has moved to the FAR end, the process proceeds to step S508. If it has not moved to the FAR end, the process proceeds to step S503, and the same operation as described above is performed from step S503 to step S506.
  • step S508 the focus adjuster turns off the adjustment switch 113. By turning off the adjustment switch 113, the signal of the end of scanning is sent to the video signal processing unit 104b. After turning off the adjustment switch 113, the process proceeds to step S402 of FIG.
  • the AF evaluation value is automatically calculated at a predetermined fixed interval, and after reaching the FAR end, it ends by turning off the adjustment switch 113. Therefore, by performing the scanning process, the maximum value of the AF evaluation value is stored in the memory 105.
  • step S402 the video signal processing unit 104b calculates the AF evaluation value at the position of the focus lens 111, and sends the obtained degree of focusing to the light source unit 112.
  • step S403 the light source unit 112 lights up so as to display the obtained degree of focusing.
  • step S404 the focus adjuster determines the in-focus point.
  • step S405 the focus adjuster manually adjusts the position of the focus lens 111 in the direction of focusing with the adjusting screw 108. Then, the process proceeds to step 402.
  • FIG. 17 is a graph showing the difference between the AF evaluation value at the time of focusing of the first embodiment and the AF evaluation value of the present embodiment.
  • FIG. 18 is a graph showing the AF evaluation value stored in the memory in the scanning process of the second embodiment.
  • M1 the maximum value of the AF evaluation value of the first embodiment that has been determined in advance.
  • arrow Q shows how the focus lens 111 is moved toward the FAR end.
  • M2 the maximum value of the AF evaluation value of the present embodiment.
  • Point P1 in FIG. 18 is a value stored in the memory 105
  • point P2 is a value not stored in the memory 105.
  • the maximum value of the AF evaluation value which is a predetermined fixed value, is larger than the maximum value of the AF evaluation value of the present embodiment.
  • the more complicated the subject the larger the AF evaluation value, so if it was set in advance, it was set large.
  • a difference G may occur between the maximum value M2 of the AF evaluation value of the subject in the actual in-focus F and the maximum value M1 of the AF evaluation value in the first embodiment. In particular, the simpler the actual subject, the larger the difference G.
  • the AF evaluation value is scanned over the entire moving range of the focus lens 111, and the maximum value of the AF evaluation value is set.
  • the video signal processing unit 104b can determine the degree of focus focusing by using the maximum value of the AF evaluation value of the focusing focus F obtained according to the subject.
  • the light source unit 112 can display the degree of focusing of the focus obtained according to the maximum value of the AF evaluation value of the subject. Since the lighting pattern of the light source unit 112 changes to the maximum, the visibility of the light source unit 112 is improved and the accuracy of focus adjustment is improved.
  • the degree of focusing can be grasped by displaying the degree of focusing obtained by using the calculated AF evaluation value on the light source unit 112, so that the installation environment is noisy.
  • the degree of focusing can be visually grasped and the focus can be adjusted.
  • the focus adjuster can independently adjust the focus while visually recognizing the degree of focusing without providing an external device such as a monitor.
  • the AF evaluation value of the maximum value of the in-focus point is obtained according to the subject, the lighting pattern of the light source unit 112 changes to the maximum, the visibility of the light source unit 112 is improved, and the accuracy of focus adjustment is improved. Is improved.
  • the focus lens 111 when the scanning process is performed, the focus lens 111 is moved from the NEAR end to the FAR end, but it may be moved from the FAR end to the NEAR end.
  • Embodiment 3 The difference between the first and second embodiments and the third embodiment is whether or not the subject to be focused is cut out.
  • the AF evaluation value is calculated for the entire screen.
  • the AF evaluation value is calculated by cutting out only the range to be monitored in which the subject to be monitored is reflected.
  • the reference numerals the same or corresponding parts as those in the first embodiment will be the same reference numerals, and the description thereof will be omitted.
  • the subject distances are also different. If the subject distance is different, the focusing will be different, so it may not be possible to focus on all the subjects. In that case, it is common to focus the subject to be monitored, but in the first and second embodiments, the AF evaluation value is calculated for the entire screen, so that there is a depth, for example.
  • the focus may be on a distant subject, and there may be a problem that the subject in the foreground that is originally desired to be monitored is not in focus.
  • FIG. 19 is a graph showing the position of the focus lens 111 and the AF evaluation value when the subject B1 and the subject B2 are present.
  • the subject B2 when the AF evaluation value of the subject B1 located on the NEAR side at the in-focus F1 and the AF evaluation value of the subject B2 located on the FAR side at the in-focus F2 are compared, the subject B2 is more than the subject B1.
  • FIG. 20 shows the state of the screen in the case of FIG.
  • the subject B2 which is the background, may be in focus instead of the subject B1 which is the monitoring target. In this case, it is difficult to notice that the focus is different until the degree of focus is confirmed directly on the monitor.
  • FIG. 21 shows the configuration of a surveillance camera system including the surveillance camera device 101c according to the present embodiment.
  • the surveillance camera system includes a surveillance camera device 101c, a designation unit 202, and a screen display monitor 203.
  • the designated unit 202 and the surveillance camera device 101c are connected by a communication cable 204 such as a LAN cable, and the designated unit 202 and the screen display monitor 203 are connected by a video cable 205.
  • the operation of the designation unit 202 is performed by a pointing device 206 such as a mouse.
  • a pointing device 206 such as a mouse.
  • the designation unit 202 of the surveillance camera device 101c stores the image input from the surveillance camera device 101c in the internal HDD (Hard Disk Drive) or the external HDD, and also stores the live image of the surveillance camera device 101c or the live image of the surveillance camera device 101c.
  • the recorded video is output to the screen display monitor 203.
  • FIG. 22 is an example of a flowchart of the surveillance camera device 101c according to the present embodiment.
  • FIG. 23 is an example of a screen in which no subject is in focus before cutting out the range in which the subject is to be monitored.
  • FIG. 24 is an example of a screen in which a range in which a subject is projected is cut out.
  • FIG. 25 is a graph of AF evaluation values after cutting out a range in which the subject is projected and which is desired to be monitored.
  • FIG. 26 is an example of a screen in which a range in which a subject is projected and which is desired to be monitored is cut out and the monitoring target is in focus. The focus adjustment of the present embodiment will be described with reference to FIGS. 21 to 26.
  • step S601 the focus adjuster uses the pointing device 206 to view the subject to be monitored as shown in FIG. 24 while looking at the screen display monitor output from the designated unit 202 in FIG. 23. Specify the range R1 you want to monitor. Then, the designated unit 202 sends the designated coordinate data to the video signal processing unit 104c of the surveillance camera device 101c.
  • step S602 the scan shown in step S401 of the second embodiment is performed based on the range of the sent coordinate data.
  • Steps S602 to S606 perform the same operations as in steps S401 to S405, respectively, and adjust the focus.
  • the background subject X2 is not detected and only the subject X1 is detected.
  • Focus adjustment can be performed focusing only on the target. As a result of completing the focus focusing process, it is possible to obtain a camera image focused on the subject X1 in the range R1.
  • the degree of focusing can be grasped by displaying the degree of focusing obtained by using the calculated AF evaluation value on the light source unit 112, so that the installation environment is noisy.
  • the degree of focusing can be checked and the focus can be adjusted in any installation environment such as an installation environment where quietness is required.
  • the focus adjuster can adjust the focus independently while visually recognizing and grasping the degree of focusing without providing an external device such as a monitor.
  • the focus can be adjusted focusing only on the monitored target, and the accuracy of the focus adjustment is improved. be able to.
  • the focus adjustment including the scanning process according to the second embodiment is performed, but the first embodiment not including the scanning process may be performed. , The same effect can be obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

本開示は、設置環境によることなく、フォーカスを調整することができる監視カメラを提供することを目的とする。 本開示に係る監視カメラ装置は、マニュアルフォーカスレンズ(102)と、マニュアルフォーカスレンズ(102)が有するフォーカスレンズ(111)に入射した被写体からの光を電気信号に変換するイメージセンサ(103)と、イメージセンサ(103)から出力された電気信号を用いて算出したAF評価値から、あらかじめ有するAF評価値に対して合焦している度合いを表す合焦度合いを求め、合焦度合いに応じた点灯パターン信号を出力する映像信号処理部(104a)と、映像信号処理部(104a)によって出力された点灯パターン信号にしたがって、合焦度合いを表示する光源部(112)とを備えている。

Description

監視カメラ装置
 本開示は、フォーカス調整を手動で行うマニュアルフォーカスレンズを備えた監視カメラ装置に関するものである。
 監視カメラシステムは、一般的に、撮像装置である監視カメラ装置、監視カメラ装置の画像の記録及び再生を行うレコーダー、並びに、ライブ画像及び記録画像を表示するモニタで構成される。監視カメラシステムの設置時には、監視カメラ装置が適切な範囲を撮像できるよう画角を調整する。画角調整では、ズーム調整により監視範囲を決めた後、監視対象の被写体にフォーカスを合焦させるためにフォーカス調整を行う。
 フォーカス調整とは、レンズ内部のフォーカスレンズを光軸方向に駆動し、被写体にフォーカスが最も合うようフォーカスレンズ位置を調整する、つまり合焦点を見つけることであり、自動で調整することをオートフォーカス(Auto Focus,AF)、手動で調整することをマニュアルフォーカス(Manual Focus,MF)と呼ぶ。
 イメージセンサの画素数増加により、MFでのフォーカス調整の精度が求められることから、ズームレンズのようなAF機能を備えたAFレンズを採用した監視カメラが好まれている。その一方で、近年の監視カメラの需要の増加による設置台数の増加に伴い、コスト削減の観点から、価格が高いAFレンズではなく、低コスト化に適したバリフォーカルレンズ又は固定焦点レンズといったMFレンズを採用した監視カメラの需要が増加している。
 MFレンズを用いた監視カメラ装置では、手動で行うフォーカス調整の精度を向上させるために、フォーカスが合焦している状況に応じて、調整音を出力するフォーカスエイド機能を備えていた(例えば、特許文献1参照)。
特開2009-182437号公報
 しかしながら、このような従来のMFレンズを用いた監視カメラ装置では、フォーカス調整を行う際、フォーカスエイド機能は調整音を出力するため、騒がしい設置環境又は静けさが求められる設置環境では、フォーカス調整することが困難であった。
 本開示は、上述のような課題を解決するためになされたもので、設置環境によることなく、フォーカスを調整することができる監視カメラ装置を提供することを目的とする。
 本開示に係る監視カメラ装置は、マニュアルフォーカスレンズと、マニュアルフォーカスレンズが有するフォーカスレンズに入射した被写体からの光を電気信号に変換するイメージセンサと、イメージセンサから出力された電気信号を用いて算出したAF評価値から、あらかじめ有するAF評価値に対して合焦している度合いを表す合焦度合いを求め、合焦度合いに応じた点灯パターン信号を出力する映像信号処理部と、映像信号処理部によって出力された点灯パターン信号にしたがって、合焦度合いを表示する光源部とを備えている。
 本開示に係る監視カメラ装置は、AF評価値から求めた合焦度合いを表示する光源部によって、合焦度合いを視認して把握することができ、設置環境によることなくフォーカス調整者が単独で効率的にフォーカス調整することができる。
実施の形態1に係る監視カメラ装置の比較例である監視カメラ装置の概要図の例である。 実施の形態1に係る監視カメラ装置の概要図の例である。 MF調整のフローチャート図の例である。 AF評価値の変化を示す図である。 AF調整のフローチャート図の例である。 AF調整時の方向判定処理のフローチャート図の例である。 AF調整時のフォーカスレンズ位置がNEAR側にある場合のAF評価値の変化を示す図である。 AF調整時のフォーカスレンズ位置がFAR側にある場合のAF評価値の変化を示す図である。 実施の形態1に係る監視カメラ装置のフォーカス調整のフローチャート図の例である。 実施の形態1に係る光源部の点灯パターンの例をまとめた図である。 実施の形態1に係る光源部のパターン1の例をまとめた表である。 実施の形態1に係る光源部のパターン2の例をまとめた表である。 実施の形態1に係る光源部のパターン3の例をまとめた表である。 実施の形態1に係る監視カメラ装置の構成図の例である 実施の形態1に係る監視カメラ装置のフォーカス調整のフローチャート図の例である。 映像信号処理部が行うスキャン処理のフローチャート図の例である。 実施の形態1の合焦時のAF評価値と実施の形態2のAF評価値の差を表すグラフ図である。 実施の形態2のスキャン処理でメモリに格納するAF評価値を表すグラフ図である。 被写体A及び被写体Bがある場合のフォーカスレンズの位置とAF評価値を表すグラフ図である。 図19の場合の画面の様子を表している。 実施の形態3に係る監視カメラ装置を備えた監視カメラシステムの構成を示している。 実施の形態3に係る監視カメラ装置のフローチャート図の例である。 被写体の範囲の切り出しを行う前の、どの被写体にもフォーカスが合焦していない画面の例である。 被写体の範囲を切り出している様子の画面の例である。 被写体を切り出した後の、AF評価値のグラフ図である。 被写体を切り出し、監視対象にフォーカスが合焦した画面の例である。
 実施の形態1.
 図1は、本実施の形態に係る監視カメラ装置101aの比較例である監視カメラ装置101の概要図の例である。図2は、本実施の形態に係る監視カメラ装置101aの概要図の例である。図1及び図2を用いて、監視カメラ装置101aについて説明する。
 図1に示すように、監視カメラ装置101は、例えばバリフォーカルレンズといったマニュアルフォーカスレンズ102、調整ねじ108、及び監視カメラで構成されている。監視カメラは、イメージセンサ103、映像信号処理部104、メモリ105、映像信号圧縮部106、ネットワークI/F部107、映像出力端子109、及び調整用モニタ110を備えている。映像出力端子109は、調整用モニタ110に接続されている。
 図2に示す本実施の形態に係る監視カメラ装置101aは、マニュアルフォーカスレンズ102、調整ねじ108、及び監視カメラで構成されている。監視カメラは、イメージセンサ103、映像信号処理部104a、メモリ105、映像信号圧縮部106、ネットワークI/F部107、及び光源部112を備えている。
 図1及び図2で示すように、マニュアルフォーカスレンズ102は、フォーカスレンズ111及び調整ねじ108を有している。MF調整では、フォーカス調整者は、調整ねじ108を調整することで、フォーカスレンズ111の位置を動かすことで、フォーカスを調整する。
 監視カメラ装置101及び監視カメラ装置101aの構造を説明する。
 マニュアルフォーカスレンズ102は、例えば、バリフォーカルレンズである。
 マニュアルフォーカスレンズ102のフォーカスレンズ111に被写体から入射した光は、イメージセンサ103で電気信号に変換され、映像信号処理部104及び映像信号処理部104aに入力される。
 メモリ105には、過去の撮影画像のデータを蓄積しており、映像信号処理部104及び映像信号処理部104aは、メモリ105の撮影画像のデータを用いて、被写体の色調整及びノイズ除去といった映像処理を行う。
 映像信号圧縮部106は、映像信号処理部104で処理された映像信号の符号化を行い、ネットワークI/F部107に送る。
 ネットワークI/F部107は、デジタル処理をした監視画像を蓄積するレコーダーといった外部装置に伝送する。
 比較例の監視カメラ装置101では、映像出力端子109を介して、映像信号処理部104で処理された映像を調整用モニタ110に映す。フォーカス調整者は、調整用モニタ110に写されたライブ画像を確認しながら、フォーカスレンズ111の位置を手動で調整する。
 本実施の形態に係る監視カメラ装置101aは、光源部112がフォーカスの合焦度合いを表示する。フォーカス調整者は、光源部112の点灯状態を視認することで、フォーカスの合焦度合いを把握しながら、フォーカスレンズ111の位置を手動で調整する。合焦度合いは、合焦点に対してどれほど合焦しているかを表す度合いであり、算出したAF評価値が、あらかじめ映像信号処理部104aが有するAF評価値に対して合焦している度合いを算出する。合焦度合いの算出に関しては、詳細は後述する。
 本実施の形態では、光源部112は、監視カメラ装置101aの本体に備えられており、光源は、LED(light emitting diode)を用いる。
 つづいて、フォーカス調整を行う流れについて、MFによるフォーカス調整、AFによるフォーカス調整、及び本実施の形態に係るフォーカス調整の順で説明する。
 図3は、MF調整のフローチャート図の例である。
 図4は、フォーカスレンズ111の位置によるAF評価値の変化を示す図である。
 図5は、AF調整のフローチャート図の例である。図6は、AF調整時の方向判定処理のフローチャート図の例である。
 図7は、AF調整時のフォーカスレンズ位置がNEAR側にある場合のAF評価値の変化を示す図である。図8は、AF調整時のフォーカスレンズ位置がFAR側にある場合のAF評価値の変化を示す図である。
 図9は、本実施に係るフォーカス調整のフローチャート図の例である。
 図3~図9で示すように、フォーカス調整は、フォーカスが合焦しているか否かを判定する合焦点検出処理A及び、フォーカスレンズ111を駆動するフォーカスレンズ駆動処理Bを繰り返すことで、フォーカス調整を行う。
 まず、図3を用いて、MFによるフォーカス調整を説明する。
 合焦点検出処理Aは、ステップS001及びステップS002で構成される。
 ステップS001では、フォーカス調整者が、カメラ画像を目で確認する。
 ステップS002では、フォーカス調整者が、確認したカメラ画像の合焦点が合っているか否かを判定する。
 合焦点が合っていれば、フォーカスレンズ111は確認した位置で終了する。合焦点が合っていなければ、ステップS003に進む。
 ステップS003では、フォーカス調整者が、フォーカスが合焦する方向へフォーカスレンズを手動で駆動する。そしてステップS001に進む。
 フォーカス調整者は、目視によって合焦点が合うか判定し、最も焦点が合ったと判定できるフォーカスレンズ111の位置までステップS001からステップS003を繰り返す。
 次に、図4~図6を用いてAFによるフォーカス調整について説明する。
 合焦点検出処理A及びフォーカスレンズ駆動処理Bを繰り返すことでフォーカス調整が行われる点はMFと同様であるが、AFによるフォーカス調整の場合、合焦点検出処理Aは、映像信号処理部104による画像解析によって行われ、フォーカスレンズ駆動処理Bは映像信号処理部104によるステッピングモータ制御で行われる。
 AFによる合焦点検出処理Aは、イメージセンサ103から得た電気信号の映像信号により算出したAF評価値を判定することで行われる。AF評価値には、画像のコントラスト値又は、空間周波数の高周波成分値である高空間周波数成分が用いられる。
 AF評価値を算出するのにコントラスト値を使用する場合は、イメージセンサ103からの撮像画像の隣接画素間の差分の総和を取る。
 AF評価値を算出するのに高空間周波数成分を使用する場合は、イメージセンサ103からの撮像画像を周波数解析して抽出した高周波成分値を取る。AF評価値は、コントラスト値及び高周波成分値の少なくともいずれか一方を用いて求めればよい。
 図4は、フォーカスレンズ111の位置によるAF評価値の変化を示す図の概略図である。図4では、横軸はフォーカスレンズ111の位置、縦軸はAF評価値を示している。横軸の右側にいくほど、フォーカスレンズ111の位置が遠く、FARで表している。横軸の左側にいくほど、フォーカスレンズ111の位置が近く、NEARで表している。Fは、合焦点を表し、矢印NFは、非合焦領域を表している。AF評価値は、図4に示すように、合焦点F付近での値が非合焦点領域に比べて増加して最大値となるため、AFによるフォーカス調整では、合焦点検出処理AにAF評価値の変化を利用することができる。
 図5~図8を用いて順に、AFによるオートフォーカス調整について説明する。また、図6は、図5中の方向判定処理を詳細に記載したフローチャート図である。図7及び図8は、AF評価値と、フォーカスレンズ111の位置関係に応じたグラフ図の例である。
 図5のステップS101では、まず方向判定処理を行う。
 方向判定処理について、図6を用いて説明する。
 図6のステップS201では、図7及び図8の点r1で示すように、まずフォーカスレンズ111をNEAR側に移動する。
 ステップS202では、映像信号処理部104がAFnearとして点r1のAF評価値を算出する。
 ステップS203では、図7及び図8の点r2で示すように、フォーカスレンズ111をFAR側に移動する。
 ステップS204では、映像信号処理部104がAFfarとして点r2のAF評価値を算出する。
 ステップS205では、AFnearとAFfarの大小比較を行う。図7のように、AFfarの方が大きい場合は、ステップS206に進む。図8のように、AFnearの方が大きい場合は、ステップS207に進む。
 ステップS206では、フォーカスレンズ111の移動方向をFarに設定する。ステップS207では、フォーカスレンズ111の移動方向をNearに設定する。
 ステップS206又はステップS207の後、図5のステップS102に進む。
 図5のステップS102では、図6のステップS206又はステップS207で設定したフォーカスレンズ111の移動方向にフォーカスレンズ111を移動させ、図7及び図8の点r3で示すようにAF評価値を算出する。
 図5のステップS103では、ステップS101及びステップS102で算出したAF評価値の大小比較を行う。つまり、ステップS101で算出したAFnear又はAFfarのAF評価値と、ステップS101で設定したフォーカスレンズ111の移動方向に、AFnear又はAFfarから1ステップ移動したAF評価値である点r3との大小比較を行う。1ステップ移動後のAF評価値の方が大きければ、合焦点に近づいていることになる。したがって、ステップS105に進む。
 ステップS105では、ステップS101で設定した移動方向へ、フォーカスレンズ111を1ステップ移動させ、ステップS102に進む。
 ステップS102では、図7及び図8の点r5のAF評価値を算出する。
 ステップS103では、図7及び図8の点r3及び点r5を比較し、点r5の方が大きいので、ステップS105に進む。そして、1ステップ移動させてステップS102に進み、点r4のAF評価値を算出する。
 ステップS103では、算出した点r4の方が、1ステップ前の点r5のAF評価値よりも小さいため、1ステップ前の点r5が焦点となる。したがって、ステップS104に進む。
 ステップS104では、ステップS106で設定した移動方向と反対方向へ、フォーカスレンズ111を1ステップ戻し、図7及び図8の点r5に来ると、フォーカス調整完了となる。
 次に、本実施の形態に係る監視カメラ装置101aのフォーカス調整について、図9を用いながら説明する。本実施の形態では、映像信号処理部104aがあらかじめ有するAF評価値に対する合焦度合いを求める。
 MF開始後、ステップS301では、映像信号処理部104aが、フォーカスレンズ111の位置のAF評価値を算出する。そして、あらかじめ有するAF評価値に対して、算出したAF評価値の合焦度合いを求め、合焦度合いに応じた点灯パターン信号を光源部112に出力する。
 合焦度合いは、例えば、算出したAF評価値が、あらかじめ有するAF評価値の0から20%未満の値である場合、20%以上50%未満の値である場合、50%以上70%未満の値である場合、70%以上90%未満の値である場合、90%以上の値である場合、といった段階に分ける。そして、合焦度合いに応じた点灯パターン信号を光源部112に出力する。
 ステップS302では、光源部112が、点灯パターン信号にしたがって、合焦度合いを表示するように点灯する。点灯パターンの例については、後述する。
 ステップS303では、合焦点判定は、フォーカス調整者が、光源部112の点灯状況を目視して、合焦点か否か判定を行う。合焦点であると判断した場合、フォーカス調整は完了する。合焦点であると判断しなかった場合、ステップS304に進む。
 ステップS304では、フォーカス調整者が、調整ねじ108により、フォーカスレンズ111を合焦点の方向に手動で調整する。そしてステップS301に進む。
 ステップS301~ステップS304を繰り返すことで、合焦点まで調整する。
 図10は、光源部112の点灯パターンの例をまとめた図である。
 図11~図13は、光源部112の各点灯パターンを順に表したものである。
 図10~図13を用いて、光源部112のパターンについて説明する。
 まず、図10のパターン1について、図11を用いて説明する。パターン1は、光源部112の点滅速度を変化させるものである。
 図11で示すように、表の上部のフォーカスが合焦点に近づく、つまりAF評価値が大きくなるにしたがって、光源部112の点滅速度を速くする。AF評価値が小さくなる、つまり合焦点から離れるにしたがって、点滅速度を遅くする。点灯及び点滅の制御は、光源部112のON/OFFの点灯周期を制御することで行う。
 パターン1では、点滅速度が速すぎると点滅状態が視認できなくなるといったように、設計時に点灯周期Tの調整が必要であるが、単純なON/OFF制御のため、設計は容易である。
 図10のパターン2について図12を用いて説明する。パターン2は、光源部112の点灯輝度を変化させるものである。
 図12で示すように、表の上部のフォーカスが合焦点に近づく、つまりAF評価値が大きくなるにしたがって、光源部112の点滅輝度を高くする。AF評価値が小さくなる、つまり合焦点から離れるにしたがって、点滅輝度を低くする。点灯及び点滅の輝度は、光源部112を、PWM(Pulse Width Modulation,PWM)方式で点灯周期Tを一定にしてON/OFFの割合を変化させて制御する。
 フォーカスを調整する場合、合焦状態であっても光源部112の点灯輝度が暗くなってしまうため、明るい環境作業の場合、点灯及び点滅の状況を確認しづらい。また光源部112の明暗による調整のため、合焦点であるか判定しやすく、作業効率が高くなる。
 図10のパターン3について説明する。パターン3は、光源部112の点灯色を変化させるものである。例えば、本実施の形態のパターン3では、2色の光源である光源1及び光源2を用いる。光源1の点灯色は緑色、光源2の点灯色は赤色である。
 図13で示すように、表の上部のフォーカスが合焦点に近づく、つまりAF評価値が大きくなるにしたがって、光源部112の光源1の点灯輝度を高くし、光源2の点灯輝度を低くする。合焦点から離れる、つまりAF評価値が小さくなるにしたがって、光源部112の光源1の点灯輝度を低くし、光源2の点灯輝度を高くする。点灯の制御は、2色の光源1及び光源2を個別にPWM方式で制御し混合比率を調整することで色合いを制御する。
 光源1及び光源2を使用するため、単色の光源と比較してコストが高くなるが、点灯輝度が常に一定であるため、光源部112の視認性が優れている。
 図10のパターン4について説明する。パターン4は、光源部112の点灯個数を変化させるものである。例えば、本実施の形態のパターン4では、光源部112は、5個の光源1~5で構成され、合焦点にきた場合5個点灯する
 パターン4では、フォーカスが合焦点に近づく、つまりAF評価値が大きくなるにしたがって、光源部112の点灯個数を3個から4個、次に4個から5個というように点灯させる。合焦点から離れる、つまりAF評価値が小さくなるにしたがって、光源部112の個数が3個から2個、次に2個から1個、というように点灯させる。
 光源部112を複数の光源で構成するため、1個の光源部よりもコストが高くなるが、点灯しているか否かで判断しやすく、視認性が優れている。
 本実施の形態では、音ではなく光源部112を視認することで合焦度合いを把握するため、騒音がある環境、又は静けさが求められる設置環境といったあらゆる設置環境でも、合焦度合いを視認して把握し、フォーカスを調整することができる。
 また、モニタといった外部機器を備えることなく、フォーカス調整者は、合焦度合いを視認しながら単独でフォーカス調整することができる。
 実施の形態2.
 実施の形態1と実施の形態2との相違点は、AF評価値の上限値を変化させるためのスキャン機能の有無の違いである。実施の形態1では広く対応するため、固定値として複雑な被写体に合焦した場合のAF評価値としているが、実施の形態2では、実施の形態1の合焦点検出処理にスキャン処理を追加することで、AF評価値の最大値を動的に変化させることで、固定値ではなく、被写体に応じたAF評価値を設定する。
 なお、以下では、実施の形態1との相違点のみ説明し、同一又は、対応する部分についての説明は省略する。符号についても、実施の形態1と同一又は相当部分は同一符号とし、説明を省略する。
 図14は、本実施の形態に係る監視カメラ装置101bの構成図の例である。
 図14で示すように、実施の形態1の構造に加えて、フォーカス調整者がスキャン処理を行いたいときにスキャン処理を行うように映像信号処理部104bに指示する調整スイッチ113を備えている。本実施の形態では、調整スイッチ113によって映像信号処理部104bがスキャン処理を開始するが、調整スイッチ113を備えず、例えば、監視カメラが起動するとスキャン処理を行う仕様であってもよい。
 調整スイッチ113は、フォーカス調整者に起動されることで、映像信号処理部104bのスキャン処理を動作させる。スキャン処理は、フォーカスレンズ111の移動範囲全域に対してあらかじめ定められた一定の間隔でAF評価値を算出する処理であり、合焦時のAF評価値であるAF評価値の最大値を把握するものである。
 映像信号処理部104bは、実施の形態1で述べたAF評価値の算出処理及び光源部112の制御に加えて、スキャン処理を行う。
 図15は、本実施の形態に係る監視カメラ装置101bのフォーカス調整のフローチャート図の例である。
 図16は、映像信号処理部104bが行うスキャン処理のフローチャート図の例である。
 本実施の形態に係る監視カメラ装置101bのフォーカス調整について、図15及び図16を用いながら説明する。
 図15で示すように、ステップS401からステップS404は、合焦点検出処理Aであり、ステップS405は、フォーカスレンズ駆動処理Bである。
 MF開始後、ステップS401では、映像信号処理部104bが、スキャン処理を行う。スキャン処理によって、AF評価値の最大値を求めることができる。
 スキャン処理の後ステップS402からS404は、実施の形態1と同様である。
 スキャン処理について、図16を用いて説明する。
図16のステップS501では、フォーカス調整者は、フォーカスレンズ111をNEAR端に移動させる。
 ステップS502では、フォーカス調整者は、調整スイッチ113を起動する。調整スイッチ113の起動により、スキャン開始の指示信号を映像信号処理部104bに送る。
 ステップS503では、フォーカス調整者は、フォーカスレンズ111をFAR方向に手動で移動させる。
 ステップS504では、映像信号処理部104bは、指示信号を受信すると、フォーカスレンズ111が現在いる位置でのAF評価値を算出する。
 ステップS505では、1ステップ前である前回のAF評価値と、現在のAF評価値との差を求める。現在のAF評価値が、AF評価値の初回であれば、1ステップ前のAF評価値として格納された0を用いる。
 1ステップ前である前回のAF評価値と、現在のAF評価値との差が0よりも大きい場合は、ステップS506に進む。
 1ステップ前である前回のAF評価値と、現在のAF評価値との差が0以下であれば、ステップS507に進む。
 ステップS506では、映像信号処理部104bが、現在のAF評価値をメモリ105に送る。
 ステップS507では、FAR端まで移動したかどうかを確かめる。FAR端まで移動している場合、ステップS508に進む。FAR端まで移動していない場合、ステップS503に進み、ステップS503からステップS506まで上記と同様の動作を行う。
 ステップS508では、フォーカス調整者は、調整スイッチ113を消す。調整スイッチ113を消すことにより、スキャン終了の信号を映像信号処理部104bに送る。調整スイッチ113を消した後、図15のステップS402に進む。
 フォーカスレンズ111をNEAR端からFAR端まで移動する間、AF評価値はあらかじめ定められた一定の間隔で自動的に算出され、FAR端に到達後、調整スイッチ113を消すことで終了する。したがって、スキャン処理を行うことで、AF評価値の最大値をメモリ105に格納される。
 ステップS402では、映像信号処理部104bが、フォーカスレンズ111の位置でのAF評価値を算出し、求めた合焦度合いを光源部112に送る。
 ステップS403では、光源部112が、求めた合焦度合いを表示するように点灯する。
 ステップS404では、フォーカス調整者が、合焦点の判定を行う。
 ステップS405では、フォーカス調整者が調整ねじ108により、フォーカスレンズ111の位置を合焦点の方向に手動で調整する。そして、ステップ402に進む。
 図17は、実施の形態1の合焦時のAF評価値と本実施の形態のAF評価値の差を表すグラフ図である。図18は、実施の形態2のスキャン処理でメモリに格納するAF評価値を表すグラフ図である。図17及び図18で示すように、あらかじめ定めていた実施の形態1のAF評価値の最大値をM1で示す。
 図18において、矢印Qは、フォーカスレンズ111をFAR端に向かって動かす様子を示す。また、本実施の形態のAF評価値の最大値をM2で示す。図18の点P1は、メモリ105に格納する値であり、点P2は、メモリ105に格納しない値である。
 図17及ぶ図18で示すように、実施の形態1では、あらかじめ定めた固定値であるAF評価値の最大値は、本実施の形態のAF評価値の最大値に比べて大きい。それは複雑な被写体ほどAF評価値が大きくなるため、あらかじめ定める場合は、大きく設定していた。だが、実際の合焦点Fでの被写体のAF評価値の最大値M2と、実施の形態1でのAF評価値の最大値M1との間に差Gが生じることがある。特に、実際の被写体が単純であればあるほど、差Gが大きくなる。
 差Gが大きいほど、光源部112の点灯パターンの変化が小さくなるため、フォーカス調整者が目で行う合焦点の判定がし辛くなる。したがって、フォーカス調整者が光源部112を確認しながらフォーカス調整をするためには、適切なAF評価値の最大値を設け、いかなる被写体に対しても合焦点Fで光源部112の点灯パターンが最大変化になることが望ましい。
 したがって、本実施の形態では、フォーカスレンズ111の移動範囲全域でAF評価値をスキャンし、AF評価値の最大値を設定する。その結果、映像信号処理部104bは、被写体に応じて求めた合焦点FのAF評価値の最大値を用いてフォーカスの合焦度合いを判断することができる。そして、光源部112は、被写体のAF評価値の最大値に応じて求められたフォーカスの合焦度合いを表示することができる。光源部112の点灯パターンが最大変化となるため、光源部112の視認性が向上し、フォーカス調整の精度が向上する。
 本実施の形態では、実施の形態1と同様に、算出したAF評価値を用いて求めた合焦度合いを光源部112で表示することで合焦度合いを把握できるため、騒音がある設置環境、又は静けさが求められる設置環境といったあらゆる設置環境でも、合焦度合いを視認して把握し、フォーカスを調整することができる。
 また、モニタといった外部機器を備えることなく、フォーカス調整者は、合焦度合いを視認しながら単独でフォーカス調整することができる。
 さらに、本実施の形態では、合焦点の最大値のAF評価値を被写体に応じて求めるため、光源部112の点灯パターンが最大変化となり、光源部112の視認性が向上し、フォーカス調整の精度が向上する。
 本実施の形態では、スキャン処理をする場合、フォーカスレンズ111をNEAR端からFAR端に移動させていたが、FAR端からNEAR端に移動させてもよい。
 実施の形態3.
 実施の形態1及び実施の形態2と、実施の形態3との相違点は、フォーカスさせたい被写体を切り出すか否かの違いである。実施の形態1及び実施の形態2では、画面全体に対してAF評価値を算出していた。実施の形態3では、監視対象の被写体が映っている監視したい範囲のみを切り出してAF評価値を算出する。
 なお、以下では、実施の形態1及び実施の形態2との相違点のみ説明し、同一又は、対応する部分についての説明は省略する。符号についても、実施の形態1と同一又は相当部分は同一符号とし、説明を省略する。
 通常、監視カメラ装置の画角内には、様々な被写体が写っており、被写体距離もそれぞれ異なる。被写体距離が異なれば、合焦点も異なるため、全ての被写体にフォーカスを合焦できない場合がある。その際は監視対象となる被写体にフォーカスを合焦させるのが一般的であるが、実施の形態1及び実施の形態2では画面全体に対しAF評価値を算出しているため、例えば奥行きがある画角で被写体を撮像した場合、遠方の被写体にフォーカスが合焦してしまい、本来監視したい手前の被写体にフォーカスが合焦しないといった問題が生じる可能性がある。
 具体的に図19及び図20を用いて説明する。
 図19は、被写体B1及び被写体B2がある場合のフォーカスレンズ111の位置とAF評価値を表すグラフ図である。図19において、NEAR側に位置する被写体B1の合焦点F1でのAF評価値と、FAR側に位置する被写体B2の合焦点F2でのAF評価値と比較すると、被写体B1よりも被写体B2の方が、AF評価値が高く、差Jがある場合を示している。
 図20は、図19の場合の画面の様子を表している。図20に示すように、監視対象である被写体B1ではなく、背景である被写体B2に合焦するようになってしまうことがある。この場合、モニタで直接合焦度合いを確認するまで、合焦点が異なっていることに気付くことが難しい。
 そこで、本実施の形態では、監視対象の被写体が映っている監視したい範囲のみを切り出して、切り出して指定した範囲のAF評価値を算出することで、特定の被写体に対するフォーカス調整を可能にする。
 図21は、本実施の形態に係る監視カメラ装置101cを備えた監視カメラシステムの構成を示している。図21で示すように、監視カメラシステムは、監視カメラ装置101c、指定部202、画面表示モニタ203から構成されている。指定部202と監視カメラ装置101cは、例えば、LANケーブルといった通信ケーブル204で接続されており、指定部202と画面表示モニタ203は、映像ケーブル205で接続されている。
 また、指定部202の操作は、例えばマウスといったポインティングデバイス206によって行われる。指定部202の操作により、指定部202の制御、設定変更及び監視カメラ装置101cの設定変更といったことが可能になる。
 本実施の形態に係る監視カメラ装置101cの指定部202は、監視カメラ装置101cから入力される映像を内蔵HDD(Hard Disk Drive)又は外付けHDDに記憶するともに、監視カメラ装置101cのライブ映像又は記録映像を画面表示モニタ203に出力する。
 図22は、本実施の形態に係る監視カメラ装置101cのフローチャート図の例である。
 図23は、被写体が映っている監視したい範囲の切り出しを行う前の、どの被写体にもフォーカスが合焦していない画面の例である。
 図24は、被写体が映っている監視したい範囲を切り出している様子の画面の例である。
 図25は、被写体が映っている監視したい範囲を切り出した後の、AF評価値のグラフ図である。
 図26は、被写体が映っている監視したい範囲を切り出し、監視対象にフォーカスが合焦した画面の例である。
 図21~図26を用いて、本実施の形態のフォーカス調整について説明する。
 MF開始後、ステップS601では、フォーカス調整者は、ポインティングデバイス206を用いて、図23の指定部202から出力される画面表示モニタを見ながら、図24のように監視対象としたい被写体が映っている監視したい範囲R1を指定する。そして、指定部202は、指定された座標データを監視カメラ装置101cの映像信号処理部104cに送る。
 ステップS602では、送られた座標データの範囲に基づき、実施の形態2のステップS401で示したスキャンを行う。ステップS602~ステップS606は、各々ステップS401~ステップS405と同様の動作を行い、フォーカスを調整する。
 本実施の形態のように、被写体X1及び被写体X2があるとき、被写体X1を監視対象として切り出すことで、図25のように、背景の被写体X2を検出せず、被写体X1のみ検出するため、監視対象のみに注目したフォーカス調整が実施できる。
 フォーカスの合焦処理を終えた結果、範囲R1の被写体X1に合焦したカメラ画像を得ることが可能となる。
 本実施の形態では、実施の形態1と同様に、算出したAF評価値を用いて求めた合焦度合いを光源部112で表示することで合焦度合いを把握できるため、騒音がある設置環境、又は静けさが求められる設置環境といったあらゆる設置環境でも、合焦度合いを確認し、フォーカスを調整することができる。
 また、モニタといった外部機器を備えることなく、フォーカス調整者は、合焦度合いを視認して把握しながら単独でフォーカス調整することができる。
 さらに、本実施の形態は、指定部202で監視対象の被写体が映っている監視したい範囲を切り出すことで、監視対象にのみ注目したフォーカスの調整をすることができ、フォーカス調整の精度を向上させることができる。
 本実施の形態では、被写体が映っている監視したい範囲の切り出し後、実施の形態2であるスキャン処理を含んだフォーカス調整を行ったが、スキャン処理を含まない実施の形態1を行ってもよく、同様の効果を得ることができる。
 101,101a,101b,101c 監視カメラ装置
 104,104a,104b,104c 映像信号処理部
 103 イメージセンサ
 102 マニュアルフォーカスレンズ
 108 調整ねじ
 103 イメージセンサ
 105 メモリ
 106 映像信号圧縮部
 107 ネットワークI/F部
 109 映像出力端子
 110 調整用モニタ
 111 フォーカスレンズ
 112 光源部
 113 調整スイッチ
 202 指定部
 203 画面表示モニタ
 204 通信ケーブル
 205 映像ケーブル
 206 ポインティングデバイス

Claims (4)

  1.  マニュアルフォーカスレンズと、
     前記マニュアルフォーカスレンズが有するフォーカスレンズに入射した被写体からの光を電気信号に変換するイメージセンサと、
     前記イメージセンサから出力された前記電気信号を用いて算出したAF評価値から、あらかじめ有するAF評価値に対して合焦している度合いを表す合焦度合いを求め、前記合焦度合いに応じた点灯パターン信号を出力する映像信号処理部と、
     前記映像信号処理部によって出力された前記点灯パターン信号にしたがって、前記合焦度合いを表示する光源部と、
     を備えた監視カメラ装置。
  2.  マニュアルフォーカスレンズと、
     前記マニュアルフォーカスレンズが有するフォーカスレンズに入射した被写体からの光を電気信号に変換するイメージセンサと、
     前記イメージセンサから出力された前記電気信号を用いて算出したAF評価値から、前記フォーカスレンズの移動範囲全域から算出した前記AF評価値の最大値を用いて、合焦している度合いを表す合焦度合いを求め、前記合焦度合いに応じた点灯パターン信号を出力する映像信号処理部と、
     前記映像信号処理部によって出力された前記点灯パターン信号にしたがって、前記合焦度合いを表示する光源部と、
     ことを特徴とする監視カメラ装置。
  3.  前記AF評価値は、前記電気信号から隣接画素間の差分の総和を取ることで算出されるコントラスト値、又は前記電気信号を周波数解析することで算出される高周波成分値の少なくともいずれか一方
     であることを特徴とする請求項1又は2に記載の監視カメラ装置。
  4.  前記映像信号処理部が前記AF評価値を算出する範囲を指定する指定部と、
     をさらに備えた
     ことを特徴とする請求項1から3のいずれか1項に記載の監視カメラ装置。
PCT/JP2020/010687 2020-03-12 2020-03-12 監視カメラ装置 WO2021181589A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/010687 WO2021181589A1 (ja) 2020-03-12 2020-03-12 監視カメラ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/010687 WO2021181589A1 (ja) 2020-03-12 2020-03-12 監視カメラ装置

Publications (1)

Publication Number Publication Date
WO2021181589A1 true WO2021181589A1 (ja) 2021-09-16

Family

ID=77670582

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010687 WO2021181589A1 (ja) 2020-03-12 2020-03-12 監視カメラ装置

Country Status (1)

Country Link
WO (1) WO2021181589A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240935A (ja) * 2006-03-09 2007-09-20 Nikon Corp フォーカスアシスト装置およびカメラ
JP2008278253A (ja) * 2007-04-27 2008-11-13 Toshiba Corp カメラの状態表示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240935A (ja) * 2006-03-09 2007-09-20 Nikon Corp フォーカスアシスト装置およびカメラ
JP2008278253A (ja) * 2007-04-27 2008-11-13 Toshiba Corp カメラの状態表示装置

Similar Documents

Publication Publication Date Title
US8521015B2 (en) Autofocus apparatus and method for controlling the same
JP5539045B2 (ja) 撮像装置およびその制御方法、記憶媒体
JP4843002B2 (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US7978968B2 (en) Auto focus device
US6172709B1 (en) Detachable lens block and video camera system including the same
US7437065B2 (en) Imaging apparatus
EP1458181B1 (en) Digital camera with distance-dependent focussing method
US7864239B2 (en) Lens barrel and imaging apparatus
US8199247B2 (en) Method for using flash to assist in focal length detection
JP4310309B2 (ja) 光学装置および光学装置の制御方法
JP2008145760A (ja) オートフォーカスシステム
US8436934B2 (en) Method for using flash to assist in focal length detection
US20240129635A1 (en) Focusing apparatus and method
US20240085765A1 (en) Folded zoom camera module with adaptive aperture
WO2021181589A1 (ja) 監視カメラ装置
JP2021113909A (ja) 制御装置、撮像装置、監視カメラシステム、制御方法、および、プログラム
JP2021148984A (ja) 撮像装置、撮像システム、情報処理装置、制御方法、プログラム、および、記憶媒体
JP6246705B2 (ja) フォーカス制御装置、撮像装置及びフォーカス制御方法
EP1972981A2 (en) Automatic focusing system
JP2019200398A (ja) 撮像システム及びその制御方法、プログラム、記憶媒体
JP2018189666A (ja) 撮像装置の制御方法
EP4369729A2 (en) Imaging control apparatus, imaging control method, program, and storage medium
CN117608155A (zh) 一种投影设备及自动调焦方法
JP2006084999A (ja) Afエリア操作システム
JP2018189853A (ja) 撮像装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20924246

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20924246

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP