WO2017142154A1 - Photographing apparatus and photographing method - Google Patents

Photographing apparatus and photographing method Download PDF

Info

Publication number
WO2017142154A1
WO2017142154A1 PCT/KR2016/010138 KR2016010138W WO2017142154A1 WO 2017142154 A1 WO2017142154 A1 WO 2017142154A1 KR 2016010138 W KR2016010138 W KR 2016010138W WO 2017142154 A1 WO2017142154 A1 WO 2017142154A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
focusing
optical system
focusing optical
image
Prior art date
Application number
PCT/KR2016/010138
Other languages
French (fr)
Korean (ko)
Inventor
허진
Original Assignee
(주)이오테크닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이오테크닉스 filed Critical (주)이오테크닉스
Publication of WO2017142154A1 publication Critical patent/WO2017142154A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing

Definitions

  • the present invention relates to a photographing apparatus and a photographing method, and to an auto focusing technique of a photographing apparatus.
  • Auto focusing is a process of finding the distance point at which a clear image is made while changing the distance between the focusing optics and the object. That is, in the auto focusing process, a plurality of photographing operations are required while varying the distance between the focusing optical system and the object.
  • the auto focusing operation of the photographing apparatus can be performed accurately and quickly.
  • a photographing unit which photographs an image of the object formed by the focusing optical system
  • a distance controller configured to adjust a distance between the focusing optical system and the object.
  • the photographing unit captures an image of the object whenever the distance between the focusing optical system and the object is changed by a predetermined interval, wherein the predetermined interval is set smaller than a depth of field of the focusing optical system.
  • An imaging device is provided.
  • the photographing apparatus may perform the auto focusing operation while the distance between the object and the focusing optical system is changed. Therefore, the photographing apparatus can shorten the time required for auto focusing.
  • the photographing apparatus can obtain a clear image even if the auto focusing is made dynamically.
  • the photographing apparatus may allow at least one image photographed in the dynamic auto focusing process to be photographed in a depth range of the focusing optical system.
  • the photographing apparatus may improve the accuracy of the auto focusing operation by correcting the correct focusing distance from the sharpness values of the images.
  • FIG. 1 is a diagram illustrating a photographing apparatus according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating an image photographing point of a photographing unit in an auto focusing process.
  • FIG. 3 is a diagram illustrating a range in which a distance between an object and a focusing optical system is changed by a distance controller.
  • FIG. 4 is a diagram illustrating a change in speed at which a focusing point moves with time.
  • Fig. 5 is a view showing a photographing apparatus according to another exemplary embodiment.
  • FIG. 6 is a diagram exemplarily illustrating an electrical signal generated by an encoder.
  • Fig. 7 is a view showing a photographing apparatus according to another exemplary embodiment.
  • FIG. 8 is a diagram illustrating an example of a synchronization signal generated by a controller.
  • FIG. 9 is a diagram illustrating a change in height of a focusing point with time.
  • 10 is a graph showing the relationship between the height of the focusing point and the sharpness of the image.
  • 11 is a diagram illustrating that the processor corrects an auto focusing distance.
  • FIG. 12 is a flowchart illustrating a photographing method according to an exemplary embodiment.
  • Fig. 13 is a flowchart illustrating a photographing method according to another exemplary embodiment.
  • Fig. 14 is a flowchart showing a photographing method according to another exemplary embodiment.
  • a photographing unit which photographs an image of the object formed by the focusing optical system
  • a distance controller configured to adjust a distance between the focusing optical system and the object.
  • the photographing unit captures an image of the object whenever the distance between the focusing optical system and the object is changed by a predetermined interval, wherein the predetermined interval is set smaller than a depth of field of the focusing optical system.
  • An imaging device is provided.
  • the photographing unit may photograph an image of the object by a global shutter method.
  • the distance adjusting unit may change the distance between the object and the focusing optical system at at least one section at constant speed.
  • the speed at which the distance controller changes the distance between the object and the focusing optical system may satisfy Equation 1.
  • V1 size of the distance change speed between the object and the focusing optics
  • f number of shots per hour in the constant velocity section
  • DOF depth of the focusing optics
  • the speed at which the distance controller changes the distance between the object and the focusing optical system may satisfy Equation 2.
  • V1 magnitude of the speed of change of distance between the object and the focusing optical system
  • DOF depth of focusing optical system
  • E exposure time per frame of the photographing unit
  • the exposure time per frame of the photographing unit may satisfy Equation 3.
  • the photographing apparatus may further include an encoder configured to generate an electrical signal by detecting a change in distance between the object and the photographing unit.
  • the photographing apparatus may further include a controller configured to generate a synchronization signal for the photographing unit based on the electrical signal generated by the encoder.
  • the photographing apparatus may further include a processor configured to receive images of the object photographed by the photographing unit and extract clarity of the images.
  • the processor may determine, as a focusing distance, a distance between the object on which the sharpest image is captured and the focusing optical system.
  • the processor may determine a focusing distance according to Equation 4 from the sharpness values of the images.
  • H distance between the focusing optics and the object in the focusing state
  • H i distance between the focusing optics and the object in the i-th shot with the highest sharpness measured
  • H i-1 focusing optics in the i-1th shot
  • Distance between the object and H i + 1 distance between the focusing optics and the object in the i + 1th shot
  • C i sharpness value of the i-th image measured with the highest sharpness
  • C i -1 i- Sharpness value of the first shot image
  • C i +1 Sharpness value of the i + 1th shot image
  • An interval in which the distance controller changes the distance between the object and the focusing optical system may be determined by Equations 5 and 6 below.
  • the predetermined method is provided in which the predetermined interval is set smaller than the depth of the focusing optical system.
  • the adjusting of the distance may change the distance between the object and the focusing optical system at a constant speed in at least one section.
  • the photographing unit captures an image of the object at a predetermined time interval in a section in which the distance between the object and the focusing optical system is changed at a constant speed.
  • the speed at which the distance between the object and the focusing optical system changes may satisfy Equation 1.
  • V1 magnitude of the speed of change of distance between the object and the focusing optical system
  • f number of shots per hour in the constant velocity section
  • DoF depth of focusing optical system
  • is any real number satisfying 0.1 ⁇ ⁇ 0.5
  • a speed of changing the distance between the object and the focusing optical system may satisfy Equation 2.
  • V1 magnitude of the speed of change of distance between the object and the focusing optical system
  • DOF depth of focusing optical system
  • E exposure time per frame of the photographing unit
  • the photographing method may further include generating an electrical signal by detecting a change in distance between the object and the photographing unit.
  • the photographing method may further include generating a synchronization signal for the photographing unit based on the electrical signal.
  • the photographing method may further include extracting sharpness of the images by receiving images of the object photographed by the photographing unit.
  • the photographing method may further include determining a focusing distance according to Equation 3 from the sharpness values of the images.
  • H distance between the focusing optics and the object in the focusing state
  • H i distance between the focusing optics and the object in the i-th shot with the highest sharpness measured
  • H i-1 focusing optics in the i-1th shot
  • Distance between the object and H i + 1 distance between the focusing optics and the object in the i + 1th shot
  • C i sharpness value of the i-th image measured with the highest sharpness
  • C i -1 i- Sharpness value of the first shot image
  • C i +1 Sharpness value of the i + 1th shot image
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
  • unit and “module” described in the specification mean a unit that processes at least one function or operation.
  • FIG. 1 is a diagram illustrating a photographing apparatus 100 according to an exemplary embodiment.
  • the photographing apparatus 100 includes a light source 110, a focusing optical system 120 for changing a path of light reflected from an object 10, and a focusing optical system 120. It may include a photographing unit 140 for capturing the image of the formed object 10 and the distance adjusting unit 130 for adjusting the distance between the focusing optical system 120 and the object 10.
  • the light source 110 may radiate light. Light emitted from the light source 110 may be irradiated to the object 10 through a predetermined optical system. 1 illustrates an example in which the light emitted from the light source 110 proceeds as parallel light.
  • a beam expander and a beam splitter may be provided on the front surface of the light source 110.
  • the light emitted from the light source 110 may travel in parallel light by expanding a beam diameter in a beam expander.
  • the traveling parallel light may be directed to the focusing optical system 120 by reflecting an optical path from the beam splitter.
  • the embodiment is not limited thereto, and the optical system through which the light emitted from the light source 110 passes may be configured differently.
  • the light emitted from the light source 110 may be directly irradiated to the object 10 without passing through the optical system.
  • the focusing optical system 120 may change the path of the light reflected from the object 10.
  • the light whose path is changed by the focusing optical system 120 may be incident on the image sensor of the photographing unit 140.
  • the focusing optical system 120 is expressed separately from the photographing unit 140, but the embodiment is not limited thereto.
  • the focusing optical system 120 may be included in the photographing unit 140.
  • the distance adjusting unit 130 may change the distance between the focusing optical system 120 and the object 10 by moving the photographing unit 140.
  • the focusing optical system 120 may have a predetermined focusing distance. Therefore, when the focusing optical system 120 and the surface of the object 10 maintain an appropriate distance, the photographing unit 140 may acquire a clear image of the object 10.
  • the focusing optical system 120 may include, for example, a lens having positive refractive power.
  • the object 10 may include a wafer, a semiconductor chip, etc. as an object to be photographed, but is not limited thereto.
  • the object 10 may not have a constant thickness due to the roughness of the surface.
  • the distance between the surface of the object 10 and the focusing optical system 120 may not be constant depending on the flatness of the support surface S1 supporting the object 10. Therefore, in order for the photographing apparatus 100 to obtain an image of the object 10 clearly, the distance between the object 10 and the focusing optical system 120 should be appropriately adjusted.
  • the process in which the photographing apparatus 100 adjusts the distance between the focusing optical system 120 and the object 10 to obtain an image of the object 10 clearly is called an auto focusing process.
  • the distance adjuster 130 may change the distance between the object 10 and the focusing optical system 120 in the auto focusing process.
  • the distance adjuster 130 may move the support surface S1 on which the object 10 is seated.
  • the distance adjusting unit 130 may move the focusing optical system 120.
  • the distance adjusting unit 130 may move the photographing unit 140.
  • the distance adjusting unit 130 may change the distance between the focusing optical system 120 and the object 10 by simultaneously moving the focusing optical system 120 and the support surface S1.
  • the distance adjusting unit 130 includes a moving object having a large mass including the focusing optical system 120, the photographing unit 140, and the support surface S1. I can move it.
  • the moving body may mean a focusing optical system 120, a photographing unit 140, a support surface S1, and the like, in which the distance controller 130 moves for auto focusing.
  • the distance adjuster 130 accelerates and decelerates the moving body, vibration due to inertial force may occur.
  • the photographing unit 140 may increase in mass due to equipment attached to the photographing unit 140 to increase the mass of the moving object.
  • the photographing unit 140 may generate vibration due to inertial force.
  • the image photographing of the object 10 may be performed in a state in which the distance between the focusing optical system 120 and the object 10 does not change. For example, after moving the focusing optical system 120 to a predetermined position, the image of the object 10 may be captured while the focusing optical system 120 is stopped. In this case, in order to obtain a clear image, the photographing unit 140 must wait for several tens to hundreds of ms until the focusing optical system 120 moves and stops, and the vibration caused by the acceleration / deceleration disappears before taking the image.
  • the vibration velocity vector is (vx, vy, vz) when shooting at an optimal focal length with a lens system with a magnification M and a camera with pixel width and height sizes px and py, respectively
  • vy * E ⁇ py * M and vz * E ⁇ DOF can be obtained to obtain a clear image.
  • E denotes the exposure time of the photographing unit 140
  • DOF means the depth of field (DOF) of the focusing optical system 120, which will be described in detail later.
  • the method according to the comparative example described above may be disadvantageous for high speed photography.
  • the vibration due to the acceleration and deceleration is reduced, so that waiting time may be required until vx * E ⁇ px / M and vy * E ⁇ py * M and vz * E ⁇ DOF are satisfied.
  • the auto focusing process may be lengthened due to the waiting time. For example, if the mass of the moving object is more than 30 kg, a waiting time of 400 ms or more may be required every time an image is taken. If so, the delay time required to acquire an image after ten movements and stops may take four seconds or more. This delay time becomes a factor that makes high speed photography difficult.
  • the photographing unit 140 may capture an image of the object 10 while the distance between the focusing optical system 120 and the object 10 is changed. That is, while at least one of the object 10 and the focusing optical system 120 is not stopped, the photographing unit 140 may capture an image of the object 10. Therefore, after stopping the moving body, it is not necessary to wait for the vibration due to acceleration / deceleration to disappear, so that the time required for auto focusing can be shortened.
  • the photographing unit 140 may photograph the object 10 by using a global shutter method.
  • the global shutter method refers to a method of obtaining an image by exposing all pixels simultaneously.
  • a rolling shutter method obtains an image for one line or a group of pixels and obtains an image with parallax for the remaining pixels.
  • the sharpness of the image photographed by the photographing unit 140 may vary.
  • the distance between the object 10 and the focusing optical system 120 may be referred to as a focal length.
  • a great change may not occur in the sharpness of the image captured by the photographing unit 140. That is, even if the distance between the object 10 and the focusing optical system 120 changes within a predetermined region near the focal length, there may be no significant effect on the sharpness of the image.
  • the area in which the sharpness of the image is maintained is referred to as a depth of field (DOF) of the focusing optical system 120.
  • DOE depth of field
  • the distance between the focusing optical system 120 and the object 10 may be adjusted into a depth of field (DOF) of the focusing optical system 120.
  • DOF depth of field
  • the photographing unit 140 may photograph an image of the object 10 whenever the distance between the light converging optical system 120 and the object 10 changes by a predetermined interval.
  • the predetermined interval may be set smaller than the depth of field (DOF) of the focusing optical system (120).
  • FIG. 2 is a diagram illustrating an image capturing point of the photographing unit 140 in an auto focusing process.
  • the focusing optical system 120 is moved by way of example, but the embodiment is not limited thereto.
  • the distance between the focusing optical system 120 and the object 10 may change as the support surface S1 of the object 10 moves.
  • the photographing unit 140 may photograph an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval ⁇ h.
  • the predetermined interval ⁇ h may be set smaller than the size of the depth DOF of the focusing optical system 120.
  • the predetermined interval ⁇ h may be kept constant during the autofocusing process or may change little by little. However, even if the predetermined interval ⁇ h is changed, the size may be smaller than the size of the depth DOF of the focusing optical system 120. Therefore, even when photographing is performed while the distance between the object 10 and the focusing optical system 120 is changed, at least one photographing may be performed in the depth of field.
  • the distance adjusting unit 130 may change the distance between the object 10 and the focusing optical system 120 within a predetermined range.
  • 3 is a diagram illustrating a range in which the distance between the object 10 and the focusing optical system 120 is changed by the distance adjuster 130.
  • the distance controller 130 may cause the focusing point P of the focusing optical system 120 to move within a predetermined area.
  • the distance adjuster 130 moves the focusing point P of the focusing optical system 120 about a point L2 away from the surface L1 of the supporting surface S1 by an expected height H of the object 10. can do.
  • the distance controller 130 may allow the focusing point P of the focusing optical system 120 to move while satisfying Equation 1.
  • X distance between the support surface of the object and the focusing point of the focusing optical system
  • H the expected thickness of the object
  • D thickness deviation of the object
  • acceleration interval
  • FIG. 4 is a diagram illustrating a change in the speed at which the focusing point P moves with time.
  • the horizontal axis represents time
  • the vertical axis represents the relative speed between the focusing optical system 120 and the object 10 (the speed at which the focusing point P moves).
  • the relative speed between the focusing optical system 120 and the object 10 may gradually increase until time t1. At this time, the relative speed may increase with a constant acceleration (a).
  • the acceleration section is a section in which the distance controller 130 accelerates at least one of the focusing optical system 120 and the object 10.
  • the focusing point P of the focusing optics 120 may move from the height H-D- ⁇ to the height H-D from the surface L1 of the support surface S1.
  • the moving distance ⁇ during the acceleration period can be represented by Equation 2.
  • Equation 2 ⁇ represents the magnitude of the distance traveled during the acceleration time, a is the magnitude of the acceleration, V is the terminal velocity by the acceleration, that is, the magnitude of the maximum velocity.
  • the relative speed between the focusing optical system 120 and the object 10 may be maintained at a constant size V1.
  • the focusing point P of the focusing optics 120 may move from the height H-D to the height H + D from the surface L1 of the support surface S1.
  • the relative speed between the focusing optical system 120 and the object 10 may gradually decrease. At this time, for example, the relative speed may be gradually reduced to a constant acceleration -a.
  • the distance adjusting unit 130 may find the focusing distance faster and more accurate.
  • the photographing unit 140 may photograph an image of the object 10 a plurality of times.
  • the focusing point P may move at a constant speed, and the magnitude V1 of the moving speed may depend on the exposure time of the photographing unit 140.
  • the exposure time means a time when the photographing unit 140 is exposed to light in order to obtain an image in one shot.
  • the exposure time may be adjusted by the time for which the light source 110 irradiates light.
  • the exposure time may be adjusted by a shutter or an aperture inside the photographing unit 140.
  • the speed at which the focusing point P moves (the magnitude of the speed of change in distance between the object 10 and the focusing optical system 120; V1) may satisfy Equation 3 below.
  • the focusing point P may move out of the depth DOF while the photographing unit 140 captures one frame. Therefore, as in Equation 3, by limiting the speed at which the focusing point P moves, it is possible to prevent the focusing point P from moving out of the depth DOF during the exposure time required for photographing.
  • Equation 4 by limiting the exposure time (E) of the photographing unit 140, it is possible to prevent the sharpness of the image is lowered by the horizontal vibration between the photographing unit 140 and the object 10. .
  • a field of view (FOV) of the photographing unit 140 is required to be 240um x 180um to 480um x 360um and the optical resolution is 1.2um or less. May be required.
  • the maximum vibration velocity (V2 max ) between the photographing unit 140 and the object 10 is 0.2 mm / s, it is within about 2ms from Equation 4 in an environment of a pixel size of 4.8um x 3.6um and a magnification of 10 times.
  • Exposure time may be required.
  • the output power of the light source 110 required to obtain an image may vary according to the exposure time E.
  • the light output power required for the light source 110 may increase as the exposure time E per frame of the photographing unit 140 decreases.
  • the minimum output power required for the light source 110 may be about 0.2W.
  • the photographing unit 140 While the focusing point P moves at a constant speed V1 from the surface L1 of the supporting surface S1 to the height H to the height H + D, the photographing unit 140 images the image of the object 10 at regular time intervals. You can shoot. By capturing an image of the object 10 at a predetermined time interval by the photographing unit 140, an image may be obtained whenever the focusing point P moves by a predetermined distance. In this case, the speed at which the focusing point P moves (relative speed between the object 10 and the focusing optical system 120; V1) and the number of times f taken by the photographing unit 140 may satisfy Equation 5.
  • the product of the speed V1 of moving the focusing point P and the inverse of the number of shots f of the photographing unit 140 is larger than the depth DOF of the focusing optical system 120. Can be small. Therefore, even if the photographing is performed while the focusing point P is moving, at least one photographing may be performed when the focusing point P is located in the depth of field (DOF) of the focusing optical system 120.
  • DOF depth of field
  • a focusing distance may be derived from a clear image captured in a depth of field.
  • the DOF value may be within about 10 ⁇ m ⁇ DOF ⁇ 20 ⁇ m.
  • the above figures are merely exemplary and may vary depending on the working environment.
  • the photographing apparatus 100 may determine that auto focusing is performed when the clear image is obtained.
  • the photographing apparatus 100 may include a processor 160 for evaluating the sharpness of the images photographed by the photographing unit 140.
  • the processor 160 may exchange information with the photographing unit 140 by wireless or wired communication.
  • the processor 160 of FIG. 1 may receive image information photographed by the photographing unit 140.
  • the processor 160 may transmit operation setting information of the photographing unit 140 to the photographing unit 140.
  • the photographing unit 140 may receive operation setting information from the processor 160 to change an operation method of the photographing unit 140.
  • the processor 160 may transmit setting information about the exposure time E per frame, the number of shots per hour f, etc. to the photographing unit 140.
  • the photographing unit 140 may receive the setting information and change the exposure time E per frame and the number of photographing times f per time according to the setting information.
  • the processor 160 may automatically determine the setting information of the photographing unit 140 from Equation 1 to Equation 5 above.
  • the embodiment is not limited thereto.
  • the processor 160 may receive setting information of the photographing unit 140 from a user.
  • the processor 160 may provide an input interface for receiving setting information.
  • the input interface may be provided by a button method or a touch screen method.
  • the processor 160 may include an application program for performing the above-described functions, and, in some cases, various databases (DBs) (hereinafter, referred to as "DBs") built in or outside.
  • DBs databases
  • the DB may be implemented inside or outside the processor 160.
  • the photographing unit 140 processes the images photographed a plurality of times. And transmit to 160.
  • the processor 160 may evaluate the sharpness of the images received from the photographing unit 140. For example, the processor 160 may evaluate the sharpness of each image and convert it into a score.
  • the sharpness of the image may be an evaluation amount determined according to the degree of defocusing when the image is captured. For example, an image photographed while the focusing point P deviates from the depth of focus (DOF) of the focusing optical system 120 is photographed while the defocusing degree is severe. In addition, since the image photographed in a state where the degree of defocusing is severe may include a relatively blurry portion, the sharpness may be low. On the other hand, when the focusing point P is located in or near the depth of field, the photographed image is taken at a relatively low defocusing degree. In addition, the image photographed in a state where the defocusing degree is low may be evaluated as having high sharpness as it includes fewer blurry portions.
  • the processor 160 may evaluate the sharpness by analyzing the difference in contrast between pixels of the image. For example, as the blurring part of the image increases, the contrast difference between pixels may be reduced. Accordingly, the processor 160 may evaluate that the sharpness of the image is low when the contrast difference between pixels is not large. On the other hand, if the image is clear, a sharp change in contrast between pixels may increase. Therefore, the processor 160 may determine that the sharper the image is, the more the region having a large change amount of contrast between pixels of the image.
  • the processor 160 may determine an image having the highest sharpness among the images received from the photographing unit 140. When the image having the highest sharpness is captured, it may be determined that the distance between the object 10 and the focusing optical system 120 is close to the focusing distance. For example, the processor 160 may receive N images from the photographing unit 140 and evaluate the sharpness of the i-th image among them. Then, the processor 160 may conclude that the distance between the object 10 and the focusing optical system 120 is closest to the focusing distance when the i-th image is captured.
  • the relative distance between the focusing optical system 120 and the object 10 should be known at the time when each image is captured. That is, each time the photographing unit 140 captures an image, a method of knowing the position of the focusing optical system 120 and the object 10 is required.
  • FIG. 5 is a diagram illustrating a photographing apparatus 200 according to another exemplary embodiment.
  • the photographing apparatus 200 may further include an encoder 250 that detects a change in distance between the object 10 and the photographing unit 140 and generates an electrical signal. .
  • an encoder 250 that detects a change in distance between the object 10 and the photographing unit 140 and generates an electrical signal.
  • the encoder 250 may be linked with the distance adjuster 130.
  • the encoder 250 may detect a state of the distance controller 130 and generate an electrical signal based on the state. For example, the encoder 250 may generate an electrical signal whenever the distance controller 130 changes the distance between the object 10 and the photographing unit 140 by a predetermined interval. As another example, the encoder 250 may generate a pulse signal by detecting an amount of change in distance between the object 10 and the focusing optical system 120 by itself.
  • FIG. 6 is a diagram exemplarily illustrating an electrical signal generated by the encoder 250.
  • the encoder 250 may generate a pulse signal whenever the distance between the object 10 and the focusing optical system 120 varies by a predetermined interval.
  • the frequency at which the pulse signal is generated may vary depending on the depth of focus (DOF) of the focusing optical system 120.
  • DOF depth of focus
  • the distance change amount when an i-th pulse is generated and when the i + 1 th pulse is generated may be set to be equal to or smaller than the size of the depth DOF of the focusing optical system 120.
  • the distance at which the encoder 250 generates the pulse signal is set to be smaller than the depth of the depth of the focusing optical system 120.
  • the positional change of the focusing point P between adjacent shots is set smaller than the depth of the depth. Can be.
  • the encoder 250 may generate different kinds of electrical signals according to the distance between the object 10 and the focusing optical system 120.
  • the processor 160 may include an algorithm therein for interpreting the electrical signal generated by the encoder 250.
  • the photographing unit 140 may be synchronized with the operation of the pulse signal of the encoder 250. For example, the photographing unit 140 may count the number of pulses of the pulse signal received from the encoder 250. In addition, the photographing unit 140 may photograph an image of the object 10 whenever the number of pulses increases by a predetermined number. In addition, the processor 160 may count the number of pulses of the pulse signal received from the encoder 250. In addition, the processor 160 may focus the optical system 120 and the object 10 at the time when the image with the highest sharpness is photographed from the number of pulses counted at the time when the image with the sharpest image is received from the photographing unit 140. You can see the distance between them.
  • FIG. 7 is a view showing a photographing apparatus 300 according to another exemplary embodiment.
  • the photographing apparatus 300 may further include a controller 355 that generates a synchronization signal for the photographing unit 140 based on an electrical signal generated by the encoder 250.
  • the controller 355 may receive an electrical signal generated by the encoder 250.
  • the controller 355 may generate a synchronization signal for the photographing unit 140 based on the electrical signal received from the encoder 250.
  • the controller 355 may generate a synchronization signal whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval based on the electrical signal provided by the encoder 250.
  • the photographing unit 140 may capture an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval by being synchronized by the synchronization signal.
  • the predetermined interval may be set smaller than the depth of field (DOF) of the focusing optical system 120.
  • DOF depth of field
  • the processor 160 may receive the synchronization signal from the controller 355 to determine the distance between the object 10 and the focusing optical system 120 when the photographing unit 140 captures an image.
  • the processor 160 and the controller 355 are shown as separate blocks. However, in FIG. 7, the two components are separately expressed according to functions, and the processor 160 and the controller 355 are not limited to hardware.
  • the processor 160 and the controller 355 may share the same hardware resource and perform their respective functions.
  • the processor 160 and the controller 355 may be separated into different devices.
  • FIG. 8 is a diagram exemplarily illustrating a synchronization signal generated by the controller 355.
  • the upper graph shows a pulse signal generated by the encoder 250 and the lower graph shows a synchronization signal generated by the controller 355.
  • the controller 355 may generate a pulse signal as a synchronization signal whenever the number of pulse signals received from the encoder 250 increases by a predetermined number.
  • 8 illustrates an example in which the controller 355 generates a pulse signal whenever the number of pulse signals received by the encoder 155 changes by three.
  • the embodiment is not limited thereto.
  • the number ratio between the pulse signal generated by the controller 355 and the pulse signal generated by the encoder 250 may be smaller or larger than that shown in FIG. 8.
  • the controller 355 may know the distance between the focusing optical system 120 and the object 10 based on the electrical signal received from the encoder 250.
  • the controller 355 may control an operation method of the distance adjusting unit 130 based on the distance between the focusing optical system 120 and the object 10.
  • the controller 355 may control the distance controller 130 to move the focusing point P within a range satisfying Equation 1.
  • values such as H, D, ⁇ , and the like may be input by the input interface unit of the processor 160.
  • the processor 160 may transmit the input setting values to the controller 355.
  • the controller 355 may determine how the distance controller 130 operates by comparing the input values with the distance values obtained by the electrical signal received from the encoder 250.
  • the controller 355 may transmit a movement end interrupt to the processor 160.
  • the controller 355 may transmit a movement end interrupt to the processor 160.
  • the controller 355 may generate a pulse signal at intervals of 5um.
  • the photographing unit 140 may capture the object 10 in synchronization with the pulse signal.
  • FIG. 9 is a diagram illustrating a change in height of the focusing point P with time.
  • the vertical axis represents the height of the focusing point P, and the horizontal axis represents time.
  • the state in which autofocusing starts is shown as the origin.
  • the processor 160 may evaluate the sharpness of the N images received from the photographing unit 140.
  • the processor 160 may determine an i-th image having the highest sharpness among the N images.
  • the processor 160 may know the height H i at which the i th image is taken from the signal received from the controller 355 or the encoder 250. Then, the focusing point (P) to the height (H i) can be actuated.
  • the focusing point P may accelerate from t 0 to t 1 .
  • the height of the focusing point P at time t 0 may be 0 on the graph but may actually be HD- ⁇ shown in Equation (1).
  • the height of the focusing point P at time t 1 may be HD.
  • the time ⁇ t required for the acceleration motion may vary depending on the magnitude V1 of the constant velocity and the acceleration a.
  • the focusing point P may move at a constant speed. In the constant velocity section, the height of the focusing point P may vary from HD to H + D.
  • the photographing unit 140 may capture an image of the object 10. Since the predetermined interval ⁇ h is set smaller than the depth of field DOF of the focusing optical system 120, at least one imaging may be performed in the depth of field DOF.
  • the photographing of the object 10 may be performed at a constant time interval (1 / f).
  • the time taken by the photographing unit 140 to transmit the image data to the processor 160 may be smaller than the time interval 1 / f.
  • t i means the time at which the i-th image was taken in the constant velocity section.
  • H i means the height of the focusing point (P) when the i-th shooting is taken in the constant velocity section. After N shots are taken during the constant velocity section, the focusing point P may be decelerated. The focusing point P may stop at height H + D + ⁇ .
  • FIG. 10 is a graph showing the relationship between the height of the focusing point P and the sharpness of the image.
  • the sharpness C i at the i-th photographing height H i may have the highest value.
  • the processor 160 may determine the height H i , at which the image having the maximum sharpness C i value among the various sharpness values, is taken as the auto focusing distance.
  • the determination of the auto focusing distance by the processor 160 is not limited thereto.
  • the processor 160 may further consider the contrast values C i -1, C i +1 in each adjacent H i-1, H i + 1 to the height H i to correct the auto-focusing distance.
  • 11 is a diagram illustrating that the processor 160 corrects an auto focusing distance.
  • the processor 160 may calculate a height H max at which an image of maximum sharpness C max is obtained.
  • the image of the object 10 since the image of the object 10 is taken discontinuously with respect to the distance change, the image may not be taken at the height H max having the highest sharpness of the image.
  • the interval between H i-1 , H i, H i + 1 is very narrow, the height of the focusing point P and the height of the focusing point P are changed while the height of the focusing point P is changed from H i -1 to H i + 1 .
  • the relationship between the sharpness of an image can be approximated by a quadratic function.
  • H i-1 by the approximation, H i, H i + 1 and C i -1, C i, C i +1 can be expressed by equation (6) to Equation (9).
  • Processor 160 calculates the optimal focusing distance H max from the sharpness C i -1, C i, C i +1 and the equation (10) of the image obtained in each of the height H i-1, H i, H i + 1
  • the height H max can be determined as the auto focusing distance.
  • the distance controller 130 may focus on the object 10 and the focusing optical system such that the distance between the focusing point P and the support surface of the object 10 becomes H max. The distance between 120 can be changed.
  • the imaging apparatuses 100, 200, and 300 have been described with reference to FIGS. 1 to 11.
  • a photographing method using the photographing apparatus 100, 200, 300 will be described.
  • all the technical features of the above-described photographing apparatuses 100, 200, and 300 may be applied, and a redundant description thereof will be omitted.
  • FIG. 12 is a flowchart illustrating a photographing method according to an exemplary embodiment.
  • the photographing method includes: irradiating light (S1110), condensing light reflected from the object 10 using the focusing optical system 120 (S1120), and the focusing optical system 120. Adjusting the distance between the object 10 (S1130) and photographing an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval (S1140). It may include.
  • the light 10 may be irradiated onto the object 10 using the light source 110.
  • the light source 110 may adjust the irradiation time of the light in accordance with the predetermined exposure time E.
  • the light source 110 may continuously radiate light, and the aperture of the photographing unit 140 may operate in accordance with the exposure time E.
  • the exposure time E may be determined in consideration of the pixel size and magnification of the photographing unit 140 and the maximum vibration speed between the focusing optical system 120 and the object 10 according to Equation 4.
  • the light reflected from the object 10 may be collected using the focusing optical system 120.
  • the focusing optical system 120 may have a predetermined depth. The sharpness of the image formed by the light passing through the focusing optical system 120 may vary depending on whether the focusing point P is located at the depth.
  • the relative distance between the focusing optical system 120 and the object 10 may be changed.
  • the distance adjusting unit 130 may allow the moving range of the focusing point P to satisfy Equations 1 and 2 above.
  • the photographing unit 140 may photograph an image of the object 10 a plurality of times.
  • the photographing unit 140 may photograph an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval ⁇ h.
  • the predetermined interval ⁇ h may be set smaller than the depth of field DOF of the focusing optical system 120.
  • Fig. 13 is a flowchart illustrating a photographing method according to another exemplary embodiment.
  • the photographing method may further include generating a pulse signal according to a change in distance between the focusing optical system 120 and the object 10 (S1135).
  • the pulse signal may be generated by the encoder 250 shown in FIG.
  • the controller 355 of FIG. 7 receiving the electrical signal of the encoder 250 may generate a pulse signal.
  • operation control of the distance controller 130 may be performed.
  • the photographing unit 140 may be synchronized based on the pulse signal.
  • Fig. 14 is a flowchart showing a photographing method according to another exemplary embodiment.
  • the photographing method may further include extracting sharpness of the images photographed by the photographing unit 140 (S1150) and extracting a focusing distance from the sharpness values of the images (S1160). .
  • the processor 160 may receive images from the photographing unit 140 and evaluate the sharpness of each of the images. Then, each of the sharpness of the evaluated images can be converted into a numerical value.
  • the processor 160 may determine a focusing distance from the sharpness values of the images.
  • the height H i at which the i-th shot with the highest sharpness is taken may be determined as the focusing distance.
  • processor 160 may sharpness C i -1, C i, C i +1 and the equation of the image obtained in each of the height H i-1, H i, H i + 1 , as shown in Figure 11
  • the optimal focusing distance H max may be calculated from 10 and the height H max may be determined as the auto focusing distance.
  • a photographing method using the photographing apparatus 100, 200, 300 and the photographing apparatus 100, 200, 300 according to the exemplary embodiments has been described.
  • the time required for auto focusing may be shortened.
  • auto focusing is performed dynamically, a clear image may be obtained by allowing at least one image to be captured in a depth range of the focusing optical system 120.
  • the accuracy of the auto focusing operation can be increased by correcting the correct focusing distance from the sharpness values of the images.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

A photographing apparatus is disclosed. The disclosed photographing apparatus comprises: a light source for irradiating light; a focusing optical system for changing a path of light reflected from an object; a photographing unit for photographing an image of the object formed by the focusing optical system; and a distance adjusting unit for adjusting a distance between the focusing optical system and the object. The photographing unit photographs the image of the object every time the distance between the focusing optical system and the object changes by a predetermined distance, wherein the predetermined distance is set to be smaller than a depth of field of the focusing optical system.

Description

촬영장치 및 촬영방법Recording device and shooting method
촬영장치 및 촬영방법에 관한 것으로, 촬영장치의 오토 포커싱 기술에 관한 것이다.The present invention relates to a photographing apparatus and a photographing method, and to an auto focusing technique of a photographing apparatus.
레이저 가공공정 등에서는 대상물의 표면을 선명하게 촬영하는 것이 중요하다. 이미지의 선명도를 높이기 위해서는 포커싱 광학계의 초점 위치를 대상물에 맞추어 변경하는 작업이 필요하며 이를 오토 포커싱 작업이라고 한다.In the laser processing process, it is important to clearly photograph the surface of the object. In order to increase the sharpness of the image, it is necessary to change the focusing position of the focusing optical system according to the object, which is called auto focusing.
오토 포커싱 작업은 포커싱 광학계와 대상물 사이의 거리를 변화시키면서 선명한 이미지가 나오는 거리 지점을 찾는 작업이다. 즉, 오토 포커싱 과정에서는 포커싱 광학계와 대상물 사이의 거리를 변화시켜 가면서 복수 회의 촬영작업이 요구된다. Auto focusing is a process of finding the distance point at which a clear image is made while changing the distance between the focusing optics and the object. That is, in the auto focusing process, a plurality of photographing operations are required while varying the distance between the focusing optical system and the object.
그런데, 종래에는 복수회의 촬영작업 각각에 대해 흔들림 없는 이미지를 얻기 위해 정지된 상태에서 이미지 촬영을 했다. 그러나, 이 경우 기계의 진동이 사라지기를 기다리는데 필요한 지연시간이 소모되는 바 고속으로 오토 포커싱 작업을 수행하기 어려워 지는 문제가 있다. 또한, 움직이는 상태에서 오토 포커싱 작업을 수행하는 경우 이미지의 선명도가 저하됨에 따라 정확한 포커싱 위치를 찾기 어려운 단점이 있다.By the way, conventionally, image capturing was performed in a stationary state in order to obtain an image without shaking for each of a plurality of photographing operations. However, in this case, since the delay time required to wait for the vibration of the machine is consumed, it becomes difficult to perform auto focusing at high speed. In addition, when performing an auto focusing operation in a moving state, it is difficult to find an accurate focusing position as the sharpness of an image is reduced.
예시적인 실시예에 따르면, 촬영장치의 오토 포커싱 작업을 정확하고 빠르게 수행할 수 있다.According to the exemplary embodiment, the auto focusing operation of the photographing apparatus can be performed accurately and quickly.
일 측면에 있어서,In one aspect,
광을 조사하는 광원;A light source for irradiating light;
대상물에서 반사된 광의 경로를 변경하는 포커싱 광학계;A focusing optical system for changing a path of the light reflected from the object;
상기 포커싱 광학계에 의해 형성된 상기 대상물의 이미지를 촬영하는 촬영부; 및A photographing unit which photographs an image of the object formed by the focusing optical system; And
상기 포커싱 광학계와 상기 대상물 사이의 거리를 조절하는 거리 조절부;를 포함하며,And a distance controller configured to adjust a distance between the focusing optical system and the object.
상기 촬영부는, 상기 포커싱 광학계와 상기 대상물 사이의 거리가 소정의 간격만큼 변할 때 마다 상기 대상물의 이미지를 촬영하되, 상기 소정의 간격은 상기 포커싱 광학계의 심도(Depth of field)의 크기보다 작게 설정되는 촬영장치가 제공된다.The photographing unit captures an image of the object whenever the distance between the focusing optical system and the object is changed by a predetermined interval, wherein the predetermined interval is set smaller than a depth of field of the focusing optical system. An imaging device is provided.
실시예에 따르면, 촬영장치는 대상물과 포커싱 광학계 사이의 거리가 변하는 동안에 오토 포커싱 작업을 수행할 수 있다. 따라서 촬영장치는 오토 포커싱에 필요한 시간을 단축할 수 있다. According to the embodiment, the photographing apparatus may perform the auto focusing operation while the distance between the object and the focusing optical system is changed. Therefore, the photographing apparatus can shorten the time required for auto focusing.
또한, 촬영장치는 동적으로 오토 포커싱이 이루어 짐에도 선명한 이미지를 얻을 수 있다. 촬영장치는 동적 오토 포커싱 과정에서 촬영되는 적어도 하나의 이미지가 포커싱 광학계의 심도 범위에서 촬영되도록 할 수 있다. In addition, the photographing apparatus can obtain a clear image even if the auto focusing is made dynamically. The photographing apparatus may allow at least one image photographed in the dynamic auto focusing process to be photographed in a depth range of the focusing optical system.
또한, 촬영장치는 이미지들의 선명도 값들로부터 정확한 포커싱 거리를 보정함으로써 오토 포커싱 작업의 정확도를 높일 수 있다.In addition, the photographing apparatus may improve the accuracy of the auto focusing operation by correcting the correct focusing distance from the sharpness values of the images.
도 1은 예시적인 실시예에 따른 촬영장치를 나타낸 도면이다.1 is a diagram illustrating a photographing apparatus according to an exemplary embodiment.
도 2는 오토 포커싱 과정에서 촬영부의 이미지 촬영지점을 나타낸 도면이다.2 is a diagram illustrating an image photographing point of a photographing unit in an auto focusing process.
도 3은 거리 조절부에 의해 대상물과 포커싱 광학계 사이의 거리가 변하는 범위를 나타낸 도면이다.3 is a diagram illustrating a range in which a distance between an object and a focusing optical system is changed by a distance controller.
도 4는 시간에 따라 포커싱 포인트가 움직이는 속도의 변화를 예시적으로 나타낸 도면이다.4 is a diagram illustrating a change in speed at which a focusing point moves with time.
도 5는 다른 예시적인 실시예에 따른 촬영장치를 나타낸 도면이다.Fig. 5 is a view showing a photographing apparatus according to another exemplary embodiment.
도 6은 엔코더에 의해 발생되는 전기적 신호를 예시적으로 나타낸 도면이다.6 is a diagram exemplarily illustrating an electrical signal generated by an encoder.
도 7은 또 다른 예시적인 실시예에 따른 촬영장치를 나타낸 도면이다.Fig. 7 is a view showing a photographing apparatus according to another exemplary embodiment.
도 8은 제어부가 발생시키는 동기화 신호를 예시적으로 나타낸 도면이다.8 is a diagram illustrating an example of a synchronization signal generated by a controller.
도 9는 시간에 따른 포커싱 포인트의 높이 변화를 나타낸 도면이다.9 is a diagram illustrating a change in height of a focusing point with time.
도 10은 포커싱 포인트의 높이와 이미지의 선명도 사이의 관계를 나타낸 그래프이다.10 is a graph showing the relationship between the height of the focusing point and the sharpness of the image.
도 11은 프로세서가 오토 포커싱 거리를 보정하는 것을 나타낸 도면이다.11 is a diagram illustrating that the processor corrects an auto focusing distance.
도 12는 예시적인 실시예에 따른 촬영방법을 나타낸 흐름도이다.12 is a flowchart illustrating a photographing method according to an exemplary embodiment.
도 13 은 다른 예시적인 실시예에 따른 촬영방법을 나타낸 흐름도이다.Fig. 13 is a flowchart illustrating a photographing method according to another exemplary embodiment.
도 14는 또 다른 예시적인 실시예에 따른 촬영방법을 나타낸 흐름도이다.Fig. 14 is a flowchart showing a photographing method according to another exemplary embodiment.
일 측면에 있어서,In one aspect,
광을 조사하는 광원;A light source for irradiating light;
대상물에서 반사된 광의 경로를 변경하는 포커싱 광학계;A focusing optical system for changing a path of the light reflected from the object;
상기 포커싱 광학계에 의해 형성된 상기 대상물의 이미지를 촬영하는 촬영부; 및A photographing unit which photographs an image of the object formed by the focusing optical system; And
상기 포커싱 광학계와 상기 대상물 사이의 거리를 조절하는 거리 조절부;를 포함하며,And a distance controller configured to adjust a distance between the focusing optical system and the object.
상기 촬영부는, 상기 포커싱 광학계와 상기 대상물 사이의 거리가 소정의 간격만큼 변할 때 마다 상기 대상물의 이미지를 촬영하되, 상기 소정의 간격은 상기 포커싱 광학계의 심도(Depth of field)의 크기보다 작게 설정되는 촬영장치가 제공된다.The photographing unit captures an image of the object whenever the distance between the focusing optical system and the object is changed by a predetermined interval, wherein the predetermined interval is set smaller than a depth of field of the focusing optical system. An imaging device is provided.
상기 촬영부는 글로벌 셔터(global shutter) 방식으로 상기 대상물의 이미지를 촬영할 수 있다.The photographing unit may photograph an image of the object by a global shutter method.
상기 거리 조절부는 적어도 일 구간에서 상기 대상물과 상기 포커싱 광학계 사이의 거리를 등속도로 변화시킬 수 있다.The distance adjusting unit may change the distance between the object and the focusing optical system at at least one section at constant speed.
상기 거리 조절부가 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 속도는 수학식 1을 만족할 수 있다.The speed at which the distance controller changes the distance between the object and the focusing optical system may satisfy Equation 1.
Figure PCTKR2016010138-appb-I000001
.... 수학식 1
Figure PCTKR2016010138-appb-I000001
.... Equation 1
(V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, f=등속도 구간에서 촬영부의 시간당 촬영횟수, DOF=포커싱 광학계의 심도 크기)(V1 = size of the distance change speed between the object and the focusing optics, f = number of shots per hour in the constant velocity section, DOF = depth of the focusing optics)
상기 거리 조절부가 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 속도는 수학식 2를 만족할 수 있다.The speed at which the distance controller changes the distance between the object and the focusing optical system may satisfy Equation 2.
V1 < DOF / E .........수학식 2V1 <DOF / E ......... Equation 2
(V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, DOF=포커싱 광학계의 심도, E= 촬영부의 프레임당 노출시간)(V1 = magnitude of the speed of change of distance between the object and the focusing optical system, DOF = depth of focusing optical system, E = exposure time per frame of the photographing unit)
상기 촬영부의 프레임당 노출시간은 수학식 3을 만족할 수 있다.The exposure time per frame of the photographing unit may satisfy Equation 3.
Figure PCTKR2016010138-appb-I000002
.........수학식 3
Figure PCTKR2016010138-appb-I000002
......... Equation 3
(E= 촬영부의 프레임당 노출시간, Apixel = 촬영부의 픽셀 면적, M = 배율, V2max= 촬영부와 대상물 사이의 상대적인 진동속도의 최대값)(E = exposure time per frame of the imager, A pixel = pixel area of the imager, M = magnification, V2 max = maximum value of the relative vibration speed between the imager and the object)
상기 촬영장치는, 상기 대상물과 상기 촬영부 사이의 거리 변화를 감지하여 전기적 신호를 발생시키는 엔코더;를 더 포함할 수 있다.The photographing apparatus may further include an encoder configured to generate an electrical signal by detecting a change in distance between the object and the photographing unit.
상기 촬영장치는, 상기 엔코더가 발생시키는 상기 전기적 신호에 기초하여 상기 촬영부에 대한 동기화 신호를 생성하는 제어부;를 더 포함할 수 있다.The photographing apparatus may further include a controller configured to generate a synchronization signal for the photographing unit based on the electrical signal generated by the encoder.
상기 촬영장치는, 상기 촬영부가 촬영한 상기 대상물의 이미지들을 수신하여, 상기 이미지들의 선명도를 추출하는 프로세서;를 더 포함할 수 있다.The photographing apparatus may further include a processor configured to receive images of the object photographed by the photographing unit and extract clarity of the images.
상기 프로세서는 상기 선명도가 가장 높은 이미지가 촬영된 상기 대상물과 상기 포커싱 광학계 사이의 거리를 포커싱 거리로 결정할 수 있다.The processor may determine, as a focusing distance, a distance between the object on which the sharpest image is captured and the focusing optical system.
상기 프로세서는, 상기 이미지들의 선명도 값들로부터 수학식 4에 따라 포커싱 거리를 결정할 수 있다.The processor may determine a focusing distance according to Equation 4 from the sharpness values of the images.
Figure PCTKR2016010138-appb-I000003
.... 수학식 4
Figure PCTKR2016010138-appb-I000003
.... Equation 4
(H= 포커싱 상태에서 포커싱 광학계와 대상물 사이의 거리, Hi = 선명도가 가장 높게 측정된 i번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi-1 = i-1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi+1 = i+1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Ci = 선명도가 가장 높게 측정된 i번째 촬영 이미지의 선명도 값, Ci -1 = i-1번째 촬영 이미지의 선명도 값, Ci +1 = 선명도가 i+1번째 촬영 이미지의 선명도 값)(H = distance between the focusing optics and the object in the focusing state, H i = distance between the focusing optics and the object in the i-th shot with the highest sharpness measured, H i-1 = focusing optics in the i-1th shot) Distance between the object and H i + 1 = distance between the focusing optics and the object in the i + 1th shot, C i = sharpness value of the i-th image measured with the highest sharpness, C i -1 = i- Sharpness value of the first shot image, C i +1 = Sharpness value of the i + 1th shot image)
상기 거리 조절부가 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 구간은 수학식 5 및 수학식 6에 의해 결정될 수 있다.An interval in which the distance controller changes the distance between the object and the focusing optical system may be determined by Equations 5 and 6 below.
H-D-δ < X < H+D+δ ....... 수학식 5H-D-δ <X <H + D + δ ....... Equation 5
Figure PCTKR2016010138-appb-I000004
..... 수학식 6
Figure PCTKR2016010138-appb-I000004
..... Equation 6
(X= 대상물의 지지과 포커싱 광학계의 포커싱 포인트 사이의 거리, H= 대상물의 예상 두께, D= 대상물의 두께 편차, δ = 가속 구간, V1=최대 속도, a= 가속도)(X = distance between the object's support and the focusing point of the focusing optics, H = expected thickness of the object, D = thickness deviation of the object, δ = acceleration interval, V1 = maximum velocity, a = acceleration)
다른 측면에 있어서,In another aspect,
대상물에 광을 조사하는 단계;Irradiating light onto the object;
포커싱 광학계를 이용하여 상기 대상물에서 반사된 광을 집광하는 단계;Focusing light reflected from the object using a focusing optical system;
상기 포커싱 광학계와 상기 대상물 사이의 거리를 조절하는 단계; 및Adjusting a distance between the focusing optics and the object; And
상기 포커싱 광학계와 상기 대상물 사이의 거리가 소정의 간격만큼 변할 때 마다 상기 대상물의 이미지를 촬영하는 단계;를 포함하며,Photographing an image of the object whenever the distance between the focusing optical system and the object is changed by a predetermined interval;
상기 소정의 간격은 상기 포커싱 광학계의 심도보다 작게 설정되는 촬영방법이 제공된다.The predetermined method is provided in which the predetermined interval is set smaller than the depth of the focusing optical system.
상기 거리를 조절하는 단계는, 적어도 일 구간에서 상기 대상물과 상기 포커싱 광학계 사이의 거리를 등속도로 변화시킬 수 있다.The adjusting of the distance may change the distance between the object and the focusing optical system at a constant speed in at least one section.
상기 거리를 조절하는 단계는, 상기 대상물과 상기 포커싱 광학계 사이의 거리를 등속도로 변화시키는 구간에서 상기 촬영부는 일정한 시간간격으로 상기 대상물의 이미지를 촬영하며,In the adjusting of the distance, the photographing unit captures an image of the object at a predetermined time interval in a section in which the distance between the object and the focusing optical system is changed at a constant speed.
상기 대상물과 상기 포커싱 광학계 사이의 거리가 변하는 속도는 수학식 1을 만족할 수 있다.The speed at which the distance between the object and the focusing optical system changes may satisfy Equation 1.
Figure PCTKR2016010138-appb-I000005
.... 수학식 1
Figure PCTKR2016010138-appb-I000005
.... Equation 1
(V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, f=등속도 구간에서 촬영부의 시간당 촬영횟수, DoF=포커싱 광학계의 심도, α는 0.1<α<0.5를 만족하는 임의의 실수)(V1 = magnitude of the speed of change of distance between the object and the focusing optical system, f = number of shots per hour in the constant velocity section, DoF = depth of focusing optical system, and α is any real number satisfying 0.1 <α <0.5)
상기 거리를 조절하는 단계는, 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 속도가 수학식 2를 만족하도록 할 수 있다.In the adjusting of the distance, a speed of changing the distance between the object and the focusing optical system may satisfy Equation 2.
V1 < DOF / E .........수학식 2V1 <DOF / E ......... Equation 2
(V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, DOF=포커싱 광학계의 심도, E= 촬영부의 프레임당 노출시간)(V1 = magnitude of the speed of change of distance between the object and the focusing optical system, DOF = depth of focusing optical system, E = exposure time per frame of the photographing unit)
상기 촬영방법은, 상기 대상물과 상기 촬영부 사이의 거리 변화를 감지하여 전기적 신호를 발생시키는 단계;를 더 포함할 수 있다.The photographing method may further include generating an electrical signal by detecting a change in distance between the object and the photographing unit.
상기 촬영방법은, 상기 전기적 신호에 기초하여 상기 촬영부에 대한 동기화 신호를 생성하는 단계;를 더 포함할 수 있다.The photographing method may further include generating a synchronization signal for the photographing unit based on the electrical signal.
상기 촬영방법은, 상기 촬영부가 촬영한 상기 대상물의 이미지들을 수신하여, 상기 이미지들의 선명도를 추출하는 단계;를 더 포함할 수 있다.The photographing method may further include extracting sharpness of the images by receiving images of the object photographed by the photographing unit.
상기 촬영방법은, 상기 이미지들의 선명도 값들로부터 수학식 3에 따라 포커싱 거리를 결정하는 단계;를 더 포함할 수 있다.The photographing method may further include determining a focusing distance according to Equation 3 from the sharpness values of the images.
Figure PCTKR2016010138-appb-I000006
.... 수학식 3
Figure PCTKR2016010138-appb-I000006
.... Equation 3
(H= 포커싱 상태에서 포커싱 광학계와 대상물 사이의 거리, Hi = 선명도가 가장 높게 측정된 i번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi-1 = i-1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi+1 = i+1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Ci = 선명도가 가장 높게 측정된 i번째 촬영 이미지의 선명도 값, Ci -1 = i-1번째 촬영 이미지의 선명도 값, Ci +1 = 선명도가 i+1번째 촬영 이미지의 선명도 값)(H = distance between the focusing optics and the object in the focusing state, H i = distance between the focusing optics and the object in the i-th shot with the highest sharpness measured, H i-1 = focusing optics in the i-1th shot) Distance between the object and H i + 1 = distance between the focusing optics and the object in the i + 1th shot, C i = sharpness value of the i-th image measured with the highest sharpness, C i -1 = i- Sharpness value of the first shot image, C i +1 = Sharpness value of the i + 1th shot image)
이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. 한편, 이하에 설명되는 실시예는 단지 예시적인 것에 불과하며, 이러한 실시예들로부터 다양한 변형이 가능하다. In the drawings, like reference numerals refer to like elements, and the size of each element in the drawings may be exaggerated for clarity and convenience of description. Meanwhile, the embodiments described below are merely exemplary, and various modifications are possible from these embodiments.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In addition, when a part is said to "include" a certain component, which means that it may further include other components, except to exclude other components unless otherwise stated.
또한, 명세서에 기재된 “...부”, “모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미한다.In addition, terms such as “unit” and “module” described in the specification mean a unit that processes at least one function or operation.
도 1은 예시적인 실시예에 따른 촬영장치(100)를 나타낸 도면이다.1 is a diagram illustrating a photographing apparatus 100 according to an exemplary embodiment.
도 1을 참조하면, 예시적인 실시예에 따른 촬영장치(100)는 광원(110)과, 대상물(10)에서 반사된 광의 경로를 변경하는 포커싱 광학계(120)와, 포커싱 광학계(120)에 의해 형성된 대상물(10)의 이미지를 촬영하는 촬영부(140) 및 포커싱 광학계(120)와 대상물(10) 사이의 거리를 조절하는 거리 조절부(130)를 포함할 수 있다.Referring to FIG. 1, the photographing apparatus 100 according to an exemplary embodiment includes a light source 110, a focusing optical system 120 for changing a path of light reflected from an object 10, and a focusing optical system 120. It may include a photographing unit 140 for capturing the image of the formed object 10 and the distance adjusting unit 130 for adjusting the distance between the focusing optical system 120 and the object 10.
광원(110)은 광을 조사할 수 있다. 광원(110)에서 출사된 광은 소정의 광학계를 통과하여 대상물(10)에 조사될 수 있다. 도 1에서는 광원(110)에서 출사된 광이 평행광이 되어 진행하는 예를 나타냈다. 예를 들어, 광원(110)의 전면에는 빔 익스펜더(beam expander)와 빔 스플리터(beam splitter)가 마련될 수 있다. 광원(110)에서 출사된 광은 빔 익스펜더(beam expander)에서 빔 직경이 확대되어 평행광으로 진행할 수 있다. 진행하던 평행광은 빔 스플리터에서 광 경로가 반사되어 포커싱 광학계(120)로 향할 수 있다. 그러나 실시예가 이에 제한되는 것은 아니며, 광원(110)에서 출사된 광이 통과하는 광학계는 다르게 구성될 수도 있다. 또한, 광원(110)에서 출사된 광은 광학계를 거치지 않고 바로 대상물(10)에 조사될 수도 있다. The light source 110 may radiate light. Light emitted from the light source 110 may be irradiated to the object 10 through a predetermined optical system. 1 illustrates an example in which the light emitted from the light source 110 proceeds as parallel light. For example, a beam expander and a beam splitter may be provided on the front surface of the light source 110. The light emitted from the light source 110 may travel in parallel light by expanding a beam diameter in a beam expander. The traveling parallel light may be directed to the focusing optical system 120 by reflecting an optical path from the beam splitter. However, the embodiment is not limited thereto, and the optical system through which the light emitted from the light source 110 passes may be configured differently. In addition, the light emitted from the light source 110 may be directly irradiated to the object 10 without passing through the optical system.
포커싱 광학계(120)는 대상물(10)에서 반사된 광의 경로를 변경할 수 있다. 포커싱 광학계(120)에 의해 경로가 변경된 광은 촬영부(140)의 이미지 센서에 입사될 수 있다. 도 1에서는 포커싱 광학계(120)를 촬영부(140)와 분리하여 표현하였지만 실시예가 이에 제한되는 것은 아니다. 포커싱 광학계(120)는 촬영부(140)의 내부에 포함되어 있을 수도 있다. 이 경우, 거리 조절부(130)는 촬영부(140)를 움직임으로써 포커싱 광학계(120)와 대상물(10) 사이의 거리를 변경할 수 있다. 포커싱 광학계(120)는 소정의 포커싱(focusing) 거리를 가질 수 있다. 따라서, 포커싱 광학계(120)와 대상물(10)의 표면이 적절한 거리를 유지할 때, 촬영부(140)가 대상물(10)의 선명한 이미지를 획득할 수 있다. 포커싱 광학계(120)는 예를 들어, 정의 굴절력을 가지는 렌즈를 포함할 수 있다.The focusing optical system 120 may change the path of the light reflected from the object 10. The light whose path is changed by the focusing optical system 120 may be incident on the image sensor of the photographing unit 140. In FIG. 1, the focusing optical system 120 is expressed separately from the photographing unit 140, but the embodiment is not limited thereto. The focusing optical system 120 may be included in the photographing unit 140. In this case, the distance adjusting unit 130 may change the distance between the focusing optical system 120 and the object 10 by moving the photographing unit 140. The focusing optical system 120 may have a predetermined focusing distance. Therefore, when the focusing optical system 120 and the surface of the object 10 maintain an appropriate distance, the photographing unit 140 may acquire a clear image of the object 10. The focusing optical system 120 may include, for example, a lens having positive refractive power.
대상물(10)은 촬영 대상이 되는 물체로 웨이퍼, 반도체 칩 등을 포함할 수 있으며 이에 제한되는 것은 아니다. 대상물(10)은 표면의 거칠기에 의해 두께가 일정하지 않을 수 있다. 또한, 대상물(10)을 지지하는 지지면(S1)의 평탄도에 따라 대상물(10)의 표면과 포커싱 광학계(120) 사이의 거리는 일정하지 않을 수 있다. 따라서, 촬영장치(100)가 대상물(10)의 이미지를 선명하게 얻기 위해서는 대상물(10)과 포커싱 광학계(120) 사이의 거리를 적절히 조절해야 한다. 촬영장치(100)가 대상물(10)의 이미지를 선명하게 얻기 위해 포커싱 광학계(120)와 대상물(10) 사이 거리를 조절하는 과정을 오토 포커싱(Auto focusing) 과정이라고 한다. The object 10 may include a wafer, a semiconductor chip, etc. as an object to be photographed, but is not limited thereto. The object 10 may not have a constant thickness due to the roughness of the surface. In addition, the distance between the surface of the object 10 and the focusing optical system 120 may not be constant depending on the flatness of the support surface S1 supporting the object 10. Therefore, in order for the photographing apparatus 100 to obtain an image of the object 10 clearly, the distance between the object 10 and the focusing optical system 120 should be appropriately adjusted. The process in which the photographing apparatus 100 adjusts the distance between the focusing optical system 120 and the object 10 to obtain an image of the object 10 clearly is called an auto focusing process.
거리 조절부(130)는 오토 포커싱 과정에서 대상물(10)과 포커싱 광학계(120) 사이의 거리를 변화시킬 수 있다. 거리 조절부(130)는 대상물(10)이 안착된 지지면(S1)을 움직일 수 있다. 다른 예로 거리 조절부(130)는 포커싱 광학계(120)를 움직일 수 있다. 포커싱 광학계(120)가 촬영부(140)에 내장되어 있는 경우, 거리 조절부(130)는 촬영부(140)를 움직일 수도 있다. 또한, 거리 조절부(130)는 포커싱 광학계(120)와 지지면(S1)을 동시에 움직임으로써 포커싱 광학계(120)와 대상물(10) 사이의 거리를 변화시킬 수 있다.The distance adjuster 130 may change the distance between the object 10 and the focusing optical system 120 in the auto focusing process. The distance adjuster 130 may move the support surface S1 on which the object 10 is seated. As another example, the distance adjusting unit 130 may move the focusing optical system 120. When the focusing optical system 120 is embedded in the photographing unit 140, the distance adjusting unit 130 may move the photographing unit 140. In addition, the distance adjusting unit 130 may change the distance between the focusing optical system 120 and the object 10 by simultaneously moving the focusing optical system 120 and the support surface S1.
거리 조절부(130)는 대상물(10)과 포커싱 광학계(120) 사이의 거리를 변화시키기 위해, 포커싱 광학계(120), 촬영부(140), 및 지지면(S1)을 비롯한 질량이 큰 이동체를 움직일 수 있다. 이동체는 거리 조절부(130)가 오토 포커싱을 위해 움직이는 포커싱 광학계(120), 촬영부(140), 및 지지면(S1) 등을 의미할 수 있다. 거리 조절부(130)가 이동체를 가감속 하는 동안에는 관성력에 의한 진동이 발생할 수 있다. 예를 들어, 촬영장치(100)가 반도체 대상물(10)을 촬영하는 상황에서, 촬영부(140)는 그에 부수되어 장착되는 장비로 인해 질량이 커져 이동체의 질량이 커질 수 있다. 이때, 거리 조절부(130)가 촬영부(140)를 가감속할때, 촬영부(140)는 관성력에 의한 진동이 발생할 수 있다. In order to change the distance between the object 10 and the focusing optical system 120, the distance adjusting unit 130 includes a moving object having a large mass including the focusing optical system 120, the photographing unit 140, and the support surface S1. I can move it. The moving body may mean a focusing optical system 120, a photographing unit 140, a support surface S1, and the like, in which the distance controller 130 moves for auto focusing. While the distance adjuster 130 accelerates and decelerates the moving body, vibration due to inertial force may occur. For example, in a situation in which the photographing apparatus 100 photographs the semiconductor object 10, the photographing unit 140 may increase in mass due to equipment attached to the photographing unit 140 to increase the mass of the moving object. At this time, when the distance adjuster 130 accelerates and decelerates the photographing unit 140, the photographing unit 140 may generate vibration due to inertial force.
비교예에 따르면, 대상물(10)의 이미지 촬영은 포커싱 광학계(120)와 대상물(10) 사이의 간격이 변하지 않는 상태에서 이루어질 수 있다. 예를 들어, 포커싱 광학계(120)를 소정의 위치로 이동 시킨 후, 포커싱 광학계(120)를 정지시킨 상태에서 대상물(10)의 이미지를 촬영할 수 있다. 이때, 선명한 이미지를 얻기 위해서 촬영부(140)는 포커싱 광학계(120)가 이동하고 정지 한 후, 가감속에 의한 진동이 사라질 때까지 수십 내지 수백 ms를 기다린 후 이미지 촬영을 해야 한다. According to a comparative example, the image photographing of the object 10 may be performed in a state in which the distance between the focusing optical system 120 and the object 10 does not change. For example, after moving the focusing optical system 120 to a predetermined position, the image of the object 10 may be captured while the focusing optical system 120 is stopped. In this case, in order to obtain a clear image, the photographing unit 140 must wait for several tens to hundreds of ms until the focusing optical system 120 moves and stops, and the vibration caused by the acceleration / deceleration disappears before taking the image.
예를 들어, 배율이 M인 렌즈계와 픽셀 가로 세로 사이즈가 각각 px 및 py인 카메라로 최적 포커스 거리에서 촬영시 진동 속도 벡터가 (vx, vy, vz)라 할 때, vx*E < px/M 및 vy*E < py*M 및 vz*E < DOF 을 만족해야 선명한 이미지를 얻을 수 잇다. 여기서, E는 촬영부(140)의 노출시간, DOF는 포커싱 광학계(120)의 심도(DOF)를 의미하며 이에 대해서는 후술하는 설명에서 자세히 설명한다. For example, if the vibration velocity vector is (vx, vy, vz) when shooting at an optimal focal length with a lens system with a magnification M and a camera with pixel width and height sizes px and py, respectively, vx * E <px / M And vy * E <py * M and vz * E <DOF can be obtained to obtain a clear image. Here, E denotes the exposure time of the photographing unit 140, DOF means the depth of field (DOF) of the focusing optical system 120, which will be described in detail later.
그런데 전술한 비교예에 따른 방식은 고속 촬영에 불리할 수 있다. 정확한 포커싱 위치를 찾기 위해서는, 포커싱 광학계(120)와 대상물(10) 사이의 거리를 다양하게 변경해 가면서 획득되는 이미지들의 선명도를 비교해야 한다. 그런데 이미지를 획득할 때마다 가감속에 의한 진동이 줄어들어 vx*E < px/M 및 vy*E < py*M 및 vz*E < DOF를 만족할 때까지 대기시간이 소요될 수 있다. 그리고 상기 대기시간으로 인해 오토 포커싱 과정이 길어질 수 있다. 예를 들어, 이동체의 질량이 30kg이 넘어갈 경우, 이미지를 촬영할 때마다 400ms 이상의 대기시간이 필요할 수 있다. 그렇다면, 10번의 이동, 정지 후 이미지를 얻는데 필요한 지연 시간이 4초 이상 소요될 수 있다. 이러한 지연시간은 고속 촬영을 어렵게 하는 요인이 된다.However, the method according to the comparative example described above may be disadvantageous for high speed photography. In order to find the correct focusing position, it is necessary to compare the sharpness of the images obtained by variously changing the distance between the focusing optical system 120 and the object 10. However, each time the image is acquired, the vibration due to the acceleration and deceleration is reduced, so that waiting time may be required until vx * E <px / M and vy * E <py * M and vz * E <DOF are satisfied. In addition, the auto focusing process may be lengthened due to the waiting time. For example, if the mass of the moving object is more than 30 kg, a waiting time of 400 ms or more may be required every time an image is taken. If so, the delay time required to acquire an image after ten movements and stops may take four seconds or more. This delay time becomes a factor that makes high speed photography difficult.
보다 빠른 오토 포커싱을 위해, 예시적인 실시예에 따르면, 촬영부(140)는 포커싱 광학계(120)와 대상물(10) 사이의 거리가 변하는 동안 대상물(10)의 이미지를 촬영할 수 있다. 즉, 대상물(10) 및 포커싱 광학계(120) 중 적어도 하나가 멈춘 상태가 아닌 움직이는 동안 촬영부(140)는 대상물(10)의 이미지를 촬영할 수 있다. 따라서, 이동체가 정지한 후, 가감속에 따른 진동이 사라지는 것을 기다릴 필요가 없어 오토 포커싱에 소요되는 시간이 단축될 수 있다. For faster auto focusing, according to an exemplary embodiment, the photographing unit 140 may capture an image of the object 10 while the distance between the focusing optical system 120 and the object 10 is changed. That is, while at least one of the object 10 and the focusing optical system 120 is not stopped, the photographing unit 140 may capture an image of the object 10. Therefore, after stopping the moving body, it is not necessary to wait for the vibration due to acceleration / deceleration to disappear, so that the time required for auto focusing can be shortened.
촬영부(140)는 글로벌 셔터(global shutter) 방식으로 대상물(10)을 촬영할 수 있다. 여기서, 글로벌 셔터방식이란 모든 픽셀을 동시에 노출시켜 이미지를 얻는 방식을 의미한다. 반대로 롤링 셔터(rolling shutter) 방식 한 라인 또는 한 그룹의 픽셀들에 대해서 이미지를 얻고 나머지 픽셀들에 대해서는 시차를 두고 이미지를 얻는다. 촬영부(140)가 글로벌 셔터 방식으로 대상물(10)을 촬영하면 외부 진동에 대해도 불구하고 선명한 이미지를 얻을 수 있다.The photographing unit 140 may photograph the object 10 by using a global shutter method. Here, the global shutter method refers to a method of obtaining an image by exposing all pixels simultaneously. In contrast, a rolling shutter method obtains an image for one line or a group of pixels and obtains an image with parallax for the remaining pixels. When the photographing unit 140 photographs the object 10 by the global shutter method, a clear image may be obtained despite the external vibration.
대상물(10)과 포커싱 광학계(120) 사이의 거리가 변함에 따라 촬영부(140)에서 촬영된 이미지의 선명도가 달라질 수 있다. 촬영부(140)에서 촬영된 이미지의 선명도가 최대가 될 때, 대상물(10)과 포커싱 광학계(120) 사이의 거리를 초점거리라고 할 수 있다. 대상물(10)과 포커싱 광학계(120) 사이의 거리가 상기 초점거리와 완벽히 일치하지 않더라도 촬영부(140)에서 촬영된 이미지의 선명도에 큰 변화가 일어나지 않을 수 있다. 즉, 초점거리 근처의 소정 구간 안에서는 대상물(10)과 포커싱 광학계(120) 사이의 거리가 변하더라도 이미지의 선명도에 큰 영향이 없을 수 있다. 이와 같이 이미지의 선명도가 유지되는 영역을 포커싱 광학계(120)의 심도(Depth of Field; DOF)라고 한다.As the distance between the object 10 and the focusing optical system 120 changes, the sharpness of the image photographed by the photographing unit 140 may vary. When the sharpness of the image photographed by the photographing unit 140 becomes the maximum, the distance between the object 10 and the focusing optical system 120 may be referred to as a focal length. Even if the distance between the object 10 and the focusing optical system 120 does not perfectly match the focal length, a great change may not occur in the sharpness of the image captured by the photographing unit 140. That is, even if the distance between the object 10 and the focusing optical system 120 changes within a predetermined region near the focal length, there may be no significant effect on the sharpness of the image. The area in which the sharpness of the image is maintained is referred to as a depth of field (DOF) of the focusing optical system 120.
오토 포커싱 공정에서는 포커싱 광학계(120)와 대상물(10) 사이의 거리를 포커싱 광학계(120)의 심도(DOF) 내로 조절할 수 있다. 그런데, 대상물(10)과 포커싱 광학계(120) 사이의 거리가 변하는 동안 촬영부(140)가 이미지를 촬영하면, 포커싱 포인트가 심도(DOF) 안에 있을 때, 이미지 촬영이 이루어지지 않을 수 있다. 따라서, 오토 포커싱 중에 선명도가 높은 이미지를 얻을 수 없고, 따라서 정확한 오토 포커싱 위치를 찾는 것이 어려울 수 있다. 상기 문제점을 해결하기 위해, 촬영부(140)는, 집광 광학계(120)와 대상물(10) 사이의 거리가 소정의 간격만큼 변할 때 마다 대상물(10)의 이미지를 촬영할 수 있다. 또한, 상기 소정의 간격은 포커싱 광학계(120)의 심도의 크기(DOF)보다 작게 설정될 수 있다.In the auto focusing process, the distance between the focusing optical system 120 and the object 10 may be adjusted into a depth of field (DOF) of the focusing optical system 120. However, if the photographing unit 140 captures an image while the distance between the object 10 and the focusing optical system 120 is changed, when the focusing point is within the depth of field, the image may not be photographed. Therefore, a high sharpness image cannot be obtained during auto focusing, and thus it may be difficult to find the correct auto focusing position. In order to solve the above problem, the photographing unit 140 may photograph an image of the object 10 whenever the distance between the light converging optical system 120 and the object 10 changes by a predetermined interval. In addition, the predetermined interval may be set smaller than the depth of field (DOF) of the focusing optical system (120).
도 2는 오토 포커싱 과정에서 촬영부(140)의 이미지 촬영지점을 나타낸 도면이다. 도 2에서는 포커싱 광학계(120)가 움직이는 것을 예시적으로 나타냈지만 실시예가 이에 제한되는 것은 아니다. 예를 들어, 대상물(10)의 지지면(S1)이 움직임으로써 포커싱 광학계(120)와 대상물(10) 사이의 거리가 변할 수도 있다. 2 is a diagram illustrating an image capturing point of the photographing unit 140 in an auto focusing process. In FIG. 2, the focusing optical system 120 is moved by way of example, but the embodiment is not limited thereto. For example, the distance between the focusing optical system 120 and the object 10 may change as the support surface S1 of the object 10 moves.
도 2를 참조하면, 촬영부(140)는 포커싱 광학계(120)와 대상물(10) 사이의 거리가 소정의 간격(Δh)만큼 변할 때마다 대상물(10)의 이미지를 촬영할 수 있다. 그리고 소정의 간격(Δh)은 포커싱 광학계(120)의 심도(DOF)의 크기보다 작게 설정될 수 있다. 상기 소정의 간격(Δh)은 오토 포커싱 과정에서 일정하게 유지될 수도 있고 조금씩 변할 수도 있다. 다만, 소정의 간격(Δh)이 변하더라도 그 크기는 포커싱 광학계(120)의 심도(DOF)의 크기보다 작을 수 있다. 따라서, 대상물(10)과 포커싱 광학계(120) 사이의 거리가 변하는 도중 촬영이 이루어지더라도, 심도(DOF) 안에서 적어도 한번의 촬영이 이루어질 수 있다. Referring to FIG. 2, the photographing unit 140 may photograph an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval Δh. The predetermined interval Δh may be set smaller than the size of the depth DOF of the focusing optical system 120. The predetermined interval Δh may be kept constant during the autofocusing process or may change little by little. However, even if the predetermined interval Δh is changed, the size may be smaller than the size of the depth DOF of the focusing optical system 120. Therefore, even when photographing is performed while the distance between the object 10 and the focusing optical system 120 is changed, at least one photographing may be performed in the depth of field.
오토 포커싱 작업 속도를 높이기 위해, 거리 조절부(130)는 소정의 범위 안에서 대상물(10)과 포커싱 광학계(120) 사이의 거리를 변화시킬 수 있다. 도 3은 거리 조절부(130)에 의해 대상물(10)과 포커싱 광학계(120) 사이의 거리가 변하는 범위를 나타낸 도면이다.In order to speed up the auto focusing operation, the distance adjusting unit 130 may change the distance between the object 10 and the focusing optical system 120 within a predetermined range. 3 is a diagram illustrating a range in which the distance between the object 10 and the focusing optical system 120 is changed by the distance adjuster 130.
도 3을 참조하면, 거리 조절부(130)는 포커싱 광학계(120)의 포커싱 포인트(P)가 소정의 영역 안에서 움직이도록 할 수 있다. 거리 조절부(130)는 포커싱 광학계(120)의 포커싱 포인트(P)가 지지면(S1)의 표면(L1)으로부터 대상물(10)의 예상 높이(H)만큼 떨어진 지점(L2)을 중심으로 움직이게 할 수 있다. 예를 들어, 거리 조절부(130)는 포커싱 광학계(120)의 포커싱 포인트(P)가 수학식 1을 만족하면서 움직이도록 할 수 있다.Referring to FIG. 3, the distance controller 130 may cause the focusing point P of the focusing optical system 120 to move within a predetermined area. The distance adjuster 130 moves the focusing point P of the focusing optical system 120 about a point L2 away from the surface L1 of the supporting surface S1 by an expected height H of the object 10. can do. For example, the distance controller 130 may allow the focusing point P of the focusing optical system 120 to move while satisfying Equation 1.
Figure PCTKR2016010138-appb-M000001
Figure PCTKR2016010138-appb-M000001
여기서, X = 대상물의 지지면과 포커싱 광학계의 포커싱 포인트 사이의 거리, H= 대상물의 예상 두께, D= 대상물의 두께 편차, δ= 가속 구간을 의미한다. Here, X = distance between the support surface of the object and the focusing point of the focusing optical system, H = the expected thickness of the object, D = thickness deviation of the object, δ = acceleration interval.
도 4는 시간에 따라 포커싱 포인트(P)가 움직이는 속도의 변화를 예시적으로 나타낸 도면이다. 도 4에서 가로축은 시간을 나타내며, 세로축은 포커싱 광학계(120)와 대상물(10) 사이의 상대속도(포커싱 포인트(P)가 움직이는 속도)를 나타낸다.4 is a diagram illustrating a change in the speed at which the focusing point P moves with time. In FIG. 4, the horizontal axis represents time, and the vertical axis represents the relative speed between the focusing optical system 120 and the object 10 (the speed at which the focusing point P moves).
도 4를 참조하면, 시각 t1까지 포커싱 광학계(120)와 대상물(10) 사이의 상대속도가 점점 증가할 수 있다. 이때 상대속도는 일정한 가속도(a)로 증가할 수 있다. 가속 구간은 거리 조절부(130)가 포커싱 광학계(120) 및 대상물(10) 중 적어도 하나를 가속운동 시키는 구간이다.Referring to FIG. 4, the relative speed between the focusing optical system 120 and the object 10 may gradually increase until time t1. At this time, the relative speed may increase with a constant acceleration (a). The acceleration section is a section in which the distance controller 130 accelerates at least one of the focusing optical system 120 and the object 10.
예시적으로, 시간이 t0부터 t1까지 변하는 동안, 포커싱 광학계(120)의 포커싱 포인트(P)는 지지면(S1)의 표면(L1)으로부터 높이 H-D-δ에서 높이 H-D까지 움직일 수 있다. 가속구간 동안 움직이는 거리 δ는 수학식 2로 나타낼 수 있다.For example, while the time varies from t0 to t1, the focusing point P of the focusing optics 120 may move from the height H-D-δ to the height H-D from the surface L1 of the support surface S1. The moving distance δ during the acceleration period can be represented by Equation 2.
Figure PCTKR2016010138-appb-M000002
Figure PCTKR2016010138-appb-M000002
수학식 2에서 δ는 가속시간 동안 움직인 거리의 크기, a는 가속도의 크기, V는 가속도에 의한 종단 속도, 즉 최대 속도의 크기를 나타낸다. In Equation 2, δ represents the magnitude of the distance traveled during the acceleration time, a is the magnitude of the acceleration, V is the terminal velocity by the acceleration, that is, the magnitude of the maximum velocity.
시각 t1부터 시각 t2까지는 포커싱 광학계(120)와 대상물(10) 사이의 상대속도가 일정한 크기(V1)으로 유지될 수 있다. 예시적으로, 시간이 t1부터 t2까지 변하는 동안, 포커싱 광학계(120)의 포커싱 포인트(P)는 지지면(S1)의 표면(L1)으로부터 높이 H-D에서 높이 H+D까지 움직일 수 있다. 그리고, 시각 t2부터 시각 t3까지는 포커싱 광학계(120)와 대상물(10) 사이의 상대속도가 점점 줄어들 수 있다. 이때 예시적으로, 상대속도는 일정한 가속도 -a로 점점 줄어들 수 있다. 또한, 시간이 t2부터 t3까지 변할 동안, 포커싱 광학계(120)의 포커싱 포인트(P)는 지지면(S1)의 표면(L1)으로부터 높이 H+D에서 높이 H+D+δ까지 움직일 수 있다. 거리 조절부(130)가 대상물(10)의 예상 높이(H)와 두께 편차(D)를 고려하여 포커싱 포인트(P)가 움직이는 범위를 설정함으로써, 포커싱 거리를 찾는 속도가 더 빨라지고 정확해질 수 있다. From time t1 to time t2, the relative speed between the focusing optical system 120 and the object 10 may be maintained at a constant size V1. For example, while the time varies from t1 to t2, the focusing point P of the focusing optics 120 may move from the height H-D to the height H + D from the surface L1 of the support surface S1. In addition, from time t2 to time t3, the relative speed between the focusing optical system 120 and the object 10 may gradually decrease. At this time, for example, the relative speed may be gradually reduced to a constant acceleration -a. Further, while the time varies from t2 to t3, the focusing point P of the focusing optics 120 can move from the height H + D to the height H + D + δ from the surface L1 of the support surface S1. By setting the moving range of the focusing point P in consideration of the expected height H and the thickness deviation D of the object 10, the distance adjusting unit 130 may find the focusing distance faster and more accurate. .
포커싱 포인트(P)가 지지면(S1)의 표면(L1)으로부터 높이 H-D에서 높이 H+D까지 움직이는 동안, 촬영부(140)는 복수회에 걸쳐 대상물(10)의 이미지를 촬영할 수 있다. 이때, 포커싱 포인트(P)는 등속으로 움직일 수 있으며 움직이는 속도의 크기(V1)는 촬영부(140)의 노출시간에 의존할 수 있다. 여기서, 노출시간이란 촬영부(140)가 1회 촬영에서 이미지를 얻기 위해, 광에 노출되는 시간을 의미한다. 노출시간은 광원(110)이 광을 조사하는 시간에 의해 조절될 수 있다. 다른 예로, 촬영부(140) 내부에 있는 셔터나 조리개에 의해 노출시간이 조절될 수도 있다.While the focusing point P moves from the height L-D to the height H + D from the surface L1 of the supporting surface S1, the photographing unit 140 may photograph an image of the object 10 a plurality of times. In this case, the focusing point P may move at a constant speed, and the magnitude V1 of the moving speed may depend on the exposure time of the photographing unit 140. Here, the exposure time means a time when the photographing unit 140 is exposed to light in order to obtain an image in one shot. The exposure time may be adjusted by the time for which the light source 110 irradiates light. As another example, the exposure time may be adjusted by a shutter or an aperture inside the photographing unit 140.
포커싱 포인트(P)가 움직이는 속도(대상물(10)와 포커싱 광학계(120) 사이의 거리 변화 속도의 크기; V1)는 수학식 3을 만족할 수 있다.The speed at which the focusing point P moves (the magnitude of the speed of change in distance between the object 10 and the focusing optical system 120; V1) may satisfy Equation 3 below.
Figure PCTKR2016010138-appb-M000003
Figure PCTKR2016010138-appb-M000003
수학식 3에서, V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, DOF=촬영부의 심도(DOF), E= 촬영부의 프레임당 노출시간을 의미한다. 또한, α는 0<α<1을 만족하는 실수로서 촬영부(140)의 광학 성능에 따라 달라질 수 있다. In Equation 3, V1 = size of the speed of change of distance between the object and the focusing optical system, DOF = depth of field (DOF) of the photographing unit, and E = exposure time per frame of the photographing unit. Also, α is a real number satisfying 0 <α <1 and may vary depending on the optical performance of the photographing unit 140.
포커싱 포인트(P)가 너무 빨리 움직이면, 촬영부(140)가 한 프레임을 촬영하는 동안, 포커싱 포인트(P)가 심도(DOF)를 벗어나 버릴 수 있다. 따라서, 수학식 3에서와 같이, 포커싱 포인트(P)가 움직이는 속도를 제한함으로써, 촬영에 필요한 노출시간 동안 포커싱 포인트(P)가 심도(DOF)를 벗어나는 것을 방지할 수 있다.If the focusing point P moves too quickly, the focusing point P may move out of the depth DOF while the photographing unit 140 captures one frame. Therefore, as in Equation 3, by limiting the speed at which the focusing point P moves, it is possible to prevent the focusing point P from moving out of the depth DOF during the exposure time required for photographing.
오토 포커싱 과정에서 포커싱 광학계(120)와 대상물(10) 사이 거리를 등속으로 움직이더라도 포커싱 광학계(120)와 대상물(10) 사이의 거리방향에 수직한 방향으로 미세한 진동이 발생할 수 있다. 따라서, 촬영부(140)의 프레임당 노출시간이 너무 길어지면 포커싱 광학계(120)와 대상물(10) 사이의 진동에 의해 이미지의 선명도가 저하될 수 있다. 이미지의 선명도가 저하되는 것을 막기 위해서는, 프레임당 노출시간 동안 포커싱 광학계(120)와 대상물(10) 사이의 움직임이 촬영부(140)의 1 픽셀 범위 안에서 일어나야 한다. 이를 만족하기 위해, 촬영부(140)의 프레임당 노출시간은 수학식 4를 만족할 수 있다.Even when the distance between the focusing optical system 120 and the object 10 is moved at a constant speed in the auto focusing process, minute vibration may occur in a direction perpendicular to the distance direction between the focusing optical system 120 and the object 10. Therefore, when the exposure time per frame of the photographing unit 140 is too long, the sharpness of the image may be reduced by the vibration between the focusing optical system 120 and the object 10. In order to prevent the sharpness of the image from deteriorating, a movement between the focusing optical system 120 and the object 10 should occur within a 1 pixel range of the photographing unit 140 during the exposure time per frame. To satisfy this, the exposure time per frame of the photographing unit 140 may satisfy Equation 4.
Figure PCTKR2016010138-appb-M000004
Figure PCTKR2016010138-appb-M000004
수학식 4에서, E= 촬영부(140)의 프레임당 노출시간, Apixel = 촬영부(140)의 픽셀 면적, M = 배율, V2max= 촬영부(140)와 대상물(10) 사이의 상대적인 진동속도의 최대값을 나타낸다.In Equation 4, E = exposure time per frame of the photographing unit 140, A pixel = pixel area of the photographing unit 140, M = magnification, V2 max = relative between the photographing unit 140 and the object 10. The maximum value of the vibration speed is shown.
수학식 4에서와 같이, 촬영부(140)의 노출시간(E)을 제한하면, 촬영부(140)와 대상물(10) 사이의 수평방향 진동에 의해 이미지의 선명도가 저하되는 것을 방지할 수 있다. 예를 들어, 통상적인 웨이퍼 그루빙 공정에서의 웨이퍼 촬영의 경우, 촬영부(140)의 시야범위(field of view; FOV)는 240um x 180um 내지 480um x 360um 가 요구되며 광학적인 분해능은 1.2um 이하가 요구될 수 있다. 촬영부(140)와 대상물(10) 사이의 진동 최대 속도(V2max)가 0.2 mm/s라고 가정할 때, 픽셀 크기 4.8um x 3.6um, 배율 10배의 환경에서 수학식 4로부터 약 2ms 이내의 노출시간이 요구될 수 있다. 그리고, 노출시간(E)에 따라 이미지를 얻기 위해 요구되는 광원(110)의 출력 파워가 달라질 수 있다. 예를 들어, 촬영부(140)의 프레임당 노출시간(E)이 줄어들수록 광원(110)에 요구되는 광 출력 파워는 늘어날 수 있다. 예를 들어, 시야범위(FOV) 480um x 360um 에 대해 노출 시간 2ms 정도라면, 광원(110)에 요구되는 최소 출력파워는 약 0.2W 일 수 있다.As shown in Equation 4, by limiting the exposure time (E) of the photographing unit 140, it is possible to prevent the sharpness of the image is lowered by the horizontal vibration between the photographing unit 140 and the object 10. . For example, in the case of wafer photographing in a conventional wafer grooving process, a field of view (FOV) of the photographing unit 140 is required to be 240um x 180um to 480um x 360um and the optical resolution is 1.2um or less. May be required. Assuming that the maximum vibration velocity (V2 max ) between the photographing unit 140 and the object 10 is 0.2 mm / s, it is within about 2ms from Equation 4 in an environment of a pixel size of 4.8um x 3.6um and a magnification of 10 times. Exposure time may be required. In addition, the output power of the light source 110 required to obtain an image may vary according to the exposure time E. FIG. For example, the light output power required for the light source 110 may increase as the exposure time E per frame of the photographing unit 140 decreases. For example, if the exposure time is about 2ms for the field of view (FOV) 480um x 360um, the minimum output power required for the light source 110 may be about 0.2W.
포커싱 포인트(P)가 지지면(S1)의 표면(L1)으로부터 높이 H-D에서 높이 H+D까지 등속도(V1)으로 움직이는 동안, 촬영부(140)는 일정한 시간간격으로 대상물(10)의 이미지를 촬영할 수 있다. 촬영부(140)가 일정한 시간간격으로 대상물(10)의 이미지를 촬영함으로써, 포커싱 포인트(P)가 일정한 거리만큼 움직일 때 마다 이미지가 획득될 수 있다. 이때, 포커싱 포인트(P)가 움직이는 속도(대상물(10)와 포커싱 광학계(120) 사이의 상대속도; V1)와 촬영부(140)의 시간당 촬영횟수 f는 수학식 5를 만족할 수 있다.While the focusing point P moves at a constant speed V1 from the surface L1 of the supporting surface S1 to the height H to the height H + D, the photographing unit 140 images the image of the object 10 at regular time intervals. You can shoot. By capturing an image of the object 10 at a predetermined time interval by the photographing unit 140, an image may be obtained whenever the focusing point P moves by a predetermined distance. In this case, the speed at which the focusing point P moves (relative speed between the object 10 and the focusing optical system 120; V1) and the number of times f taken by the photographing unit 140 may satisfy Equation 5.
Figure PCTKR2016010138-appb-M000005
Figure PCTKR2016010138-appb-M000005
수학식 4에서, V1=대상물(10)과 포커싱 광학계(120) 사이의 거리 변화 속도의 크기, f=등속도 구간에서 촬영부(140)의 시간당 촬영횟수, DOF=포커싱 광학계(120)의 심도(DOF)를 나타낸다. 또한, α는 0<α<1을 만족하는 실수로서 촬영부(140)의 광학 성능에 따라 달라질 수 있다.In Equation 4, V1 = size of the speed of change of distance between the object 10 and the focusing optical system 120, f = number of shots per hour of the photographing unit 140 in the constant velocity section, DOF = depth of the focusing optical system 120 (DOF). Also, α is a real number satisfying 0 <α <1 and may vary depending on the optical performance of the photographing unit 140.
수학식 5를 참조하면, 포커싱 포인트(P)가 움직이는 속도(V1)와 촬영부(140)의 촬영횟수(f)의 역수의 곱이 포커싱 광학계(120)의 심도(DOF)의 크기(DOF)보다 작아질 수 있다. 따라서, 포커싱 포인트(P)가 움직이는 동안 촬영이 이루어지더라도 포커싱 포인트(P)가 포커싱 광학계(120)의 심도(DOF) 범위에 위치할 때 적어도 한번의 촬영이 이루어질 수 있다. 그리고, 심도(DOF) 범위에서 촬영된 선명한 이미지로부터 포커싱 거리를 도출할 수 있다.Referring to Equation 5, the product of the speed V1 of moving the focusing point P and the inverse of the number of shots f of the photographing unit 140 is larger than the depth DOF of the focusing optical system 120. Can be small. Therefore, even if the photographing is performed while the focusing point P is moving, at least one photographing may be performed when the focusing point P is located in the depth of field (DOF) of the focusing optical system 120. In addition, a focusing distance may be derived from a clear image captured in a depth of field.
예시적으로, 통상적인 웨이퍼 그루빙에서 사용되는 촬영장치의 경우, DOF 값이 대략 10 μm <DOF< 20 μm 내일 수 있다. 그리고, 보다 정확한 촬영을 위해, 상기 DOF * α 값은 대략 5μm 이내로 요구될 수 있다. 따라서, 수학식 5로부터 V1/f < 5um를 만족할 수 있다. 예시적으로, f=40Hz의 경우 V1 <= 0.2mm/s, f=80Hz의 경우 V1 <= 0.4mm/s를 만족해야 한다. 상기 수치는 예시적인 것에 불과하며, 작업환경에 따라 바뀔 수 있다.For example, in the case of an imaging apparatus used in conventional wafer grooving, the DOF value may be within about 10 μm <DOF <20 μm. And, for more accurate imaging, the DOF * α value may be required within about 5μm. Therefore, V1 / f <5um may be satisfied from Equation 5. For example, V1 <= 0.2 mm / s for f = 40 Hz and V1 <= 0.4 mm / s for f = 80 Hz. The above figures are merely exemplary and may vary depending on the working environment.
포커싱 광학계(120)의 심도(DOF) 안에 포커싱 포인트(P)가 위치할 때, 선명한 이미지가 획득될 수 있다. 그리고, 실시예에 따른 촬영장치(100)는 상기 선명한 이미지가 획득되었을 때, 오토 포커싱이 이루어진 것으로 판단할 수 있다. 다시 도 1을 참조하면, 촬영장치(100)는 촬영부(140)에서 촬영된 이미지들의 선명도를 평가하기 위한 프로세서(160)를 포함할 수 있다. 프로세서(160)는 촬영부(140)와 무선 또는 유선 통신에 의해 정보를 주고받을 수 있다. When the focusing point P is located in the depth of field DOF of the focusing optical system 120, a clear image may be obtained. The photographing apparatus 100 according to the embodiment may determine that auto focusing is performed when the clear image is obtained. Referring back to FIG. 1, the photographing apparatus 100 may include a processor 160 for evaluating the sharpness of the images photographed by the photographing unit 140. The processor 160 may exchange information with the photographing unit 140 by wireless or wired communication.
도 1의 프로세서(160)는 촬영부(140)에서 촬영된 이미지 정보를 수신할 수 있다. 또한, 프로세서(160)는 촬영부(140)의 동작 설정 정보를 촬영부(140)에 전송할 수 있다. 촬영부(140)는 프로세서(160)로부터 동작 설정 정보를 수신하여 촬영부(140)의 동작 방식을 변경할 수 있다. 예를 들어, 프로세서(160)는 촬영부(140)에 프레임당 노출시간(E), 시간당 촬영횟수(f) 등에 대한 설정정보를 전송할 수 있다. 그리고, 촬영부(140)는 상기 설정정보를 수신하여, 상기 설정정보에 따라 프레임당 노출시간(E), 시간당 촬영횟수(f)를 변경할 수 있다. 또한, 프로세서(160)는, 상기 수학식 1 내지 수학식 5로부터 촬영부(140)의 설정정보를 자동으로 결정할 수 있다. 하지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 프로세서(160)는 사용자로부터 상기 촬영부(140)의 설정정보를 입력 받을 수도 있다. 이를 위해, 프로세서(160)는 설정정보를 입력 받기 위한 입력 인터페이스를 제공할 수 있다. 상기 입력 인터페이스는 버튼 방식 또는 터치 스크린 방식으로 제공될 수 있다.The processor 160 of FIG. 1 may receive image information photographed by the photographing unit 140. In addition, the processor 160 may transmit operation setting information of the photographing unit 140 to the photographing unit 140. The photographing unit 140 may receive operation setting information from the processor 160 to change an operation method of the photographing unit 140. For example, the processor 160 may transmit setting information about the exposure time E per frame, the number of shots per hour f, etc. to the photographing unit 140. In addition, the photographing unit 140 may receive the setting information and change the exposure time E per frame and the number of photographing times f per time according to the setting information. In addition, the processor 160 may automatically determine the setting information of the photographing unit 140 from Equation 1 to Equation 5 above. However, the embodiment is not limited thereto. For example, the processor 160 may receive setting information of the photographing unit 140 from a user. To this end, the processor 160 may provide an input interface for receiving setting information. The input interface may be provided by a button method or a touch screen method.
프로세서(160)는 전술한 기능을 수행하기 위한 응용 프로그램(Application Program)과 경우에 따라서는 내부 또는 외부에 구축되어 있는 각종 데이터베이스(DB: Database, 이하 "DB"라 칭함)를 포함할 수 있다. DB는 프로세서(160)의 내부 또는 외부에 구현될 수 있다.The processor 160 may include an application program for performing the above-described functions, and, in some cases, various databases (DBs) (hereinafter, referred to as "DBs") built in or outside. The DB may be implemented inside or outside the processor 160.
도 3에서 나타낸 바와 같이, 포커싱 포인트(P)가 지지면(S1)의 표면(L1)으로부터 H-D 높이에서 H+D 높이까지 움직일 동안, 촬영부(140)는 복수회에 걸쳐 촬영한 이미지들을 프로세서(160)에 전송할 수 있다. 프로세서(160)는 촬영부(140)로부터 수신한 이미지들의 선명도를 평가할 수 있다. 예를 들어, 프로세서(160)는 각 이미지들의 선명도를 평가하여 점수로 환산할 수 있다. As shown in FIG. 3, while the focusing point P moves from the height L to the height H + D from the surface L1 of the support surface S1, the photographing unit 140 processes the images photographed a plurality of times. And transmit to 160. The processor 160 may evaluate the sharpness of the images received from the photographing unit 140. For example, the processor 160 may evaluate the sharpness of each image and convert it into a score.
여기서, 이미지의 선명도란 이미지가 촬영될 때, 디 포커싱(defocusing) 정도에 따라 결정되는 평가량일 수 있다. 예를 들어, 포커싱 포인트(P)가 포커싱 광학계(120)의 심도(DOF)를 이탈한 상태에서 촬영된 이미지는 디포커싱 정도가 심한 상태에서 촬영된 것이다. 그리고, 디포커싱 정도가 심한 상태에서 촬영된 이미지는 상대적으로 흐릿한(blur) 부분을 많이 포함함에 따라 상기 선명도가 낮게 평가될 수 있다. 반면, 포커싱 포인트(P)가 심도(DOF) 안에 위치하거나 심도(DOF) 근처에 위치할 때 촬영된 이미지는 상대적으로 디포커싱 정도가 낮은 상태에서 촬영된 것이다. 그리고, 디포커싱 정도가 낮은 상태에서 촬영된 이미지는 흐릿한(blur) 부분을 적게 포함함에 따라 선명도가 높은 것으로 평가될 수 있다.Here, the sharpness of the image may be an evaluation amount determined according to the degree of defocusing when the image is captured. For example, an image photographed while the focusing point P deviates from the depth of focus (DOF) of the focusing optical system 120 is photographed while the defocusing degree is severe. In addition, since the image photographed in a state where the degree of defocusing is severe may include a relatively blurry portion, the sharpness may be low. On the other hand, when the focusing point P is located in or near the depth of field, the photographed image is taken at a relatively low defocusing degree. In addition, the image photographed in a state where the defocusing degree is low may be evaluated as having high sharpness as it includes fewer blurry portions.
예시적으로, 프로세서(160)는 이미지의 픽셀 간 명암 차이를 분석함으로써 상기 선명도를 평가할 수 있다. 예를 들어, 이미지에 흐릿한 부분이 많아지게 되면 픽셀 사이 명암 차이가 줄어들 수 있다. 따라서, 프로세서(160)는 픽셀 간 명암 차이가 크지 않을 때 이미지의 선명도가 낮다고 평가할 수 있다. 반면, 이미지가 선명하면 픽셀 사이 명암 변화가 급격한 부분이 많아질 수 있다. 따라서, 프로세서(160)는 이미지의 픽셀 사이 명암 변화량이 큰 영역이 많을수록 이미지의 선명도가 높다고 판단할 수 있다.In exemplary embodiments, the processor 160 may evaluate the sharpness by analyzing the difference in contrast between pixels of the image. For example, as the blurring part of the image increases, the contrast difference between pixels may be reduced. Accordingly, the processor 160 may evaluate that the sharpness of the image is low when the contrast difference between pixels is not large. On the other hand, if the image is clear, a sharp change in contrast between pixels may increase. Therefore, the processor 160 may determine that the sharper the image is, the more the region having a large change amount of contrast between pixels of the image.
프로세서(160)는 촬영부(140)로부터 수신한 이미지들 가운데 선명도가 가장 높은 이미지를 결정할 수 있다. 그리고, 선명도가 가장 높은 이미지가 촬영되었을 때, 대상물(10)과 포커싱 광학계(120) 사이의 거리가 포커싱 거리에 근접했다고 판단할 수 있다. 예를 들어, 프로세서(160)가 촬영부(140)로부터 N개의 이미지를 수신하고, 그 중 i번째 이미지의 선명도가 가장 높게 평가할 수 있다. 그러면, 프로세서(160)는 상기 i번째 이미지가 촬영되었을 때 대상물(10)과 포커싱 광학계(120) 사이의 거리가 포커싱 거리에 가장 근접했다고 결론을 내릴 수 있다. The processor 160 may determine an image having the highest sharpness among the images received from the photographing unit 140. When the image having the highest sharpness is captured, it may be determined that the distance between the object 10 and the focusing optical system 120 is close to the focusing distance. For example, the processor 160 may receive N images from the photographing unit 140 and evaluate the sharpness of the i-th image among them. Then, the processor 160 may conclude that the distance between the object 10 and the focusing optical system 120 is closest to the focusing distance when the i-th image is captured.
프로세서(160)에서 평가한 이미지들의 선명도부터 정확한 포커싱 위치를 찾기 위해서는 각 이미지들이 촬영된 시점에서 포커싱 광학계(120)와 대상물(10) 사이의 상대적인 거리를 알고 있어야 한다. 즉, 촬영부(140)가 이미지를 촬영할 때마다 포커싱 광학계(120)와 대상물(10)의 위치가 어떠한 지 알 수 있는 방법이 요구된다. In order to find the correct focusing position from the sharpness of the images evaluated by the processor 160, the relative distance between the focusing optical system 120 and the object 10 should be known at the time when each image is captured. That is, each time the photographing unit 140 captures an image, a method of knowing the position of the focusing optical system 120 and the object 10 is required.
도 5는 다른 예시적인 실시예에 따른 촬영장치(200)를 나타낸 도면이다. 5 is a diagram illustrating a photographing apparatus 200 according to another exemplary embodiment.
도 5를 참조하면, 예시적인 실시예에 따른 촬영장치(200)는 대상물(10)과 촬영부(140) 사이의 거리 변화를 감지하여 전기적 신호를 생성하는 엔코더(250)를 더 포함할 수 있다. 나머지 구성요소는 도 1의 촬영장치(100)에서 설명된바 중복되는 서술은 생략한다.Referring to FIG. 5, the photographing apparatus 200 according to an exemplary embodiment may further include an encoder 250 that detects a change in distance between the object 10 and the photographing unit 140 and generates an electrical signal. . The remaining components are described in the photographing apparatus 100 of FIG. 1, and thus redundant descriptions thereof will be omitted.
엔코더(250)는 거리 조절부(130)와 연동되어 있을 수 있다. 엔코더(250)는 거리 조절부(130)의 상태를 검지하고 이에 기초하여 전기적 신호를 발생시킬 수 있다. 예를 들어, 엔코더(250)는 거리 조절부(130)가 대상물(10)과 촬영부(140) 사이의 거리를 소정의 간격만큼 변화시킬 때 마다 전기적 신호를 발생시킬 수 있다. 다른 예로, 엔코더(250)는 자체적으로 대상물(10)과 포커싱 광학계(120) 사이의 거리 변화량을 감지하여 펄스 신호를 생성할 수도 있다.The encoder 250 may be linked with the distance adjuster 130. The encoder 250 may detect a state of the distance controller 130 and generate an electrical signal based on the state. For example, the encoder 250 may generate an electrical signal whenever the distance controller 130 changes the distance between the object 10 and the photographing unit 140 by a predetermined interval. As another example, the encoder 250 may generate a pulse signal by detecting an amount of change in distance between the object 10 and the focusing optical system 120 by itself.
도 6은 엔코더(250)에 의해 발생되는 전기적 신호를 예시적으로 나타낸 도면이다. 6 is a diagram exemplarily illustrating an electrical signal generated by the encoder 250.
도 6을 참조하면, 엔코더(250)는 대상물(10)과 포커싱 광학계(120) 사이의 거리가 소정의 간격만큼 변할 때 마다 펄스 신호를 발생시킬 수 있다. 펄스 신호가 발생되는 빈도는 포커싱 광학계(120)의 심도(DOF)에 따라 달라질 수 있다. 예를 들어, 임의의 i번째 펄스가 발생하였을 때와, i+1번째 펄스가 발생하였을 때의 거리 변화량은 포커싱 광학계(120)의 심도(DOF)의 크기 보다 작거나 같게 설정될 수 있다. 엔코더(250)가 펄스 신호를 발생시키는 거리 간격이 포커싱 광학계(120)의 심도(DOF)의 크기 보다 작게 설정되어야 인접한 촬영 간의 포커싱 포인트(P)의 위치변화가 심도(DOF)의 크기 보다 작게 설정될 수 있다. Referring to FIG. 6, the encoder 250 may generate a pulse signal whenever the distance between the object 10 and the focusing optical system 120 varies by a predetermined interval. The frequency at which the pulse signal is generated may vary depending on the depth of focus (DOF) of the focusing optical system 120. For example, the distance change amount when an i-th pulse is generated and when the i + 1 th pulse is generated may be set to be equal to or smaller than the size of the depth DOF of the focusing optical system 120. The distance at which the encoder 250 generates the pulse signal is set to be smaller than the depth of the depth of the focusing optical system 120. The positional change of the focusing point P between adjacent shots is set smaller than the depth of the depth. Can be.
도 6에서는 엔코더(250)가 발생시키는 전기적 신호의 예로 펄스 신호를 나타냈지만 실시예가 이에 제한되는 것은 아니다. 예를 들어, 엔코더(250)는 대상물(10)과 포커싱 광학계(120) 사이의 거리에 따라 서로 다른 종류의 전기적 신호를 발생시킬 수도 있다. 이 경우, 프로세서(160)는 엔코더(250)가 발생시키는 전기적 신호를 해석하기 위한 알고리즘을 내부에 포함할 수 있다.6 illustrates a pulse signal as an example of an electrical signal generated by the encoder 250, but the embodiment is not limited thereto. For example, the encoder 250 may generate different kinds of electrical signals according to the distance between the object 10 and the focusing optical system 120. In this case, the processor 160 may include an algorithm therein for interpreting the electrical signal generated by the encoder 250.
촬영부(140)는 엔코더(250)의 펄스 신호에 의해 동작이 동기화 될 수 있다. 예를 들어, 촬영부(140)는 엔코더(250)로부터 수신되는 펄스 신호의 펄스 개수를 카운트 할 수 있다. 그리고, 촬영부(140)는 상기 펄스 개수가 소정의 개수만큼 늘어날 때마다 대상물(10)의 이미지를 촬영할 수 있다. 또한, 프로세서(160)는 엔코더(250)로부터 수신되는 펄스 신호의 펄스 개수를 카운트 할 수 있다. 그리고, 프로세서(160)는 촬영부(140)로부터 가장 선명도가 높은 이미지가 수신된 시점에서 카운트 된 펄스 개수로부터 상기 가장 선명도가 높은 이미지가 촬영된 시점에서의 포커싱 광학계(120)와 대상물(10) 사이의 거리를 알 수 있다.The photographing unit 140 may be synchronized with the operation of the pulse signal of the encoder 250. For example, the photographing unit 140 may count the number of pulses of the pulse signal received from the encoder 250. In addition, the photographing unit 140 may photograph an image of the object 10 whenever the number of pulses increases by a predetermined number. In addition, the processor 160 may count the number of pulses of the pulse signal received from the encoder 250. In addition, the processor 160 may focus the optical system 120 and the object 10 at the time when the image with the highest sharpness is photographed from the number of pulses counted at the time when the image with the sharpest image is received from the photographing unit 140. You can see the distance between them.
도 7은 다른 예시적인 실시예에 따른 촬영장치(300)를 나타낸 도면이다.7 is a view showing a photographing apparatus 300 according to another exemplary embodiment.
도 7을 참조하면, 실시예에 따른 촬영장치(300)는 엔코더(250)가 발생시키는 전기적 신호에 기초하여 촬영부(140)에 대한 동기화 신호를 생성하는 제어부(355)를 더 포함할 수 있다. 제어부(355)는 엔코더(250)가 발생시키는 전기적 신호를 수신할 수 있다. 그리고 제어부(355)는 엔코더(250)로부터 수신한 전기적 신호에 기초하여 촬영부(140)에 대한 동기화 신호를 발생시킬 수 있다. 제어부(355)는 엔코더(250)가 제공하는 전기적 신호에 기초하여 포커싱 광학계(120)와 대상물(10) 사이의 거리가 소정의 간격만큼 변할 때 마다 동기화 신호를 발생시킬 수 있다. 촬영부(140)는 상기 동기화 신호에 의해 동기화 되어 포커싱 광학계(120)와 대상물(10) 사이의 거리가 소정의 간격만큼 변할 때 마다 대상물(10)의 이미지를 촬영할 수 있다. 그리고, 상기 소정의 간격은 포커싱 광학계(120)의 심도(DOF)보다 작게 설정될 수 있다.Referring to FIG. 7, the photographing apparatus 300 according to the embodiment may further include a controller 355 that generates a synchronization signal for the photographing unit 140 based on an electrical signal generated by the encoder 250. . The controller 355 may receive an electrical signal generated by the encoder 250. The controller 355 may generate a synchronization signal for the photographing unit 140 based on the electrical signal received from the encoder 250. The controller 355 may generate a synchronization signal whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval based on the electrical signal provided by the encoder 250. The photographing unit 140 may capture an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval by being synchronized by the synchronization signal. The predetermined interval may be set smaller than the depth of field (DOF) of the focusing optical system 120.
또한, 프로세서(160)는 제어부(355)로부터 상기 동기화 신호를 수신하여 촬영부(140)가 이미지를 촬영되었을 때, 대상물(10)과 포커싱 광학계(120) 사이의 거리를 알 수 있다. 도 7에서는 프로세서(160)와 제어부(355)를 별도의 블록으로 나타냈다. 하지만, 도 7에서는 양 구성을 기능에 따라 분리하여 표현한 것일 뿐 프로세서(160)와 제어부(355)가 하드웨어적으로 분리되었다고 한정하는 것은 아니다. 예를 들어, 프로세서(160)와 제어부(355)는 동일한 하드웨어 자원을 공유하고 각각의 기능을 수행할 수도 있다. 또한, 프로세서(160)와 제어부(355)가 서로 다른 장치로 분리되어 있을 수도 있다.In addition, the processor 160 may receive the synchronization signal from the controller 355 to determine the distance between the object 10 and the focusing optical system 120 when the photographing unit 140 captures an image. In FIG. 7, the processor 160 and the controller 355 are shown as separate blocks. However, in FIG. 7, the two components are separately expressed according to functions, and the processor 160 and the controller 355 are not limited to hardware. For example, the processor 160 and the controller 355 may share the same hardware resource and perform their respective functions. In addition, the processor 160 and the controller 355 may be separated into different devices.
도 8은 제어부(355)가 발생시키는 동기화 신호를 예시적으로 나타낸 도면이다. 도 8에서 위쪽 그래프는 엔코더(250)가 발생시키는 펄스 신호를 나타낸 것이고 아래쪽 그래프는 제어부(355)가 발생시키는 동기화 신호를 나타낸 것이다.8 is a diagram exemplarily illustrating a synchronization signal generated by the controller 355. In FIG. 8, the upper graph shows a pulse signal generated by the encoder 250 and the lower graph shows a synchronization signal generated by the controller 355.
도 8을 참조하면, 제어부(355)는 엔코더(250)로부터 수신한 펄스 신호의 개수가 소정의 개수만큼 증가할 때 마다 동기화 신호로써 펄스 신호를 발생시킬 수 있다. 도 8에서는 엔코더(155)에서 수신하는 펄스 신호의 개수가 3개씩 변할 때 마다 제어부(355)가 펄스 신호를 발생시키는 예를 나타냈다. 하지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 제어부(355)가 발생시키는 펄스 신호와 엔코더(250)가 발생시키는 펄스 신호 사이의 개수비는 도 8에서 나타낸 것 보다 더 작아질 수도 혹은 더 커질 수도 있다.Referring to FIG. 8, the controller 355 may generate a pulse signal as a synchronization signal whenever the number of pulse signals received from the encoder 250 increases by a predetermined number. 8 illustrates an example in which the controller 355 generates a pulse signal whenever the number of pulse signals received by the encoder 155 changes by three. However, the embodiment is not limited thereto. For example, the number ratio between the pulse signal generated by the controller 355 and the pulse signal generated by the encoder 250 may be smaller or larger than that shown in FIG. 8.
제어부(355)는 엔코더(250)로부터 수신한 전기적 신호에 기초하여, 포커싱 광학계(120)와 대상물(10) 사이 간격을 알 수 있다. 그리고 제어부(355)는 상기 포커싱 광학계(120)와 대상물(10) 사이 간격에 기초하여 거리 조절부(130)의 동작 방식을 제어할 수 있다. The controller 355 may know the distance between the focusing optical system 120 and the object 10 based on the electrical signal received from the encoder 250. The controller 355 may control an operation method of the distance adjusting unit 130 based on the distance between the focusing optical system 120 and the object 10.
제어부(355)는 포커싱 포인트(P)가 수학식 1을 만족하는 범위에서 움직이도록 거리 조절부(130)를 제어할 수 있다. 이때 수학식 1에서 H, D, δ 등과 같은 값들은 프로세서(160)의 입력 인터페이스부에 의해 입력될 수 있다. 프로세서(160)는 입력된 설정 값들을 제어부(355)에 전송할 수 있다. 제어부(355)는 입력받은 상기 설정 값들과 엔코더(250)로부터 수신한 전기적 신호에 의해 얻어진 거리 값을 비교하여 거리 조절부(130)가 어떻게 동작할 지를 결정할 수 있다. The controller 355 may control the distance controller 130 to move the focusing point P within a range satisfying Equation 1. In this case, values such as H, D, δ, and the like may be input by the input interface unit of the processor 160. The processor 160 may transmit the input setting values to the controller 355. The controller 355 may determine how the distance controller 130 operates by comparing the input values with the distance values obtained by the electrical signal received from the encoder 250.
예를 들어, 제어부(355)가 프로세서(160)로부터 시점 H-D-δ= 0.64mm, 종점 H+D+δ= 0.96mm, 등속 운동 구간에서 등속도 V1 = 0.2mm/s을 전달받으면, 제어부(355)는 포커싱 포인트(P)의 높이가 H-D-δ= 0.64mm 지점이 되도록, 거리 조절부(130)에 제어신호를 전송할 수 있다. 그리고, 포커싱 포인트(P)의 높이가 H-D-δ= 0.64mm가 되면 제어부(355)는 프로세서(160)에 이동종료 인터럽트를 전송할 수 있다. 또한, 제어부(355)는 프로세서(160)로부터 오터포커싱 시작 명령을 수신하면, 엔코더(250)에서 수신하는 전기적 신호에 기초하여, 포커싱 포인트(P)의 높이가 H-D-δ = 0.64mm 지점에서 등가속도 a(=V1/Δt) 0.667mm/s2로 속도 0에서 속도 V1 0.2mm/s까지 가속하여 속도 V1 0.2mm/s 로 H-D = 0.7mm 지점부터 H+D = 0.9mm지점까지 이동 후 등가속도 -a (=-0.667mm/s2)로 감속하여 높이 H+D+δ = 0.96mm지점에서 멈추도록 할 수 있다. 그리고, 제어부(355)는 프로세서(160)에 이동종료 인터럽트를 전송할 수 있다. 그리고, 포커싱 포인트(P)의 높이가 H-D = 0.7mm 지점부터 H+D = 0.9mm까지 변하는 동안, 제어부(355)는 5um 간격으로 펄스 신호를 발생시킬 수 있다. 그리고, 촬영부(140)는 상기 펄스 신호에 동기화 되어 대상물(10)을 촬영할 수 있다. 상기 수치들은 예시적인 것들에 불과하며 실시예에 따라 변동될 수 있는 것들이다.For example, when the control unit 355 receives the start time HD-δ = 0.64mm, the end point H + D + δ = 0.96mm, and the constant velocity V1 = 0.2mm / s from the processor 160, the control unit ( 355 may transmit a control signal to the distance adjuster 130 such that the height of the focusing point P becomes a point HD-δ = 0.64mm. When the height of the focusing point P becomes H-D-δ = 0.64 mm, the controller 355 may transmit a movement end interrupt to the processor 160. In addition, when the controller 355 receives the autofocus focusing command from the processor 160, the height of the focusing point P is equivalent at the point HD-δ = 0.64mm based on the electrical signal received by the encoder 250. Acceleration speed after accelerating from speed 0 to speed V1 0.2mm / s at speed a (= V1 / Δt) 0.667mm / s2, moving from HD = 0.7mm to H + D = 0.9mm at speed V1 0.2mm / s Decrease to -a (= -0.667mm / s2) to stop at height H + D + δ = 0.96mm. In addition, the controller 355 may transmit a movement end interrupt to the processor 160. In addition, while the height of the focusing point P varies from a point H-D = 0. 7mm to H + D = 0. 9mm, the controller 355 may generate a pulse signal at intervals of 5um. In addition, the photographing unit 140 may capture the object 10 in synchronization with the pulse signal. The above figures are merely exemplary and may vary depending on the embodiment.
도 9는 시간에 따른 포커싱 포인트(P)의 높이 변화를 나타낸 도면이다.9 is a diagram illustrating a change in height of the focusing point P with time.
도 9에서 세로축은 포커싱 포인트(P)의 높이를, 가로축은 시간을 나타낸다. 편의상 오토포커싱이 시작되는 상태를 원점으로 나타냈다.In FIG. 9, the vertical axis represents the height of the focusing point P, and the horizontal axis represents time. For the sake of convenience, the state in which autofocusing starts is shown as the origin.
프로세서(160)는 촬영부(140)로부터 수신한 N개의 이미지들의 선명도를 평가할 수 있다. 그리고, 프로세서(160)는 N 개의 이미지들 가운데, 선명도가 가장 높은 i번째 이미지를 결정할 수 있다. 또한, 프로세서(160)는 제어부(355) 또는 엔코더(250)로부터 수신한 신호로부터 i번째 촬영이 이루어진 높이(Hi)를 알 수 있다. 그리고, 상기 높이(Hi)로 포커싱 포인트(P)가 움직이도록 할 수 있다. The processor 160 may evaluate the sharpness of the N images received from the photographing unit 140. The processor 160 may determine an i-th image having the highest sharpness among the N images. In addition, the processor 160 may know the height H i at which the i th image is taken from the signal received from the controller 355 or the encoder 250. Then, the focusing point (P) to the height (H i) can be actuated.
도 9를 참조하면, t0에서 t1까지 포커싱 포인트(P)가 가속운동 할 수 있다. 예시적으로, 시각 t0 에서 포커싱 포인트(P)의 높이는 그래프 상에서는 0이나 실제로는 수학식 1에서 나타낸 H-D- δ가 될 수 있다. 또한, 시각 t1 에서 포커싱 포인트(P)의 높이는 H-D가 될 수 있다. 가속운동에 소요되는 시간 Δt는 등속도의 크기 V1과 가속도 a에 따라 달라질 수 있다. Referring to FIG. 9, the focusing point P may accelerate from t 0 to t 1 . For example, the height of the focusing point P at time t 0 may be 0 on the graph but may actually be HD-δ shown in Equation (1). Also, the height of the focusing point P at time t 1 may be HD. The time Δt required for the acceleration motion may vary depending on the magnitude V1 of the constant velocity and the acceleration a.
시간 t1 내지 tN 구간에서는 포커싱 포인트(P)가 등속 운동할 수 있다. 등속운동 구간에서 포커싱 포인트(P)의 높이는 H-D에서 H+D까지 변할 수 있다. 포커싱 포인트(P)가 등속운동하는 구간에서 포커싱 포인트(P)가 소정의 간격(Δh)만큼 움직일 때 마다, 촬영부(140)가 대상물(10)의 이미지를 촬영할 수 있다. 소정의 간격(Δh)이 포커싱 광학계(120)의 심도(DOF)보다 작게 설정됨으로써, 심도(DOF) 안에서 적어도 한번의 촬영이 이루어질 수 있다.In the period t 1 to t N , the focusing point P may move at a constant speed. In the constant velocity section, the height of the focusing point P may vary from HD to H + D. Each time the focusing point P is moved by a predetermined interval Δh in the period in which the focusing point P is in constant motion, the photographing unit 140 may capture an image of the object 10. Since the predetermined interval Δh is set smaller than the depth of field DOF of the focusing optical system 120, at least one imaging may be performed in the depth of field DOF.
등속도 운동 구간에서 일정한 거리 간격으로 촬영이 이루어지는 바, 대상 물(10)의 이미지 촬영은 일정한 시간간격(1/f)으로 이루어질 수 있다. 촬영부(140)가 프로세서(160)에 이미지 데이터를 전송하는데 걸리는 시간은 상기 시간간격(1/f)보다 작을 수 있다. 도 9에서 ti는 등속도 구간에서 i번째 촬영이 이루어진 시각을 의미한다. 또한, Hi는 등속도 구간에서 i번째 촬영이 이루어졌을 때의 포커싱 포인트(P)의 높이를 의미한다. 등속도 구간 동안 N번의 촬영이 이루어진 후, 포커싱 포인트(P)는 감속운동 할 수 있다. 포커싱 포인트(P)는 높이 H+D+δ에서 정지할 수 있다. Since the photographing is performed at a constant distance interval in the constant velocity movement section, the photographing of the object 10 may be performed at a constant time interval (1 / f). The time taken by the photographing unit 140 to transmit the image data to the processor 160 may be smaller than the time interval 1 / f. In FIG. 9, t i means the time at which the i-th image was taken in the constant velocity section. In addition, H i means the height of the focusing point (P) when the i-th shooting is taken in the constant velocity section. After N shots are taken during the constant velocity section, the focusing point P may be decelerated. The focusing point P may stop at height H + D + δ.
도 10은 포커싱 포인트(P)의 높이와 이미지의 선명도 사이의 관계를 나타낸 그래프이다.10 is a graph showing the relationship between the height of the focusing point P and the sharpness of the image.
도 10을 참조하면, i번째 촬영 높이 Hi에서의 선명도 Ci가 가장 높은 값을 가질 수 있다. 프로세서(160)는 여러 선명도 값들 가운데 최대 선명도 Ci 값을 가지는 이미지가 촬영된 높이 Hi를 오토 포커싱 거리로 결정할 수 있다. 프로세서(160)가 오토 포커싱 거리를 결정하는 것이 이에 제한되는 것은 아니다. 예를 들어, 프로세서(160)는 Hi에 인접한 Hi-1, Hi+1 높이 각각에서의 선명도 값들 Ci -1, Ci +1을 더 고려하여 오토 포커싱 거리를 보정할 수 있다.Referring to FIG. 10, the sharpness C i at the i-th photographing height H i may have the highest value. The processor 160 may determine the height H i , at which the image having the maximum sharpness C i value among the various sharpness values, is taken as the auto focusing distance. The determination of the auto focusing distance by the processor 160 is not limited thereto. For example, the processor 160 may further consider the contrast values C i -1, C i +1 in each adjacent H i-1, H i + 1 to the height H i to correct the auto-focusing distance.
도 11은 프로세서(160)가 오토 포커싱 거리를 보정하는 것을 나타낸 도면이다.11 is a diagram illustrating that the processor 160 corrects an auto focusing distance.
도 11을 참조하면, 프로세서(160)는 최대 선명도(Cmax)의 이미지가 획득되는 높이 Hmax를 계산해낼 수 있다. 도 11에서 나타낸 바와 같이, 대상물(10)의 이미지가 거리 변화에 대해 불연속 적으로 촬영되기 때문에, 이미지의 선명도가 가장 높은 높이 Hmax에서 이미지의 촬영이 이루어지지 않을 수도 있다. 다만, 실제 Hi-1, Hi, Hi+1 사이 간격이 매우 좁기 때문에, 포커싱 포인트(P)의 높이가 Hi-1로부터 Hi+ 1 로 변하는 동안, 포커싱 포인트(P)의 높이와 이미지의 선명도 사이 관계를 이차함수로 근사할 수 있다. 그리고, 상기 근사법에 의해 Hi-1, Hi, Hi+ 1 과 Ci -1, Ci , Ci +1 는 수학식 6 내지 수학식 9로 나타낼 수 있다.Referring to FIG. 11, the processor 160 may calculate a height H max at which an image of maximum sharpness C max is obtained. As shown in FIG. 11, since the image of the object 10 is taken discontinuously with respect to the distance change, the image may not be taken at the height H max having the highest sharpness of the image. However, since the interval between H i-1 , H i, H i + 1 is very narrow, the height of the focusing point P and the height of the focusing point P are changed while the height of the focusing point P is changed from H i -1 to H i + 1 . The relationship between the sharpness of an image can be approximated by a quadratic function. And, H i-1 by the approximation, H i, H i + 1 and C i -1, C i, C i +1 can be expressed by equation (6) to Equation (9).
Figure PCTKR2016010138-appb-M000006
Figure PCTKR2016010138-appb-M000006
Figure PCTKR2016010138-appb-M000007
Figure PCTKR2016010138-appb-M000007
Figure PCTKR2016010138-appb-M000008
Figure PCTKR2016010138-appb-M000008
그리고 최대 선명도 Cmax의 이미지를 얻을 수 있는 높이 Hmax는 수학식 6 내지 수학식 8에서 나타낸 이차함수의 변곡점인 -b/2a로 얻을 수 있다. 수학식 6 내지 수학식 8로부터 높이 Hmax = -b/2a 를 구하면 수학식 9으로 나타낼 수 있다.The height H max for obtaining the image of the maximum sharpness C max may be obtained as −b / 2a, which is the inflection point of the quadratic function shown in Equations 6 to 8. If the height H max = -b / 2a is obtained from the equations (6) to (8), it can be expressed by the equation (9).
Figure PCTKR2016010138-appb-M000009
Figure PCTKR2016010138-appb-M000009
프로세서(160)는 높이 Hi-1, Hi, Hi+1 각각에서 얻어진 이미지의 선명도 Ci -1, Ci, Ci +1 와 상기 수학식 10으로부터 최적의 포커싱 거리 Hmax를 계산하고 상기 높이 Hmax를 오토 포커싱 거리로 결정할 수 있다. 프로세서(160)가 오토 포커싱 거리(Hmax)를 결정하면, 포커싱 포인트(P)와 대상물(10)의 지지면 사이 거리가 Hmax가 되도록 거리 조절부(130)가 대상물(10)과 포커싱 광학계(120) 사이의 거리를 변경할 수 있다. Processor 160 calculates the optimal focusing distance H max from the sharpness C i -1, C i, C i +1 and the equation (10) of the image obtained in each of the height H i-1, H i, H i + 1 The height H max can be determined as the auto focusing distance. When the processor 160 determines the auto focusing distance H max , the distance controller 130 may focus on the object 10 and the focusing optical system such that the distance between the focusing point P and the support surface of the object 10 becomes H max. The distance between 120 can be changed.
이상에서 도 1 내지 도 11을 참조하여 예시적인 실시예들에 따른 촬영장치(100, 200, 300)에 관해 설명하였다. 이하에서는 상기 촬영장치(100, 200, 300)를 이용한 촬영방법에 관하여 설명한다. 이하에서 설명하는 촬영방법에는 전술한 촬영장치(100, 200, 300)의 기술적 특징들이 모두 적용될 수 있으며, 중복되는 설명은 생략한다.In the above, the imaging apparatuses 100, 200, and 300 according to the exemplary embodiments have been described with reference to FIGS. 1 to 11. Hereinafter, a photographing method using the photographing apparatus 100, 200, 300 will be described. In the photographing method described below, all the technical features of the above-described photographing apparatuses 100, 200, and 300 may be applied, and a redundant description thereof will be omitted.
도 12는 예시적인 실시예에 따른 촬영방법을 나타낸 흐름도이다.12 is a flowchart illustrating a photographing method according to an exemplary embodiment.
도 12를 참조하면, 촬영방법은, 광을 조사하는 단계(S1110)와, 포커싱 광학계(120)를 이용하여 대상물(10)에서 반사된 광을 집광하는 단계(S1120), 포커싱 광학계(120)와 대상물(10) 사이의 거리를 조절하는 단계(S1130) 및 포커싱 광학계(120)와 대상물(10) 사이의 거리가 소정의 간격만큼 변할 때 마다 대상물(10)의 이미지를 촬영하는 단계(S1140)를 포함할 수 있다. Referring to FIG. 12, the photographing method includes: irradiating light (S1110), condensing light reflected from the object 10 using the focusing optical system 120 (S1120), and the focusing optical system 120. Adjusting the distance between the object 10 (S1130) and photographing an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval (S1140). It may include.
S1110 단계에서, 광원(110)을 이용하여 대상물(10)에 광을 조사할 수 있다. 광원(110)은 소정의 노출시간 E에 맞추어 광의 조사 시간을 조절할 수 있다. 다른 예로, 광원(110)은 지속적으로 광을 조사하고 촬영부(140)의 조리개가 상기 노출시간 E에 맞춰 동작할 수도 있다. 또한, 노출시간 E는 수학식 4에 따라 촬영부(140)의 픽셀크기와 배율 및 포커싱 광학계(120)와 대상물(10) 사이 최대 진동속도를 고려하여 결정될 수 있다.In operation S1110, the light 10 may be irradiated onto the object 10 using the light source 110. The light source 110 may adjust the irradiation time of the light in accordance with the predetermined exposure time E. As another example, the light source 110 may continuously radiate light, and the aperture of the photographing unit 140 may operate in accordance with the exposure time E. In addition, the exposure time E may be determined in consideration of the pixel size and magnification of the photographing unit 140 and the maximum vibration speed between the focusing optical system 120 and the object 10 according to Equation 4.
S1120 단계에서, 포커싱 광학계(120)를 이용하여 대상물(10)에서 반사된 광을 집광할 수 있다. 포커싱 광학계(120)는 소정의 심도(DOF)를 가질 수 있다. 포커싱 포인트(P)가 상기 심도에 위치하는 지 여부에 따라 포커싱 광학계(120)를 통과한 광이 형성하는 이미지의 선명도가 달라질 수 있다.In operation S1120, the light reflected from the object 10 may be collected using the focusing optical system 120. The focusing optical system 120 may have a predetermined depth. The sharpness of the image formed by the light passing through the focusing optical system 120 may vary depending on whether the focusing point P is located at the depth.
S1130 단계에서, 포커싱 광학계(120)와 대상물(10) 사이의 상대적인 거리를 변경시킬 수 있다. S1130단계에서, 거리 조절부(130)는 포커싱 포인트(P)가 움직이는 범위가 상기 수학식 1 및 수학식 2를 만족하도록 할 수 있다. In operation S1130, the relative distance between the focusing optical system 120 and the object 10 may be changed. In operation S1130, the distance adjusting unit 130 may allow the moving range of the focusing point P to satisfy Equations 1 and 2 above.
S1140 단계에서, 포커싱 포인트(P)가 움직이는 동안 촬영부(140)는 복수 회에 걸쳐 대상물(10)의 이미지를 촬영할 수 있다. 촬영부(140)는 포커싱 광학계(120)와 대상물(10) 사이의 거리가 소정의 간격(Δh)만큼 변할 때 마다 대상물(10)의 이미지를 촬영할 수 있다. 또한, 상기 소정의 간격(Δh)은 포커싱 광학계(120)의 심도(DOF)보다 작게 설정될 수 있다. 이를 통해 촬영부(140)가 움직이는 환경에서 촬영하더라도 적어도 한 번은 선명한 이미지를 촬영할 수 있다.In operation S1140, while the focusing point P moves, the photographing unit 140 may photograph an image of the object 10 a plurality of times. The photographing unit 140 may photograph an image of the object 10 whenever the distance between the focusing optical system 120 and the object 10 changes by a predetermined interval Δh. In addition, the predetermined interval Δh may be set smaller than the depth of field DOF of the focusing optical system 120. As a result, even when the photographing unit 140 is photographed in a moving environment, at least one sharp image may be captured.
도 13 은 다른 예시적인 실시예에 따른 촬영방법을 나타낸 흐름도이다.Fig. 13 is a flowchart illustrating a photographing method according to another exemplary embodiment.
도 13을 참조하면, 촬영방법은 포커싱 광학계(120)와 대상물(10) 사이의 거리 변화에 따라 펄스 신호를 생성하는 단계(S1135)를 더 포함할 수 있다. 펄스 신호는 도 5에서 나타낸 엔코더(250)에 의해 발생될 수 있다. 다른 예로, 엔코더(250)의 전기적 신호를 수신한 도 7의 제어부(355)가 펄스 신호를 발생시킬 수도 있다. 상기 펄스 신호에 기반하여, 거리 조절부(130)의 동작 제어가 이루어질 수 있다. 또한, 상기 펄스 신호에 기반하여 촬영부(140)가 동기화 될 수 있다.Referring to FIG. 13, the photographing method may further include generating a pulse signal according to a change in distance between the focusing optical system 120 and the object 10 (S1135). The pulse signal may be generated by the encoder 250 shown in FIG. As another example, the controller 355 of FIG. 7 receiving the electrical signal of the encoder 250 may generate a pulse signal. Based on the pulse signal, operation control of the distance controller 130 may be performed. In addition, the photographing unit 140 may be synchronized based on the pulse signal.
도 14는 또 다른 예시적인 실시예에 따른 촬영방법을 나타낸 흐름도이다.Fig. 14 is a flowchart showing a photographing method according to another exemplary embodiment.
도 14를 참조하면, 촬영방법은, 촬영부(140)에서 촬영된 이미지들의 선명도를 추출하는 단계(S1150)와 상기 이미지들의 선명도 값들로부터 포커싱 거리를 추출하는 단계(S1160)를 더 포함할 수 있다.Referring to FIG. 14, the photographing method may further include extracting sharpness of the images photographed by the photographing unit 140 (S1150) and extracting a focusing distance from the sharpness values of the images (S1160). .
S1150 단계에서, 프로세서(160)는 촬영부(140)로부터 이미지들을 수신하여 이미지들 각각의 선명도를 평가할 수 있다. 그리고, 평가한 이미지들의 선명도 각각을 수치로 환산할 수 있다. In operation S1150, the processor 160 may receive images from the photographing unit 140 and evaluate the sharpness of each of the images. Then, each of the sharpness of the evaluated images can be converted into a numerical value.
S1160 단계에서, 프로세서(160)는 이미지들의 선명도 값들로부터 포커싱 거리를 결정할 수 있다. 일 예로, 가장 선명도가 높은 i번째 촬영이 이루어진 높이 Hi를 포커싱 거리로 결정할 수 있다. 다른 예로, 도 11에서 나타낸 것과 같이, 프로세서(160)는 높이 Hi-1, Hi, Hi+1 각각에서 얻어진 이미지의 선명도 Ci -1, Ci , Ci +1 와 상기 수학식 10으로부터 최적의 포커싱 거리 Hmax를 계산하고 상기 높이 Hmax를 오토 포커싱 거리로 결정할 수도 있다.In operation S1160, the processor 160 may determine a focusing distance from the sharpness values of the images. As an example, the height H i at which the i-th shot with the highest sharpness is taken may be determined as the focusing distance. As another example, processor 160 may sharpness C i -1, C i, C i +1 and the equation of the image obtained in each of the height H i-1, H i, H i + 1 , as shown in Figure 11 The optimal focusing distance H max may be calculated from 10 and the height H max may be determined as the auto focusing distance.
이상에서 도 1 내지 도 14를 참조하여, 예시적인 실시예들에 따른 촬영장치(100, 200, 300) 및 촬영장치(100, 200, 300)를 이용한 촬영방법에 관하여 설명하였다. 실시예들에 따르면, 대상물(10)과 포커싱 광학계(120) 사이의 거리가 변하는 동안 오토 포커싱 작업이 이루어지면서 오토 포커싱에 필요한 시간이 단축될 수 있다. 또한, 동적으로 오토 포커싱이 이루어 짐에도 불구하고 적어도 하나의 이미지가 포커싱 광학계(120)의 심도 범위에서 촬영되도록 함으로써 선명한 이미지를 얻을 수 있다. 또한, 이미지들의 선명도 값들로부터 정확한 포커싱 거리를 보정함으로써 오토 포커싱 작업의 정확도가 높아질 수 있다.In the above, with reference to FIGS. 1 to 14, a photographing method using the photographing apparatus 100, 200, 300 and the photographing apparatus 100, 200, 300 according to the exemplary embodiments has been described. According to embodiments, while the auto focusing operation is performed while the distance between the object 10 and the focusing optical system 120 is changed, the time required for auto focusing may be shortened. In addition, although auto focusing is performed dynamically, a clear image may be obtained by allowing at least one image to be captured in a depth range of the focusing optical system 120. In addition, the accuracy of the auto focusing operation can be increased by correcting the correct focusing distance from the sharpness values of the images.
이상의 설명에서 많은 사항들이 구체적으로 기재되어 있으나, 그들은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 때문에 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 특허 청구범위에 기재된 기술적 사상에 의해 정하여져야 한다.While many details are set forth in the foregoing description, they should be construed as illustrative of preferred embodiments rather than to limit the scope of the invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the technical spirit described in the claims.

Claims (20)

  1. 광을 대상물로 조사하는 광원;A light source for irradiating light onto the object;
    상기 대상물에서 반사된 광의 경로를 변경하는 포커싱 광학계;A focusing optical system for changing a path of light reflected from the object;
    상기 포커싱 광학계에 의해 형성된 상기 대상물의 이미지를 촬영하는 촬영부; 및A photographing unit which photographs an image of the object formed by the focusing optical system; And
    상기 포커싱 광학계와 상기 대상물 사이의 거리를 조절하는 거리 조절부;를 포함하며,And a distance controller configured to adjust a distance between the focusing optical system and the object.
    상기 촬영부는, 상기 포커싱 광학계와 상기 대상물 사이의 거리가 소정의 간격만큼 변할 때 마다 상기 대상물의 이미지를 촬영하되, 상기 소정의 간격은 상기 포커싱 광학계의 심도(Depth of field)의 크기보다 작게 설정되는 촬영장치.The photographing unit captures an image of the object whenever the distance between the focusing optical system and the object is changed by a predetermined interval, wherein the predetermined interval is set smaller than a depth of field of the focusing optical system. Shooting device.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 촬영부는 글로벌 셔터(global shutter) 방식으로 상기 대상물의 이미지를 촬영하는 촬영장치.The photographing unit is a photographing apparatus for photographing the image of the object by a global shutter (global shutter) method.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 거리 조절부는 적어도 일 시간 구간에서 상기 대상물과 상기 포커싱 광학계 사이의 거리를 등속도로 변화시키는 촬영장치.And the distance adjusting unit changes the distance between the object and the focusing optical system at a constant speed in at least one time interval.
  4. 제 3 항에 있어서,The method of claim 3, wherein
    상기 거리 조절부가 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 속도는 수학식 1을 만족하는 촬영장치.And a speed at which the distance controller changes the distance between the object and the focusing optical system satisfies Equation 1.
    Figure PCTKR2016010138-appb-I000007
    .... 수학식 1
    Figure PCTKR2016010138-appb-I000007
    .... Equation 1
    (V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, f=등속도 구간에서 촬영부의 시간당 촬영횟수, DOF=포커싱 광학계의 심도 크기)(V1 = size of the distance change speed between the object and the focusing optics, f = number of shots per hour in the constant velocity section, DOF = depth of the focusing optics)
  5. 제 1 항에 있어서,The method of claim 1,
    상기 거리 조절부가 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 속도는 수학식 2를 만족하는 촬영장치.And a speed at which the distance controller changes the distance between the object and the focusing optical system satisfies Equation 2.
    V1 < DOF / E .........수학식 2V1 <DOF / E ......... Equation 2
    (V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, DOF=포커싱 광학계의 심도, E= 촬영부의 프레임당 노출시간)(V1 = magnitude of the speed of change of distance between the object and the focusing optical system, DOF = depth of focusing optical system, E = exposure time per frame of the photographing unit)
  6. 제 1 항에 있어서,The method of claim 1,
    상기 촬영부의 프레임당 노출시간은 수학식 3을 만족하는 촬영장치.The exposure time per frame of the photographing unit satisfies Equation 3.
    .........수학식 3 ......... Equation 3
    (E= 촬영부의 프레임당 노출시간, Apixel = 촬영부의 픽셀 면적, M = 배율, V2max= 촬영부와 대상물 사이의 상대적인 진동속도의 최대값)(E = exposure time per frame of the imager, A pixel = pixel area of the imager, M = magnification, V2 max = maximum value of the relative vibration speed between the imager and the object)
  7. 제 1 항에 있어서,The method of claim 1,
    상기 대상물과 상기 촬영부 사이의 거리 변화를 감지하여 전기적 신호를 발생시키는 엔코더;를 더 포함하는 촬영장치.And an encoder configured to generate an electrical signal by detecting a change in distance between the object and the photographing unit.
  8. 제 7 항에 있어서,The method of claim 7, wherein
    상기 엔코더가 발생시키는 상기 전기적 신호에 기초하여 상기 촬영부에 대한 동기화 신호를 생성하는 제어부;를 더 포함하는 촬영장치.And a controller configured to generate a synchronization signal for the photographing unit based on the electrical signal generated by the encoder.
  9. 제 1 항에 있어서,The method of claim 1,
    상기 촬영부가 촬영한 상기 대상물의 이미지들을 수신하여, 상기 이미지들의 선명도를 추출하는 프로세서;를 더 포함하는 촬영장치.And a processor configured to receive images of the object photographed by the photographing unit, and extract sharpness of the images.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 프로세서는 상기 선명도가 가장 높은 이미지가 촬영된 상기 대상물과 상기 포커싱 광학계 사이의 거리를 포커싱 거리로 결정하는 촬영장치.And the processor determines a distance between the object and the focusing optical system on which the sharpest image is captured as a focusing distance.
  11. 제 9 항에 있어서,The method of claim 9,
    상기 프로세서는, 상기 이미지들의 선명도 값들로부터 수학식 4에 따라 포커싱 거리를 결정하는 촬영장치.And the processor determines a focusing distance according to Equation 4 from the sharpness values of the images.
    Figure PCTKR2016010138-appb-I000009
    .... 수학식 4
    Figure PCTKR2016010138-appb-I000009
    .... Equation 4
    (H= 포커싱 상태에서 포커싱 광학계와 대상물 사이의 거리, Hi = 선명도가 가장 높게 측정된 i번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi-1 = i-1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi+1 = i+1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Ci = 선명도가 가장 높게 측정된 i번째 촬영 이미지의 선명도 값, Ci -1 = i-1번째 촬영 이미지의 선명도 값, Ci +1 = 선명도가 i+1번째 촬영 이미지의 선명도 값)(H = distance between the focusing optics and the object in the focusing state, H i = distance between the focusing optics and the object in the i-th shot with the highest sharpness measured, H i-1 = focusing optics in the i-1th shot) Distance between the object and H i + 1 = distance between the focusing optics and the object in the i + 1th shot, C i = sharpness value of the i-th image measured with the highest sharpness, C i -1 = i- Sharpness value of the first shot image, C i +1 = Sharpness value of the i + 1th shot image)
  12. 제 1 항에 있어서,The method of claim 1,
    상기 거리 조절부가 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 구간은 수학식 5 및 수학식 6에 의해 결정되는 촬영장치.And a section in which the distance controller changes the distance between the object and the focusing optical system is determined by Equation 5 and Equation 6.
    H-D-δ < X < H+D+δ ....... 수학식 5H-D-δ <X <H + D + δ ....... Equation 5
    Figure PCTKR2016010138-appb-I000010
    ..... 수학식 6
    Figure PCTKR2016010138-appb-I000010
    ..... Equation 6
    (X= 대상물의 지지과 포커싱 광학계의 포커싱 포인트 사이의 거리, H= 대상물의 예상 두께, D= 대상물의 두께 편차, δ= 가속 구간, V1=최대 속도, a= 가속도)(X = distance between the object's support and the focusing point of the focusing optics, H = expected thickness of the object, D = thickness deviation of the object, δ = acceleration interval, V1 = maximum velocity, a = acceleration)
  13. 대상물에 광을 조사하는 단계;Irradiating light onto the object;
    포커싱 광학계를 이용하여 상기 대상물에서 반사된 광을 집광하는 단계;Focusing light reflected from the object using a focusing optical system;
    상기 포커싱 광학계와 상기 대상물 사이의 거리를 조절하는 단계; 및Adjusting a distance between the focusing optics and the object; And
    촬영부가 상기 포커싱 광학계와 상기 대상물 사이의 거리가 소정의 간격만큼 변할 때 마다 상기 대상물의 이미지를 촬영하는 단계;를 포함하며,And a photographing unit photographing an image of the object whenever the distance between the focusing optical system and the object changes by a predetermined interval.
    상기 소정의 간격은 상기 포커싱 광학계의 심도보다 작게 설정되는 촬영방법.And the predetermined interval is set smaller than the depth of the focusing optical system.
  14. 제 13 항에 있어서,The method of claim 13,
    상기 거리를 조절하는 단계는, 적어도 일 시간구간에서 상기 대상물과 상기 포커싱 광학계 사이의 거리를 등속도로 변화시키는 촬영방법.The adjusting of the distance may include changing the distance between the object and the focusing optical system at a constant speed in at least one time interval.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 거리를 조절하는 단계는, 상기 대상물과 상기 포커싱 광학계 사이의 거리를 등속도로 변화시키는 시간구간에서 상기 촬영부는 일정한 시간간격으로 상기 대상물의 이미지를 촬영하며,In the adjusting of the distance, the photographing unit captures an image of the object at a predetermined time interval in a time interval in which the distance between the object and the focusing optical system is changed at a constant speed.
    상기 대상물과 상기 포커싱 광학계 사이의 거리가 변하는 속도는 수학식 1을 만족하는 촬영방법.And a speed at which the distance between the object and the focusing optical system is changed satisfies Equation (1).
    Figure PCTKR2016010138-appb-I000011
    .... 수학식 1
    Figure PCTKR2016010138-appb-I000011
    .... Equation 1
    (V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, f=등속도 구간에서 촬영부의 시간당 촬영횟수, DoF=포커싱 광학계의 심도, α는 0.1<α<0.5를 만족하는 임의의 실수)(V1 = magnitude of the speed of change of distance between the object and the focusing optical system, f = number of shots per hour in the constant velocity section, DoF = depth of focusing optical system, and α is any real number satisfying 0.1 <α <0.5)
  16. 제 14 항에 있어서,The method of claim 14,
    상기 거리를 조절하는 단계는, 상기 대상물과 상기 포커싱 광학계 사이의 거리를 변화시키는 속도가 수학식 2를 만족하도록 하는 촬영방법.In the adjusting of the distance, the speed of changing the distance between the object and the focusing optical system satisfies Equation 2.
    V1 < DOF / E .........수학식 2V1 <DOF / E ......... Equation 2
    (V1=대상물과 포커싱 광학계 사이의 거리 변화 속도의 크기, DOF=포커싱 광학계의 심도, E= 촬영부의 프레임당 노출시간)(V1 = magnitude of the speed of change of distance between the object and the focusing optical system, DOF = depth of focusing optical system, E = exposure time per frame of the photographing unit)
  17. 제 14 항에 있어서,The method of claim 14,
    상기 대상물과 상기 촬영부 사이의 거리 변화를 감지하여 전기적 신호를 발생시키는 단계;를 더 포함하는 촬영방법.And detecting the change in distance between the object and the photographing unit to generate an electrical signal.
  18. 제 17 항에 있어서,The method of claim 17,
    상기 전기적 신호에 기초하여 상기 촬영부에 대한 동기화 신호를 생성하는 단계;를 더 포함하는 촬영방법.And generating a synchronization signal for the photographing unit based on the electrical signal.
  19. 제 14 항에 있어서,The method of claim 14,
    상기 촬영부가 촬영한 상기 대상물의 이미지들을 수신하여, 상기 이미지들의 선명도를 추출하는 단계;를 더 포함하는 촬영방법.And extracting sharpness of the images by receiving images of the object photographed by the photographing unit.
  20. 제 19 항에 있어서,The method of claim 19,
    상기 이미지들의 선명도 값들로부터 수학식 3에 따라 포커싱 거리를 결정하는 단계;를 더 포함하는 촬영방법.And determining a focusing distance according to Equation 3 from the sharpness values of the images.
    Figure PCTKR2016010138-appb-I000012
    .... 수학식 3
    Figure PCTKR2016010138-appb-I000012
    .... Equation 3
    (H= 포커싱 상태에서 포커싱 광학계와 대상물 사이의 거리, Hi = 선명도가 가장 높게 측정된 i번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi-1 = i-1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Hi+1 = i+1번째 촬영에서의 포커싱 광학계와 대상물 사이의 거리, Ci = 선명도가 가장 높게 측정된 i번째 촬영 이미지의 선명도 값, Ci -1 = i-1번째 촬영 이미지의 선명도 값, Ci +1 = 선명도가 i+1번째 촬영 이미지의 선명도 값)(H = distance between the focusing optics and the object in the focusing state, H i = distance between the focusing optics and the object in the i-th shot with the highest sharpness measured, H i-1 = focusing optics in the i-1th shot) Distance between the object and H i + 1 = distance between the focusing optics and the object in the i + 1th shot, C i = sharpness value of the i-th image measured with the highest sharpness, C i -1 = i- Sharpness value of the first shot image, C i +1 = Sharpness value of the i + 1th shot image)
PCT/KR2016/010138 2016-02-16 2016-09-09 Photographing apparatus and photographing method WO2017142154A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160017859A KR101850363B1 (en) 2016-02-16 2016-02-16 Photographing apparatus and photographing method
KR10-2016-0017859 2016-02-16

Publications (1)

Publication Number Publication Date
WO2017142154A1 true WO2017142154A1 (en) 2017-08-24

Family

ID=59626189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/010138 WO2017142154A1 (en) 2016-02-16 2016-09-09 Photographing apparatus and photographing method

Country Status (3)

Country Link
KR (1) KR101850363B1 (en)
TW (1) TWI618971B (en)
WO (1) WO2017142154A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080101715A (en) * 2007-05-16 2008-11-21 오츠카 일렉트로닉스 가부시키가이샤 Optical characteristic mesuring apparatus using light reflected from object to be measured and focus adjusting method therefor
JP2009246774A (en) * 2008-03-31 2009-10-22 Canon Inc Imaging apparatus, control method, and program
KR20110082913A (en) * 2010-01-12 2011-07-20 삼성전자주식회사 Auto focus method and apparatus of digital camera
US20130322863A1 (en) * 2012-06-01 2013-12-05 Hon Hai Precision Industry Co., Ltd. Camera and auto-focusing method of the camera
KR20150135771A (en) * 2013-03-29 2015-12-03 소니 주식회사 Image-capturing device, solid-state image-capturing element, camera module, electronic device, and image-capturing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794056B (en) * 2010-02-05 2011-07-13 明基电通有限公司 Photographing setting control method and photographing device
JP5110332B2 (en) * 2010-05-24 2012-12-26 コニカミノルタアドバンストレイヤー株式会社 Automatic focus adjustment device
JP5669529B2 (en) * 2010-11-17 2015-02-12 オリンパス株式会社 Imaging apparatus, program, and focus control method
JP2012189544A (en) * 2011-03-14 2012-10-04 Toray Eng Co Ltd Apparatus and method for inspecting film thickness unevenness
US10001622B2 (en) * 2011-10-25 2018-06-19 Sanford Burnham Medical Research Institute Multifunction autofocus system and method for automated microscopy
TWM434196U (en) * 2012-03-20 2012-07-21 Hsintek Optical Instr Corp Continuous zoom imaging device for dual-telecentric interferometer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080101715A (en) * 2007-05-16 2008-11-21 오츠카 일렉트로닉스 가부시키가이샤 Optical characteristic mesuring apparatus using light reflected from object to be measured and focus adjusting method therefor
JP2009246774A (en) * 2008-03-31 2009-10-22 Canon Inc Imaging apparatus, control method, and program
KR20110082913A (en) * 2010-01-12 2011-07-20 삼성전자주식회사 Auto focus method and apparatus of digital camera
US20130322863A1 (en) * 2012-06-01 2013-12-05 Hon Hai Precision Industry Co., Ltd. Camera and auto-focusing method of the camera
KR20150135771A (en) * 2013-03-29 2015-12-03 소니 주식회사 Image-capturing device, solid-state image-capturing element, camera module, electronic device, and image-capturing method

Also Published As

Publication number Publication date
KR101850363B1 (en) 2018-04-20
TW201730658A (en) 2017-09-01
TWI618971B (en) 2018-03-21
KR20170096456A (en) 2017-08-24

Similar Documents

Publication Publication Date Title
WO2018066868A1 (en) Device for measuring three-dimensional shape and method for measuring same
WO2013022235A2 (en) Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same
WO2015016619A1 (en) Electronic apparatus, method of controlling the same, and image reproducing apparatus and method
WO2016036059A1 (en) Photographing apparatus and photographing method
WO2017039171A1 (en) Laser processing device and laser processing method
JPH05264221A (en) Device for detecting mark position for semiconductor exposure device and positioning deice for semiconductor exposure device using the same
WO2020004838A1 (en) Vibration-resistant white light interference microscope and method for removing vibration effect thereof
WO2020153703A1 (en) Camera apparatus and auto-focusing method therefor
WO2019143050A1 (en) Electronic device and method for controlling autofocus of camera
WO2019164312A1 (en) Camera module and super resolution image processing method thereof
WO2023022537A1 (en) Ai-based vehicle disk defect detection system
WO2012057435A1 (en) Camera module and estimation method of auto focus search range thereof
WO2017142154A1 (en) Photographing apparatus and photographing method
WO2023219448A1 (en) Roller gap measurement system using light and roller gap measurement method using same
WO2016137273A1 (en) Camera module and auto-focus adjustment method using same
WO2020067745A1 (en) Camera device
WO2011149300A2 (en) Mems actuator mounted camera module having sag compensation and sag compensation method using the same
WO2017034321A1 (en) Technique for supporting photography in device having camera, and device therefor
WO2012108577A1 (en) Monitoring device and method
WO2017159938A1 (en) Imaging method and object alignment method using imaging method
WO2018101623A1 (en) Method and device for correcting defocused photoacoustic image distortion using optical coherence tomography image
WO2023121094A1 (en) Three-dimensional shape measurement device for acquiring multiple pieces of image information
WO2016195135A1 (en) Multi-aperture camera system having auto focusing function and/or depth estimation function
WO2020045932A1 (en) Image processing apparatus and image processing method
WO2017146330A1 (en) Apparatus and method for measuring straightness

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16890745

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16890745

Country of ref document: EP

Kind code of ref document: A1