WO2020040390A1 - 3차원 영상 생성 장치 및 방법 - Google Patents

3차원 영상 생성 장치 및 방법 Download PDF

Info

Publication number
WO2020040390A1
WO2020040390A1 PCT/KR2019/002964 KR2019002964W WO2020040390A1 WO 2020040390 A1 WO2020040390 A1 WO 2020040390A1 KR 2019002964 W KR2019002964 W KR 2019002964W WO 2020040390 A1 WO2020040390 A1 WO 2020040390A1
Authority
WO
WIPO (PCT)
Prior art keywords
dot pattern
light
image sensor
depth data
depth
Prior art date
Application number
PCT/KR2019/002964
Other languages
English (en)
French (fr)
Inventor
정찬성
남효진
이상근
조용호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US17/270,819 priority Critical patent/US11425359B2/en
Publication of WO2020040390A1 publication Critical patent/WO2020040390A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/30Collimators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4205Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive optical element [DOE] contributing to image formation, e.g. whereby modulation transfer function MTF or optical aberrations are relevant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4233Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive element [DOE] contributing to a non-imaging application
    • G02B27/425Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive element [DOE] contributing to a non-imaging application in illumination systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to an apparatus and method for generating 3D images, and more particularly, to an apparatus and method for measuring depth information of an object and generating a 3D image based on the measured depth information of the object. .
  • the 3D stereoscopic image is generated based on the depth image of the object together with the color image to give a 3D and immersive feeling. At this time, in order to generate the depth image of the object, the depth of the object must be measured.
  • the TOF method is a method of measuring the depth of an object by directly irradiating light on the object and calculating the time of the reflected light coming back from the object.
  • the TOF camera 100 is composed of a light transmitting unit 110 and a light receiving unit 120 that largely irradiate light toward the object. That is, the TOF camera 100 obtains depth information, which is a distance between the object and the camera, by using a phase difference between the light emitted from the transmitter 110 and the light reflected from the object.
  • depth information which is a distance between the object and the camera.
  • an in phase receptor that receives in phase light from light reflected by an object and an out phase receptor that receives out phase light constitute one pixel of the image sensor.
  • the TOF camera may measure the phase difference between the light irradiated by the in-phase receptor and the out-phase receptor and the light reflected by the object, and acquire depth information of the object.
  • FIG. 2 illustrates an optical structure of a conventional TOF camera 100
  • FIG. 3 illustrates a block diagram of the conventional TOF camera 100.
  • the transmitting unit 110 of the conventional TOF camera 100 includes a light source 111 for generating light and a diffuser 112 for irradiating the light generated by the light source 110 in the form of a surface light source at a specific angle.
  • the light emitted from the transmitter 110 is reflected by the object 300 and is incident to the light receiver 120.
  • the light receiver 120 receives an Rx lens that guides the light reflected by the object 300 to the image sensor 122. 121, an image sensor 122 for converting the received light into an electrical signal, and an image processor 123 for generating a depth image through the electrical signal of the image sensor 122.
  • the light receiving unit 120 may further include a filter passing only a specific wavelength.
  • TOF Camera applying this TOF method can be applied in various fields such as Automotive, VR, Robot, People Counting, Surveillance.
  • the TOF camera 100 limits the intensity of light to protect the eyes of the subject (person) from the point of measuring depth information by irradiating light from the transmitting unit 100.
  • SNR signal to noise rate
  • the area of the divided area corresponding to each receiving element of the image sensor becomes large, which causes a problem that the resolution of the depth image is relatively reduced.
  • the present invention is to solve the above problems, an object of the present invention is to limit the amount of light generated from the light source for eye protection, but to increase the reliability of the depth image obtained by remote shooting.
  • the present invention provides a light source for generating light irradiated toward an object, a first optical system for irradiating the light generated by the light source to the object in a dot pattern, An image sensor receiving light reflected from the object and converting the light into a periodic signal, an image processor obtaining depth data through the electrical signal, and a control unit connected to the light source, the first optical system, the image sensor, and the image processor.
  • the controller may control the first optical system to scan the object by moving the dot pattern in a preset pattern.
  • the first optical system is a collimator lens (collimator lens) for condensing the light emitted from the light source as parallel light, diffraction for irradiating the parallel light toward the object in a dot pattern
  • An optical device and an actuator (actuator) for controlling the movement of the dot pattern is provided.
  • the actuator provides a depth image generating device, characterized in that the voice coil motor (Voice coil motor), a liquid lens or a MEMs scanner.
  • the voice coil motor Voice coil motor
  • a liquid lens or a MEMs scanner.
  • the controller acquires the position information of the dot pattern, and controls the image processor to obtain the depth data based on the obtained position information.
  • the controller Provides a generating device.
  • the position information of the dot pattern includes position information of a region to which one dot is irradiated in a divided region corresponding to each receiving element of the image sensor, and the controller is configured to divide the divided pattern.
  • the image processor may further include dividing a region into subdivided regions and controlling the image processor to acquire depth data corresponding to each of the subdivided regions.
  • control unit defines the number of the sub-division areas in correspondence with the distance to the object, and controls the image processor to obtain depth data correspondingly.
  • image generating apparatus Provided is an image generating apparatus.
  • the controller provides a depth image generating apparatus, characterized in that to obtain the position information of the dot pattern through the motion information of the actuator.
  • the image sensor provides a depth image generating apparatus comprising a multiple array receiving element in the form of a single photon avalanche diode (SPAD) array corresponding to the dot pattern.
  • a depth image generating apparatus comprising a multiple array receiving element in the form of a single photon avalanche diode (SPAD) array corresponding to the dot pattern.
  • SPAD photon avalanche diode
  • the depth image generating apparatus includes a depth image generating apparatus including a second optical system that enters the reflected light of the dot pattern by matching the popular array receiving element. .
  • the light source provides a depth image generating apparatus, characterized in that the vertical cavity surface emitting laser (VCSEL).
  • VCSEL vertical cavity surface emitting laser
  • the light source provides a depth image generating apparatus, characterized in that a plurality of vertical resonant surface emitting laser (VCSEL) corresponding to the multiple array receiving element.
  • VCSEL vertical resonant surface emitting laser
  • the step of irradiating light to the object in a dot pattern, the step of moving the dot pattern in a predetermined pattern to scan the object is reflected to the object It provides a depth image generating device control method comprising the step of generating depth data through the light received by the image sensor.
  • generating the depth data includes acquiring position information of the dot pattern and acquiring the depth data based on position information of the dot pattern.
  • a method of controlling a depth image generating apparatus is provided.
  • the position information of the dot pattern includes the position information of the region irradiated with one dot in the divided region corresponding to each receiving element of the image sensor,
  • the step of acquiring the depth data based on the location information provides a method of controlling the depth image generating apparatus, wherein the divided area is divided into subdivided areas, and depth data corresponding to each of the subdivided areas is obtained. .
  • obtaining the depth data based on the position information of the dot pattern defining the number of sub-division regions corresponding to the distance to the object; And acquiring depth data corresponding to the number of subdivided regions.
  • the present invention can solve the problem of the lack of light reception that may occur when irradiating light to a long distance in the form of a surface light source.
  • the present invention can satisfactorily secure the amount of light received by the image sensor by maintaining the amount of light generated by the light source to satisfy the restriction for eye protection while irradiating the light generated by the light source with the collected dot pattern.
  • the light generated from the light source may be irradiated with a dot pattern, but the dot pattern may be moved with a preset pattern to obtain depth data of the overall appearance of the object.
  • the present invention can obtain a depth image having a higher resolution than the resolution of the image sensor by recognizing the position information of the dot pattern irradiated to the object.
  • FIG. 1 shows the structure of a typical TOF camera.
  • FIG. 2 shows the optical structure of a conventional TOF camera.
  • FIG. 3 shows a block diagram of a conventional TOF camera.
  • FIG. 4 illustrates an optical structure of a TOF camera, in accordance with an embodiment of the present invention.
  • FIG. 5 shows a block diagram of a TOF camera, in accordance with an embodiment of the present invention.
  • 6 to 8 are diagrams for describing a method of moving a dot pattern through an actuator according to an embodiment of the present invention.
  • FIG. 9 is a view for explaining a pattern in which light irradiated with a dot pattern moves according to an embodiment of the present invention.
  • FIG. 10 is a diagram for describing a method of obtaining a resolution higher than that of an image sensor by dividing a divided region corresponding to one dot into sub-divided regions according to an embodiment of the present invention.
  • 11 and 12 are flowcharts illustrating a method of irradiating light with a dot pattern and obtaining a depth image, according to an embodiment of the present invention.
  • FIG. 4 illustrates an optical structure of a TOF camera according to an embodiment of the present invention
  • FIG. 5 illustrates a block diagram of a TOF camera according to an embodiment of the present invention.
  • the present invention relates to a TOF camera that obtains depth data of an object 300 by using the distance difference received by the light receiver 220 when light emitted from the transmitter 210 is reflected by the object 300.
  • the light transmitting unit 210 may include a light source 211 for generating light irradiated toward the object 300 and first optical systems 212 and 213 for irradiating light generated by the light source 211 to the object in a dot pattern 214. ) May be included.
  • the light source 211 may be a vertical cavity surface emitting laser (VCSEL). Unlike general side emitting lasers, VCSELs emit light in a direction perpendicular to the surface of an epi wafer.
  • the VCSEL includes numerous cavities through which light is emitted and may be advantageous for irradiating light with a dot pattern.
  • the VCSEL has a strong straightness of irradiated light, and the light irradiated through one cavity may have a divergence angle of 10 degrees to 20 degrees.
  • the VCSEL may generate and irradiate light having a wavelength of 905 to 960 nm to acquire three-dimensional data.
  • the first optical systems 212 and 213 irradiate the collimator lens 212 for condensing the light emitted from the light source 211 into parallel light and the parallel light toward the object 300 with the dot pattern 214.
  • the diffractive optical element (DOE) 213 may be included.
  • the first optical system 212 may further include an actuator for controlling the movement of the dot pattern 214. The actuator will be described in detail with reference to FIGS. 6 and 7.
  • the collimator lens 212 may condense the light emitted from each cavity of the VCSEL to make parallel light.
  • the diffractive optical element 213 may sail the object 300 to the dot pattern 214 by the diffraction property of the light due to the micro pattern and the interference phenomenon of the parallel light emitted from the collimator lens 212.
  • the micro pattern of the diffractive optical source 213 may be made of UV resin having a periodic pattern of nano structure on the glass substrate.
  • the light irradiated from the light transmitter 210 is reflected by the object 300 and is incident to the light receiver 220.
  • the light receiver 220 receives an Rx lens that guides the light reflected by the object 300 to the image sensor 222. 221, an image sensor 222 for converting the received light into an electrical signal, and an image processor 223 for generating a depth image through the electrical signal of the image sensor 222.
  • the light receiving unit 220 may further include a filter passing only a specific wavelength.
  • the image sensor 222 may be a VGA class (480 ⁇ 640) or more, and may include a multiple array receiving element in the form of a single photon avalanche diode (SPAD) array, or a CMOS image sensor may be used.
  • Each receiving element of the image sensor may be composed of an in phase receptor that receives in phase light from light reflected by an object and an out phase receptor that receives out phase light.
  • the image processor 223 may measure the phase difference between the light irradiated on the object and the light irradiated by the light received by the in phase receptor and the out phase receptor, and may acquire depth information of the object.
  • the dot pattern 214 may correspond one-to-one to a plurality of receiving elements of the image sensor 222. That is, the number of dot patterns 214 may match the resolution of the image sensor 222. That is, a plurality of light sources 211 may be provided to correspond to the receiving elements of the image sensor 222. The plurality of light sources 211 may be implemented through respective cavities of the VCSEL.
  • FIG. 4 illustrates an embodiment in which the dot pattern 214 is irradiated to the irradiation area 310 in a one-to-one correspondence to the divided areas 311 corresponding to each receiving element of the image sensor 222.
  • the present invention may include a control unit for controlling the light transmitting unit 210 and the light receiving unit 220, the control unit is the first optical system (212, 213) to move the dot pattern 214 in a predetermined pattern to scan the object 300 ) Can be controlled. Specifically, the control unit actively controls the diffractive optical element 213 to irradiate the parallel light passing through the collimator lens 212 with the dot pattern 214, and move the dot pattern 214 in the predetermined pattern to move the object ( 300). The movement pattern of the dot pattern 214 will be described in detail with reference to FIG. 8.
  • the present invention has an object to solve the above problems that may occur by irradiating light with a surface light source, such as the conventional TOF camera 100 described in FIG.
  • a surface light source such as the conventional TOF camera 100 described in FIG.
  • the conventional TOF camera 100 when photographing a remote object 300, first, there is a problem in that the resolution of the divided area that each receiving element of the image sensor 222 is increased increases.
  • SNR signal-to-noise ratio
  • the present invention adopts the technical idea of collecting and irradiating the light generated by the light source with the dot pattern 214, and scanning the object by moving the dot pattern 214 in the preset pattern.
  • the receiving element of the image processor 223 in the image sensor 222 secures a sufficient amount of received light in the image sensor 222 without increasing the output of the light source 211. Data can be obtained.
  • depth data of the overall appearance of the object may be obtained by moving the dot pattern 214 in a predetermined pattern to scan the object. This will be described below.
  • 6 to 8 are diagrams for describing a method of moving a dot pattern through an actuator according to an embodiment of the present invention.
  • the present invention is characterized in that light generated from a light source is irradiated in a dot pattern toward an object, and each dot of the dot pattern moves in the divided region and scans the object.
  • the present invention can use an actuator to move a dot pattern in each divided area.
  • voice coil actuator OIS
  • Piezoelectric actuator Piezoelectric actuator
  • MEMs Scanner MEMs Scanner
  • FIG. 6 illustrates an embodiment in which the dot pattern 214 is moved by using a voice coil actuator.
  • the voice coil actuator may control the movement of the diffractive optical element through the dot pattern by using the direction of the magnetic field and the current.
  • Light generated by the light source 211 (see FIG. 4) may be focused through the collimator lens 212 into parallel light, and the parallel light may be irradiated toward the object with the dot pattern 214 through the fixed diffractive optical element 2131. have.
  • the dot pattern past the fixed diffractive optical element 2131 can be moved by a flow diffraction optical fiber 2131 that can be moved in plane by the voice coil actuator.
  • FIG. 6 (a) shows the state in which the flow diffraction optical fiber 2132 is not moved and the position of the dot pattern 214 corresponding thereto.
  • FIG. 6B illustrates a state in which the flow diffraction optical element 2132 is moved in one direction on a plane by a voice coil actuator and a dot pattern 214 corresponding thereto. That is, the dot pattern 214 may move in a predetermined pattern by the movement of the flow diffraction optical element 2132.
  • the present invention may move the dot pattern 214 along the X and Y axes to scan an object.
  • FIG. 7 also shows an embodiment in which the dot pattern 214 is moved using the liquid lens 2132.
  • the liquid lens 2132 may control the movement of the dot pattern by changing the curvature of the lens passing through the dot pattern 214.
  • Light generated by the light source 211 (see FIG. 4) may be focused through the collimator lens 212 into parallel light, and the parallel light may be irradiated toward the object with the dot pattern 214 through the fixed diffractive optical element 2131. have.
  • the dot pattern passing through the fixed diffractive optical element 2131 may be moved by the liquid lens 2132 whose curvature is variable.
  • 7A and 7B illustrate dot patterns 214 corresponding to the curvature of the liquid lens 2132. Specifically, FIG.
  • FIG. 7A illustrates a dot pattern 214 corresponding to a case where the curvature of the liquid lens 2132 is low
  • FIG. 7B illustrates a case where the curvature of the liquid lens 2132 is high
  • the dot pattern 214 is shown.
  • the dot pattern 214 may be concentrated in the center, and when the curvature of the liquid lens 2132 is high, the dot pattern 214 may spread in the radial direction and be irradiated. That is, when the dot pattern 214 is moved using the liquid lens 2132, the present invention may scan the moving object in a form in which the dot pattern 214 is radiated in a radial direction while being concentrated at the center.
  • the MEMS scanner can control the movement of the dot pattern by rotating the mirror reflecting the dot pattern.
  • Light generated by the light source 211 may be focused through the collimator lens 212 into parallel light, and the parallel light may be irradiated toward the object with the dot pattern 214 through the fixed diffractive optical element 2131. have.
  • the dot pattern passing through the fixed diffractive optical element 2131 may be reflected by the mirror of the MEMs scanner 2132 and irradiated toward the object, and the mirror of the MEMs scanner 2132 may move the dot pattern by rotating about an axis. .
  • the mirror of the MEMs scanner 2132 may rotate about one axis or rotate about two axes.
  • 8 shows a MEMs scanner 2132 rotating about two axes.
  • the dot pattern may move in the X-axis and Y-axis corresponding to the mirror rotation axis of the MEMs scanner 2132 to scan the object.
  • the light emitted from the light source 211 is irradiated with the condensed dot pattern 214, instead of irradiating the surface light source toward the object, and the dot pattern 214 is used to scan the entire appearance of the object. It adopts the technology idea to move around. The following describes the pattern of moving the dot pattern 214.
  • FIG. 9 is a view for explaining a pattern in which light irradiated to the dot pattern 214 moves according to an embodiment of the present invention.
  • FIG. 9 illustrates a pattern in which the dot pattern 214 moves based on the embodiment described with reference to FIG. 7.
  • Light generated by the light source 211 may be focused through the collimator lens 212 into parallel light, and the parallel light may be irradiated toward the object with the dot pattern 214 through the fixed diffractive optical element 2131.
  • the dot pattern 214 past the fixed diffractive optical element 2131 can be moved by a flow diffraction optical fiber 2131 that can be moved in plane by the voice coil actuator.
  • the dot pattern 214 may be irradiated to have a one-to-one correspondence with the divided area 311 of the irradiation area 310 including the object 300 (see FIG. 5).
  • the divided area 311 may correspond to each reception source 2221 of the image sensor 222. That is, the irradiation light forming one dot of the dot pattern 214 may be irradiated and reflected on one division area 311, and may be received by one reception source 2221 of the image sensor 222.
  • the dot pattern 214 is formed by condensing light generated from the light source 211.
  • the area occupied by one dot is smaller than the area of the divided region 311. That is, when the light is irradiated toward the object with the dot pattern 214, the depth data of the object may not be reliable because it is not data corresponding to the entire appearance of the object. Accordingly, in the present invention, each dot of the dot pattern 214 moves on the divided region 311 and acquires the depth data of the object to ensure reliability of the obtained depth data.
  • Each dot of the dot pattern 214 may move in the same pattern without moving independently.
  • FIG. 9 (a) shows a group of dots moving in the same pattern
  • FIG. 9 (b) shows one dot 214 moving on one divided region 311.
  • FIG. 9 (a) shows a group of dots moving in the same pattern
  • FIG. 9 (b) shows one dot 214 moving on one divided region 311.
  • Each dot of the dot pattern 214 may move to scan the entire area on the corresponding divided area 311. To this end, the dot pattern may move in one direction while circularly moving, and scan the irradiation area 210. Since each dot of the dot pattern is smaller in size than the divided area 311, it may be preferable to move in one direction while performing a circular motion rather than moving straight to scan the entire divided area 311.
  • the present invention may divide the area where the dot pattern is formed, irradiate light so that each dot corresponds to each of the divided areas 311, and move in a preset pattern to scan the divided area 311 corresponding to the dot.
  • the dots may move in a predetermined pattern in one group.
  • the present invention by collecting and irradiating light with a dot pattern, a sufficient amount of received light is secured in an image sensor, and depth data of the overall appearance of an object can be obtained by moving the dot pattern with a preset pattern, and further improving resolution. Can be.
  • a depth image corresponding to the resolution of the image sensor 222 may be obtained.
  • the present invention scans the irradiation area 210 while moving the dot pattern 214, a depth image having a higher resolution than that of the image sensor 222 may be obtained. This may be beneficial for obtaining depth images of distant objects.
  • a method of obtaining a high resolution depth image of the image sensor 222 will be described.
  • FIG. 10 is a diagram for describing a method of obtaining a resolution higher than that of an image sensor by dividing a divided region corresponding to one dot into sub-divided regions according to an embodiment of the present invention.
  • the image sensor 222 (see FIG. 5) includes a plurality of reception sources corresponding to the resolution, and the resolution of the image sensor cannot be changed because the number of reception elements is fixed.
  • a depth image having a higher resolution than that of an image sensor may be obtained using location information irradiated with the dot pattern 214.
  • the controller of the present invention may acquire the position information of the dot pattern 214 and control the image processor 223 to obtain the depth data based on the acquired position information.
  • the control unit of the present invention may obtain the position information of the dot pattern 214 through the drive information of the actuator in FIGS.
  • the position information of the dot pattern 214 may include coordinate information of the dot 214 irradiated to the divided area 311 corresponding to each receiving element of the image sensor 222.
  • the divided area 311 is divided into the sub divided areas 312, and the controller may recognize which sub divided area 312 is irradiated with the dots 214 through the movement of the dots 214.
  • the position information of the dot pattern 214 may be coordinate information of the sub division area 312 into which the dot pattern 214 is incident.
  • Each receiving source of the image sensor 222 converts the received reflected light into an electrical signal corresponding to each subdivision area 312, and the image processor 223 acquires depth data corresponding to each subdivision area 312.
  • the present invention can obtain depth data having a higher resolution than the image sensor 222 by dividing the divided region 311 into the sub divided regions 312 and obtaining independent depth data in each sub divided region 312. have.
  • the controller of the present invention may define the number of subdivided regions 312 in response to the distance to the object, and control the movement of the dot pattern 214 in response thereto.
  • the controller of the present invention may primarily photograph the depth image and obtain approximate distance information of the object based on the depth image. In this case, since the primary imaging is to acquire the approximate distance information of the object, the depth data may be acquired without moving the dot pattern through the actuator. If the controller defines the number of subdivided regions 312 through the first photographing, the controller sets the movement of the dot pattern in response to this, and performs the second photographing to acquire depth data corresponding to each subdivided region 312. Can be.
  • FIG. 11 is a flowchart illustrating a method of irradiating light with a dot pattern and obtaining a depth image according to an embodiment of the present invention.
  • a method of controlling the depth image generating apparatus of the present invention is as follows.
  • the method of controlling the depth image generating apparatus includes irradiating light in a dot pattern toward an object in the depth image generating apparatus (S201), scanning the object by moving the dot pattern in a preset pattern (S202), and And generating depth data through the light reflected by the object and received by the image sensor.
  • Generating the depth data may include acquiring position information of a dot pattern (S203) and acquiring depth data based on position information of a dot pattern (S204).
  • the position information of the dot pattern includes position information of a region to which one dot is irradiated in a divided region corresponding to each received source of the image sensor, and obtaining depth data based on the position information of the dot pattern includes:
  • the method may be divided into sub-division regions, and depth data corresponding to each sub-division region may be obtained.
  • the position information of the dot pattern may be representative coordinate information of the subdivided area to which the dot is irradiated, not accurate coordinate information of the dot.
  • the representative coordinate information of the sub dividing area may be center coordinate information of the sub dividing area.
  • a depth image may be acquired at a higher resolution.
  • High-resolution depth images can be advantageous for photographing distant objects, but can take a long time to process and put a heavy load on the depth image generating device. Therefore, it may be desirable to define the number of subdivided regions corresponding to the distance to the object.
  • the present invention can recognize the distance to the object through the first image (S301) (S302), it is possible to define the number of sub-division area.
  • S302 The primary shooting is a shooting used for recognizing a basic distance from the object, and there is no need to move the dot pattern. The greater the distance from the object, the greater the number of subdivisions. However, it may be desirable to set the number of subdivided regions so that the number of subdivided regions can be increased so as to be increased according to a user's selection.
  • the dot pattern may be moved in a preset pattern to perform secondary imaging. (S304) It is preferable to control the actuator so that each dot of the dot pattern can pass all of the subdivided regions in the corresponding divided region. Thereafter, depth data corresponding to each of the subdivided regions may be obtained through light received by the receiving element of the image sensor.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명은 원거리 오브젝트를 촬영함에 있어 발광량을 증가하지 않으면서 해상도 저하, 수광량 부족으로 인한 SNR 문제를 해결하기 위해 오브젝트를 향해 조사되는 빛을 생성하는 광원, 상기 광원에서 생성된 빛을 상기 오브젝트에 도트 패턴(dot pattern)으로 조사하는 제1 광학계, 상기 오브젝트에 반사된 광을 수신하여 전기 신호로 변환하는 이미지 센서, 상기 전기 신호를 통해 깊이 데이터를 획득하는 이미지 프로세서 및 상기 광원, 상기 제1 광학계, 상기 이미지 센서 및 상기 이미지 프로세서에 연결된 제어부를 포함하고, 상기 제어부는 상기 도트 패턴을 기 설정 패턴으로 움직여 상기 오브젝트를 스캐닝하도록 상기 제1 광학계를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공할 수 있다.

Description

3차원 영상 생성 장치 및 방법
본 발명은 3차원 영상 생성 장치 및 방법에 관한 것으로서, 상세하게는 물체의 깊이 정보(depth information)을 측정하고, 측정된 물체의 깊이 정보를 기반으로 3차원 영상을 생성하는 장치 및 방법에 관한 것이다.
3차원 입체 영상은 입체감과 몰입 감을 줄 수 있도록 색상 영상과 함께 물체(object)의 깊이 영상을 기반으로 생성된다. 이때, 물체의 깊이 영상을 생성하기 위해서는 물체의 깊이를 측정해야 한다.
물체의 깊이를 측정하는 방법 중 하나로 TOF(Time of Flight) 방식이 있다. TOF 방식은 물체에 직접적으로 광을 조사하고 물체로부터 되돌아오는 반사광의 시간을 계산함으로써 물체의 깊이를 측정하는 방식이다.
도 1은 일반적인 TOF 카메라(100)의 구조를 도시하고 있다. TOF 카메라(100)는 크게 오브젝트를 향해 빛을 조사하는 송광부(110)와 수광부(120)로 구성이 된다. 즉, TOF 카메라(100)는 송광부(110)에서 조사된 광과 물체에서 반사된 광의 위상차를 이용하여 물체와 카메라 사이의 거리인 깊이 정보를 취득한다. 구체적으로 TOF 카메라는 물체에 반사되는 광에서 in phase 광을 수광하는 in phase receptor와 out phase 광을 수광하는 out phase receptor가 이미지 센서의 한 픽셀을 구성한다. TOF 카메라는 in phase receptor와 out phase receptor가 수광한 수광을 통해 조사된 광과 물체에 반사된 광의 위상차를 측정하고 이를 통해 오브젝트의 깊이 정보를 획득할 수 있다.
도 2는 기존의 TOF 카메라(100) 광학 구조를 도시하고 있으며, 도 3은 기존의 TOF 카메라(100)의 블록도를 도시하고 있다.
기존의 TOF 카메라(100)의 송광부(110)는 빛을 생성하는 광원(111) 및 광원(110)에서 생성된 빛을 특정 각도로 면광원 형태로 조사하는 디퓨져(112)를 포함한다.
송광부(110)에서 조사된 광은 물체(300)에 반사되어 수광부(120)로 입사되는데, 수광부(120)는 물체(300)에 반사된 빛을 이미지 센서(122)로 유도하는 Rx 렌즈(121), 수신된 빛을 전기 신호로 전환하는 이미지 센서(122) 및 이미지 센서(122)의 전기 신호를 통해 깊이 이미지를 생성하는 이미지 프로세서(123)를 포함할 수 있다. 경우에 따라서는 수광부(120)는 특정 파장만을 통과하는 필터를 더 포함할 수 있다.
이 TOF 방식을 응용한 TOF Camera는 Automotive(차량용 카메라), VR, Robot, People Counting(인원 계수), Surveillance(보안) 등 다양한 분야에서 적용될 수 있다. 다만, TOF 카메라(100)는 송광부(100)에서 빛을 조사하여 깊이 정보를 측정하는 점에서 피사체(사람)의 눈을 보호하기 위해 빛의 세기에 제약을 두고 있다. 다만, 오브젝트에 조사되는 빛의 세기를 감소하게 되면, 수광부(110)에서 수신한 수광량 부족으로 인한 신호대비잡음비(Signal to noise rate, SNR) 증가의 문제가 발생할 수 있다. 즉, 원거리의 피사체를 촬영하거나, 외부광의 영향이 많은 경우 획득한 깊이 이미지의 신뢰성이 떨어지는 문제점이 있다.
또한, 원거리의 피사체를 촬영하는 경우, 이미지 센서의 각 수신 소자에 대응되는 분할 영역의 면적이 커지기 되고 이로 인해 깊이 이미지의 해상도가 상대적으로 감소하는 문제가 발생한다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 눈 보호를 위해 광원에서 생성되는 광량을 제약하되 원거리 촬영으로 획득한 깊이 이미지의 신뢰성을 높이는데 목적이 있다.
상기 목적을 달성하기 위해, 본 발명은 일 실시예에 따라, 오브젝트를 향해 조사되는 빛을 생성하는 광원, 상기 광원에서 생성된 빛을 상기 오브젝트에 도트 패턴(dot pattern)으로 조사하는 제1 광학계, 상기 오브젝트에 반사된 광을 수신하여 정기 신호로 변환하는 이미지 센서, 상기 전기 신호를 통해 깊이 데이터를 획득하는 이미지 프로세서 및 상기 광원, 상기 제1 광학계, 상기 이미지 센서 및 상기 이미지 프로세서에 연결된 제어부를 포함하고, 상기 제어부는 상기 도트 패턴을 기 설정 패턴으로 움직여 상기 오브젝트를 스캐닝하도록 상기 제1 광학계를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 제1 광학계는 상기 광원에서 조사된 빛을 평행광으로 집광하는 콜리메터 렌즈(collimator lens), 상기 평행광을 도트 패턴으로 상기 오브젝트를 향해 조사하는 회절 광학 소자 및 상기 도트 패턴의 움직임을 제어하는 액츄에이터(actuator)를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 액츄에이터는 보이스 코일 모터(Voice coil motor), 액체 렌즈 또는 MEMs 스캐너인 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 도트 패턴의 위치 정보를 획득하고, 상기 획득된 위치 정보를 기초로 상기 깊이 데이터를 획득하도록 상기 이미지 프로세서를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 도트 패턴의 위치 정보는 상기 이미지 센서의 각 수신 소자에 대응되는 분할 영역에서 하나의 도트가 조사되는 영역의 위치 정보를 포함하고, 상기 제어부는 상기 분할 영역을 서브 분할 영역으로 구분하고, 상기 서브 분할 영역 각각에 대응되는 깊이 데이터를 획득하도록 상기 이미지 프로세서를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 오브젝트와의 거리에 대응하여 상기 서브 분할 영역의 개수를 정의하고, 이에 대응하여 깊이 데이터를 획득하도록 상기 이미지 프로세서를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 제어부는 상기 액츄에이터의 움직임 정보를 통해 상기 도트 패턴의 위치 정보를 획득하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 이미지 센서는 상기 도트 패턴에 대응되는 SPAD (Single photon avalanche diode) 어레이 형태의 다중 배열 수신 소자를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 깊이 영상 생성 장치는 상기 도트 패턴의 반사광을 상기 대중 배열 수신 소자에 매칭하여 입사하는 제2 광학계를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 광원은 수직 공진 표면 발광 레이져(Vertical Cavity Surface Emitting Laser, VCSEL)인 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
또한, 본 발명의 일 실시예에 따라, 상기 광원은 상기 수직 공진 표면 발광 레이저(VCSEL)를 상기 다중 배열 수신 소자에 대응하여 복수 개 구비하는 것을 특징으로 하는 깊이 영상 생성 장치를 제공한다.
상기 목적을 달성하기 위해, 본 발명은 다른 실시예에 따라, 오브젝트를 향해 도트 패턴으로 빛을 조사하는 단계, 상기 도트 패턴을 기 설정 패턴으로 움직여 상기 오브젝트를 스캔닝하는 단계, 상기 오브젝트에 반사되어 이미지 센서에 수신된 광을 통해 깊이 데이터를 생성하는 단계를 포함하는 깊이 영상 생성 장치 제어 방법을 제공한다.
또한, 본 발명의 다른 실시예에 따라, 상기 깊이 데이터를 생성하는 단계는 상기 도트 패턴의 위치 정보를 획득하는 단계, 상기 도트 패턴의 위치 정보에 기초하여 상기 깊이 데이터를 획득하는 단계를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치 제어 방법을 제공한다.
또한, 본 발명의 다른 실시예에 따라, 상기 도트 패턴의 위치 정보는 상기 이미지 센서의 각 수신 소자에 대응되는 분할 되는 영역에서 하나의 도트가 조사되는 영역의 위치 정보를 포함하고, 상기 도트 패턴의 위치 정보에 기초하여 상기 깊이 데이터를 획득하는 단계는 상기 분할 영역을 서브 분할 영역으로 구분하고, 상기 서브 분할 영역 각각에 대응되는 깊이 데이터를 획득하는 것을 특징으로 하는 깊이 영상 생성 장치 제어 방법을 제공한다.
또한, 본 발명의 다른 실시예에 따라, 상기 도트 패턴의 위치 정보에 기초하여 상기 깊이 데이터를 획득하는 단계, 오브젝트와의 거리에 대응하여 서브 분할 영역의 개수를 정의하는 단계; 및 상기 서브 분할 영역의 개수에 대응하여 깊이 데이터를 획득하는 단계를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치 제어 방법을 제공한다.
본 발명은 면 광원 형태로 원거리에 빛을 조사하는 경우 발생할 수 있는 수광량 부족의 문제를 해결할 수 있다.
본 발명은 광원에서 생성하는 광량을 유지하여 눈 보호를 위한 제약을 만족하면서, 광원에서 생성된 광을 집광된 도트 패턴으로 조사함으로써 이미지 센서에서 수신하는 수광량을 충분히 확보할 수 있다.
본 발명은 광원에서 생성된 광을 도트 패턴으로 조사하되 도트 패턴을 기 설정 패턴으로 움직여 오브젝트의 전체 외관에 대한 깊이 데이터를 획득할 수 있다.
본 발명은 오브젝트에 조사되는 도트 패턴의 위치 정보를 인지함으로써 이미지 센서가 가지는 해상도보다 높은 해상도의 깊이 이미지를 획득할 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 해당 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 일반적인 TOF 카메라의 구조를 도시하고 있다.
도 2는 기존의 TOF 카메라의 광학 구조를 도시하고 있다.
도 3은 기존의 TOF 카메라의 블록도를 도시하고 있다.
도 4는 본 발명의 일 실시예에 따른, TOF 카메라의 광학 구조를 도시하고 있다.
도 5는 본 발명의 일 실시예에 따른, TOF 카메라의 블록도를 도시하고 있다.
도 6 내지 도 8은 본 발명의 일 실시예에 따라, 액츄에이터를 통해 도트 패턴을 움직이는 방법을 설명하기 위한 도면이다.
도 9은 본 발명의 일 실시예에 따라, 도트 패턴으로 조사된 광이 움직이는 패턴을 설명하기 위한 도면이다.
도 10는 본 발명의 일 실시예에 따라, 하나의 도트에 대응되는 분할 영역을 서브 분할 영역으로 구분하여 이미지 센서의 해상도 보다 높은 해상도를 획득하는 방법을 설명하기 위한 도면이다.
도 11 및 도 12은 본 발명의 일 실시예에 따라, 도트 패턴으로 광을 조사하고 깊이 이미지를 획득하는 방법을 도시한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 4는 본 발명의 일 실시예에 따른, TOF 카메라의 광학 구조를 도시하고 있고, 도 5는 본 발명의 일 실시예에 따른, TOF 카메라의 블록도를 도시하고 있다.
본 발명은 송광부(210)에서 조사된 광이 오브젝트(300)에 반사되어 수광부(220)에 수신된 거리차를 이용하여 오브젝트(300)의 깊이 데이터를 획득하는 TOF 카메라에 관한 발명이다.
송광부(210)는 오브젝트(300)를 향해 조사되는 광을 생성하는 광원(211), 광원(211)에서 생성된 광을 상기 오브젝트에 도트 패턴(214)으로 조사하는 제1 광학계(212, 213)를 포함할 수 있다.
광원(211)은 수직 공진 표면 발광 레이저(Vertical Cavity Surface Emitting Laser, VCSEL)일 수 있다. VCSEL은 일반적인 측면발광 레이저와는 달리 에피웨이퍼(EPI Wafer)의 표면에 수직 방향으로 빛을 방출하는 레이저 이다. VCSEL은 광이 나오는 수많은 구멍(Cavity)를 포함하고 있으며, 도트 패턴으로 광을 조사하는데 유리할 수 있다. 또한, VCSEL은 조사하는 광의 직진 성이 강하며, 하나의 구멍(Cavity)를 통해 조사되는 광은 10도에서 20도의 발산 각을 가질 수 있다. 또한, VCSEL은 3차원 데이터를 획득하기 위해 905~960nm의 파장의 광을 생성 및 조사할 수 있다.
제1 광학계(212, 213)는 광원(211)에서 조사된 빛을 평행광으로 집광하는 콜리메터 렌즈(collimator lens, 212) 및 상기 평행광을 도트 패턴(214)으로 오브젝트(300)를 향해 조사하는 회절 광학 소자(DOE, 213)를 포함할 수 있다. 또한, 제1 광학계(212)는 도트 패턴(214)의 움직임을 제어하는 액츄에이터를 더 포함할 수 있다. 엑츄에이터와 관련하여서는 도 6 및 도 7에서 구체적으로 살펴본다.
콜리메터 렌즈(212)는 VCSEL의 각 구멍(Cavity)에서 출사되는 광을 각각 집광하여 평행광으로 만들 수 있다.
회절 광학 소자(213)는 콜리페터 렌즈(212)에서 출사되는 평행광을 미소 패턴에 의한 빛의 회절 성질 및 간섭 현상에 의해 도트 패턴(214)으로 오브젝트(300)를 항해 조사할 수 있다. 회절 광학 소사(213)의 미소 패턴은 유리 기판에 나노 구조의 주기 패턴을 갖는 UV 레진으로 제작될 수 있다.
송광부(210)에서 조사된 광은 물체(300)에 반사되어 수광부(220)로 입사되는데, 수광부(220)는 물체(300)에 반사된 빛을 이미지 센서(222)로 유도하는 Rx 렌즈(221), 수신된 빛을 전기 신호로 전환하는 이미지 센서(222) 및 이미지 센서(222)의 전기 신호를 통해 깊이 이미지를 생성하는 이미지 프로세서(223)를 포함할 수 있다. 경우에 따라서는 수광부(220)는 특정 파장만을 통과하는 필터를 더 포함할 수 있다.
이미지 센서(222)는 VGA급(480×640) 이상이 사용될 수 있으며, SPAD(single photon avalanche diode) 어레이 형태의 다중 배열 수신 소자를 포함하거나, CMOS 이미지 센서가 사용될 수 있다. 이미지 센서의 각 수신 소자는 물체에 반사되는 광에서 in phase 광을 수광하는 in phase receptor와 out phase 광을 수광하는 out phase receptor로 구성될 수 있다. 이미지 프로세서(223)은 in phase receptor와 out phase receptor가 수광한 수광을 통해 조사된 광과 물체에 반사된 광의 위상차를 측정하고 이를 통해 오브젝트의 깊이 정보를 획득할 수 있다.
도트 패턴(214)은 이미지 센서(222)의 복수의 수신 소자에 일대일 대응될 수 있다. 즉, 도트 패턴(214)의 개수는 이미지 센서(222)의 해상도와 일치할 수 있다. 즉, 광원(211)은 이미지 센서(222)의 수신 소자에 대응하여 복수 개 구비될 수 있다. 복수 개의 광원(211)은 VCSEL의 각 구멍(Cavity)을 통해 구현할 수 있다. 구체적으로 도 4는 이미지 센서(222)의 각 수신 소자에 대응되는 분할 영역(311)에 도트 패턴(214)이 일대일 대응하여 조사 영역(310)으로 조사되는 실시예를 도시하고 있다.
본 발명은 송광부(210)와 수광부(220)를 제어하는 제어부를 포함할 수 있으며, 제어부는 도트 패턴(214)이 기 설정 패턴으로 움직여 오브젝트(300)를 스캐닝하도록 제1 광학계(212, 213)을 제어할 수 있다. 구체적으로, 제어부는 회절 광학 소자(213)를 엑티브하게 제어하여 콜리메터 렌즈(212)를 통과한 평행광을 도트 패턴(214)으로 조사하고, 도트 패턴(214)을 기 설정 패턴으로 움직여 오브젝트(300)를 스캐닝할 수 있다. 도트 패턴(214)의 움직임 패턴은 도 8을 통해 구체적으로 살펴본다.
본 발명은 원거리에 오브젝트(300)가 있는 경우, 도 2에서 설명한 종래의 TOF 카메라(100)와 같이 면광원으로 광을 조사하여 발생할 수 있는 상기 문제점을 해결하는데 목적이 있다. 종래의 TOF 카메라(100)는 원거리의 오브젝트(300)를 촬영하는 경우, 첫째로 이미지 센서(222)의 각 수신 소자가 담당하는 분할 영역의 면적이 커져 해상도가 떨어지는 문제가 있다. 둘째로, 각 수신 소자가 수신하는 수광량 부족으로 인한 신호대비잡음비(Signal to noise rate, SNR) 증가의 문제가 발생할 수 있다. 두 번째 문제는 광원(211)의 파워를 증가(=광원(211)하여 해결할 수 있지만 광원(211)의 파워는 눈 보호를 위해 증가하는데 제약이 있으며, 비용의 문제가 발생할 수 있다. 또한, 광원(211)의 발광량 증가만으로는 첫 번째 문제를 해결할 수 없다.
상기 문제를 해결하기 위해, 본 발명은 광원에서 생성된 광을 도트 패턴(214)으로 집광하여 조사하고, 도트 패턴(214)을 기 설정 패턴으로 움직여 오브젝트를 스캐닝 하는 기술 사상을 채택한다.
본 발명은 광원에서 생성된 광을 집광하여 조사함에 따라 광원(211)에서 출력을 높일 필요가 없이 이미지 센서(222)에서 이미지 프로세서(223)의 각 수신 소자가 충분한 수광량을 확보하여 신뢰할 수 있는 깊이 데이터를 확보할 수 있다.
또한, 도트 패턴(214)을 기 설정 패턴으로 움직여 오브젝트를 스캐닝 함으로써 오브젝트의 전체 외관에 대한 깊이 데이터를 획득할 수 있다. 이와 관련하여서는 이하에서 설명한다.
도 6 내지 도 8은 본 발명의 일 실시예에 따라, 액츄에이터를 통해 도트 패턴을 움직이는 방법을 설명하기 위한 도면이다.
본 발명은 광원에서 생성된 광을 오브젝트를 향해 도트 패턴으로 조사하고, 도트 패턴의 각 도트가 분할 영역 내에서 움직이며 오브젝트를 스캐닝하는데 특징이 있다.
본 발명은 도트 패턴을 각 분할 영역 내에서 움직이기 위해서 액츄에이터를 이용할 수 있다.
액츄에이터로는 Voice coil actuator, OIS, Piezoelectric actuator, MEMs Scanner 가 이용될 수 있다.
구체적으로, 도 6은 Voice coil actuator를 이용하여 도트 패턴(214)를 움직이는 실시예를 도시하고 있다. Voice coil actuator는 자계와 전류의 방향을 이용하여 도트 패턴이 지나는 회절 광학 소자의 움직임을 제어할 수 있다. 광원(211, 도 4 참조)에서 발생된 광은 콜리메이터 렌즈(212)를 지나 평행광으로 집광되고, 평행광은 고정 회절 광학 소자(2131)를 통해 도트 패턴(214)으로 오브젝트를 향해 조사될 수 있다. 고정 회절 광학 소자(2131)를 지난 도트 패턴은 Voice coil actuator에 의해 평면상에서 움직일 수 있는 유동 회절 광학 소사(2131)에 의해 움직일 수 있다. 도 6(a)는 유동 회절 광학 소사(2132)가 움직이지 않은 상태 및 이에 대응되는 도트 패턴(214)의 위치를 도시하고 있다. 도 6(b)는 유동 회절 광학 소자(2132)가 Voice coil actuator에 의해 평면 상에서 일 방향으로 움직인 상태 및 이에 대응되는 도트 패턴(214)을 도시하고 있다. 즉, 도트 패턴(214)은 유동 회절 광학 소자(2132)의 움직임에 의해 일정 패턴으로 움직일 수 있다. Voice coil actuator을 이용하여 도트 패턴을 움직이는 경우, 본 발명은 도트 패턴(214)을 X축, Y축으로 움직이며 오브젝트를 스캐닝 할 수 있다.
또한, 도 7은 액체 렌즈(2132)를 이용하여 도트 패턴(214)을 움직이는 실시예를 도시하고 있다. 액체 렌즈(2132)은 도트 패턴(214)이 통과하는 렌즈의 곡률을 변화함으로써 도트 패턴의 움직임을 제어할 수 있다. 광원(211, 도 4 참조)에서 발생된 광은 콜리메이터 렌즈(212)를 지나 평행광으로 집광되고, 평행광은 고정 회절 광학 소자(2131)를 통해 도트 패턴(214)으로 오브젝트를 향해 조사될 수 있다. 고정 회절 광학 소자(2131)를 지난 도트 패턴은 곡률이 가변되는 액체 렌즈(2132)에 의해 움직일 수 있다. 도 7(a) 및 도 7(b)는 액체 렌즈(2132)의 곡률에 대응되는 도트 패턴(214)을 도시하고 있다. 구체적으로 도 7(a)는 액체 렌즈(2132)의 곡률이 낮은 경우에 대응되는 도트 패턴(214)을 도시하고 있으며, 도 7(b)는 액체 렌즈(2132)의 곡률이 높은 경우에 대응되는 도트 패턴(214)을 도시하고 있다. 액체 렌즈(2132)의 곡률이 낮은 경우 도트 패턴(214)은 중앙으로 집중되고, 액체 렌즈(2132)의 곡률이 높은 경우 도트 패턴(214)은 방사 방향으로 퍼져 조사될 수 있다. 즉, 액체 렌즈(2132)를 이용하여 도트 패턴(214)을 움직이는 경우, 본 발명은 도트 패턴(214)은 중앙에 집중된 상태에서 방사방향으로 퍼지는 형태로 움직임 오브젝트를 스캐닝 할 수 있다.
또한, 도 8은 MEMs 스캐너(2132)를 이용하여 도트 패턴을 움직이는 실시예를 도시하고 있다. MEMS 스캐너는 도트 패턴을 반사하는 미러를 축회전 함으로써 도트 패턴의 움직임을 제어할 수 있다. 광원(211, 도 4 참조)에서 발생된 광은 콜리메이터 렌즈(212)를 지나 평행광으로 집광되고, 평행광은 고정 회절 광학 소자(2131)를 통해 도트 패턴(214)으로 오브젝트를 향해 조사될 수 있다. 고정 회절 광학 소자(2131)을 지난 도트 패턴은 MEMs 스캐너(2132)의 미러에 반사되어 오브젝트를 향해 조사될 수 있으며, MEMs 스캐너(2132)의 미러는 축을 기준으로 회전 운동하여 도트 패턴을 움직일 수 있다. MEMs 스캐너(2132)의 미러는 하나의 축을 기준으로 회전하거나, 2개의 축을 기준으로 회전할 수 있다. 도 8은 2개의 축을 기준으로 회전하는 MEMs 스캐너(2132)을 도시하고 있다. 도트 패턴은 MEMs 스캐너(2132)의 미러 회전 축에 대응하여 X축, Y축으로 움직이며 오브젝트를 스캐닝 할 수 있다.
즉, 본 발명은 광원(211)에서 발생된 광을 오브젝트를 향해 면광원으로 조사하지 않고, 집광된 도트 패턴(214)으로 조사하되, 오브젝트 전체 외관을 스캐닝하기 위해서 도트 패턴(214)을 액츄에이터를 이용하여 움직이는 기술 사상을 채택하고 있다. 도트 패턴(214)을 움직이는 패턴과 관련하여 이하에서 설명한다.
도 9은 본 발명의 일 실시예에 따라, 도트 패턴(214)으로 조사된 광이 움직이는 패턴을 설명하기 위한 도면이다. 도 9은 도 7에서 설명한 실시예를 기초로 도트 패턴(214)이 움직이는 패턴을 설명한다.
광원(211, 도 4 참조)에서 발생된 광은 콜리메이터 렌즈(212)를 지나 평행광으로 집광되고, 평행광은 고정 회절 광학 소자(2131)를 통해 도트 패턴(214)으로 오브젝트를 향해 조사될 수 있다. 고정 회절 광학 소자(2131)를 지난 도트 패턴(214)은 Voice coil actuator에 의해 평면상에서 움직일 수 있는 유동 회절 광학 소사(2131)에 의해 움직일 수 있다. 도트 패턴(214)은 오브젝트(300, 도 5 참조)를 포함하는 조사 영역(310)의 분할 영역(311)에 일대일 대응되도록 조사될 수 있다. 분할 영역(311)은 이미지 센서(222)의 각 수신 소사(2221)에 대응될 수 있다. 즉, 도트 패턴(214)의 하나의 도트를 형성하는 조사광은 하나의 분할 영역(311)에 조사되어 반사되고, 이미지 센서(222)의 하나의 수신 소사(2221)에서 수신될 수 있다.
도트 패턴(214)는 광원(211)에서 발생된 광이 집광되어 형성되는 것으로 하나의 도트가 차지하는 면적은 분할 영역(311)의 면적보다 작다. 즉, 도트 패턴(214)으로 오브젝트를 향해 빛을 조사하는 경우 오브젝트의 깊이 데이터는 오브젝트 외관 전체에 대응되는 데이터가 아니기 때문에 신뢰성이 떨어질 수 있다. 이에, 본 발명은 도트 패턴(214)의 각 도트가 분할 영역(311) 상에서 움직이며 오브젝트의 깊이 데이터를 획득함으로써 획득된 깊이 데이터의 신뢰성을 확보 한다.
도트 패턴(214)의 각 도트는 독립적으로 움직이지 않고 동일 패턴으로 움직일 수 있다. 구체적으로 도 9(a)는 동일 패턴으로 움직이는 도트 군을 도시하고 있으며, 도 9(b)는 하나의 분할 영역(311) 상에서 움직이는 하나의 도트(214)를 도시하고 있다.
도트 패턴(214)의 각 도트는 대응되는 분할 영역(311) 상에서 전체 면적을 스캐닝하도록 움직일 수 있다. 이를 위해 도트 패턴은 원형 운동 하며 일 방향으로 움직이며 조사 영역(210)을 스캐닝할 수 있다. 도트 패턴의 각 도트는 분할 영역(311)에 대비하여 크기가 작기 때문에 분할 영역(311) 전체를 스캐닝 하기 위해서 직진으로 움직이는 것 보다 원형 운동을 하며 일 방향으로 움직이는 것이 바람직할 수 있다.
즉, 본 발명은 도트 패턴이 조상되는 영역을 분할 하고 분할 영역(311) 각각에 도트가 대응되도록 광을 조사하며, 도트가 대응되는 분할 영역(311)을 스캐닝하도록 기 설정 패턴으로 움직일 수 있다. 이때, 도트는 하나의 군으로 기 설정 패턴으로 움직일 수 있다.
본 발명은 도트 패턴으로 광을 집광하여 조사함으로써 이미지 센서에서 충분한 수광량을 확보하고, 도트 패턴을 기 설정 패턴으로 움직임에 따라 오브젝트의 전체 외관에 대한 깊이 데이터를 획득할 수 있으며, 추가적으로 해상도를 향상시킬 수 있다.
기존의 TOF 카메라와 같이 면광원 형태로 광을 조사하는 경우 이미지 센서(222)의 해상도에 대응되는 깊이 이미지만을 획득할 수 있다. 다만, 본 발명은 도트 패턴(214)을 움직이며 조사 영역(210)을 스캐닝하기 때문에 이미지 센서(222)의 해상도 보다 높은 해상도의 깊이 이미지를 획득할 수 있다. 이는 원거리의 오브젝트에 대한 깊이 이미지를 획득하는데 이로울 수 있다. 이하에서 본 발명에 이미지 센서(222)의 높은 해상도의 깊이 이미지를 획득하는 방법을 설명한다.
도 10는 본 발명의 일 실시예에 따라, 하나의 도트에 대응되는 분할 영역을 서브 분할 영역으로 구분하여 이미지 센서의 해상도 보다 높은 해상도를 획득하는 방법을 설명하기 위한 도면이다.
이미지 센서(222, 도 5 참조)는 해상도에 대응되는 복수의 수신 소사를 포함하며, 수신 소자의 개수가 고정되어 있기 때문에 이미지 센서의 해상도는 가변될 수 없다. 다만, 본 발명은 도트 패턴(214)이 조사되는 위치 정보를 이용하여 이미지 센서보다 높은 해상도의 깊이 이미지를 획득할 수 있다.
이를 위해, 본 발명의 제어부는 도트 패턴(214)의 위치 정보를 획득하고, 획득한 위치 정보를 기초로 깊이 데이터를 획득하도록 이미지 프로세서(223)을 제어할 수 있다. 본 발명의 제어부는 도 6내지 8에서 액츄에이터의 구동 정보를 통해 도트 패턴(214)의 위치 정보를 획득할 수 있다.
도트 패턴(214)의 위치 정보는 이미지 센서(222)의 각 수신 소자에 대응되는 분할 영역(311)에 조사되는 도트(214)의 좌표 정보를 포함할 수 있다. 분할 영역(311)은 서브 분할 영역(312)로 구분되고, 제어부는 도트(214)의 움직임을 통해 어느 서브 분할 영역(312)에 도트(214)가 조사되는지 인지할 수 있다. 도트 패턴(214)의 위치 정보는 도트 패턴(214)이 입사되는 서브 분할 영역(312)의 좌표 정보일 수 있다.
이미지 센서(222)의 각 수신 소사는 각 서브 분할 영역(312)에 대응하여 수신된 반사광을 전기 신호로 변환하고 이미지 프로세서(223)는 각 서브 분할 영역(312)에 대응되는 깊이 데이터를 획득할 수 있다. 즉, 본 발명은 분할 영역(311)을 서브 분할 영역(312)으로 분할하고 각 서브 분할 영역(312)에서 독립적인 깊이 데이터를 획득함으로써 이미지 센서(222)보다 높은 해상도의 깊이 데이터를 획득할 수 있다.
하나의 분할 영역(311)을 더 많은 서브 분할 영역(312)으로 분할 하는 경우 더 높은 해상도의 깊이 데이터를 획득할 수 있다. 다만, 깊이 데이터를 획득하는데 요구되는 시간이 길어지고, 부하가 걸릴 수 있다. 또한, 오브젝트가 근거리에 있는 경우 해상도를 높이지 않고도 획득한 깊이 데이터가 신뢰할 수준에 도달할 수 있다. 따라서, 본 발명의 제어부는 오브젝트와의 거리에 대응하여 서브 분할 영역(312)의 개수를 정의하고, 이에 대응하여 도트 패턴(214)의 움직임을 제어할 수 있다.
본 발명의 제어부는 서브 분할 영역(312)의 개수를 정의하기 위해 1차 적으로 깊이 이미지를 촬영하고 이에 근거하여 오브젝트의 대략적인 거리 정보를 획득할 수 있다. 이때, 1차 촬영은 오브젝트의 대략적인 거리 정보를 획득하는데 목적이 있으므로, 엑츄에이터를 통해 도트 패턴을 이동하지 않고 깊이 데이터를 획득할 수 있다. 제어부는 1차 촬영을 통해 서브 분할 영역(312)의 개수를 정의한 경우 이에 대응하여 도트 패턴의 움직임을 설정하고, 각 서브 분할 영역(312)에 대응되는 깊이 데이터를 획득하는 2차 촬영을 수행할 수 있다.
도 11은 본 발명의 일 실시예에 따라, 도트 패턴으로 광을 조사하고 깊이 이미지를 획득하는 방법을 도시한 흐름도이다.
본 발명의 깊이 영상 생성 장치를 제어하는 방법은 다음과 같다. 본 발명의 깊이 영상 생성 장치를 제어하는 방법은 깊이 영상 생성 장치에서 오브젝트를 향해 도트 패턴으로 빛을 조사하는 단계(S201), 상기 도트 패턴을 기 설정 패턴으로 움직여 오브젝트를 스캐닝 하는 단계(S202) 및 오브젝트에 반사되어 이미지 센서에 수신된 광을 통해 깊이 데이터를 생성하는 단계를 포함할 수 있다.
상기 깊이 데이터를 생성하는 단계는 도트 패턴의 위치 정보를 획득하는 단계(S203) 및 도트 패턴의 위치 정보에 기초하여 깊이 데이터를 획득하는 단계(S204)를 포함할 수 있다. 도트 패턴의 위치정보는 이미지 센서의 각 수신 소사에 대응되는 분할 영역에서 하나의 도트가 조사되는 영역의 위치 정보를 포함하고, 도트 패턴의 위치 정보에 기초하여 깊이 데이터를 획득하는 단계는 분할 영역을 서브 분할 영역으로 구분하고, 서브 분할 영역 각각에 대응되는 깊이 데이터를 획득하는 단계일 수 있다. 도트 패턴의 위치 정보는 도트의 정확한 좌표 정보가 아니라 도트가 조사되는 서브 분할 영역의 대표 좌표 정보일 수 있다. 서브 분할 영역의 대표 좌표 정보는 서브 분할 영역의 중심 좌표 정보일 수 있다.
서브 분할 영역의 개수가 많을수록, 즉, 도트 하나에 대응되는 분할 영역이 보다 세세하게 서브 분할 영역으로 나눠지는 경우 보다 고해상도에 깊이 이미지를 획득할 수 있다. 고해상도의 깊이 이미지는 원거리의 오브젝트를 촬영하는데 유리할 수 있지만, 처리하는데 시간이 오래 걸리고 깊이 영상 생성 장치에 부하가 걸릴 수 있다. 따라서, 오브젝트와의 거리에 대응하여 서브 분할 영역의 개수를 정의함이 바람직할 수 있다.
이를 위해, 본 발명은 1차 촬영(S301)을 통해 오브젝트와의 거리를 인식하고(S302), 서브 분할 영역의 개수를 정의할 수 있다. (S302) 1차 촬영은 오브젝트와의 기본적인 거리를 인식하는데 이용되는 촬영으로 도트 패턴을 움직일 필요가 없다. 오브젝트와의 거리가 멀수록 서브 분할 영역의 개수가 늘어남이 바람직하다. 다만, 서브 분할 영역의 개수는 일괄적으로 증가하는 것이 아니라 사용자의 선택에 따라 증가할 수 있도록 설정될 수 있도록 함이 바람직할 수 있다.
서브 분할 영역의 개수 정해진 경우, 도트 패턴을 기 설정 패턴으로 움직이며 2차 촬영할 수 있다. (S304) 도트 패턴의 각 도트가 대응되는 분할 영역에 있는 서브 분할 영역을 모두 지날 수 있도록 엑츄에이터를 제어함이 바람직하다. 이후 이미지 센서의 수신 소자에서 수신된 광을 통해 서브 분할 영역 각각에 대응되는 깊이 데이터를 획득할 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (14)

  1. 오브젝트를 향해 조사되는 빛을 생성하는 광원;
    상기 광원에서 생성된 빛을 상기 오브젝트에 도트 패턴(dot pattern)으로 조사하는 제1 광학계;
    상기 오브젝트에 반사된 광을 수신하여 전기 신호로 변환하는 이미지 센서;
    상기 전기 신호를 통해 깊이 데이터를 획득하는 이미지 프로세서; 및
    상기 광원, 상기 제1 광학계, 상기 이미지 센서 및 상기 이미지 프로세서에 연결된 제어부;를 포함하고,
    상기 제어부는
    상기 도트 패턴을 기 설정 패턴으로 움직여 상기 오브젝트를 스캐닝하도록 상기 제1 광학계를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치.
  2. 제1 항에 있어서,
    상기 제1 광학계는
    상기 광원에서 조사된 빛을 팽형광으로 집광하는 콜리메터 렌즈(collimator lens);
    상기 평행광을 도트 패턴으로 상기 오브젝트를 향해 조사하는 회절 광학 소자; 및
    상기 도트 패턴의 움직임을 제어하는 액츄에이터;를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치.
  3. 제2항에 있어서,
    상기 액츄에이터는
    보이스 코일 모터(Voice coil motor), 액체 렌즈 또는 MEMs 스캐너인 것을 특징으로 하는 깊이 영상 생성 장치.
  4. 제2항에 있어서,
    상기 제어부는
    상기 도트 패턴의 위치 정보를 획득하고, 상기 획득된 위치 정보를 기초로 상기 깊이 데이터를 획득하도록 상기 이미지 프로세서를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치.
  5. 제4항에 있어서,
    상기 도트 패턴의 위치 정보는
    상기 이미지 센서의 각 수신 소자에 대응되는 분할 영역에서 하나의 도트가 조사되는 영역의 위치 정보를 포함하고,
    상기 제어부는
    상기 분할 영역을 서브 분할 영역으로 구분하고, 상기 서브 분할 영역 각각에 대응되는 깊이 데이터를 획득하도록 상기 이미지 프로세서를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치.
  6. 제5항에 있어서,
    상기 제어부는
    오브젝트와의 거리에 대응하여 상기 서브 분할 영역의 개수를 정의하고, 이에 대응하여 깊이 데이터를 획득하도록 상기 이미지 프로세서를 제어하는 것을 특징으로 하는 깊이 영상 생성 장치.
  7. 제4항에 있어서,
    상기 제어부는
    상기 액츄에이터의 움직임 정보를 통해 상기 도트 패턴의 위치 정보를 획득하는 것을 특징으로 하는 깊이 영상 생성 장치.
  8. 제1항에 있어서,
    상기 이미지 센서는
    상기 도트 패턴에 대응되는 SPAD(Single photon avalanche diode) 어레이 형태의 다중 배열 수신 소자를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치.
  9. 제8항에 있어서,
    상기 깊이 영상 생성 장치는
    상기 도트 패턴의 반사광을 상기 다중 배열 수신 소자에 매칭하여 입사하는 제2 광학계를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치.
  10. 제9항에 있어서,
    상기 광원은
    수직 공진 표면 발광 레이저(Vertical Cavity Surface Emitting Laser, VCSEL)인 것을 특징으로 하는 깊이 영상 생성 장치.
  11. 오브젝트를 향해 도트 패턴으로 빛을 조사하는 단계;
    상기 도트 패턴을 기 설정 패턴으로 움직여 상기 오브젝트를 스캐닝하는 단계;
    상기 오브젝트에 반사되어 이미지 센서에 수신된 광을 통해 깊이 데이터를 생성하는 단계;를 포함하는 깊이 영상 생성 장치 제어 방법.
  12. 제11항에 있어서,
    상기 깊이 데이터를 생성하는 단계는
    상기 도트 패턴의 위치 정보를 획득하는 단계;
    상기 도트 패턴의 위치 정보에 기초하여 상기 깊이 데이터를 획득하는 단계;를 포함하는 것을 특징으로 하는 깊이 영상 생성 장치 제어 방법.
  13. 제12항에 있어서,
    상기 도트 패턴의 위치 정보는
    상기 이미지 센서의 각 수신 소자에 대응되는 분할 영역에서 하나의 도트가 조사되는 영역의 위치 정보를 포함하고,
    상기 도트 패턴의 위치 정보에 기초하여 상기 깊이 데이터를 획득하는 단계는
    상기 분할 영역을 서브 분할 영역으로 구분하고, 상기 서브 분할 영역 각각에 대응되는 깊이 데이터를 획득하는 것을 특징으로 하는 깊이 영상 생성 장치 제어 방법.
  14. 제13항에 있어서,
    상기 깊이 영상 생성 장치 제어 방법은,
    오브젝트와의 거리를 인식하기 위해 1차 촬영하는 단계; 및
    상기 1차 촬영을 통해 인식된 오브젝트와의 거리에 대응하여 상기 서브 분할영역의 개수를 설정하는 단계;을 더 포함하는 것을 특징으로 하는 깊이 영상 생성 방법.
PCT/KR2019/002964 2018-08-23 2019-03-14 3차원 영상 생성 장치 및 방법 WO2020040390A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/270,819 US11425359B2 (en) 2018-08-23 2019-03-14 Apparatus and method for generating three-dimensional image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20180098356 2018-08-23
KR10-2018-0098356 2018-08-23
KR20180100990 2018-08-28
KR10-2018-0100990 2018-08-28

Publications (1)

Publication Number Publication Date
WO2020040390A1 true WO2020040390A1 (ko) 2020-02-27

Family

ID=69592902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/002964 WO2020040390A1 (ko) 2018-08-23 2019-03-14 3차원 영상 생성 장치 및 방법

Country Status (2)

Country Link
US (1) US11425359B2 (ko)
WO (1) WO2020040390A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111458717A (zh) * 2020-04-20 2020-07-28 深圳奥比中光科技有限公司 一种tof深度测量装置、方法及电子设备
CN111551955A (zh) * 2020-06-22 2020-08-18 北京理工大学 一种仿生分块鬼成像方法及系统

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
KR20240007686A (ko) 2017-03-13 2024-01-16 옵시스 테크 엘티디 눈-안전 스캐닝 lidar 시스템
KR102218679B1 (ko) 2017-07-28 2021-02-23 옵시스 테크 엘티디 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기
US11802943B2 (en) 2017-11-15 2023-10-31 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
CN111919137A (zh) 2018-04-01 2020-11-10 欧普赛斯技术有限公司 噪声自适应固态lidar系统
US11500185B2 (en) * 2018-11-09 2022-11-15 Meta Platforms Technologies, Llc Catadioptric and refractive optical structures for beam shaping
EP3953727A4 (en) 2019-04-09 2023-01-04 Opsys Tech Ltd. SOLID STATE LIDAR TRANSMITTER WITH LASER CONTROL
WO2020242834A1 (en) * 2019-05-30 2020-12-03 OPSYS Tech Ltd. Eye-safe long-range lidar system using actuator
KR102637658B1 (ko) 2019-06-10 2024-02-20 옵시스 테크 엘티디 눈-안전 장거리 고체 상태 lidar 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120262553A1 (en) * 2011-04-14 2012-10-18 Industrial Technology Research Institute Depth image acquiring device, system and method
US20160210753A1 (en) * 2012-10-17 2016-07-21 DotProduct LLC Handheld portable optical scanner and method of using
KR20170029315A (ko) * 2015-09-07 2017-03-15 엘지전자 주식회사 센서, 헤드 램프 및 차량
KR20180006377A (ko) * 2015-05-10 2018-01-17 매직 아이 인코포레이티드 거리 센서
US20180063390A1 (en) * 2016-08-29 2018-03-01 Oculus Vr, Llc Spatially tiled structured light projector

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201227159A (en) * 2010-12-24 2012-07-01 wen-jin Zhang Method of taking pictures for generating three-dimensional image data
KR20130098042A (ko) * 2012-02-27 2013-09-04 삼성전자주식회사 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치
KR102457462B1 (ko) * 2018-03-06 2022-10-21 삼성전자주식회사 전자장치의 이미지 처리 장치 및 방법
US11029406B2 (en) * 2018-04-06 2021-06-08 Luminar, Llc Lidar system with AlInAsSb avalanche photodiode
EP3808542A4 (en) * 2018-06-13 2022-02-23 Nikon Corporation ARITHMETIC DEVICE, DETECTION SYSTEM, MODELING APPARATUS, ARITHMETIC METHOD, DETECTION METHOD, MODELING METHOD, ARITHMETIC PROGRAM, DETECTION PROGRAM AND MODELING PROGRAM

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120262553A1 (en) * 2011-04-14 2012-10-18 Industrial Technology Research Institute Depth image acquiring device, system and method
US20160210753A1 (en) * 2012-10-17 2016-07-21 DotProduct LLC Handheld portable optical scanner and method of using
KR20180006377A (ko) * 2015-05-10 2018-01-17 매직 아이 인코포레이티드 거리 센서
KR20170029315A (ko) * 2015-09-07 2017-03-15 엘지전자 주식회사 센서, 헤드 램프 및 차량
US20180063390A1 (en) * 2016-08-29 2018-03-01 Oculus Vr, Llc Spatially tiled structured light projector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111458717A (zh) * 2020-04-20 2020-07-28 深圳奥比中光科技有限公司 一种tof深度测量装置、方法及电子设备
CN111551955A (zh) * 2020-06-22 2020-08-18 北京理工大学 一种仿生分块鬼成像方法及系统

Also Published As

Publication number Publication date
US11425359B2 (en) 2022-08-23
US20210321080A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
WO2020040390A1 (ko) 3차원 영상 생성 장치 및 방법
EP2972081B1 (en) Depth scanning with multiple emitters
WO2013176362A1 (ko) 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법
WO2016175395A2 (ko) 미러 회전 방식의 다채널 라이더 스캐너 광학계
WO2018124413A1 (ko) 송수광 일체형 광학계 모듈 및 이를 구비하는 스캐닝 라이다
US7978312B2 (en) Three-dimensional range imaging apparatus and method
WO2019022304A1 (ko) 하이브리드 라이다 스캐너
WO2018056516A1 (ko) 광학계 모듈 및 그를 갖는 스캐닝 라이다
WO2017073982A1 (ko) 3차원 스캐닝 시스템
WO2018026147A1 (ko) 라이다 장치
WO2019235859A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
CN112305552B (zh) 距离检测装置和摄像设备
KR20160147915A (ko) 3d 조동 레이저 스캐너
WO2021096328A2 (ko) 타겟의 초기 위치 감지 기능을 구비한 레이저 추적 장치 및 추적 방법
WO2020075932A1 (ko) 3차원 영상 생성 장치 및 방법
WO2021060919A1 (ko) 라이다 광학 장치 및 이의 스캐닝 방법
WO2021096095A1 (ko) 라이다 시스템
WO2020067745A1 (ko) 카메라 장치
WO2022154160A1 (ko) 카메라 모듈
WO2020122628A1 (ko) 카메라 장치
WO2021210737A1 (ko) Led 헤드 램프 연동 자동차 라이다 시스템
WO2020159006A1 (ko) 레이저 스캐너 장치
WO2020242223A1 (ko) 카메라 모듈
WO2021137329A1 (ko) 광학 장치
Chen et al. A light modulation/demodulation method for real-time 3d imaging

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19851694

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19851694

Country of ref document: EP

Kind code of ref document: A1