WO2017195984A1 - 3차원 스캐닝 장치 및 방법 - Google Patents

3차원 스캐닝 장치 및 방법 Download PDF

Info

Publication number
WO2017195984A1
WO2017195984A1 PCT/KR2017/003713 KR2017003713W WO2017195984A1 WO 2017195984 A1 WO2017195984 A1 WO 2017195984A1 KR 2017003713 W KR2017003713 W KR 2017003713W WO 2017195984 A1 WO2017195984 A1 WO 2017195984A1
Authority
WO
WIPO (PCT)
Prior art keywords
patterns
subject
exposure levels
depth value
pixel
Prior art date
Application number
PCT/KR2017/003713
Other languages
English (en)
French (fr)
Inventor
이철희
Original Assignee
(주)칼리온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)칼리온 filed Critical (주)칼리온
Priority to US16/300,979 priority Critical patent/US11022435B2/en
Publication of WO2017195984A1 publication Critical patent/WO2017195984A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/339Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00827Arrangements for reading an image from an unusual original, e.g. 3-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0452Indicating the scanned area, e.g. by projecting light marks onto the medium

Definitions

  • Embodiments of the present invention relate to a three-dimensional (3D) scanning technique, and more particularly, to an apparatus and method for scanning a photographed subject in 3D based on a depth value of a code, such as a pattern projected onto the subject. will be.
  • the three-dimensional (3D) scanning device is an optical device for acquiring 3D shape and color information of an object, and is used in a wide range of fields such as commerce, architecture, medicine, industry, science, and culture.
  • the 3D scanning apparatus can be implemented by various methods such as laser triangulation, structured light projection, and TOF (Time Of Flight), and stores the 3D shape information of the obtained object in a 3D file format that can be used in a computer.
  • 3D scanning technology acquires and stores object shape information as a computer model, and its demands are gradually increasing in areas such as robot driving, component defect inspection, reverse engineering, human computer interaction, and cultural restoration. Doing.
  • 3D scanning of a subject through image combination may be performed by capturing a subject to be captured at different exposure levels and then combining the captured images.
  • Embodiments of the present invention provide a 3D scanning apparatus and method capable of 3D scanning a photographed subject based on a depth value of a code such as a pattern projected onto the subject.
  • embodiments of the present invention capture a plurality of patterns projected onto a subject at different exposure levels, and depth values for each pixel of the subject photographed using the plurality of patterns photographed at different exposure levels.
  • the present invention provides a 3D scanning apparatus and method capable of scanning a photographed subject in 3D.
  • a three-dimensional scanning apparatus includes: a projector projecting a plurality of preset patterns on a subject to be three-dimensional scanned; A photographing unit configured to photograph each of the plurality of patterns projected onto the subject at each of a plurality of preset exposure levels; A calculator configured to calculate a depth value for each pixel of the subject based on the plurality of patterns photographed by each of the plurality of exposure levels; And a scanning unit configured to three-dimensionally scan a subject to be photographed based on the calculated depth value.
  • the calculation unit calculates a depth value for each pixel of the subject at each of the plurality of exposure levels, and combines the depth value for the pixel calculated at each of the plurality of exposure levels, thereby providing a value for each pixel of the subject. Can calculate the depth value.
  • the calculator determines a calculation area for each of the plurality of exposure levels based on the plurality of patterns photographed for each of the plurality of exposure levels, and calculates a depth value for a pixel calculated in each of the determined calculation areas. By combining the depth values of the pixels of the subject can be calculated.
  • the photographing unit photographs each of the plurality of patterns as each of the plurality of exposure levels using one camera that is adjustable to each of the plurality of exposure levels, or photographs each of the plurality of patterns as the plurality of exposure levels.
  • Each of the plurality of patterns may be photographed using a plurality of cameras set as each.
  • the photographing unit may photograph each of the plurality of patterns at each of the plurality of exposure levels in synchronization with a timing at which each of the plurality of patterns is projected.
  • 3D scanning method comprises the steps of projecting a plurality of preset patterns to the subject to be three-dimensional scanning; Photographing each of the plurality of patterns projected onto the subject at each of a plurality of preset exposure levels; Calculating a depth value for each pixel of the subject based on the plurality of patterns photographed by each of the plurality of exposure levels; And 3D scanning the photographed subject based on the calculated depth value.
  • the calculating of the depth value may include calculating depth values for each pixel of the subject at each of the plurality of exposure levels, and combining depth values for pixels calculated at each of the plurality of exposure levels.
  • the depth value of each pixel of the subject may be calculated.
  • the calculating of the depth value may include determining a calculation area for each of the plurality of exposure levels based on the plurality of patterns photographed for each of the plurality of exposure levels, and calculating each of the determined calculation areas. By combining the depth values for the pixels, the depth values for each pixel of the subject may be calculated.
  • the photographing may be performed by photographing each of the plurality of patterns at each of the plurality of exposure levels using one camera that is adjustable to each of the plurality of exposure levels, or photographing each of the plurality of patterns at the plurality of exposures.
  • Each of the plurality of patterns may be photographed using a plurality of cameras set at each level.
  • the photographing may be performed by capturing each of the plurality of patterns at each of the plurality of exposure levels in synchronization with a timing at which each of the plurality of patterns is projected.
  • a three-dimensional scanning apparatus includes: a projector projecting a plurality of preset patterns with different predetermined light intensities to a subject to be three-dimensional scanned; A photographing unit which photographs each of the plurality of patterns projected onto the subject at a preset exposure level; A calculator configured to calculate a depth value of each pixel of the subject based on the photographed patterns; And a scanning unit configured to three-dimensionally scan the photographed subject based on the calculated depth value.
  • a depth value for each pixel of a subject photographed by using a plurality of patterns photographed at different exposure levels and photographed by a plurality of patterns projected onto the subject by different exposure levels By calculating, the photographed subject can be scanned in 3D.
  • a depth value of a bright area of the photographed subject is an image of a plurality of patterns photographed at a low exposure level.
  • the data can be calculated using the data, and the depth value for the dark area can be calculated using the image data for the plurality of patterns photographed at the high exposure level, and thus the depth value for both the bright and dark areas of the photographed subject.
  • 3D scanning may be performed on the mode pixels of the photographed subject.
  • FIG. 1 shows an exemplary view for explaining an apparatus according to the present invention.
  • FIG. 2 shows a configuration of a 3D scanning apparatus according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a method of photographing a plurality of patterns by adjusting an exposure level in one camera.
  • FIG. 4 is a diagram illustrating an example of a method of photographing a plurality of patterns by adjusting exposure levels of three cameras.
  • 5 illustrates an example of patterns projected onto a subject.
  • FIG. 6 is a flowchart illustrating an operation of a 3D scanning method according to an exemplary embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating an embodiment of operation S630 of FIG. 6.
  • Embodiments of the present invention calculate a depth value for each pixel of a photographed subject based on a plurality of patterns photographed by each of the plurality of exposure levels, and 3D scan the subject based on the calculated depth value. That's the point.
  • the at least one camera photographing the subject may photograph a plurality of patterns projected by the projector to the subject, for example, a plurality of patterns projected 36 times per second, and the plurality of patterns may be different from each other. Each of the plurality of exposure levels may be photographed.
  • calculating a depth value for each pixel may include a concept of calculating three-dimensional coordinates for each pixel.
  • FIG. 1 illustrates an exemplary view for explaining an apparatus according to the present invention
  • FIG. 2 illustrates a configuration of a 3D scanning apparatus according to an embodiment of the present invention.
  • the 3D scanning apparatus 100 is an apparatus for 3D scanning a subject to be scanned, and includes a photographing unit 110, a projector 120, and a calculating unit 130. ) And the scanning unit 140.
  • the projector 120 projects a plurality of preset patterns having a predetermined shape on the subject 200 to be scanned in three dimensions.
  • the projector 120 may project light having different patterns preset for a predetermined time, for example, 1 second, for example, 36 different patterns of light to the subject by a control means, for example, the MCU of the device. have.
  • a control means for example, the MCU of the device.
  • the number and pattern of the light projected by the projector 120 to the subject 200 may be determined by the operator providing the present invention.
  • the pattern projected onto the subject by the projector 120 may have various stripe patterns having different widths in the horizontal direction, as in the example illustrated in FIG. 5A, and as illustrated in the example illustrated in FIG. 5B, It may have various stripe patterns having different widths in the vertical direction, and may have a grid pattern or a check pattern as shown in FIG. 5C.
  • the pattern projected by the projector is not limited to the patterns shown in FIG. 5, and may include various applicable patterns, such as a cross pattern and an X-shaped pattern.
  • the projector 120 may be disposed at a position where the patterns can be vertically projected onto the subject.
  • the position of the projector 120 may be disposed at a position other than the position perpendicular to the position of the subject.
  • the pattern projected onto the subject is basically distorted by the placement position, each pixel of the photographed subject In order to calculate the depth value for, this distortion must be taken into account.
  • the projector 120 projects the plurality of patterns to the subject in synchronization with the photographing time of the photographing unit 110, and the projection time and the photographing time may also be controlled by the control means of the apparatus.
  • the photographing unit 110 is a constituent means for photographing each of the plurality of patterns projected onto the subject. Each of the patterns may be photographed with a plurality of preset exposure levels.
  • the photographing unit 110 photographs the plurality of patterns projected onto the subject to be 3D scanned at each of the plurality of exposure levels in order to calculate a depth value for each pixel of the photographed subject.
  • the image data for each of the plurality of patterns photographed at each of the plurality of exposure levels is provided to the calculator 130.
  • the photographing unit 110 photographs a plurality of patterns at each of the plurality of exposure levels, an error may occur or be recognized in some of the photographing areas of each of the plurality of patterns photographed at the first exposure level. If not, the image data of each of the plurality of patterns photographed at different exposure levels may be compensated for, and thus image data capable of calculating depth values for all pixels of the subject may be obtained.
  • the photographing unit 110 may photograph each of the plurality of patterns projected onto the subject as each of the plurality of exposure levels by using one camera capable of adjusting the exposure level, or the plurality of fixed levels at the respective exposure levels.
  • Each of the plurality of patterns may be photographed using cameras.
  • the plurality of patterns are sequentially photographed by sequentially photographing the plurality of patterns at the first exposure level and then adjusting the second exposure level. Photographing may be performed to adjust the third exposure level to sequentially photograph the plurality of patterns.
  • the exposure level for capturing patterns in the photographing unit 110 of the present invention may include a preset high exposure level, medium exposure level, and low exposure level, each exposure level being provided by an operator providing the technology of the present invention. As determined, it may vary depending on the surrounding environment and the target subject to be scanned.
  • the photographing unit 110 uses a single camera that can adjust the exposure level, as shown in FIG. 3, the photographing unit 110 is set to a first exposure level (for example, a high exposure level). Photographing a plurality of sequentially projected patterns at a projection time point, photographing a plurality of patterns sequentially projected to a subject while setting an exposure level to a second exposure level (for example, an intermediate exposure level) The image of the plurality of patterns at the first exposure level may be captured by photographing a plurality of patterns sequentially projected onto the subject with the exposure level set to a third exposure level (eg, a low exposure level).
  • a third exposure level eg, a low exposure level
  • Image data for a plurality of patterns at a second exposure level, and image data for a plurality of patterns at a third exposure level are obtained.
  • the photographing time may be longer than when using a plurality of cameras because the photographing is performed while the exposure level is sequentially changed.
  • the photographing unit 110 uses three cameras having different exposure levels, as shown in FIG. 4, the first camera fixed at the first exposure level and the second camera fixed at the second exposure level are illustrated in FIG. 4. And simultaneously photographing a plurality of patterns sequentially projected from the third camera fixed to the third exposure level to the subject at the projection time point to thereby obtain image data of the plurality of patterns at the first exposure level and the second exposure level. Image data for a plurality of patterns and image data for a plurality of patterns at a third exposure level may be acquired at a time.
  • the ambient brightness is sensed to determine at least one or more exposure levels corresponding to the sensed ambient brightness among the plurality of exposure levels, and the subject is determined by at least one or more exposure levels. It is also possible to photograph a plurality of patterns projected onto. For example, if the ambient brightness is dark, you can shoot multiple patterns projected onto the subject only at high and medium exposure levels. If the ambient brightness is very bright, multiple patterns projected to the subject at low and medium exposure levels only. You can also shoot the patterns.
  • the calculator 130 calculates a depth value of each pixel of the photographed subject based on image data of each of the plurality of patterns photographed at each of the plurality of exposure levels.
  • the calculator 130 may estimate and calculate a depth value of each pixel of the subject based on the plurality of patterns projected by the projector 120 and the plurality of patterns photographed at each exposure level.
  • the calculation unit 130 calculates a depth value for each pixel of the subject at each of the plurality of exposure levels, and combines the depth value for the pixel calculated at each of the plurality of exposure levels, thereby applying a pixel value to each pixel of the subject. Calculate the depth value for.
  • the calculator 130 determines a calculation area for calculating a depth value for each pixel of the subject from image data of a plurality of patterns photographed for each of the plurality of exposure levels, and determines each of the exposure levels. By calculating the depth value of the pixel value in the calculation region determined with respect to the combination, it is possible to calculate the depth value for each pixel of the subject.
  • the depth value is calculated only for the recognizable area at each exposure level, and these values are applied to all of the plurality of exposure levels. By combining with each other, depth values for pixels of all regions of the subject can be calculated.
  • the calculator 130 may generate different depth values for the same pixel when combining or combining the depth values of the pixels calculated at each of the plurality of exposure levels.
  • each of the exposure levels and the photographed image data may be generated.
  • the depth value of the corresponding pixel may be determined by considering whether a saturation exposure occurs at a low exposure level or an under exposure occurs at a high exposure level.
  • a method of determining one depth value from a plurality of depth values for a corresponding pixel is not limited thereto. All possible methods can be used.
  • Computing depth values of the pixels of all the regions of the subject may include a concept of calculating three-dimensional coordinates of the pixels of all the regions of the subject.
  • the scanning unit 140 scans an object photographed by the photographing unit based on the depth value of each pixel calculated by the calculating unit 130 in three dimensions.
  • the scanning unit 140 may scan the subject in three dimensions by correcting a depth value of each pixel of the subject photographed by the photographing unit based on the calculated depth value of each pixel.
  • the 3D scanning apparatus photographs a plurality of patterns projected onto a subject at a plurality of exposure levels, and applies the image data of the plurality of patterns photographed at each of the plurality of exposure levels.
  • the photographed subject may be scanned in 3D using the calculated depth value of each pixel.
  • the scanned 3D data may be stored in a storage means provided in the apparatus or provided separately.
  • a depth value of a bright area of the photographed subject may be a plurality of patterns captured at a low exposure level.
  • the depth value of the dark area may be calculated using the image data of the plurality of patterns photographed at the high exposure level, and thus, both the bright and dark areas of the photographed subject may be calculated.
  • 3D scanning may be performed on the mode pixels of the photographed subject by calculating a depth value for.
  • the 3D scanning apparatus projects a subject by changing the intensity of light for a plurality of patterns projected from the projector without changing the exposure of the camera, thereby projecting different images captured in the same exposure state.
  • the depth value of each pixel of the photographed subject may be calculated based on patterns having light intensity, and the subject may be 3D scanned based on the calculated depth value.
  • the projector projects a plurality of patterns having a certain shape on the subject at different light intensities.
  • the projector may project at a different light intensity for each of the plurality of patterns, project at a first light intensity for the plurality of patterns and then project at a second light intensity for the next plurality of patterns. It is also possible to adjust the light intensity in a manner.
  • the photographing unit photographs each of the plurality of patterns projected at different light intensities to the subject at a predetermined exposure level.
  • the calculator estimates and calculates a depth value for each pixel of the subject based on a plurality of patterns having different light intensities projected by the projector and a plurality of patterns photographed by the photographing unit.
  • the scanning unit 140 scans a three-dimensional object photographed by the photographing unit based on the depth value of each pixel calculated by the calculating unit.
  • FIG. 6 is a flowchart illustrating an operation of a 3D scanning method according to an exemplary embodiment of the present invention, and illustrates an operation flowchart of the 3D scanning apparatus of FIGS. 1 to 5 described above.
  • the 3D scanning method projects a plurality of preset patterns on a subject to be 3D scanned, and sets a plurality of preset exposure levels on each of the plurality of patterns projected on the subject. Shooting with each of them (S610, S620).
  • the projection time of each of the plurality of patterns projected onto the subject and the time of photographing each of the plurality of patterns may be synchronized, and the plurality of patterns projected onto the subject may be controlled by using one camera having an adjustable exposure level.
  • Each of the plurality of patterns projected onto the subject may be photographed at each of the plurality of exposure levels, and each of the plurality of patterns may be photographed using the plurality of cameras set to the plurality of exposure levels, respectively. .
  • image data of each of the plurality of patterns projected onto the subject by each of the plurality of exposure levels is obtained in operation S620
  • image data of each of the plurality of patterns projected onto the subject photographed by each of the plurality of exposure levels is acquired. Based on the calculated depth value for each pixel of the subject (S630).
  • step S630 calculates a depth value for each pixel of the subject based on image data of each of the plurality of patterns at each of the plurality of exposure levels, and calculates a depth for the pixel calculated at each of the plurality of exposure levels. By combining the values, the depth value for each pixel of the subject can be calculated.
  • operation S630 determines a calculation region for each of the plurality of exposure levels based on the plurality of patterns photographed for each of the plurality of exposure levels, and calculates each of the determined calculation regions. By combining the depth values for the pixels, the depth values for each pixel of the photographed subject are calculated (S710 and S720).
  • calculating the depth value for each pixel of the subject in operation S630 or S720 may include a concept of calculating three-dimensional coordinates for each pixel of the subject.
  • step S630 When the depth value of each pixel of the subject is calculated in step S630, the subject to be photographed is three-dimensionally scanned based on the calculated depth value of each pixel (S640).
  • the 3D scanning method according to the embodiment of the present invention may include all operations in the 3D scanning apparatus described with reference to FIGS. 1 to 5.
  • the system or apparatus described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components.
  • the systems, devices, and components described in the embodiments may include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs). ), A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiments may be embodied in the form of program instructions that may be executed by various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

3차원 스캐닝 장치 및 방법이 개시된다. 본 발명의 일 실시예에 따른 3차원 스캐닝 장치는 3차원 스캐닝하고자 하는 피사체에 미리 설정된 복수의 패턴들을 프로젝션하는 프로젝터; 상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들 각각으로 촬영하는 촬영부; 상기 복수의 노출 레벨들 각각에 의해 촬영된 상기 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 계산부; 및 상기 계산된 뎁스 값에 기초하여 상기 촬영되는 피사체를 3차원 스캐닝하는 스캐닝부를 포함하고, 상기 계산부는 상기 복수의 노출 레벨들 각각에서, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하고, 상기 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.

Description

3차원 스캐닝 장치 및 방법
본 발명의 실시예들은 3차원(3D) 스캐닝 기술에 관한 것으로, 보다 상세하게는 피사체로 프로젝션되는 패턴과 같은 코드의 뎁스 값에 기초하여 촬영되는 피사체를 3D로 스캐닝할 수 있는 장치 및 방법과 관련된 것이다.
3차원(3D) 스캐닝 장치는 물체의 3D 형상 및 색상 정보를 획득하는 광학기기로서 상업, 건축, 의학, 공업, 학술, 문화 등 광범위한 분야에 걸쳐 사용된다. 3D 스캐닝 장치는 레이저 삼각법, 구조광 투영, TOF(Time Of Flight) 등 여러 가지의 방법으로 구현이 가능하며, 획득된 물체의 3차원 형상 정보를 컴퓨터에서 사용할 수 있는 3차원 파일 형식으로 저장한다.
3D 스캐닝 기술은 물체의 형상 정보를 획득하여 컴퓨터 모델로 저장하며, 로봇의 주행, 부품의 결함 검사, 리버스(reverse) 엔지니어링, HCI (Human Computer Interaction), 문화재복원 등의 분야에서 그 요구가 점차 증가하고 있다.
종래 3D 스캐닝에 대한 일 실시예 기술은, 촬영하고자 하는 피사체를 상이한 노출 레벨들로 촬영한 후 촬영된 영상들을 합침으로써, 피사체를 영상 조합을 통해 3D 스캐닝할 수 있다.
본 발명의 실시예들은, 피사체로 프로젝션되는 패턴과 같은 코드의 뎁스 값에 기초하여 촬영되는 피사체를 3D로 스캐닝할 수 있는 3D 스캐닝 장치 및 방법을 제공한다.
구체적으로, 본 발명의 실시예들은 피사체로 프로젝션되는 복수의 패턴들을 서로 다른 노출 레벨들로 촬영하고, 서로 다른 노출 레벨들로 촬영된 복수의 패턴들을 이용하여 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산함으로써, 촬영되는 피사체를 3D로 스캐닝할 수 있는 3D 스캐닝 장치 및 방법을 제공한다.
본 발명의 일 실시예에 따른 3차원 스캐닝 장치는 3차원 스캐닝하고자 하는 피사체에 미리 설정된 복수의 패턴들을 프로젝션하는 프로젝터; 상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들 각각으로 촬영하는 촬영부; 상기 복수의 노출 레벨들 각각에 의해 촬영된 상기 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 계산부; 및 상기 계산된 뎁스 값에 기초하여 촬영되는 피사체를 3차원 스캐닝하는 스캐닝부를 포함한다.
상기 계산부는 상기 복수의 노출 레벨들 각각에서, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하고, 상기 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.
상기 계산부는 상기 복수의 노출 레벨들 각각에 대해 촬영된 상기 복수의 패턴들에 기초하여 상기 복수의 노출 레벨들 각각에 대한 계산 영역을 결정하고, 상기 결정된 계산 영역 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.
상기 촬영부는 상기 복수의 노출 레벨들 각각으로 조절 가능한 하나의 카메라를 이용하여 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영하거나 또는 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 설정된 복수의 카메라들을 이용하여 상기 복수의 패턴들 각각을 촬영할 수 있다.
상기 촬영부는 상기 복수의 패턴들 각각이 프로젝션되는 시점에 동기되어 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영할 수 있다.
본 발명의 일 실시예에 따른 3차원 스캐닝 방법은 3차원 스캐닝하고자 하는 피사체에 미리 설정된 복수의 패턴들을 프로젝션하는 단계; 상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들 각각으로 촬영하는 단계; 상기 복수의 노출 레벨들 각각에 의해 촬영된 상기 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 단계; 및 상기 계산된 뎁스 값에 기초하여 촬영되는 피사체를 3차원 스캐닝하는 단계를 포함한다.
상기 뎁스 값을 계산하는 단계는 상기 복수의 노출 레벨들 각각에서, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하고, 상기 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.
상기 뎁스 값을 계산하는 단계는 상기 복수의 노출 레벨들 각각에 대해 촬영된 상기 복수의 패턴들에 기초하여 상기 복수의 노출 레벨들 각각에 대한 계산 영역을 결정하고, 상기 결정된 계산 영역 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.
상기 촬영하는 단계는 상기 복수의 노출 레벨들 각각으로 조절 가능한 하나의 카메라를 이용하여 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영하거나 또는 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 설정된 복수의 카메라들을 이용하여 상기 복수의 패턴들 각각을 촬영할 수 있다.
상기 촬영하는 단계는 상기 복수의 패턴들 각각이 프로젝션되는 시점에 동기되어 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영할 수 있다.
본 발명의 다른 일 실시예에 따른 3차원 스캐닝 장치는 3차원 스캐닝하고자 하는 피사체에 미리 결정된 상이한 광 강도로 미리 설정된 복수의 패턴들을 프로젝션하는 프로젝터; 상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 노출 레벨로 촬영하는 촬영부; 상기 촬영된 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 계산부; 및 상기 계산된 뎁스 값에 기초하여 상기 촬영되는 피사체를 3차원 스캐닝하는 스캐닝부를 포함한다.
본 발명의 실시예들에 따르면, 피사체로 프로젝션되는 복수의 패턴들을 서로 다른 노출 레벨들로 촬영하고, 서로 다른 노출 레벨들로 촬영된 복수의 패턴들을 이용하여 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산함으로써, 촬영되는 피사체를 3D로 스캐닝할 수 있다.
촬영되는 피사체에 밝은 영역과 어두운 영역이 존재한다 가정할 때, 노출을 높이면 밝은 영역은 saturation exposure가 발생해서 하얗게 되어서 식별이 불가능하고, 노출을 낮추면 어두운 영역은 under exposure가 발생해서 검정색으로 되어서 식별이 불가능해 진다.
본 발명의 실시예들에 따르면, 복수의 노출 레벨들로 피사체로 프로젝션되는 복수의 패턴들을 촬영하기 때문에 촬영되는 피사체의 밝은 영역에 대한 뎁스 값은 저 노출 레벨로 촬영된 복수의 패턴들에 대한 영상 데이터를 이용하여 계산하고, 어두운 영역에 대한 뎁스 값은 고 노출 레벨로 촬영된 복수의 패턴들에 대한 영상 데이터를 이용하여 계산할 수 있으며, 따라서 촬영되는 피사체의 밝은 영역과 어두운 영역 모두에 대한 뎁스 값을 계산하여 촬영되는 피사체의 모드 화소에 대해 3D 스캐닝할 수 있다.
도 1은 본 발명에 따른 장치를 설명하기 위한 일 예시도를 나타낸 것이다.
도 2는 본 발명의 일 실시예에 따른 3D 스캐닝 장치에 대한 구성을 나타낸 것이다.
도 3은 한 대의 카메라에서 노출 레벨을 조절하여 복수의 패턴들을 촬영하는 방법을 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 세 대의 카메라에서 노출 레벨을 조절하여 복수의 패턴들을 촬영하는 방법을 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 피사체에 프로젝션되는 패턴들에 대한 예시도를 나타낸 것이다.
도 6은 본 발명의 일 실시예에 따른 3D 스캐닝 방법에 대한 동작 흐름도를 나타낸 것이다.
도 7은 도 6의 단계 S630에 대한 일 실시예 동작 흐름도를 나타낸 것이다.
이하, 본 발명의 실시예들을 첨부된 도면들을 참조하여 설명한다. 아래에서는 한정된 실시예들이 기술되지만, 이러한 실시예들은 본 발명의 예이며, 당업자는 이러한 실시예들을 용이하게 변경할 수 있다.
본 발명의 실시예들은, 복수의 노출 레벨들 각각에 의해 촬영되는 복수의 패턴들에 기초하여 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산하고, 이렇게 계산된 뎁스 값에 기초하여 피사체를 3D 스캐닝하는 것을 그 요지로 한다.
이 때, 피사체를 촬영하는 적어도 하나의 카메라는 프로젝터(projector)에 의해 피사체로 프로젝션되는 복수의 패턴들 예를 들어, 1초에 36번 프로젝션되는 복수의 패턴들을 촬영할 수 있으며, 복수의 패턴들은 상이한 복수의 노출 레벨들 각각에 대하여 촬영될 수 있다.
본 발명에서 각 화소에 대한 뎁스 값을 계산한다는 것은 각 화소에 대한 3차원 좌표를 계산하는 개념을 포함할 수 있다.
이러한 본 발명의 실시예들에 따른 장치 및 방법에 대해 도 1 내지 도 7을 참조하여 상세히 설명한다.
도 1은 본 발명에 따른 장치를 설명하기 위한 일 예시도를 나타낸 것이고, 도 2는 본 발명의 일 실시예에 따른 3D 스캐닝 장치에 대한 구성을 나타낸 것이다.
도 1과 도 2를 참조하면, 본 발명의 일 실시예에 따른 3D 스캐닝 장치(100)는 스캐닝하고자 하는 피사체를 3D 스캐닝하는 장치로, 촬영부(110), 프로젝터(120), 계산부(130) 및 스캐닝부(140)를 포함한다.
프로젝터(120)는 3차원 스캐닝하고자 하는 피사체(200)에 일정 형태를 가지는 미리 설정된 복수의 패턴들을 프로젝션한다.
여기서, 프로젝터(120)는 제어 수단 예를 들어, 장치의 MCU에 의해 일정 시간 예를 들어, 1초 동안 미리 설정된 상이한 패턴을 가지는 광 예를 들어, 36개의 상이한 패턴의 광을 피사체로 프로젝션할 수 있다. 물론, 프로젝터(120)에 의해 피사체(200)로 프로젝션되는 광의 개수와 패턴은 본 발명을 제공하는 사업자에 의해 결정될 수 있다.
프로젝터(120)에 의해 피사체로 프로젝션되는 패턴은 도 5a에 도시된 일 예와 같이, 가로 방향으로 상이한 폭을 가지는 다양한 스트라이프(stripe) 패턴을 가질 수도 있고, 도 5b에 도시된 일 예와 같이, 세로 방향으로 상이한 폭을 가지는 다양한 스트라이프 패턴을 가질 수도 있으며, 도 5c에 도시된 일 예와 같이, 격자 패턴 또는 체크 패턴을 가질 수도 있다. 물론, 프로젝터에 의해 프로젝션되는 패턴이 도 5에 도시된 패턴들로 한정되지 않으며, 십자가 패턴, X자 패턴 등 적용 가능한 다양한 패턴들을 포함할 수 있다.
이러한 프로젝터(120)는 패턴들을 피사체로 수직으로 프로젝션할 수 있는 위치에 배치될 수 있다. 물론, 프로젝터(120)의 위치가 피사체의 위치에 수직인 위치가 아닌 다른 위치에 배치될 수도 있는데, 이 경우 배치 위치에 의하여 피사체로 프로젝션된 패턴이 기본적으로 왜곡이 생기기 때문에 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산하기 위해서는, 이러한 왜곡을 고려하여야 한다.
또한, 프로젝터(120)는 복수의 패턴들을 촬영부(110)의 촬영 시점과 동기시켜 피사체로 프로젝션하는 것으로, 프로젝션 시점과 촬영 시점 또한 장치의 제어 수단에 의해 제어될 수 있다.
촬영부(110)는 피사체에 프로젝션되는 복수의 패턴들 각각을 촬영하는 구성 수단으로, 장치의 제어 수단에 의한 제어에 의해 복수의 패턴들 각각이 피사체로 프로젝션되는 시점에 기초하여 피사체에 프로젝션되는 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들로 촬영한다.
즉, 촬영부(110)는 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산하기 위하여, 3D 스캐닝하고자 하는 피사체로 프로젝션되는 복수의 패턴들을 복수의 노출 레벨들 각각으로 촬영한다. 물론, 복수의 노출 레벨들 각각으로 촬영된 복수의 패턴들 각각에 대한 영상 데이터는 계산부(130)로 제공된다.
본 발명에서의 촬영부(110)는 복수의 노출 레벨들 각각으로 복수의 패턴들을 촬영하기 때문에 제1 노출 레벨로 촬영된 복수의 패턴들 각각의 촬영 영역 중 일부에 오류가 발생하거나 인식을 할 수 없더라도, 다른 노출 레벨로 촬영된 복수의 패턴들 각각의 영상 데이터에서 이를 보완할 수 있으며, 따라서 피사체의 모든 화소에 대한 뎁스 값을 계산할 수 있는 영상 데이터를 획득할 수 있다.
이 때, 촬영부(110)는 노출 레벨 조절이 가능한 한 대의 카메라를 이용하여 피사체에 프로젝션되는 복수의 패턴들 각각을 복수의 노출 레벨들 각각으로 촬영할 수도 있고, 각각의 노출 레벨로 고정된 복수의 카메라들을 이용하여 복수의 패턴들 각각을 촬영할 수도 있다. 물론, 한 대의 카메라를 이용하여 복수의 노출 레벨들 각각으로 복수의 패턴들을 촬영하기 위해서는, 제1 노출 레벨로 복수의 패턴들을 순차적으로 촬영한 후 제2 노출 레벨로 조절하여 복수의 패턴들을 순차적으로 촬영하고 다시 제3 노출 레벨로 조절하여 복수의 패턴들을 순차적으로 촬영할 수 있다. 본 발명의 촬영부(110)에서 패턴들을 촬영하는 노출 레벨은 미리 설정된 고 노출 레벨, 중간 노출 레벨, 저 노출 레벨을 포함할 수 있으며, 각각의 노출 레벨은 본 발명의 기술을 제공하는 사업자에 의해 결정되는 것으로, 주변 환경과 스캐닝하고자 하는 대상 피사체에 따라 달라질 수도 있다.
일 예로, 촬영부(110)가 노출 레벨을 조절할 수 있는 한 대의 카메라를 이용하는 경우에는 도 3에 도시된 바와 같이, 제1 노출 레벨(예를 들어, 고 노출 레벨)로 설정한 상태에서 피사체로 순차적으로 프로젝션되는 복수의 패턴들을 프로젝션 시점에서 촬영하고, 노출 레벨을 제2 노출 레벨(예를 들어, 중간 노출 레벨)로 설정한 상태에서 피사체로 순차적으로 프로젝션되는 복수의 패턴들을 프로젝션 시점에서 촬영하며, 노출 레벨을 제3 노출 레벨(예를 들어, 저 노출 레벨)로 설정한 상태에서 피사체로 순차적으로 프로젝션되는 복수의 패턴들을 프로젝션 시점에서 촬영함으로써, 제1 노출 레벨에서 복수의 패턴들에 대한 영상 데이터, 제2 노출 레벨에서 복수의 패턴들에 대한 영상 데이터 및 제3 노출 레벨에서 복수의 패턴들에 대한 영상 데이터를 획득한다. 물론, 도 3의 경우에는 노출 레벨을 순차적으로 변경하면서 촬영하기 때문에 촬영 시간이 복수의 카메라를 이용하는 경우에 비해 더 길어질 수 있다.
다른 일 예로, 촬영부(110)가 노출 레벨이 상이한 세 대의 카메라를 이용하는 경우에는 도 4에 도시된 바와 같이, 제1 노출 레벨로 고정된 제1 카메라와 제2 노출 레벨로 고정된 제2 카메라 그리고 제3 노출 레벨로 고정된 제3 카메라에서 피사체로 순차적으로 프로젝션되는 복수의 패턴들을 프로젝션 시점에서 동시에 촬영함으로써, 제1 노출 레벨에서의 복수의 패턴들에 대한 영상 데이터, 제2 노출 레벨에서의 복수의 패턴들에 대한 영상 데이터와 제3 노출 레벨에서의 복수의 패턴들에 대한 영상 데이터를 한번에 획득할 수 있다.
나아가, 촬영부(110)가 주변 환경 센서를 구비한 경우 주변 밝기를 센싱하여 복수의 노출 레벨들 중 센싱된 주변 밝기에 대응하는 적어도 하나 이상의 노출 레벨을 결정하고, 결정된 적어도 하나 이상의 노출 레벨로 피사체로 프로젝션되는 복수의 패턴들을 촬영할 수도 있다. 예를 들어, 주변 밝기가 어두운 경우에는 고 노출 레벨과 중간 노출 레벨로만 피사체로 프로젝션되는 복수의 패턴들을 촬영할 수 있으며, 주변 밝기가 아주 밝은 경우에는 저 노출 레벨과 중간 노출 레벨로만 피사체로 프로젝션되는 복수의 패턴들을 촬영할 수도 있다.
계산부(130)는 복수의 노출 레벨들 각각에서 촬영된 복수의 패턴들 각각에 대한 영상 데이터에 기초하여 촬영되는 피사체의 각 화소에 대한 뎁스(depth) 값을 계산한다.
이 때, 계산부(130)는 프로젝터(120)에서 프로젝션되는 복수의 패턴들과 각 노출 레벨에서 촬영된 복수의 패턴들에 기초하여 피사체의 각 화소에 대한 뎁스 값을 추정 및 계산할 수 있다.
이러한 계산부(130)는 복수의 노출 레벨들 각각에서, 피사체의 각 화소에 대한 뎁스 값을 계산하고, 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 피사체의 각 화소에 대한 뎁스 값을 계산한다.
구체적으로, 계산부(130)는 복수의 노출 레벨들 각각에 대해 촬영된 복수의 패턴들에 대한 영상 데이터로부터 피사체의 각 화소에 대한 뎁스 값을 계산하기 위한 계산 영역을 결정하고, 노출 레벨들 각각에 대하여 결정된 계산 영역에서의 화소 값에 대한 뎁스 값을 계산한 후 이를 조합함으로써, 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.
이는 각 노출 레벨에서 촬영된 복수의 패턴들에 대한 영상 데이터에서, 인지 불가능한 영역이 발생할 수 있기 때문에 각 노출 레벨에서 인지 가능한 영역에 대해서만 뎁스 값을 계산하고, 이 값들을 복수의 노출 레벨들 모두에 대해 조합함으로써, 피사체의 모든 영역의 화소에 대한 뎁스 값을 계산할 수 있다.
나아가, 계산부(130)는 복수의 노출 레벨들 각각에서 계산된 화소의 뎁스 값을 조합 또는 합칠 때 동일한 화소에 대하여 상이한 뎁스 값이 발생할 수도 있는데, 이러한 경우에는 각 노출 레벨과 촬영된 영상 데이터를 이용하여 저 노출 레벨에서 saturation exposure가 일어난 것인지 고 노출 레벨에서 under exposure가 일어난 것인지 등을 고려함으로써, 해당 화소의 뎁스 값을 결정할 수 있다. 물론, 상술한 내용은 해당 화소의 뎁스 값을 결정하는 한 방법에 대한 예를 설명한 것으로, 본 발명에서 해당 화소에 대한 복수의 뎁스 값에서 어느 하나의 뎁스 값을 결정하는 방법은 이에 한정되지 않으며 적용 가능한 모든 방법이 사용될 수 있다.
이러한 계산부(130)에서 피사체의 모든 영역의 화소에 대한 뎁스 값을 계산한다는 것은 피사체의 모든 영역의 화소에 대한 3차원 좌표를 계산하는 개념을 포함할 수 있다.
스캐닝부(140)는 계산부(130)에 의해 계산된 각 화소의 뎁스 값에 기초하여 촬영부에 의해 촬영되는 피사체를 3차원 스캐닝한다.
구체적으로, 스캐닝부(140)는 계산된 각 화소의 뎁스 값에 기초하여 촬영부에 의해 촬영되는 피사체의 각 화소에 대한 뎁스 값을 보정함으로써, 피사체를 3차원으로 스캐닝할 수 있다.
이와 같이, 본 발명의 실시예에 따른 3D 스캐닝 장치는 피사체로 프로젝션되는 복수의 패턴들을 복수의 노출 레벨들 각각으로 촬영하고, 복수의 노출 레벨들 각각으로 촬영된 복수의 패턴들에 대한 영상 데이터에 기초하여 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산함으로써, 계산된 각 화소의 뎁스 값을 이용하여 촬영되는 피사체를 3D로 스캐닝할 수 있다. 물론, 이렇게 스캐닝된 3D 데이터는 장치에 구비되거나 별도로 구비된 저장 수단에 저장될 수 있다.
또한, 본 발명의 실시예에 따른 3D 스캐닝 장치는 복수의 노출 레벨들로 피사체로 프로젝션되는 복수의 패턴들을 촬영하기 때문에 촬영되는 피사체의 밝은 영역에 대한 뎁스 값은 저 노출 레벨로 촬영된 복수의 패턴들에 대한 영상 데이터를 이용하여 계산하고, 어두운 영역에 대한 뎁스 값은 고 노출 레벨로 촬영된 복수의 패턴들에 대한 영상 데이터를 이용하여 계산할 수 있으며, 따라서 촬영되는 피사체의 밝은 영역과 어두운 영역 모두에 대한 뎁스 값을 계산하여 촬영되는 피사체의 모드 화소에 대해 3D 스캐닝할 수 있다.
나아가, 본 발명의 다른 실시예에 따른 3D 스캐닝 장치는 카메라의 노출을 변화시키지 않은 상태에서 프로젝터에서 프로젝션되는 복수의 패턴들에 대한 광의 강도를 변화시키면서 피사체에 프로젝션함으로써, 동일한 노출 상태에서 촬영되는 상이한 광의 강도를 가지는 패턴들에 기초하여 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산하고, 이렇게 계산된 뎁스 값에 기초하여 피사체를 3D 스캐닝할 수도 있다.
즉, 프로젝터는 피사체에 일정 형태를 가지는 복수의 패턴들을 상이한 광 강도로 프로젝션한다.
이 때, 프로젝터는 복수의 패턴들 각각에 대하여 상이한 광 강도로 프로젝션할 수도 있고, 복수의 패턴들에 대해 제1 광 강도로 프로젝션한 후 그 다음 복수의 패턴들에 대해 제2 광 강도로 프로젝션하는 방식으로 광 강도를 조절할 수도 있다.
촬영부는 미리 결정된 노출 레벨로 피사체에 상이한 광 강도로 프로젝션되는 복수의 패턴들 각각을 촬영한다.
계산부는 프로젝터에서 프로젝션되는 상이한 광 강도를 가지는 복수의 패턴들과 촬영부에 의해 촬영된 복수의 패턴들에 기초하여 피사체의 각 화소에 대한 뎁스 값을 추정 및 계산한다.
스캐닝부(140)는 계산부에 의해 계산된 각 화소의 뎁스 값에 기초하여 촬영부에 의해 촬영되는 피사체를 3차원 스캐닝한다.
도 6은 본 발명의 일 실시예에 따른 3D 스캐닝 방법에 대한 동작 흐름도를 나타낸 것으로, 상술한 도 1 내지 도 5의 3D 스캐닝 장치에서의 동작 흐름도를 나타낸 것이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 3D 스캐닝 방법은 3차원 스캐닝하고자 하는 피사체에 미리 설정된 복수의 패턴들을 프로젝션하고, 피사체에 프로젝션되는 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들 각각으로 촬영한다(S610, S620).
여기서, 피사체로 프로젝션되는 복수의 패턴들 각각의 프로젝션 시점과 복수의 패턴들 각각을 촬영하는 시점은 동기되어 이루어질 수 있고, 피사체로 프로젝션되는 복수의 패턴들은 노출 레벨이 조절 가능한 하나의 카메라를 이용하여 피사체에 프로젝션되는 복수의 패턴들 각각을 복수의 노출 레벨들 각각으로 촬영할 수도 있으며, 복수의 패턴들 각각을 복수의 노출 레벨들 각각으로 설정된 복수의 카메라들을 이용하여 복수의 패턴들 각각을 촬영할 수도 있다.
단계 S620에 의해 복수의 노출 레벨들 각각에 의하여 피사체로 프로젝션되는 복수의 패턴들 각각의 영상 데이터가 획득되면, 복수의 노출 레벨들 각각에 의하여 촬영된 피사체로 프로젝션되는 복수의 패턴들 각각의 영상 데이터에 기초하여 피사체의 각 화소에 대한 뎁스 값을 계산한다(S630).
이 때, 단계 S630은 복수의 노출 레벨들 각각에서, 복수의 패턴들 각각의 영상 데이터에 기초하여 피사체의 각 화소에 대한 뎁스 값을 계산하고, 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 피사체의 각 화소에 대한 뎁스 값을 계산할 수 있다.
나아가, 단계 S630은 도 7에 도시된 바와 같이, 복수의 노출 레벨들 각각에 대해 촬영된 복수의 패턴들에 기초하여 복수의 노출 레벨들 각각에 대한 계산 영역을 결정하고, 결정된 계산 영역 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 촬영되는 피사체의 각 화소에 대한 뎁스 값을 계산한다(S710, S720).
여기서, 단계 S630 또는 S720에서 피사체의 각 화소에 대한 뎁스 값을 계산한다는 것은 피사체의 각 화소에 대한 3차원 좌표를 계산하는 개념을 포함할 수 있다.
단계 S630에 의해 피사체의 각 화소에 대한 뎁스 값이 계산되면, 계산된 각 화소의 뎁스 값에 기초하여 촬영되는 피사체를 3차원 스캐닝한다(S640).
물론, 본 발명의 실시예에 따른 3D 스캐닝 방법은 도 1 내지 도 5에서 설명한 3D 스캐닝 장치에서의 동작을 모두 포함할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (11)

  1. 3차원 스캐닝하고자 하는 피사체에 미리 설정된 복수의 패턴들을 프로젝션하는 프로젝터;
    상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들 각각으로 촬영하는 촬영부;
    상기 복수의 노출 레벨들 각각에 의해 촬영된 상기 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 계산부; 및
    상기 계산된 뎁스 값에 기초하여 촬영되는 피사체를 3차원 스캐닝하는 스캐닝부
    를 포함하는 3차원 스캐닝 장치.
  2. 제1항에 있어서,
    상기 계산부는
    상기 복수의 노출 레벨들 각각에서, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하고, 상기 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하는 것을 특징으로 하는 3차원 스캐닝 장치.
  3. 제2항에 있어서,
    상기 계산부는
    상기 복수의 노출 레벨들 각각에 대해 촬영된 상기 복수의 패턴들에 기초하여 상기 복수의 노출 레벨들 각각에 대한 계산 영역을 결정하고, 상기 결정된 계산 영역 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하는 것을 특징으로 하는 3차원 스캐닝 장치.
  4. 제1항에 있어서,
    상기 촬영부는
    상기 복수의 노출 레벨들 각각으로 조절 가능한 하나의 카메라를 이용하여 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영하거나 또는 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 설정된 복수의 카메라들을 이용하여 상기 복수의 패턴들 각각을 촬영하는 것을 특징으로 하는 3차원 스캐닝 장치.
  5. 제1항에 있어서,
    상기 촬영부는
    상기 복수의 패턴들 각각이 프로젝션되는 시점에 동기되어 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영하는 것을 특징으로 하는 3차원 스캐닝 장치.
  6. 3차원 스캐닝하고자 하는 피사체에 미리 설정된 복수의 패턴들을 프로젝션하는 단계;
    상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 복수의 노출 레벨들 각각으로 촬영하는 단계;
    상기 복수의 노출 레벨들 각각에 의해 촬영된 상기 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 단계; 및
    상기 계산된 뎁스 값에 기초하여 촬영되는 피사체를 3차원 스캐닝하는 단계
    를 포함하는 3차원 스캐닝 방법.
  7. 제6항에 있어서,
    상기 뎁스 값을 계산하는 단계는
    상기 복수의 노출 레벨들 각각에서, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하고, 상기 복수의 노출 레벨들 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하는 것을 특징으로 하는 3차원 스캐닝 방법.
  8. 제7항에 있어서,
    상기 뎁스 값을 계산하는 단계는
    상기 복수의 노출 레벨들 각각에 대해 촬영된 상기 복수의 패턴들에 기초하여 상기 복수의 노출 레벨들 각각에 대한 계산 영역을 결정하고, 상기 결정된 계산 영역 각각에서 계산된 화소에 대한 뎁스 값을 조합함으로써, 상기 피사체의 각 화소에 대한 뎁스 값을 계산하는 것을 특징으로 하는 3차원 스캐닝 방법.
  9. 제6항에 있어서,
    상기 촬영하는 단계는
    상기 복수의 노출 레벨들 각각으로 조절 가능한 하나의 카메라를 이용하여 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영하거나 또는 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 설정된 복수의 카메라들을 이용하여 상기 복수의 패턴들 각각을 촬영하는 것을 특징으로 하는 3차원 스캐닝 방법.
  10. 제6항에 있어서,
    상기 촬영하는 단계는
    상기 복수의 패턴들 각각이 프로젝션되는 시점에 동기되어 상기 복수의 패턴들 각각을 상기 복수의 노출 레벨들 각각으로 촬영하는 것을 특징으로 하는 3차원 스캐닝 방법.
  11. 3차원 스캐닝하고자 하는 피사체에 미리 결정된 상이한 광 강도로 미리 설정된 복수의 패턴들을 프로젝션하는 프로젝터;
    상기 피사체에 프로젝션되는 상기 복수의 패턴들 각각을 미리 설정된 노출 레벨로 촬영하는 촬영부;
    상기 촬영된 복수의 패턴들에 기초하여 상기 피사체의 각 화소에 대한 뎁스(depth) 값을 계산하는 계산부; 및
    상기 계산된 뎁스 값에 기초하여 상기 촬영되는 피사체를 3차원 스캐닝하는 스캐닝부
    를 포함하는 3차원 스캐닝 장치.
PCT/KR2017/003713 2016-05-13 2017-04-05 3차원 스캐닝 장치 및 방법 WO2017195984A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/300,979 US11022435B2 (en) 2016-05-13 2017-04-05 Pattern projection depth value 3D scanning device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0059033 2016-05-13
KR1020160059033A KR101842141B1 (ko) 2016-05-13 2016-05-13 3차원 스캐닝 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2017195984A1 true WO2017195984A1 (ko) 2017-11-16

Family

ID=60267241

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/003713 WO2017195984A1 (ko) 2016-05-13 2017-04-05 3차원 스캐닝 장치 및 방법

Country Status (3)

Country Link
US (1) US11022435B2 (ko)
KR (1) KR101842141B1 (ko)
WO (1) WO2017195984A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200032442A (ko) 2018-09-18 2020-03-26 한국전자통신연구원 자기보정이 가능한 3차원 정보 생성 장치 및 방법
KR102161452B1 (ko) 2019-07-24 2020-10-05 (주)칼리온 스캐너 움직임에 따른 모션 유효성 검출 장치 및 그 방법
KR102279870B1 (ko) 2019-07-30 2021-07-21 (주)칼리온 패턴 마스크 및 인버스 패턴 마스크를 이용한 3차원 스캐닝의 프로젝션 시스템 및 그 방법
KR102161453B1 (ko) 2019-07-30 2020-10-05 (주)칼리온 고해상도 패턴 스캐닝 방법 및 그 장치
KR102306973B1 (ko) 2019-07-30 2021-09-30 (주)칼리온 패턴 마스크를 이용한 3차원 스캐닝의 프로젝션 시스템 및 그 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110046222A (ko) * 2009-10-27 2011-05-04 서울대학교산학협력단 다중 공간 주파수를 이용한 3차원 물체의 깊이 측정 방법 및 그 장치
JP2012042332A (ja) * 2010-08-19 2012-03-01 Canon Inc 三次元計測装置及び三次元計測方法
KR101359099B1 (ko) * 2012-11-14 2014-02-06 재단법인대구경북과학기술원 카메라의 밝기 조절을 이용한 깊이 정보 획득 장치 및 방법
KR20140019765A (ko) * 2010-09-08 2014-02-17 마이크로소프트 코포레이션 구조광 및 스테레오 비전에 기초한 깊이 카메라
KR20140053235A (ko) * 2011-08-30 2014-05-07 마이크로소프트 코포레이션 레이저 깊이 지도 레인지를 확대하는 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212385A (ja) * 2002-12-19 2004-07-29 Olympus Corp 撮影装置とその撮影装置の撮影方法及び制御方法
JP2007271530A (ja) * 2006-03-31 2007-10-18 Brother Ind Ltd 3次元形状検出装置及び3次元形状検出方法
KR101096675B1 (ko) 2009-07-08 2011-12-22 김영식 고강도pc와 보통강도rc에 의한 합성기둥
CN102906536A (zh) * 2010-05-19 2013-01-30 株式会社尼康 形状测定装置及形状测定方法
US9591459B2 (en) 2011-04-08 2017-03-07 Qualcomm Incorporated Signaling whether a network has broadcast system information
DE102011118349A1 (de) * 2011-11-14 2013-05-16 ShapeDrive GmbH Methode zur Erfassung von Szenen mit hoher Intensitätsdynamik mit dem Streifenlichtprojektionsverfahren
JP6161276B2 (ja) * 2012-12-12 2017-07-12 キヤノン株式会社 測定装置、測定方法、及びプログラム
US9554057B2 (en) * 2013-07-16 2017-01-24 Texas Instruments Incorporated Wide dynamic range depth imaging
EP2869023B1 (en) * 2013-10-30 2018-06-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method and corresponding computer program
WO2015152829A1 (en) * 2014-04-03 2015-10-08 Heptagon Micro Optics Pte. Ltd. Structured-stereo imaging assembly including separate imagers for different wavelengths
US9958758B2 (en) * 2015-01-21 2018-05-01 Microsoft Technology Licensing, Llc Multiple exposure structured light pattern
JP2017003469A (ja) * 2015-06-11 2017-01-05 キヤノン株式会社 三次元計測装置、三次元計測装置の制御方法及びプログラム
JP6566737B2 (ja) * 2015-06-18 2019-08-28 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
EP3165874B1 (en) * 2015-11-04 2020-08-19 Hexagon Technology Center GmbH Method and device for triangulation-based distance measurement
US10453185B2 (en) * 2015-11-12 2019-10-22 Aquifi, Inc. System and method for high dynamic range depth capture using multiple cameras
CN113532326B (zh) * 2016-02-29 2023-11-21 派克赛斯有限责任公司 用于辅助型3d扫描的系统和方法
CN107229056A (zh) * 2016-03-23 2017-10-03 松下知识产权经营株式会社 图像处理装置、图像处理方法以及记录介质
JP6800597B2 (ja) * 2016-03-30 2020-12-16 キヤノン株式会社 制御装置、制御方法およびプログラム
US20170289515A1 (en) * 2016-04-01 2017-10-05 Intel Corporation High dynamic range depth generation for 3d imaging systems
KR101828376B1 (ko) * 2016-05-13 2018-02-13 (주)칼리온 휴대용 3차원 문서 스캐닝 장치 및 방법
JP2018105671A (ja) * 2016-12-26 2018-07-05 セイコーエプソン株式会社 画像処理装置及び画像処理方法
US10708514B2 (en) * 2018-08-30 2020-07-07 Analog Devices, Inc. Blending depth images obtained with multiple exposures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110046222A (ko) * 2009-10-27 2011-05-04 서울대학교산학협력단 다중 공간 주파수를 이용한 3차원 물체의 깊이 측정 방법 및 그 장치
JP2012042332A (ja) * 2010-08-19 2012-03-01 Canon Inc 三次元計測装置及び三次元計測方法
KR20140019765A (ko) * 2010-09-08 2014-02-17 마이크로소프트 코포레이션 구조광 및 스테레오 비전에 기초한 깊이 카메라
KR20140053235A (ko) * 2011-08-30 2014-05-07 마이크로소프트 코포레이션 레이저 깊이 지도 레인지를 확대하는 방법
KR101359099B1 (ko) * 2012-11-14 2014-02-06 재단법인대구경북과학기술원 카메라의 밝기 조절을 이용한 깊이 정보 획득 장치 및 방법

Also Published As

Publication number Publication date
KR20170128736A (ko) 2017-11-23
US11022435B2 (en) 2021-06-01
KR101842141B1 (ko) 2018-03-26
US20190162529A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
WO2017195984A1 (ko) 3차원 스캐닝 장치 및 방법
WO2015178542A1 (ko) 카메라 파라미터 측정 장치 및 그 방법
WO2013043019A2 (ko) 고정된 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적의 투사 이미지를 획득하기 위한 방법 및 시스템
WO2016200096A1 (ko) 3차원 형상 측정장치
WO2014185710A1 (ko) Tiled display에서 3d 영상을 보정하는 방법 및 장치
KR20160031966A (ko) 멀티 프로젝션 시스템 및 이의 프로젝터 보정 방법
JP2023075366A (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
WO2019088335A1 (ko) 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
WO2017195985A1 (ko) 휴대용 3차원 문서 스캐닝 장치 및 방법
JP2004228824A (ja) スタックプロジェクション装置及びその調整方法
WO2018186507A1 (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
WO2017086522A1 (ko) 배경스크린이 필요 없는 크로마키 영상 합성 방법
WO2023149603A1 (ko) 다수의 카메라를 이용한 열화상 감시 시스템
WO2017007077A1 (ko) 감시 방법
JP2013190281A (ja) 設置状態検出システム、設置状態検出装置、及び設置状態検出方法
KR101457888B1 (ko) 기준점 보정을 이용한 3차원 영상 생성방법
WO2014046325A1 (ko) 3차원 계측 시스템 및 그 방법
JP5502771B2 (ja) 電子黒板システム及びプログラム
WO2015141877A1 (ko) 다면 영상 자동 생성 및 투사 방법 및 장치
WO2020101447A1 (ko) 다시점 촬영을 위한 카메라 캘리브레이션 방법 및 그 장치
WO2020171257A1 (ko) 영상 처리 방법 및 그 장치
WO2019124750A1 (ko) 타임슬라이스 촬영을 위한 카메라 캘리브레이션 방법 및 이를 위한 장치
WO2016093415A1 (ko) 거리 측정 장치 및 거리 측정 방법
WO2020171258A1 (ko) 영상 처리 방법 및 그 장치
WO2017007047A1 (ko) 불규칙 비교를 이용하는 공간적 깊이 불균일성 보상 방법 및 장치

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17796284

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 14.03.2018)

122 Ep: pct application non-entry in european phase

Ref document number: 17796284

Country of ref document: EP

Kind code of ref document: A1