KR102629889B1 - Projection Mapping Method through Calibration Process Using Depth Rgb Data - Google Patents

Projection Mapping Method through Calibration Process Using Depth Rgb Data Download PDF

Info

Publication number
KR102629889B1
KR102629889B1 KR1020220162652A KR20220162652A KR102629889B1 KR 102629889 B1 KR102629889 B1 KR 102629889B1 KR 1020220162652 A KR1020220162652 A KR 1020220162652A KR 20220162652 A KR20220162652 A KR 20220162652A KR 102629889 B1 KR102629889 B1 KR 102629889B1
Authority
KR
South Korea
Prior art keywords
beam projector
pattern
projection mapping
point cloud
lidar
Prior art date
Application number
KR1020220162652A
Other languages
Korean (ko)
Inventor
김진영
윤다예
조자양
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020220162652A priority Critical patent/KR102629889B1/en
Application granted granted Critical
Publication of KR102629889B1 publication Critical patent/KR102629889B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects

Abstract

본 발명에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법은, 빔 프로젝터를 통해 조사되는 빛의 패턴을 구성하는 각 픽셀과, RGB카메라를 포함하는 라이다에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 (a)단계, 상기 라이다를 통해 대상 오브젝트의 실물에 대한 포인트 클라우드를 추출하는 (b)단계, 상기 (a)단계에서 도출된 상기 기준 관계식에 기반하여, 컴퓨터의 프로세서를 통해 상기 (b)단계에서 추출된 대상 오브젝트의 포인트 클라우드로부터 빔 프로젝터를 통해 조사되는 빛의 패턴에 포함된 각 픽셀과의 관계를 수식화한 프로젝션 관계식을 도출하는 (c)단계 및 상기 (c)단계에서 도출된 프로젝션 관계식에 기반하여 상기 빔 프로젝터를 통해 가상 오브젝트에 대한 프로젝션 매핑을 수행하는 (d)단계를 포함한다.The projection mapping method through a calibration process using depth RGB data according to the present invention formalizes the relationship between each pixel constituting the pattern of light emitted through a beam projector and the light emitted from a LIDAR including an RGB camera. Step (a) of deriving a reference relational expression, step (b) of extracting a point cloud for the actual object of the target object through the LIDAR, based on the reference relational expression derived in step (a), a processor of a computer Step (c) of deriving a projection equation that formalizes the relationship between each pixel included in the pattern of light irradiated through the beam projector from the point cloud of the target object extracted in step (b) through and (c) It includes step (d) of performing projection mapping for the virtual object through the beam projector based on the projection equation derived in step (d).

Description

심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법{Projection Mapping Method through Calibration Process Using Depth Rgb Data}Projection Mapping Method through Calibration Process Using Depth Rgb Data}

본 발명은 프로젝션 매핑방법에 관한 것으로서, 보다 상세하게는 심도 RGB데이터를 활용한 캘리브레이션 과정을 통해 오차 없이 매핑을 수행할 수 있는 프로젝션 매핑방법에 관한 것이다.The present invention relates to a projection mapping method, and more specifically, to a projection mapping method that can perform mapping without error through a calibration process using depth RGB data.

프로젝션 매핑(Projection Mapping)은 대상물의 표면에 빛으로 이루어진 영상을 투사하여 변화를 줌으로써, 현실에 존재하는 대상이 다른 성격을 가진 것처럼 보이도록 하는 기술이다.Projection Mapping is a technology that makes an object that exists in reality appear to have a different personality by projecting an image made of light onto the surface of the object and changing it.

이와 같은 프로젝션 매핑은 프로젝터로 건축물, 동상 등 3D 오브젝트에 빛을 투사해 이용자에게 시각적, 심리적으로 색다른 경험을 주고, 사람들의 참여를 일으키는 효과를 주며, 사용자의 몰입 경험을 더 깊게 제공할 수 있다.Such projection mapping uses a projector to project light onto 3D objects such as buildings and statues, giving users a unique visual and psychological experience, encouraging people to participate, and providing a deeper user immersive experience.

최근에는 증강 현실(AR), 혼합현실(MR) 분야에서 이와 같은 프로젝션 매핑 기술이 활발하게 적용되고 있으며, 이에 따라 특히 장거리, 대규모, 비평면의 대상에 대한 프로젝션 매핑 기술 적용 수요가 증가하고 있는 추세이다.Recently, such projection mapping technology has been actively applied in the fields of augmented reality (AR) and mixed reality (MR), and accordingly, the demand for application of projection mapping technology, especially for long-distance, large-scale, and non-planar targets, is increasing. am.

다만, 기존 프로젝션 매핑 방식들은 주로 단거리에서 적용할 때 효과적이며 매핑 대상이 비평면이거나 장거리가 되면 프로젝션이 정확하게 되지 않는다는 단점이 있다.However, existing projection mapping methods are mainly effective when applied at short distances, and have the disadvantage that projection is not accurate when the mapping target is non-planar or long distances.

그리고 카메라 시스템을 이용한 프로젝션 매핑 방식은 카메라와 프로젝터 렌즈에서 일어나는 원근 왜곡과 렌즈 왜곡이 존재하기 때문에, 캘리브레이션 오류가 발생할 가능성이 매우 높다는 문제가 있다.Additionally, the projection mapping method using a camera system has a problem in that the possibility of calibration errors occurring is very high because there is perspective distortion and lens distortion that occurs in the camera and projector lens.

따라서 이와 같은 문제점들을 해결하기 위한 방법이 요구된다.Therefore, a method to solve these problems is required.

한국등록특허 제10-1465497호Korean Patent No. 10-1465497

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 장거리, 대규모, 비평면의 대상에 대해 오차 없는 프로젝션 매핑을 수행할 수 있도록 하기 위한 목적을 가진다.The present invention is an invention made to solve the problems of the prior art described above, and has the purpose of enabling error-free projection mapping for long-distance, large-scale, and non-planar targets.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기한 목적을 달성하기 위한 본 발명의 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법은, 빔 프로젝터를 통해 조사되는 빛의 패턴을 구성하는 각 픽셀과, RGB카메라를 포함하는 라이다에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 (a)단계, 상기 라이다를 통해 대상 오브젝트의 실물에 대한 포인트 클라우드를 추출하는 (b)단계, 상기 (a)단계에서 도출된 상기 기준 관계식에 기반하여, 컴퓨터의 프로세서를 통해 상기 (b)단계에서 추출된 대상 오브젝트의 포인트 클라우드로부터 빔 프로젝터를 통해 조사되는 빛의 패턴에 포함된 각 픽셀과의 관계를 수식화한 프로젝션 관계식을 도출하는 (c)단계 및 상기 (c)단계에서 도출된 프로젝션 관계식에 기반하여 상기 빔 프로젝터를 통해 가상 오브젝트에 대한 프로젝션 매핑을 수행하는 (d)단계를 포함한다.The projection mapping method through a calibration process using depth RGB data of the present invention to achieve the above-mentioned purpose involves irradiating each pixel constituting the pattern of light irradiated through a beam projector and a LiDAR including an RGB camera. Step (a) of deriving a standard relational expression by formulating the relationship between rays, step (b) of extracting a point cloud for the real object of the target object through the lidar, and the standard relational expression derived in step (a) Based on this, (c) deriving a projection equation that formalizes the relationship between each pixel included in the pattern of light emitted through the beam projector from the point cloud of the target object extracted in step (b) through a computer processor. and a step (d) of performing projection mapping on the virtual object through the beam projector based on the projection equation derived in step (c).

이때 상기 (a)단계는 상기 (b)단계가 수행되기 이전에 2회 이상 수행될 수 있다.At this time, step (a) may be performed two or more times before step (b) is performed.

그리고 상기 (a)단계는, 상기 빔 프로젝터를 통해 기 설정된 빛의 패턴을 임의의 투사체에 조사하는 (a-1)단계, 상기 라이다를 통해 상기 (a-1)단계에서 상기 빔 프로젝터를 통해 조사된 빛의 패턴을 스캔하고, 빛의 패턴을 구성하는 각 픽셀에 대한 포인트 클라우드를 추출하는 (a-2)단계 및 컴퓨터의 프로세서를 통해 상기 (a-1)단계에서 빔 프로젝터를 통해 조사된 빛의 패턴을 구성하는 각 픽셀과 상기 (a-2)단계에서 라이다에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 (a-3)단계를 포함할 수 있다.And the step (a) is the step (a-1) of irradiating a preset light pattern to an arbitrary projectile through the beam projector, and the beam projector in step (a-1) through the lidar. Step (a-2) of scanning the pattern of light irradiated through the beam projector and extracting a point cloud for each pixel constituting the light pattern, and irradiating the light through the beam projector in step (a-1) through the processor of the computer. It may include a step (a-3) of deriving a reference relational expression by formulating the relationship between each pixel constituting the light pattern and the light ray emitted from the LIDAR in step (a-2).

또한 상기 (a-2)단계는, 상기 라이다를 통해 스캔된 전체 영역 중에서 상기 빔 프로젝터를 통해 조사된 빛의 패턴 영역에 대한 포인트 클라우드만을 추출할 수 있다.Additionally, in step (a-2), only the point cloud for the pattern area of light irradiated through the beam projector can be extracted from the entire area scanned through the LIDAR.

한편 상기 (a-3)단계는, 상기 (a-2)단계에서 추출된 포인트 클라우드를 2D이미지로 변환하는 (a-3-1)단계, 상기 (a-3-1)단계에 의해 변환된 2D이미지에 나타나는 패턴들에 대해 센터값을 산출하는 (a-3-2)단계, 상기 (a-3-2)단계에서 산출된 센터값들을 통해 복수 개의 3차원 위치값을 포함하는 3차원 위치값 세트를 도출하는 (a-3-3)단계 및 상기 (a-3-3)단계에서 도출된 복수 개의 3차원 위치값을 조합하여 3차원 직선 방정식을 도출하는 (a-3-4)단계를 포함할 수 있다.Meanwhile, step (a-3) is step (a-3-1) of converting the point cloud extracted in step (a-2) into a 2D image, and step (a-3-1) of converting the point cloud extracted in step (a-2) into a 2D image. Step (a-3-2) of calculating center values for patterns appearing in 2D images, 3D position including a plurality of 3D position values through the center values calculated in step (a-3-2) Step (a-3-3) of deriving a value set and step (a-3-4) of deriving a 3-dimensional straight line equation by combining a plurality of 3-dimensional position values derived in step (a-3-3). may include.

더불어 상기 (a-3-1)단계는 상기 (a-2)단계에서 추출된 포인트 클라우드를 2D이미지로 변환하는 과정에서 구면좌표계를 사용할 수 있다.In addition, step (a-3-1) can use a spherical coordinate system in the process of converting the point cloud extracted in step (a-2) into a 2D image.

그리고 상기 (a-3-2)단계는 해리스 코너검출(Harris Corner Detect) 방식을 이용하여 2D이미지에 나타나는 패턴들에 대한 센터값을 산출할 수 있다.And in step (a-3-2), the center value for patterns appearing in the 2D image can be calculated using the Harris Corner Detect method.

상기한 과제를 해결하기 위한 본 발명의 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법은, 라이다를 이용하여 획득한 심도 RGB데이터를 활용하여 빔 프로젝터에서 조사되는 빛의 모든 픽셀과의 관계를 수식화할 수 있기 때문에 빔 프로젝터 렌즈의 왜곡으로부터 자유로우며, 따라서 프로젝션 매핑을 할 대상 오브젝트가 대형 스케일을 가지고 있거나 장거리에 위치하고 있을 경우에도 오차 없는 프로젝션 매핑이 가능하다는 장점이 있다.The projection mapping method through a calibration process using depth RGB data of the present invention to solve the above problems uses depth RGB data acquired using lidar to determine the relationship between all pixels of light emitted from a beam projector. Since it can be formalized, it is free from the distortion of the beam projector lens, and therefore has the advantage of enabling error-free projection mapping even when the target object for projection mapping has a large scale or is located over a long distance.

이에 따라 본 발명은 공연, 전시, 광고에 쓰이는 대형 프로젝션 매핑에 활용이 가능하며, 볼록렌즈와 같이 빛의 각도를 넓히는 기구를 활용할 경우 보다 넓은 면적을 적은 수의 빔 프로젝터만으로도 커버할 수 있는 것은 물론, 종래 10~20회에 걸쳐 이루어지던 캘리브레이션 과정 자체를 2회로 획기적으로 감소시킬 수 있는 장점이 있다.Accordingly, the present invention can be used for large-scale projection mapping used in performances, exhibitions, and advertisements, and when using a device that expands the angle of light, such as a convex lens, a larger area can be covered with only a small number of beam projectors. , it has the advantage of being able to dramatically reduce the calibration process itself, which was previously performed 10 to 20 times, to 2 times.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법의 전체 과정을 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법을 수행하기 위한 시스템의 구성을 개략적으로 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법에 있어서, (a)단계의 세부 과정을 나타낸 도면; 및
도 4는 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법에 있어서, (a-3)단계의 세부 과정을 나타낸 도면이다.
1 is a diagram showing the entire process of a projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention;
Figure 2 is a diagram schematically showing the configuration of a system for performing a projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention;
Figure 3 is a diagram showing the detailed process of step (a) in the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention; and
Figure 4 is a diagram showing the detailed process of step (a-3) in the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention.

본 명세서에서, 어떤 구성요소(또는 영역, 층, 부분 등)가 다른 구성요소 "상에 있다", "연결된다", 또는 "결합된다"고 언급되는 경우에 그것은 다른 구성요소 상에 직접 배치/연결/결합될 수 있거나 또는 그들 사이에 제3의 구성요소가 배치될 수도 있다는 것을 의미한다.In this specification, when a component (or region, layer, portion, etc.) is referred to as being “on,” “connected to,” or “coupled to” another component, it is directly placed/on the other component. This means that they can be connected/combined or a third component can be placed between them.

동일한 도면부호는 동일한 구성요소를 지칭한다. 또한, 도면들에 있어서, 구성요소들의 두께, 비율, 및 치수는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.Identical reference numerals refer to identical elements. Additionally, in the drawings, the thickness, proportions, and dimensions of components are exaggerated for effective explanation of technical content.

"및/또는"은 연관된 구성들이 정의할 수 있는 하나 이상의 조합을 모두 포함한다.“And/or” includes all combinations of one or more that the associated configurations may define.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

또한, "아래에", "하측에", "위에", "상측에" 등의 용어는 도면에 도시된 구성들의 연관관계를 설명하기 위해 사용된다. 상기 용어들은 상대적인 개념으로, 도면에 표시된 방향을 기준으로 설명된다.Additionally, terms such as “below,” “on the lower side,” “above,” and “on the upper side” are used to describe the relationship between the components shown in the drawings. The above terms are relative concepts and are explained based on the direction indicated in the drawings.

다르게 정의되지 않는 한, 본 명세서에서 사용된 모든 용어 (기술 용어 및 과학 용어 포함)는 본 발명이 속하는 기술 분야의 당업자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 또한, 일반적으로 사용되는 사전에서 정의된 용어와 같은 용어는 관련 기술의 맥락에서 의미와 일치하는 의미를 갖는 것으로 해석되어야 하고, 이상적인 또는 지나치게 형식적인 의미로 해석되지 않는 한, 명시적으로 여기에서 정의된다.Unless otherwise defined, all terms (including technical terms and scientific terms) used in this specification have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Additionally, terms such as those defined in commonly used dictionaries should be construed as having a meaning consistent with their meaning in the context of the relevant technology, and unless interpreted in an idealized or overly formal sense, are explicitly defined herein. do.

"포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms such as “include” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but do not include one or more other features, numbers, or steps. , it should be understood that it does not exclude in advance the possibility of the existence or addition of operations, components, parts, or combinations thereof.

이하, 도면을 참조하여 본 발명의 실시예를 상세히 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법의 전체 과정을 나타낸 도면이다.Figure 1 is a diagram showing the entire process of a projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention.

그리고 도 2는 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법을 수행하기 위한 시스템의 구성을 개략적으로 나타낸 도면으로, 이하 설명에 있어 각 구성요소의 번호는 본 도면을 기준으로 한다.Figure 2 is a diagram schematically showing the configuration of a system for performing a projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention. In the following description, the number of each component is as follows. Based on the drawing.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법은 (a)단계 내지 (d)단계를 포함한다.As shown in FIG. 1, the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention includes steps (a) to (d).

(a)단계는 빔 프로젝터(10)를 통해 조사되는 빛의 패턴을 구성하는 각 픽셀과, RGB카메라를 포함하는 라이다(20)에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 과정이다.Step (a) is a process of deriving a standard relational expression by formulating the relationship between each pixel constituting the pattern of light irradiated through the beam projector 10 and the ray irradiated from the LIDAR 20 including the RGB camera. .

본 단계는, 이후 스캔이 이루어지는 대상 오브젝트(1)와 빔 프로젝터(10)를 통해 조사되는 빛의 패턴에 포함된 각 픽셀과의 관계를 산출하기 위한 기준 관계식을 도출하기 위한 과정으로서, 빔 프로젝터(10)를 통해 조사되는 빛의 패턴을 구성하는 각 픽셀과, RGB카메라를 포함하는 라이다(20)에서 조사되는 광선 간의 관계를 수식화하게 된다.This step is a process for deriving a reference relational expression for calculating the relationship between the target object 1 to be scanned and each pixel included in the pattern of light irradiated through the beam projector 10. The beam projector ( 10), the relationship between each pixel constituting the pattern of light emitted and the light emitted from the LIDAR 20 including the RGB camera is formalized.

이때 (a)단계는 (b)단계가 수행되기 이전에 2회 수행될 수 있으며, 이는 종래 10~20회에 걸쳐 이루어지던 캘리브레이션 과정 자체를 획기적으로 감소시킨 것이다.At this time, step (a) can be performed twice before step (b), which dramatically reduces the calibration process itself, which was previously performed 10 to 20 times.

그리고 이와 같은 (a)단계는, 세부적으로 복수 개의 과정을 포함할 수 있다.And this step (a) may include a plurality of processes in detail.

도 3은 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법에 있어서, (a)단계의 세부 과정을 나타낸 도면이다.Figure 3 is a diagram showing the detailed process of step (a) in the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법의 (a)단계는 세부적으로 (a-1)단계 내지 (a-3)단계를 포함할 수 있다.As shown in Figure 3, step (a) of the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention is in detail steps (a-1) to (a-3). may include.

먼저 (a-1)단계는, 빔 프로젝터(10)를 통해 기 설정된 빛의 패턴을 임의의 투사체(15)에 조사하는 과정이다.First, step (a-1) is a process of irradiating a preset light pattern to an arbitrary projectile 15 through the beam projector 10.

본 과정에서는 빔 프로젝터(10)로 일정한 패턴을 스크린과 같은 임의의 투사체(15)에 조사한 상태로 유지한다.In this process, a certain pattern is irradiated onto a random projector 15, such as a screen, using the beam projector 10.

그리고 전술한 바와 같이 (a)단계는 2회 수행될 수 있으므로, 본 과정에서 투사체(15)는 일정 간격을 두고 2군데에 설치될 수 있다.And, as described above, step (a) can be performed twice, so in this process, the projectile 15 can be installed in two places at a certain interval.

(a-2)단계는 RGB카메라를 포함하는 라이다(20)를 통해 (a-1)단계에서 빔 프로젝터(10)를 통해 조사된 빛의 패턴을 스캔하고, 빛의 패턴을 구성하는 각 픽셀에 대한 포인트 클라우드를 추출하는 과정이다.In step (a-2), the pattern of light irradiated through the beam projector 10 in step (a-1) is scanned through the LIDAR 20 including an RGB camera, and each pixel constituting the light pattern is scanned. This is the process of extracting the point cloud.

즉 본 과정에서는 스크린과 같은 투사체(15)에 프로젝션이 되고 있는 상태에서 라이다(20)로 스캔을 수행하고 포인트 클라우드를 pts 파일로 추출한다. 해당 파일은 3차원 공간의 x,y,z와 그 값에 해당하는 r,g,b값으로 이루어져 있다.That is, in this process, a scan is performed with the LIDAR 20 while being projected onto a projector 15 such as a screen, and the point cloud is extracted as a pts file. The file consists of x, y, z in 3D space and r, g, and b values corresponding to those values.

이때 본 단계는, 라이다(20)를 통해 스캔된 전체 영역 중에서 빔 프로젝터(10)를 통해 조사된 빛의 패턴 영역에 대한 포인트 클라우드만을 추출하는 방식으로 진행될 수 있다.At this time, this step may be performed by extracting only the point cloud for the pattern area of light irradiated through the beam projector 10 from the entire area scanned through the LIDAR 20.

이는 데이터의 양과 메모리 사용량을 줄이기 위한 것으로, 수많은 포인트 클라우드 중 패턴 영역에 대한 포인트 클라우드만을 추출하는 것이다. 약 4,000만개가 넘는 수많은 포인트 클라우드를 전부 사용할 경우 과부하가 발생할 수 있기 때문이다.This is to reduce the amount of data and memory usage, and extracts only the point cloud for the pattern area among numerous point clouds. This is because overload may occur if all of the numerous point clouds, which exceed approximately 40 million, are used.

이를 위해 전체 공간에 대한 포인트 클라우드를 상단에서 바라보고 패턴이 쏘아진 구간이 속할 수 있게 2차 직선의 방정식인 'y>ax+b'를 만든다.To do this, look at the point cloud for the entire space from the top and create the equation of a second-order straight line, 'y>ax+b', so that the section where the pattern is fired belongs to.

이때 방정식을 만들 수 있도록 두 개의 좌표를 선택하며, 이때 각 좌표는 사용자의 관심 영역인 패턴 영역이 포함될 수 있도록 적절히 선택될 수 있다.At this time, two coordinates are selected to create an equation, and each coordinate can be appropriately selected to include the pattern area, which is the user's area of interest.

그리고 선택된 좌표들의 (x_1,y_1), (x_2,y_2) 값을 사용해 y-y_1=(y_2-y_1)/(x_2-x_1 )·(x-x_1)의 수식을 통해 a와 b를 구한다. 수식으로 추출된 포인트 클라우드가 이후 과정에서 사용될 데이터이다.Then, using the (x_1,y_1) and (x_2,y_2) values of the selected coordinates, a and b are obtained through the formula y-y_1=(y_2-y_1)/(x_2-x_1)·(x-x_1). The point cloud extracted using the formula is the data to be used in the subsequent process.

다음으로, (a-3)단계는 컴퓨터의 프로세서를 통해 (a-1)단계에서 빔 프로젝터(10)를 통해 조사된 빛의 패턴을 구성하는 각 픽셀과 (a-2)단계에서 라이다(20)에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 과정이다.Next, in step (a-3), each pixel constituting the pattern of light irradiated through the beam projector 10 in step (a-1) is combined with the LIDAR ( This is the process of deriving a standard relational expression by formulating the relationship between the rays irradiated in 20).

그리고 이와 같은 (a-3)단계는, 세부적으로 복수 개의 과정을 포함할 수 있다.And this step (a-3) may include a plurality of processes in detail.

도 4는 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법에 있어서, (a-3)단계의 세부 과정을 나타낸 도면이다.Figure 4 is a diagram showing the detailed process of step (a-3) in the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법의 (a-3)단계는 세부적으로 (a-3-1)단계 내지 (a-3-4)단계를 포함할 수 있다.As shown in Figure 4, step (a-3) of the projection mapping method through a calibration process using depth RGB data according to an embodiment of the present invention is in detail steps (a-3-1) to (a). -May include steps 3-4).

(a-3-1)단계는, (a-2)단계에서 추출된 포인트 클라우드를 2D이미지로 변환하는 과정이다.Step (a-3-1) is the process of converting the point cloud extracted in step (a-2) into a 2D image.

본 단계를 통해 2차원 이미지에서 어떤 점을 선택할 때 해당 부분이 3차원 좌표의 어디인지를 알 수 있게 된다.Through this step, when you select a point in a 2D image, you can find out where that part is in 3D coordinates.

특히 포인트 클라우드는 3차원 좌표로 표시되며, 공간으로 이루어져있다. 이와 같은 포인트 클라우드를 이미지 디텍트 하기 위해서는 3차원을 2차원 이미지로 매핑해야 한다.In particular, point clouds are expressed in three-dimensional coordinates and are made up of space. In order to image detect a point cloud like this, 3D must be mapped into a 2D image.

본 실시예에 있어서, (a-3-1)단계는 (a-2)단계에서 추출된 포인트 클라우드를 2D이미지로 변환하는 과정에서 구면좌표계를 사용하는 것으로 할 수 있다.In this embodiment, step (a-3-1) can be done by using a spherical coordinate system in the process of converting the point cloud extracted in step (a-2) into a 2D image.

이는 라이다(20)가 회전하면서 측정을 수행하며, 라이다(20)의 스캐너 내부에 들어있는 카메라가 촬영하는 이미지는 등장방형도법(Equirectangular)을 사용하고 있기 때문으로, 구면좌표계로 프로젝션을 수행하는 것이 직관적이며 정확한 매핑이 가능하다.This is because the LiDAR 20 performs measurements while rotating, and the image captured by the camera inside the scanner of the LiDAR 20 uses equirectangular projection, so projection is performed in a spherical coordinate system. It is intuitive to do and accurate mapping is possible.

다음으로 (a-3-2)단계는, (a-3-1)단계에 의해 변환된 2D이미지에 나타나는 패턴들에 대해 센터값을 산출하는 과정이다.Next, step (a-3-2) is the process of calculating center values for the patterns that appear in the 2D image converted by step (a-3-1).

본 과정에서는 구면좌표계 수식으로 변환된 2차원 이미지에서, 각 점들을 해리스 코너검출(Harris Corner Detect) 방식을 이용하여 2D이미지에 나타나는 패턴들에 대한 센터값을 산출하게 된다.In this process, in a 2D image converted to a spherical coordinate system formula, the center value for the patterns appearing in the 2D image is calculated using the Harris Corner Detect method for each point.

그리고 (a-3-3)단계는, (a-3-2)단계에서 산출된 센터값들을 통해 복수 개의 3차원 위치값을 포함하는 3차원 위치값 세트를 도출하는 과정이다.And step (a-3-3) is a process of deriving a 3D position value set including a plurality of 3D position values through the center values calculated in step (a-3-2).

전술한 바와 같이, 본 실시예에서는 (a)단계를 2회 수행하기 위해 투사체(15)인 스크린을 일정 간격을 두고 두 군데에 설치하였으므로, 총 2개의 3차원 위치값 세트가 만들어질 수 있다.As described above, in this embodiment, in order to perform step (a) twice, the screen, which is the projector 15, was installed in two places at a certain interval, so a total of two sets of three-dimensional position values can be created. .

다음으로 (a-3-4)단계에서는, (a-3-3)단계에서 도출된 복수 개의 3차원 위치값을 조합하여 3차원 직선 방정식을 도출하는 과정이 수행된다.Next, in step (a-3-4), a process of deriving a 3D straight line equation is performed by combining a plurality of 3D position values derived in step (a-3-3).

이와 같은 과정에 의해 얻은 3차원 직선 방정식을 기준으로, 각 선분 사이의 보간을 통해 2,073,600개의 선분을 알아낼 수 있다. 보간이 필요한 이유는 일부 광선의 정보만 알고 있기 때문에 프로젝터의 모든 픽셀에 대한 광선의 선분을 알아내기 위해서이다.Based on the three-dimensional straight line equation obtained through this process, 2,073,600 line segments can be found through interpolation between each line segment. The reason why interpolation is necessary is to find the line segments of the rays for all pixels of the projector since only the information of some rays is known.

모든 선분을 알아내게 되면 이후 프로젝션 매핑을 수행하는 과정에서 원하는 타겟의 3차원 값이 어떤 선분에 맞닿는지 알 수 있게 되므로 간단하고 정확하게 매핑을 할 수 있게 된다. 또한 보간을 할 때도 위 패턴을 그대로 사용할 수 있다.Once all the line segments are known, during the subsequent projection mapping process, you will be able to know which line segment the 3D value of the desired target touches, allowing simple and accurate mapping. Also, the above pattern can be used as is when interpolating.

이상의 과정을 통해, 빔 프로젝터(10)를 통해 조사되는 빛의 패턴을 구성하는 각 픽셀과, RGB카메라를 포함하는 라이다(20)에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 과정이 이루어진다.Through the above process, the process of formulating the relationship between each pixel constituting the pattern of light irradiated through the beam projector 10 and the ray irradiated from the LIDAR 20 including the RGB camera to derive a standard relational expression is performed. It comes true.

이후 (b)단계에서는, 라이다(20)를 통해 대상 오브젝트(1)의 실물에 대한 포인트 클라우드를 추출하는 과정이 수행된다.Afterwards, in step (b), a process of extracting a point cloud for the actual target object (1) is performed through the LIDAR (20).

본 과정은 실제로 프로젝션 매핑이 이루어질 대상 오브젝트(1)의 실물을 준비하고, 이를 라이다(20)를 통해 스캔하여 대상 오브젝트(1)에 대한 포인트 클라우드를 추출하는 과정이 수행된다.In this process, the actual object 1 on which projection mapping will be performed is prepared, and the point cloud for the target object 1 is extracted by scanning it through the LIDAR 20.

그리고 (c)단계는, (a)단계에서 도출된 기준 관계식에 기반하여, 컴퓨터의 프로세서를 통해 (b)단계에서 추출된 대상 오브젝트(1)의 포인트 클라우드로부터 빔 프로젝터(10)를 통해 조사되는 빛의 패턴에 포함된 각 픽셀과의 관계를 수식화한 프로젝션 관계식을 도출하는 과정이다.And in step (c), based on the reference relational expression derived in step (a), the point cloud of the target object 1 extracted in step (b) through the processor of the computer is irradiated through the beam projector 10. This is the process of deriving a projection equation that formalizes the relationship between each pixel included in the light pattern.

본 과정에서는 전술한 (b)단계에서 라이다(20)를 통해 추출한 대상 오브젝트(1)에 대한 3차원 좌표를 통해, 각각의 해당 점이 빔 프로젝터(10)의 몇 번째 광선에 맺히는지, 혹은 어떤 광선과 가장 거리가 가까운지를 찾게 된다.In this process, through the three-dimensional coordinates of the target object (1) extracted through the lidar (20) in step (b) described above, it is determined which ray of the beam projector (10) each corresponding point falls on, or which Find the closest distance to the ray of light.

즉 본 과정은 프로젝션 매핑이 되기를 원하는 대상 오브젝트(1)에서 얻은 3차원 좌표가 복수 개의 벡터들 중 어떤 벡터와 거리가 가장 가까운지 은 뒤 2D 픽셀 값을 얻는 과정이다.In other words, this process is a process of obtaining a 2D pixel value after determining which of a plurality of vectors has the closest distance between the 3D coordinates obtained from the target object (1) for which projection mapping is desired.

다음으로 (d)단계는, (c)단계에서 도출된 프로젝션 관계식에 기반하여 빔 프로젝터(10)를 통해 가상 오브젝트(2)에 대한 프로젝션 매핑을 수행하는 과정이다.Next, step (d) is a process of performing projection mapping on the virtual object 2 through the beam projector 10 based on the projection equation derived in step (c).

이상 설명한 바와 같이 본 발명은 라이다(20)를 이용하여 획득한 심도 RGB데이터를 활용하여 빔 프로젝터(10)에서 조사되는 빛의 모든 픽셀과의 관계를 수식화할 수 있기 때문에 빔 프로젝터(10) 렌즈의 왜곡으로부터 자유로우며, 따라서 프로젝션 매핑을 할 대상 오브젝트(1)가 대형 스케일을 가지고 있거나 장거리에 위치하고 있을 경우에도 오차 없는 프로젝션 매핑이 가능하다.As described above, the present invention can formalize the relationship between all pixels of light emitted from the beam projector 10 by utilizing the depth RGB data obtained using the LIDAR 20, so the lens of the beam projector 10 It is free from distortion, and therefore error-free projection mapping is possible even when the target object (1) to be projection mapped has a large scale or is located at a long distance.

이에 따라 본 발명은 공연, 전시, 광고에 쓰이는 대형 프로젝션 매핑에 활용이 가능하며, 특히 볼록렌즈와 같이 빛의 각도를 넓히는 기구를 활용할 경우 보다 넓은 면적을 적은 수의 빔 프로젝터(10)만으로도 커버할 수 있는 것은 물론, 종래 10~20회에 걸쳐 이루어지던 캘리브레이션 과정 자체를 2회로 획기적으로 감소시킬 수 있는 장점이 있다.Accordingly, the present invention can be used for large-scale projection mapping used in performances, exhibitions, and advertisements. In particular, when using a device that widens the angle of light, such as a convex lens, a larger area can be covered with only a small number of beam projectors (10). Not only that, but it also has the advantage of being able to dramatically reduce the calibration process itself, which previously took 10 to 20 times, to just 2 times.

이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the preferred embodiments according to the present invention have been examined, and the fact that the present invention can be embodied in other specific forms in addition to the embodiments described above without departing from the spirit or scope thereof is recognized by those skilled in the art. It is self-evident to them. Therefore, the above-described embodiments are to be regarded as illustrative and not restrictive, and thus the present invention is not limited to the above description but may be modified within the scope of the appended claims and their equivalents.

1: 대상 오브젝트
2: 가상 오브젝트
10: 빔 프로젝터
15: 투사체
20: 라이다
1: Target object
2: Virtual object
10: Beam projector
15: Projectile
20: LIDAR

Claims (7)

빔 프로젝터를 통해 조사되는 빛의 패턴을 구성하는 각 픽셀과, RGB카메라를 포함하는 라이다에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 (a)단계;
상기 라이다를 통해 대상 오브젝트의 실물에 대한 포인트 클라우드를 추출하는 (b)단계;
상기 (a)단계에서 도출된 상기 기준 관계식에 기반하여, 컴퓨터의 프로세서를 통해 상기 (b)단계에서 추출된 대상 오브젝트의 포인트 클라우드로부터 빔 프로젝터를 통해 조사되는 빛의 패턴에 포함된 각 픽셀과의 관계를 수식화한 프로젝션 관계식을 도출하는 (c)단계; 및
상기 (c)단계에서 도출된 프로젝션 관계식에 기반하여 상기 빔 프로젝터를 통해 가상 오브젝트에 대한 프로젝션 매핑을 수행하는 (d)단계;
를 포함하며,

상기 (a)단계는,
상기 빔 프로젝터를 통해 기 설정된 빛의 패턴을 임의의 투사체에 조사하는 (a-1)단계;
상기 라이다를 통해 상기 (a-1)단계에서 상기 빔 프로젝터를 통해 조사된 빛의 패턴을 스캔하고, 빛의 패턴을 구성하는 각 픽셀에 대한 포인트 클라우드를 추출하는 (a-2)단계; 및
컴퓨터의 프로세서를 통해 상기 (a-1)단계에서 빔 프로젝터를 통해 조사된 빛의 패턴을 구성하는 각 픽셀과 상기 (a-2)단계에서 라이다에서 조사되는 광선 간의 관계를 수식화하여 기준 관계식을 도출하는 (a-3)단계;
를 포함하고,

상기 (a-3)단계는,
상기 (a-2)단계에서 추출된 포인트 클라우드를 2D이미지로 변환하는 (a-3-1)단계;
상기 (a-3-1)단계에 의해 변환된 2D이미지에 나타나는 패턴들에 대해 센터값을 산출하는 (a-3-2)단계;
상기 (a-3-2)단계에서 산출된 센터값들을 통해 복수 개의 3차원 위치값을 포함하는 3차원 위치값 세트를 도출하는 (a-3-3)단계; 및
상기 (a-3-3)단계에서 도출된 복수 개의 3차원 위치값을 조합하여 3차원 직선 방정식을 도출하는 (a-3-4)단계;
를 포함하는,
심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법.
Step (a) of deriving a standard relational expression by formulating the relationship between each pixel constituting the pattern of light irradiated through a beam projector and the ray irradiated from a LIDAR including an RGB camera;
Step (b) of extracting a point cloud for the actual target object through the LIDAR;
Based on the reference relationship derived in step (a), each pixel included in the pattern of light emitted through the beam projector from the point cloud of the target object extracted in step (b) through the processor of the computer Step (c) of deriving a projection equation that formalizes the relationship; and
Step (d) of performing projection mapping on the virtual object through the beam projector based on the projection equation derived in step (c);
Includes,

In step (a),
Step (a-1) of irradiating a preset light pattern to an arbitrary projectile through the beam projector;
Step (a-2) of scanning the pattern of light irradiated through the beam projector in step (a-1) through the LIDAR and extracting a point cloud for each pixel constituting the light pattern; and
Through the computer's processor, the relationship between each pixel constituting the pattern of light irradiated through the beam projector in step (a-1) and the ray irradiated from the LIDAR in step (a-2) is formulated to form a reference relational expression. Deriving step (a-3);
Including,

In step (a-3),
Step (a-3-1) of converting the point cloud extracted in step (a-2) into a 2D image;
Step (a-3-2) of calculating center values for patterns appearing in the 2D image converted by step (a-3-1);
Step (a-3-3) of deriving a 3D position value set including a plurality of 3D position values through the center values calculated in step (a-3-2); and
Step (a-3-4) of deriving a three-dimensional straight line equation by combining a plurality of three-dimensional position values derived in step (a-3-3);
Including,
Projection mapping method through a calibration process using depth RGB data.
제1항에 있어서,
상기 (a)단계는 상기 (b)단계가 수행되기 이전에 2회 이상 수행되는,
심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법.
According to paragraph 1,
Step (a) is performed two or more times before step (b) is performed,
Projection mapping method through a calibration process using depth RGB data.
삭제delete 제1항에 있어서,
상기 (a-2)단계는,
상기 라이다를 통해 스캔된 전체 영역 중에서 상기 빔 프로젝터를 통해 조사된 빛의 패턴 영역에 대한 포인트 클라우드만을 추출하는,
심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법.
According to paragraph 1,
In step (a-2),
Extracting only the point cloud for the pattern area of light irradiated through the beam projector from the entire area scanned through the LIDAR,
Projection mapping method through a calibration process using depth RGB data.
삭제delete 제1항에 있어서,
상기 (a-3-1)단계는 상기 (a-2)단계에서 추출된 포인트 클라우드를 2D이미지로 변환하는 과정에서 구면좌표계를 사용하는,
심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법.
According to paragraph 1,
The step (a-3-1) uses a spherical coordinate system in the process of converting the point cloud extracted in step (a-2) into a 2D image.
Projection mapping method through a calibration process using depth RGB data.
제1항에 있어서,
상기 (a-3-2)단계는 해리스 코너검출(Harris Corner Detect) 방식을 이용하여 2D이미지에 나타나는 패턴들에 대한 센터값을 산출하는,
심도 RGB데이터를 활용한 캘리브레이션 과정을 통한 프로젝션 매핑방법.
According to paragraph 1,
The step (a-3-2) calculates the center value for the patterns appearing in the 2D image using the Harris Corner Detect method.
Projection mapping method through a calibration process using depth RGB data.
KR1020220162652A 2022-11-29 2022-11-29 Projection Mapping Method through Calibration Process Using Depth Rgb Data KR102629889B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220162652A KR102629889B1 (en) 2022-11-29 2022-11-29 Projection Mapping Method through Calibration Process Using Depth Rgb Data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220162652A KR102629889B1 (en) 2022-11-29 2022-11-29 Projection Mapping Method through Calibration Process Using Depth Rgb Data

Publications (1)

Publication Number Publication Date
KR102629889B1 true KR102629889B1 (en) 2024-01-31

Family

ID=89717357

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220162652A KR102629889B1 (en) 2022-11-29 2022-11-29 Projection Mapping Method through Calibration Process Using Depth Rgb Data

Country Status (1)

Country Link
KR (1) KR102629889B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126425A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program
JP2020202486A (en) * 2019-06-10 2020-12-17 株式会社ライゾマティクス Projection system, projection control device, projection control program, and control method of projection system
KR102289005B1 (en) * 2021-03-16 2021-08-12 (주)브이에이커뮤니케이션즈 Method for mapping to object model using ar-based contents

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126425A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Free viewpoint image generation device, method and program
JP2020202486A (en) * 2019-06-10 2020-12-17 株式会社ライゾマティクス Projection system, projection control device, projection control program, and control method of projection system
KR102289005B1 (en) * 2021-03-16 2021-08-12 (주)브이에이커뮤니케이션즈 Method for mapping to object model using ar-based contents
KR102289006B1 (en) * 2021-03-16 2021-08-12 (주)브이에이커뮤니케이션즈 Method for mapping ar-based contents
KR102300285B1 (en) * 2021-03-16 2021-09-10 (주)브이에이커뮤니케이션즈 Method for mapping ar-based content and system using the same

Similar Documents

Publication Publication Date Title
US8264546B2 (en) Image processing system for estimating camera parameters
US8130244B2 (en) Image processing system
US8265374B2 (en) Image processing apparatus, image processing method, and program and recording medium used therewith
Rocchini et al. A low cost 3D scanner based on structured light
US20100134688A1 (en) Image processing system
EP2568253B1 (en) Structured-light measuring method and system
US20120301013A1 (en) Enhanced object reconstruction
US6195455B1 (en) Imaging device orientation information through analysis of test images
CN106575448A (en) Image rendering of laser scan data
JP2009300277A (en) Apparatus, method and program of image processing
JP2003099799A (en) Method for simulating motion of three-dimensional physical object stationary in changeless scene
US10783607B2 (en) Method of acquiring optimized spherical image using multiple cameras
KR20170141202A (en) Image processing apparatus and image processing method
Knyaz Multi-media projector–single camera photogrammetric system for fast 3D reconstruction
Royo et al. Non-line-of-sight transient rendering
KR102629889B1 (en) Projection Mapping Method through Calibration Process Using Depth Rgb Data
CN108895979A (en) The structure optical depth acquisition methods of line drawing coding
Kochi et al. Development of 3D image measurement system and stereo‐matching method, and its archaeological measurement
TWI595446B (en) Method for improving occluded edge quality in augmented reality based on depth camera
US20200234458A1 (en) Apparatus and method for encoding in structured depth camera system
JP2016065785A (en) Image processor, and method and program for image processing
Maneshgar et al. A Long-range Vision System for Projection Mapping of Stereoscopic Content in Outdoor Areas.
Jiroušek et al. The testing of photoscan 3D object modelling software
Schiller et al. Increasing realism and supporting content planning for dynamic scenes in a mixed reality system incorporating a time-of-flight camera
Frommholz A synthetic 3d scene for the validation of photogrammetric algorithms

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant