KR101652594B1 - Apparatus and method for providingaugmented reality contentents - Google Patents

Apparatus and method for providingaugmented reality contentents Download PDF

Info

Publication number
KR101652594B1
KR101652594B1 KR1020140173567A KR20140173567A KR101652594B1 KR 101652594 B1 KR101652594 B1 KR 101652594B1 KR 1020140173567 A KR1020140173567 A KR 1020140173567A KR 20140173567 A KR20140173567 A KR 20140173567A KR 101652594 B1 KR101652594 B1 KR 101652594B1
Authority
KR
South Korea
Prior art keywords
dimensional image
dimensional
image
texture
information
Prior art date
Application number
KR1020140173567A
Other languages
Korean (ko)
Other versions
KR20160068186A (en
Inventor
고승환
양희찬
김동우
고승완
국현준
Original Assignee
주식회사 오르네이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오르네이트 filed Critical 주식회사 오르네이트
Priority to KR1020140173567A priority Critical patent/KR101652594B1/en
Publication of KR20160068186A publication Critical patent/KR20160068186A/en
Application granted granted Critical
Publication of KR101652594B1 publication Critical patent/KR101652594B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

증강 현실 컨텐츠 제공 장치 및 방법이 개시된다. 일 실시예에 따른 증강 현실 재생 장치는 사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상에서 특징점을 추출하고, 추출된 특징점을 기 저장된 2차원 이미지의 특징 정보와 비교하여 2차원 이미지를 식별하며, 채색된 2차원 이미지를 식별된 2차원 이미지에 대응하는 3차원 객체의 텍스처로 매핑한다.An apparatus and method for providing an augmented reality content are disclosed. The augmented reality reproduction apparatus according to an exemplary embodiment extracts feature points from an input image including a two-dimensional image painted by a user, compares the extracted feature points with feature information of a previously stored two-dimensional image to identify a two-dimensional image , And maps the colored two-dimensional image to the texture of the three-dimensional object corresponding to the identified two-dimensional image.

Description

증강 현실 컨텐츠 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDINGAUGMENTED REALITY CONTENTENTS}[0001] APPARATUS AND METHOD FOR PROVIDING AUGMENTED REALITY CONTENTS [0002]

증강 현실 컨텐츠를 제공하기 위한 장치 및 방법에 관한 것이다.
And an apparatus and method for providing the augmented reality contents.

증강 현실(Augmented Reality)은 사용자가 눈으로 보는 현실 세계와 부가 정보를 갖는 가상 세계를 합쳐 하나의 영상으로 보여주는 가상 현실의 하나이다. Augmented Reality is one of the virtual reality that combines the real world that the user sees with the virtual world which has additional information and displays it as one image.

마커 기반 증강 현실(marker-based Augmented Reality)은 입력 영상에 부가된 마커 위에 가상의 3차원 객체를 증강시키는 방법으로 영상 처리 및 인식에 소요되는 계산 량이 적어 실시간 활용이 용이한 장점이 있다. The marker-based Augmented Reality is a method of augmenting a virtual three-dimensional object on a marker added to an input image.

그러나, 마커 기반 증강 현실은 미리 제작된 텍스처가 매핑된 3차원 객체를 이용하여 가상의 3차원 객체를 증강시킴으로 인해서, 디스플레이 화면 상에 표현되는 3차원 객체의 색상 및 질감이 고정적이라는 단점이 존재한다.
However, the marker-based augmented reality has a drawback that the color and texture of the three-dimensional object displayed on the display screen are fixed due to the enhancement of the virtual three-dimensional object using the three-dimensional object to which the pre-fabricated texture is mapped .

아래에서 설명하는 실시예들은 이러한 문제를 해결하기 위한 것으로, 사용자가 직접 색칠한 2차원 이미지를 이용하여, 사용자가 색칠한 재료의 질감을 표현한 3차원 객체를 포함하는 증강 현실 컨텐츠를 제공하는 증강 현실 재생 장치 및 방법을 제공하는 것을 목적으로 한다.
In order to solve the above-described problems, embodiments of the present invention provide an augmented reality image providing augmented reality contents including a three-dimensional object representing a texture of a material painted by a user using a two- Reproducing apparatus and method.

일 측에 따른 증강 현실 컨텐츠 제공 장치는 텍스처가 매핑되지 않은 3차원 객체의 모델 정보, 상기 3차원 객체에 대응하는 2차원 이미지의 특징 정보, 및 상기 3차원 객체와 상기 2차원 이미지 사이의 매핑 정보를 저장하는 객체 정보 저장부; 사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상에서 특징점을 추출하고, 추출된 특징점을 상기 특징 정보와 비교하여 상기 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 식별부; 상기 매핑 정보를 이용하여, 상기 채색된 2차원 이미지를 상기 식별된 2차원 이미지에 대응하는 3차원 객체의 텍스처로 매핑하는 텍스처 매핑부; 및 상기 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 디스플레이하는 컨텐츠 재생부를 포함한다.The apparatus for providing augmented reality contents according to one side includes model information of a three-dimensional object to which a texture is not mapped, feature information of a two-dimensional image corresponding to the three-dimensional object, mapping information between the three- An object information storage unit for storing the object information; An identification unit for extracting a feature point from an input image including a two-dimensional image painted by a user, comparing the extracted feature point with the feature information, and identifying a two-dimensional image corresponding to the two-dimensional image painted by the user; A texture mapping unit for mapping the colored two-dimensional image to a texture of a three-dimensional object corresponding to the identified two-dimensional image using the mapping information; And a content playback unit for displaying the augmented reality content including the texture-mapped 3D object.

상기 2차원 이미지는 상기 3차원 객체를 3차원 공간 상에서 서로 반대되는 두 개의 방향에 기초하여 투영한 두 개의 투영도를 포함할 수 있다.The two-dimensional image may include two projections that project the three-dimensional object based on two directions opposite to each other in a three-dimensional space.

상기 특징 정보는 상기 3차원 객체에 대응하는 2차원 이미지의 특징점들의 위치 정보를 포함할 수 있다.The feature information may include position information of feature points of the two-dimensional image corresponding to the three-dimensional object.

상기 식별부는 상기 입력 영상에서 추출된 특징점의 상대적 좌표를 결정하고, 상기 결정된 상대적 좌표 및 상기 특징 정보를 비교함으로써 상기 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다.The identification unit may determine a relative coordinate of the extracted feature point from the input image, and compare the determined relative coordinate and the feature information to identify a two-dimensional image corresponding to the two-dimensional image colored by the user.

상기 텍스처 매핑부는 상기 비교 결과에 기초하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭시킬 수 있다.The texture mapping unit may match the two-dimensional image included in the input image with the two-dimensional image corresponding to the three-dimensional object, based on the comparison result.

상기 텍스처 매핑부는 상기 입력 영상에서 추출된 특징점에 기초하여 설정된 적어도 네 개의 기준점을 이용하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭시킬 수 있다.The texture mapping unit may match the two-dimensional image included in the input image with the two-dimensional image corresponding to the three-dimensional object, using at least four reference points set based on the extracted feature points.

상기 컨텐츠 재생부는 상기 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 카메라를 통해 입력되는 영상과 함께 디스플레이 할 수 있다.The content reproducing unit may display the augmented reality contents including the texture-mapped three-dimensional object together with the image input through the camera.

일 측에 따른 증강 현실 컨텐츠 제공 방법은 사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상을 수신하는 단계; 상기 입력 영상에서 특징점을 추출하는 단계; 상기 추출된 특징점과 기 저장된 2차원 이미지의 특징 정보를 비교하여 상기 기 저장된 2차원 이미지 중 상기 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 단계; 상기 식별된 2차원 이미지와 3차원 객체 사이의 매핑 정보를 이용하여, 상기 채색된 2차원 이미지를 상기 3차원 객체의 텍스처로 매핑하는 단계; 및 상기 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 디스플레이하는 단계를 포함한다.A method of providing augmented reality contents according to one side includes: receiving an input image including a two-dimensional image painted by a user; Extracting feature points from the input image; Comparing the extracted feature points with feature information of a previously stored two-dimensional image to identify a two-dimensional image corresponding to the colored two-dimensional image among the previously stored two-dimensional images; Mapping the colored two-dimensional image to a texture of the three-dimensional object using the identified two-dimensional image and mapping information between the three-dimensional object; And displaying the augmented reality contents including the texture-mapped three-dimensional object.

상기 식별하는 단계는 상기 입력 영상에서 추출된 특징점의 상대적 좌표를 결정하는 단계; 및 상기 결정된 상대적 좌표 및 상기 특징 정보를 비교함으로써 상기 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 단계를 포함할 수 있다.Wherein the identifying step comprises: determining relative coordinates of the minutiae extracted from the input image; And identifying the two-dimensional image corresponding to the two-dimensional image painted by the user by comparing the determined relative coordinates and the feature information.

상기 매핑하는 단계는 상기 비교 결과에 기초하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭시키는 단계를 포함할 수 있다.The mapping may include matching the two-dimensional image included in the input image to a two-dimensional image corresponding to the three-dimensional object, based on the comparison result.

상기 매핑하는 단계는 상기 입력 영상에서 추출된 특징점에 기초하여 적어도 네 개의 기준점을 설정하는 단계; 및 상기 설정된 적어도 네 개의 기준점을 이용하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭하는 단계를 포함할 수 있다.
Wherein the mapping comprises: setting at least four reference points based on the feature points extracted from the input image; And matching the two-dimensional image included in the input image with the two-dimensional image corresponding to the three-dimensional object using the set at least four reference points.

사용자가 직접 색칠한 2차원 이미지를 3차원 객체의 텍스처로 사용함으로써, 3차원 객체에 사용자가 색칠한 재료의 질감 그대로 살려 입히거나 3차원 객체의 텍스처를 쉽게 바꿀 수 있도록 하여 사용자가 원하는 다양한 증강 현실 컨텐츠를 제공함과 동시에 증강 현실 컨텐츠의 실재감을 향상시킬 수 있다.
By using a two-dimensional image directly painted by a user as a texture of a three-dimensional object, it is possible to apply a texture of the material painted by the user to the three-dimensional object or to easily change the texture of the three- And the reality of the augmented reality contents can be improved.

도 1은 일 실시예에 따른 증강 현실 컨텐츠 제공 장치를 나타낸 블록도.
도 2는 일 실시예에 따른 3차원 객체를 설명하는 도면.
도 3은 일 실시예에 따른 3차원 객체에 대응하는 2차원 이미지를 설명하는 도면.
도 4는 일 실시예에 따른 사용자에 의해 채색된 2차원 이미지를 설명하는 도면.
도 5는 일 실시예에 따른 사용자에 의해 채색된 2차원 이미지가 포함된 입력 영상을 설명하는 도면.
도 6은 일 실시예에 따른 특징점들의 상대적 좌표를 결정하기 위한 기준점 설정을 설명하는 도면.
도 7은 일 실시예에 따른 디스플레이 화면 상에 표현된 3차원 객체를 설명하는 도면.
도 8은 일 실시예에 따른 증강 현실 컨텐츠 제공 방법을 나타낸 동작 흐름도.
1 is a block diagram illustrating an apparatus for providing augmented reality contents according to an embodiment;
FIG. 2 illustrates a three-dimensional object according to an embodiment; FIG.
3 illustrates a two-dimensional image corresponding to a three-dimensional object according to one embodiment;
4 illustrates a two-dimensional image that is colored by a user according to an embodiment;
5 is a view illustrating an input image including a two-dimensional image painted by a user according to an exemplary embodiment.
6 is a diagram illustrating a reference point setting for determining relative coordinates of feature points according to an embodiment;
FIG. 7 illustrates a three-dimensional object represented on a display screen according to an exemplary embodiment; FIG.
8 is an operational flowchart illustrating a method of providing augmented reality contents according to an embodiment.

이하, 첨부된 도면을 참조하여 기술되는 바람직한 실시예를 통하여 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 기술하기로 한다. 다만, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명 실시예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명 명세서 전반에 걸쳐 사용되는 용서들은 본 발명 실시예에서의 기능을 고려하여 정의된 용어들로서, 사용자 또는 운용자의 의도, 관례 등에 따라 충분히 변형될 수 있는 사항이므로, 이 용어들의 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부"라는 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 본 발명은 이러한 경우를 포괄하도록 해석된다.
The forgery used throughout the specification of the present invention is defined in consideration of the functions of the embodiments of the present invention and is a matter that can be sufficiently modified according to the intentions and customs of the user or the operator. It should be based on the contents of. Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the term " part "in the specification means a unit for processing at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. The present invention is construed to cover such cases.

도 1은 일 실시예에 따른 증강 현실 컨텐츠 제공 장치를 나타낸 블록도이다.1 is a block diagram illustrating an apparatus for providing augmented reality contents according to an exemplary embodiment of the present invention.

증강 현실 컨텐츠 제공 장치(100)는 카메라를 통해 입력되는 현실 세계의 영상을 증강 현실 컨텐츠와 함께 디스플레이 화면 상에 재생하기 위한 것으로, 카메라와 디스플레이 화면을 구비한 휴대 단말의 일 구성으로 구현될 수 있다. 이때, 휴대 단말은 예를 들어, 스마트 폰, 셀룰러 폰, PDA, 랩톱 컴퓨터, 태블릿 컴퓨터 등을 포함할 수 있다.The augmented reality contents providing apparatus 100 is for reproducing an image of a real world inputted through a camera on a display screen together with augmented reality contents and can be implemented as a configuration of a portable terminal having a camera and a display screen . At this time, the portable terminal may include, for example, a smart phone, a cellular phone, a PDA, a laptop computer, a tablet computer, and the like.

도 1을 참조하면, 일 실시예에 따른 증강 현실 컨텐츠 제공 장치(100)는 객체 정보 저장부(110), 식별부(120),텍스처 매핑부(130) 및 컨텐츠 재생부(140)를 포함한다.1, an apparatus for providing augmented reality contents 100 according to an exemplary embodiment includes an object information storage unit 110, an identification unit 120, a texture mapping unit 130, and a content playback unit 140 .

객체 정보 저장부(110)는 3차원 객체의 모델 정보, 3차원 객체에 대응하는 2차원 이미지의 특징 정보, 및 3차원 객체와 2차원 이미지 사이의 매핑 정보를 저장할 수 있다. The object information storage unit 110 may store model information of a three-dimensional object, feature information of a two-dimensional image corresponding to the three-dimensional object, and mapping information between the three-dimensional object and the two-dimensional image.

일 실시예에 따르면, 3차원 객체의 모델 정보는 아바타, 사람, 동물, 캐릭터, 구조물, 도구, 탈것 등 다양한 객체를 표현할 수 있다. 모델 정보는 해당 3차원 객체의 외형 구조를 입체적으로 나타내는 정보를 포함할 수 있다. 이 때, 모델 정보는 해당 3차원 객체의 외형 구조 위에 매핑되는 텍스처 정보는 포함하지 않을 수 있다. 예를 들어, 3차원 객체는 텍스처가 매핑되지 않은 객체일 수 있다.According to one embodiment, the model information of the three-dimensional object can represent various objects such as an avatar, a person, an animal, a character, a structure, a tool, and a mount. The model information may include information representing the outline structure of the corresponding three-dimensional object stereoscopically. In this case, the model information may not include the texture information mapped on the external structure of the corresponding three-dimensional object. For example, a three-dimensional object may be an object to which the texture is not mapped.

예를 들어, 도 2를 참조하면, 모델 정보는 고양이 캐릭터(210)의 외형 구조를 입체적으로 나타내는 정보를 포함할 수 있다. 이 때, 모델 정보는 고양이 캐릭터(210)의 외형 구조 위에 매핑되는 텍스처 정보를 포함하지 않을 수 있다.For example, referring to FIG. 2, the model information may include stereoscopic information on the external structure of the cat character 210. At this time, the model information may not include texture information mapped on the external structure of the cat character 210.

3차원 객체에 대응하는 2차원 이미지는 3차원 공간 상에서 서로 반대되는 두 개의 방향에 기초한 두 개의 투영도를 포함할 수 있다. 두 개의 투영도 중 제1 투영도는 3차원 공간 상에서 3차원 객체를 제1 방향에서 바라보았을 때 보이는 외형 선들을 포함할 수 있다. 또한, 두 개의 투영도 중 제2 투영도는 3차원 공간 상에서 3차원 객체를 제2 방향에서 바라보았을 때 보이는 외형 선들을 포함할 수 있다. 여기서, 제1 방향과 제2 방향은 서로 반대 방향일 수 있다.The two-dimensional image corresponding to the three-dimensional object may include two projections based on two directions opposite to each other in the three-dimensional space. The first projection of the two projections may include contour lines that are visible when the three-dimensional object is viewed in the first direction on the three-dimensional space. In addition, the second projection of the two projections may include contour lines that are visible when the three-dimensional object is viewed in the second direction on the three-dimensional space. Here, the first direction and the second direction may be opposite to each other.

3차원 객체에 대응하는 2차원 이미지는 3차원 객체의 정면도 및 배면도를 포함할 수 있다. 예를 들어, 도 3을 참조하면, 3차원 객체에 대응하는 2차원 이미지(300)는 도 2의 고양이 캐릭터(210)의 정면도(310) 및 배면도(320)를 포함할 수 있다.The two-dimensional image corresponding to the three-dimensional object may include a front view and a back view of the three-dimensional object. For example, referring to FIG. 3, a two-dimensional image 300 corresponding to a three-dimensional object may include a front view 310 and a back view 320 of the cat character 210 of FIG.

그러나, 2차원 이미지에 포함되는 투영도는 반드시 정면도 및 배면도에 한정되는 것은 아니며, 좌측면도와 우측면도 같이 3차원 공간 상에서 서로 반대되는 방향에 기초하여 생성된 다양한 투영도를 포함할 수 있다. However, the projections included in the two-dimensional image are not necessarily limited to the front view and the rear view, but may include various projections generated based on directions opposite to each other in the three-dimensional space, such as the left shade and the right side.

또한, 경우에 따라 2차원 이미지는 두 개 이상의 투영도를 포함할 수 있다. 예를 들어, 2차원 이미지는 정면도, 배면도, 좌측면도, 및 우측면도를 포함할 수도 있다.In some cases, the two-dimensional image may include two or more projections. For example, a two-dimensional image may include a front view, a back view, a left view, and a right view.

특징 정보는 3차원 객체에 대응하는 2차원 이미지의 특징점에 관한 정보를 포함할 수 있다. 일 예로, 특징 정보는 XY 평면 상에서 2차원 이미지의 특징점들의 좌표에 대한 정보일 수 있다. 다른 예로, 특징 정보는 XY 평면 상에서 2차원 이미지의 특징점들 사이의 상대적 좌표에 대한 정보일 수 있다. XY 평면 상에서 2차원 이미지의 특징점들 사이의 상대적 좌표는 UV 좌표계로 표시될 수 있다.The feature information may include information about feature points of the two-dimensional image corresponding to the three-dimensional object. In one example, the feature information may be information on the coordinates of the feature points of the two-dimensional image on the XY plane. As another example, the feature information may be information on the relative coordinates between the feature points of the two-dimensional image on the XY plane. The relative coordinates between the feature points of the two-dimensional image on the XY plane can be expressed in the UV coordinate system.

한편, 일 실시예에 따르면, 3차원 객체에 대응하는 2차원 이미지의 특징점은 3차원 객체가 2차원 이미지로 투영되는 과정에서 설정될 수 있다. 예를 들어, 3차원 객체의 모델 정보는 3차원 객체의 3차원 특징점을 포함할 수 있다. 이 경우, 해당 3차원 특징점이 2차원 이미지로 투영된 점들이 특징점으로 설정될 수 있다.According to an exemplary embodiment, the feature points of the two-dimensional image corresponding to the three-dimensional object may be set in a process of projecting the three-dimensional object into the two-dimensional image. For example, the model information of the three-dimensional object may include three-dimensional feature points of the three-dimensional object. In this case, the points where the corresponding three-dimensional minutiae are projected in the two-dimensional image may be set as minutiae.

또는, 3차원 객체에 대응하는 2차원 이미지의 특징점은 2차원 이미지를 분석함으로써 설정될 수 있다. 예를 들어, 2차원 이미지의 에지를 따라서 특징점이 설정될 수 있다.Alternatively, the feature points of the two-dimensional image corresponding to the three-dimensional object can be set by analyzing the two-dimensional image. For example, feature points can be set along the edges of a two-dimensional image.

한편, 3차원 객체와 대응하는 2차원 이미지 사이의 매핑 정보는 3차원 객체와 대응하는 2차원 이미지를 매핑하는 정보이다. 일 예로, 매핑 정보는 3차원 객체에 포함된 점과 2차원 이미지에 포함된 점을 매핑하는 정보일 수 있다. 3차원 객체에 포함된 점은 3차원 객체의 표면에 위치하고, 2차원 이미지에 포함된 점은 2차원 이미지의 에지 위에 위치할 수 있다.On the other hand, the mapping information between the three-dimensional object and the corresponding two-dimensional image is information for mapping the two-dimensional image corresponding to the three-dimensional object. For example, the mapping information may be information that maps points included in the three-dimensional object and points included in the two-dimensional image. The points included in the three-dimensional object are located on the surface of the three-dimensional object, and the points included in the two-dimensional image can be positioned on the edge of the two-dimensional image.

또는, 매핑 정보는 3차원 객체에 포함된 선과 2차원 이미지에 포함된 선을 매핑하는 정보일 수 있다. 3차원 객체에 포함된 선은 객체의 표면에 위치하고, 2차원 이미지에 포함된 선은 2차원 이미지의 에지 중 적어도 일부일 수 있다.Alternatively, the mapping information may be a line included in the three-dimensional object and information for mapping a line included in the two-dimensional image. The lines contained in the three-dimensional object are located on the surface of the object, and the lines included in the two-dimensional image may be at least a part of the edges of the two-dimensional image.

또는, 매핑 정보는 3차원 객체에 포함된 영역과 2차원 이미지에 포함된 영역을 매핑하는 정보일 수 있다. 3차원 객체에 포함된 영역은 객체의 표면에 위치하고, 2차원 이미지에 포함된 영역은 2차원 이미지의 에지들 내부에 위치할 수 있다.Alternatively, the mapping information may be information that maps an area included in the three-dimensional object and an area included in the two-dimensional image. The area included in the 3D object is located on the surface of the object, and the area included in the 2D image can be located inside the edges of the 2D image.

일 예로, 매핑 정보는 3차원 객체를 구성하는 폴리곤(polygon)의 정점(vertex)들의 3차원 공간 상의 좌표와 2차원 이미지의 특징점들의 평면 좌표를 매핑하는 정보일 수 있다. For example, the mapping information may be information for mapping the coordinates on the three-dimensional space of the vertices of the polygon constituting the three-dimensional object and the coordinates of the plane of the minutiae points of the two-dimensional image.

2차원 이미지의 특징점들은 UV 좌표 평면을 이용한 상대적 좌표값을 가질 수 있으며, 3차원 객체의 정점들 각각은 3차원 공간상의 좌표값 및 각각의 정점들에 매칭되는 2차원 이미지 상의 특징점의 UV 좌표값에 대한 정보를 포함할 수 있다.
The feature points of the two-dimensional image may have relative coordinate values using the UV coordinate plane. Each of the vertices of the three-dimensional object may have a coordinate value in the three-dimensional space and a UV coordinate value of the feature point on the two- Lt; / RTI >

식별부(120)는 사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상을 수신한다. 입력 영상은 카메라 등 다양한 비전 센서에 의하여 생성될 수 있다. 식별부(120)는 카메라 등 다양한 비전 센서에 의하여 생성된 입력 영상을 수신할 수 있다.The identification unit 120 receives an input image including a two-dimensional image colored by a user. The input image can be generated by various vision sensors such as cameras. The identification unit 120 may receive an input image generated by various vision sensors such as a camera.

사용자에 의해 채색된 2차원 이미지는 객체 정보 저장부(110)에 저장된 2차원 이미지에 대응하는 그림에 사용자가 직접 색칠한 이미지일 수 있다. 예를 들어, 도 4를 참조하면, 사용자는 도 3의 2차원 이미지(300)와 동일한 그림을 프린트하여 직접 채색할 수 있다. 이후, 사용자에 의하여 채색된 그림이 카메라로 촬영되는 경우, 입력 영상은 사용자에 의해 채색된 2차원 이미지(400)가 포함된다. The two-dimensional image painted by the user may be an image directly painted by the user in a figure corresponding to the two-dimensional image stored in the object information storage unit 110. [ For example, referring to FIG. 4, a user may directly paint the same image as the two-dimensional image 300 of FIG. Then, when a picture painted by the user is photographed by the camera, the input image includes a two-dimensional image 400 colored by the user.

식별부(120)는 입력 영상에서 특징점을 추출한다. 식별부(120)는 입력 영상의 픽셀값에 기초하여 특징점을 추출할 수 있다. 일 예로, 식별부(120)는 입력 영상에서 채도 변화가 크게 일어나는 픽셀을 인식하여 특징점으로 추출할 수 있다. 채도 변화는 흑백 영상을 이용하여 계산될 수 있다. 채도 변화에 따라 특징점이 추출되는 경우, 식별부(120)는 흑백 영상을 이용하여 특징점을 추출하므로 연산 복잡도가 감소될 수 있다.The identification unit 120 extracts feature points from the input image. The identification unit 120 may extract the feature point based on the pixel value of the input image. For example, the identifying unit 120 may recognize a pixel having a significant saturation change in an input image and extract the pixel as a minutia. The saturation change can be calculated using a monochrome image. When the feature points are extracted according to the chroma change, the identification unit 120 extracts the feature points using the monochrome image, so that the computational complexity can be reduced.

그러나, 특징점을 추출하는 방법은 반드시 이에 한정되는 것은 아니다. 예를 들어, 식별부(120)는 픽셀의 채도 변화 대신 픽셀의 색상 변화를 이용하여 특징점을 추출할 수 있다. 또는, 식별부(120)는 픽셀의 명도 변화를 이용하여 특징점을 추출할 수 있다. 또는, 식별부(120)는 채도 변화, 색상 변화, 및 명도 변화 중 적어도 두 개의 조합을 이용하여 특징점을 추출할 수 있다.However, the method of extracting minutiae points is not necessarily limited thereto. For example, the identifying unit 120 may extract the feature point using the color change of the pixel instead of the saturation change of the pixel. Alternatively, the identification unit 120 may extract the feature point using the brightness change of the pixel. Alternatively, the identification unit 120 may extract feature points using at least two combinations of saturation change, hue change, and brightness change.

식별부(120)는 추출된 특징점을 객체 정보 저장부(110)에 저장된 특징 정보와 비교하여 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다. The identification unit 120 may compare the extracted feature points with the feature information stored in the object information storage unit 110 to identify a two-dimensional image corresponding to the two-dimensional image painted by the user.

예를 들어, 객체 정보 저장부(110)는 복수의 3차원 객체들에 대응하는 2차원 이미지들의 특징 정보를 저장할 수 있다. 식별부(120)는 추출된 특징점과 가장 잘 매칭되는 특징 정보를 검출함으로써, 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다. For example, the object information storage unit 110 may store feature information of two-dimensional images corresponding to a plurality of three-dimensional objects. The identifying unit 120 can identify the two-dimensional image corresponding to the two-dimensional image painted by the user by detecting the feature information that best matches the extracted feature points.

이때, 입력 영상의 채색된 2차원 이미지는 객체 정보 저장부(110)에 저장된 어느 하나의 2차원 이미지와 동일한 윤곽선을 가지므로, 입력 영상으로부터 객체 정보 저장부(110)에 저장된 2차원 이미지의 특징점과 동일하거나 유사한 특징점이 추출될 수 있다. 따라서, 식별부(120)는 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다. At this time, since the colorized two-dimensional image of the input image has the same outline as any two-dimensional image stored in the object information storage unit 110, the feature point of the two-dimensional image stored in the object information storage unit 110 The same or similar feature points can be extracted. Thus, the identification unit 120 can identify a two-dimensional image corresponding to a two-dimensional image that is colored by the user.

일 실시예에 따르면, 식별부(120)는 입력 영상에서 추출된 특징점들의 상대적 위치 값이 객체 정보 저장부(110)에 저장된 2차원 이미지의 특징점들의 상대적 위치 값과 동일한지 여부를 판단하여, 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다.According to one embodiment, the identification unit 120 determines whether the relative position values of the feature points extracted from the input image are the same as the relative position values of the feature points of the two-dimensional image stored in the object information storage unit 110, Dimensional image corresponding to the two-dimensional image.

예를 들어, 도 5를 참조하면, 사용자는 태블릿 컴퓨터(510) 등 증강 현실 컨텐츠 제공 장치(100)를 이용하여 채색된 2차원 이미지를 촬영할 수 있다. 아래에서 상세히 설명하겠으나, 식별부(120)는 카메라의 시야에 들어오는 영상이 미리 정해진 조건을 만족하는지 여부를 판단할 수 있다. 미리 정해진 조건은 3차원 객체에 텍스처를 입힐 만큼 충분한 입력 영상이 수신되었는지 여부를 판단하는 기준일 수 있다. 예를 들어, 사용자에 의하여 채색된 2차원 이미지가 미리 정해진 각도 범위 이내 및 미리 정해진 거리 범위 이내에서 촬영되는 경우, 3차원 객체에 텍스처를 입힐 만큼 충분한 입력 영상이 수신되었다고 판단될 수 있다. For example, referring to FIG. 5, a user can take a two-dimensional image, which is painted using the augmented reality contents providing apparatus 100, such as the tablet computer 510. As will be described in detail below, the identification unit 120 can determine whether the image entering the field of view of the camera satisfies a predetermined condition. The predetermined condition may be a criterion for judging whether or not a sufficient input image has been received to texture the three-dimensional object. For example, when a two-dimensional image painted by a user is photographed within a predetermined angular range and within a predetermined distance range, it can be determined that an input image sufficient to texture the three-dimensional object has been received.

미리 정해진 조건이 만족되는 경우, 증강 현실 컨텐츠 제공 장치(100)는 촬영해도 좋다는 것을 사용자에게 알릴 수 있다. 예를 들어, 증강 현실 컨텐츠 제공 장치(100)는 화면에 표시되는 채색된 2차원 이미지를 포함하는 영역을 파랗게 표시할 수 있다. 또는, 증강 현실 컨텐츠 제공 장치(100)는 진동을 울리거나, 효과음을 출력할 수 있다. 또는, 미리 정해진 조건이 만족되는 경우, 증강 현실 컨텐츠 제공 장치(100)는 자동으로 촬영을 수행할 수도 있다. When the predetermined condition is satisfied, the augmented reality contents providing apparatus 100 can notify the user that it is possible to take a picture. For example, the augmented reality content providing apparatus 100 may display an area including a colored two-dimensional image displayed on the screen in blue. Alternatively, the augmented reality content providing apparatus 100 may vibrate or output a sound effect. Alternatively, when the predetermined condition is satisfied, the augmented reality contents providing apparatus 100 may automatically perform the shooting.

이 때, 사용자는 채색된 2차원 이미지를 정면에서 촬영하지 않을 수 있다. 예를 들어, 도 4의 사용자에 의해 채색된 2차원 이미지(400)는 비스듬히 촬영될 수 있고, 심지어 거꾸로 촬영될 수도 있다. 또한, 사용자에 의해 채색된 2차원 이미지(400)는 멀리서 촬영될 수 있고, 가까이서 촬영될 수도 있다.At this time, the user may not photograph the colored two-dimensional image from the front. For example, the two-dimensional image 400 painted by the user of FIG. 4 may be taken obliquely and even taken upside down. In addition, the two-dimensional image 400 painted by the user may be photographed from a distance, and may be photographed close.

사용자에 의해 채색된 2차원 이미지(400)가 촬영되는 조건에 따라 입력 영상에 포함되는 2차원 이미지가 달라진다. 따라서, 식별부(120)는 입력 영상으로부터 추출되는 특징점들의 상대적 위치 값과 객체 정보 저장부(110)에 저장된 2차원 이미지의 특징점들의 상대적 위치 값을 비교함으로써, 사용자에 의해 채색된 2차원 이미지(400)에 대응하는 2차원 이미지를 식별할 수 있다.The two-dimensional image included in the input image is changed according to the conditions under which the two-dimensional image 400 painted by the user is photographed. Accordingly, the identification unit 120 compares the relative position values of the feature points extracted from the input image with the relative position values of the feature points of the two-dimensional image stored in the object information storage unit 110, thereby obtaining a two- 400) corresponding to the two-dimensional image.

일 예로, 식별부(120)는 입력 영상으로부터 추출되는 특징점들을 고정하고, 객체 정보 저장부(110)에 저장된 2차원 이미지의 특징점들을 회전시키면서 두 윤곽선의 일치 여부를 판단할 수 있다. 반대로, 식별부(120)는 객체 정보 저장부(110)에 저장된 2차원 이미지의 특징점들을 고정하고, 입력 영상으로부터 추출되는 특징점들을 회전시키면서 두 윤곽선의 일치 여부를 판단할 수 있다.
For example, the discrimination unit 120 may fix the feature points extracted from the input image and determine the coincidence between the two contours while rotating the feature points of the two-dimensional image stored in the object information storage unit 110. In contrast, the discrimination unit 120 can fix the feature points of the two-dimensional image stored in the object information storage unit 110 and determine whether the two contours are coincident by rotating the feature points extracted from the input image.

텍스처 매핑부(130)는 객체 정보 저장부(110)에 저장된 매핑 정보를 이용하여, 채색된 2차원 이미지를 식별부(120)에 의해 식별된 2차원 이미지에 대응하는 3차원 객체의 텍스처로 매핑할 수 있다. The texture mapping unit 130 maps the colored two-dimensional image to a texture of a three-dimensional object corresponding to the two-dimensional image identified by the identification unit 120 using the mapping information stored in the object information storage unit 110 can do.

일 실시예에 따르면, 텍스처 매핑부(130)는 식별부(120)의 비교 결과에 기초하여 텍스처 매핑부(130)는 입력 영상에 포함된 2차원 이미지를 3차원 객체에 대응하는 2차원 이미지에 매칭시킬 수 있다. 예를 들어, 텍스처 매핑부(130)는 입력 영상으로부터 추출된 특징점 및 3차원 객체에 대응하는 2차원 이미지의 특징 정보 사이의 대응관계에 기초하여, 입력 영상에 포함된 2차원 이미지를 3차원 객체에 대응하는 2차원 이미지에 매칭시킬 수 있다.According to one embodiment, the texture mapping unit 130 may convert the two-dimensional image included in the input image into a two-dimensional image corresponding to the three-dimensional object based on the comparison result of the identification unit 120 Can be matched. For example, the texture mapping unit 130 may classify a two-dimensional image included in an input image into a three-dimensional object based on a correspondence between feature points extracted from the input image and feature information of the two- Dimensional image corresponding to the two-dimensional image.

도 6을 참조하면, 텍스처 매핑부(130)는 입력 영상에서 채색된 2차원 이미지의 외곽에 네 개의 기준점(610, 620, 630, 640)을 설정할 수 있다. 경우에 따라, 텍스처 매핑부(130)는 네 개의 기준점(610, 620, 630, 640) 사이에 추가로 네 개의 기준점(615, 625, 635, 645)을 더 설정할 수 있다.Referring to FIG. 6, the texture mapping unit 130 may set four reference points 610, 620, 630, and 640 on the outline of a two-dimensional image that is colored in the input image. In some cases, the texture mapping unit 130 may further configure four reference points 615, 625, 635, and 645 between the four reference points 610, 620, 630, and 640.

예를 들어, 텍스처 매핑부(130)는 입력 영상에서 추출된 특징점을 포함하는 사각형의 영역을 설정하고, 설정된 영역의 꼭지점들을 네 개의 기준점으로 설정할 수 있다. 텍스처 매핑부(130)는 입력 영상으로부터 추출된 특징점들 중 최외곽 특징점들을 검출할 수 있다. 최외곽 특징점들은 추출된 특징점들 중 가장 외곽에 위치하는 특징점들일 수 있다. 텍스처 매핑부(130)는 최외곽 특징점들로부터 미리 정해진 거리, 방향만큼 이격된 위치에 사각형의 각 변이 위치하도록 사격형의 영역을 설정할 수 있다.For example, the texture mapping unit 130 may set a rectangular area including feature points extracted from the input image, and set four vertexes of the set area as four reference points. The texture mapping unit 130 may detect the outermost feature points among the feature points extracted from the input image. The outermost feature points may be feature points located at the outermost out of the extracted feature points. The texture mapping unit 130 can set a rectangular region so that each side of the rectangle is located at a position spaced apart from the outermost feature points by a predetermined distance and direction.

이 때, 네 개의 기준점은 채색된 2차원 이미지가 촬영되는 환경이 반영되어 설정될 수 있다. 예를 들어, 채색된 2차원 이미지가 정면에서 촬영되는 경우 네 개의 기준점은 정사각형, 또는 직사각형의 꼭지점들에 해당하는 위치에 설정될 수 있다. 반면, 채색된 2차원 이미지가 비스듬히 촬영되는 경우 네 개의 기준점은 뒤틀린 형태의 사각형의 꼭지점들에 해당하는 위치에 설정될 수 있다.At this time, the four reference points can be set reflecting the environment in which the colored two-dimensional image is captured. For example, when a colored two-dimensional image is photographed from the front, four reference points may be set at positions corresponding to vertices of a square or a rectangle. On the other hand, when the colored two-dimensional image is obliquely photographed, the four reference points can be set to positions corresponding to the vertices of the twisted rectangle.

텍스처 매핑부(130)는 설정된 적어도 네 개의 기준점을 이용하여 입력 영상에 포함된 2차원 이미지를 3차원 객체에 대응하는 2차원 이미지에 매칭시킬 수 있다. The texture mapping unit 130 may match the two-dimensional image included in the input image to the two-dimensional image corresponding to the three-dimensional object using at least four reference points set.

예를 들어, 텍스처 매핑부(130)는 설정된 기준점들을 이용하여, 추출된 특징점들 각각에 대하여 UV 좌표 평면 상의 상대적 좌표를 구할 수 있다. 도 6을 참조하면, UV 좌표 평면에서 제1 기준점(610)의 좌표는 (0.0, 0.0)이고, 제2 기준점(620)의 좌표는 (1.0, 0.0)이며, 제3 기준점(630)의 좌표는 (0.0, 1.0)이며, 제4 기준점(640)의 좌표는 (1.0, 1.0)일 수 있다.For example, the texture mapping unit 130 can obtain relative coordinates on the UV coordinate plane for each extracted feature point using the set reference points. 6, the coordinate of the first reference point 610 in the UV coordinate plane is (0.0,0.0), the coordinate of the second reference point 620 is (1.0,0.0), and the coordinates of the third reference point 630 (0.0, 1.0), and the coordinates of the fourth reference point 640 may be (1.0, 1.0).

도 6에서는 제1 기준점(610), 제2 기준점(620), 제3 기준점(630), 및 제4 기준점(640)이 직사각형의 꼭지점들에 해당하는 위치에 설정되었으나, 전술한 바와 같이 채색된 2차원 이미지가 촬영되는 환경에 따라 제1 기준점(610), 제2 기준점(620), 제3 기준점(630), 및 제4 기준점(640)은 뒤틀린 형태의 사각형의 꼭지점들에 해당하는 위치에 설정될 수 있다.6, the first reference point 610, the second reference point 620, the third reference point 630, and the fourth reference point 640 are set at positions corresponding to the vertices of the rectangle. However, The first reference point 610, the second reference point 620, the third reference point 630, and the fourth reference point 640 are positioned at positions corresponding to the vertices of the squared rectangle depending on the environment in which the two- Can be set.

UV 좌표 평면에 의하면, 제1 기준점(610), 제2 기준점(620), 제3 기준점(630), 및 제4 기준점(640)이 직사각형의 꼭지점들에 해당하는 위치에 설정되든, 혹은 뒤틀린 형태의 사각형의 꼭지점들에 해당하는 위치에 설정되든 관계없이, 제1 기준점(610), 제2 기준점(620), 제3 기준점(630), 및 제4 기준점(640)의 좌표는 각각 (0.0, 0.0), (1.0, 0.0), (0.0, 1.0), 및 (1.0, 1.0)로 고정된다.According to the UV coordinate plane, the first reference point 610, the second reference point 620, the third reference point 630, and the fourth reference point 640 are set at positions corresponding to the vertices of the rectangle, The coordinates of the first reference point 610, the second reference point 620, the third reference point 630, and the fourth reference point 640 are set to (0.0, 0.0), (1.0, 0.0), (0.0, 1.0), and (1.0, 1.0).

이에 따라, 입력 영상으로부터 추출된 특징점들 각각의 좌표는 제1 기준점(610), 제2 기준점(620), 제3 기준점(630), 및 제4 기준점(640)으로부터 상대적 위치에 따라 결정된다.Accordingly, the coordinates of each of the minutiae extracted from the input image are determined according to the relative positions from the first reference point 610, the second reference point 620, the third reference point 630, and the fourth reference point 640.

텍스처 매핑부(130)는 UV 좌표 평면에서 특징점들 각각의 좌표를 계산한 뒤, UV 좌표 평면의 기준이 되는 제1 기준점(610), 제2 기준점(620), 제3 기준점(630), 및 제4 기준점(640)을 3차원 객체에 대응하는 2차원 이미지에 매칭되도록 조절할 수 있다. 이와 같이, 텍스처 매핑부(130)는 입력 영상에 포함된 2차원 이미지를 3차원 객체에 대응하는 2차원 이미지에 매칭시킬 수 있다. The texture mapping unit 130 calculates the coordinates of each of the minutiae points in the UV coordinate plane and then outputs the first reference point 610, the second reference point 620, the third reference point 630, The fourth reference point 640 may be adjusted to match the two-dimensional image corresponding to the three-dimensional object. As described above, the texture mapping unit 130 may match the two-dimensional image included in the input image with the two-dimensional image corresponding to the three-dimensional object.

텍스처 매핑부(130)는 매핑 정보를 이용하여, 채색된 2차원 이미지를 3차원 객체의 텍스처로 매핑할 수 있다. 매핑 정보는 식별된 2차원 이미지와 대응하는 3차원 객체를 매핑하는 정보이고, 채색된 2차원 이미지와 식별된 2차원 이미지가 매칭되었으므로, 텍스처 매핑부(130)는 채색된 2차원 이미지의 채색 정보를 3차원 객체의 매핑 위치에 적용할 수 있다.The texture mapping unit 130 may map the colored two-dimensional image to a texture of the three-dimensional object using the mapping information. Since the mapping information is information for mapping the two-dimensional image corresponding to the three-dimensional object, and the two-dimensional image is matched with the two-dimensional image, the texture mapping unit 130 converts the color information of the two- Can be applied to the mapping position of the three-dimensional object.

이로 인하여, 텍스처 매핑부(130)는 별도의 렌더링(rendering) 작업 없이 3차원 객체의 텍스처 매핑을 수행할 수 있다.Accordingly, the texture mapping unit 130 can perform texture mapping of a three-dimensional object without performing a rendering operation.

한편, 도 6에 도시된 예에서, 8개의 기준점이 설정되었으나, 기준점의 수는 도시된 예에 한정되는 것은 아니며, 다양한 수의 기준점이 설정하여 특징점들의 상대적 좌표를 구할 수도 있을 것이다.
Meanwhile, in the example shown in FIG. 6, eight reference points are set, but the number of reference points is not limited to the illustrated example, and a plurality of reference points may be set to obtain the relative coordinates of the feature points.

컨텐츠 재생부(140)는 텍스처 매핑부(130)에 의해 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 디스플레이 할 수 있다. 이 때, 컨텐츠 재생부(140)는 텍스처 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 카메라를 통해 입력되는 영상과 함께 디스플레이 할 수도 있다.The content reproducing unit 140 may display the augmented reality contents including the three-dimensional object to which the texture is mapped by the texture mapping unit 130. At this time, the content reproduction unit 140 may display the augmented reality contents including the texture-mapped three-dimensional object together with the image input through the camera.

구체적인 예로, 도 7을 참조하면, 컨텐츠 재생부(140)는 입력 영상에서 추출된 특징점들의 좌표계에 기초하여 채색된 2차원 이미지와의 거리 및 방향에 따라 3차원 객체가 변화되도록 증강 현실 컨텐츠를 디스플레이 할 수 있다. 또한, 일 실시예에 따르면, 컨텐츠 재생부(140)에 의해 디스플레이 되는 3차원 객체는 움직이는 애니메이션으로 구현될 수 있으며, 소리 등과 함께 구현될 수 있다. 7, the content reproducing unit 140 may display the augmented reality contents such that the three-dimensional object is changed according to the distance and direction between the two-dimensional image, which is colored based on the coordinate system of the minutiae points extracted from the input image, can do. In addition, according to an exemplary embodiment, the three-dimensional object displayed by the content playback unit 140 may be implemented as a moving animation, or may be implemented with sound or the like.

컨텐츠 재생부(140)는 3차원 객체를 월드 좌표계의 (0,0,0)에 위치시킬 수 있다. 예를 들어, 컨텐츠 재생부(140)는 적어도 4개의 기준점의 중심이 월드 좌표계의 (0,0,0)에 위치하도록 할 수 있다. The content reproducing unit 140 may position the three-dimensional object at (0, 0, 0) in the world coordinate system. For example, the content reproduction unit 140 may make the center of at least four reference points be located at (0, 0, 0) in the world coordinate system.

컨텐츠 재생부(140)는 스크린 좌표계를 이용하여 3차원 객체를 디스플레이할 수 있다. 예를 들어, 채색된 2차원 이미지를 촬영하는 카메라의 위치가 이동하면 스크린 좌표계가 변한다. 컨텐츠 재생부(140)는 스크린 좌표계의 시점에서 월드 좌표계의 (0,0,0)에 위치시킨 3차원 객체를 표현하는 이미지를 생성하고, 해당 이미지를 3차원 객체의 텍스쳐로 입힐 수 있다.
The content reproduction unit 140 may display a three-dimensional object using a screen coordinate system. For example, the screen coordinate system changes when the position of the camera that shoots a colored two-dimensional image moves. The content reproducing unit 140 may generate an image representing a three-dimensional object positioned at (0, 0, 0) in the world coordinate system at the time of the screen coordinate system, and may apply the image as a texture of the three-dimensional object.

도 8은 일 실시예에 따른 증강 현실 컨텐츠 제공 방법을 나타낸 동작 흐름도이다. 도 8을 참조하면, 증강 현실 컨텐츠 제공 장치(100)는 카메라 등 비전 센서를 통해 사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상을 수신한다(810). 이후, 증강 현실 컨텐츠 제공 장치(100)는 입력 영상에서 특징점을 추출한다(820).8 is an operation flowchart illustrating a method of providing an augmented reality contents according to an embodiment. Referring to FIG. 8, the augmented reality contents providing apparatus 100 receives an input image including a two-dimensional image painted by a user through a vision sensor such as a camera (operation 810). Then, the augmented reality contents providing apparatus 100 extracts feature points from the input image (820).

이후, 증강 현실 컨텐츠 제공 장치(100)는 추출된 특징점과 기 저장된 2차원 이미지의 특징 정보를 비교하여 기 저장된 2차원 이미지 중 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별한다(830).After that, the augmented reality contents providing apparatus 100 compares the extracted feature points with feature information of a previously stored two-dimensional image to identify a two-dimensional image corresponding to the two-dimensional image, which has been stored in advance.

이때, 일 실시예에 따르면, 특징 정보는 기 저장된 2차원 이미지의 특징점들의 위치 정보일 수 있으며, 증강 현실 컨텐츠 제공 장치(100)는 입력 영상에서 추출된 특징점들의 위치 정보를 특징 정보와 비교하여, 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다.According to an exemplary embodiment, the feature information may be position information of feature points of a previously stored two-dimensional image, and the augmented reality content providing apparatus 100 may compare position information of feature points extracted from the input image with feature information, Dimensional image corresponding to the colored two-dimensional image can be identified.

증강 현실 컨텐츠 제공 장치(100)는 입력 영상에서 추출된 특징점의 상대적 좌표를 결정하고, 결정된 상대적 좌표 및 특징 정보를 비교함으로써 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별할 수 있다.The augmented reality contents providing apparatus 100 can determine the relative coordinates of the minutiae extracted from the input image and compare the determined relative coordinates and the feature information to identify the two-dimensional image corresponding to the two-dimensional image painted by the user .

한편, 기 저장된 2차원 이미지 중 채색된 2차원 이미지에 대응하는 2차원 이미지가 식별된 경우, 증강 현실 컨텐츠 제공 장치(100)는 식별된 2차원 이미지와 3차원 객체 사이의 매핑 정보를 이용하여, 채색된 2차원 이미지를 3차원 객체의 텍스처로 매핑한다(840).When the two-dimensional image corresponding to the two-dimensional image is identified, the augmented reality contents providing apparatus 100 uses the mapping information between the identified two-dimensional image and the three-dimensional object, The colored two-dimensional image is mapped to a texture of the three-dimensional object (840).

이때, 일 실시예에 따르면, 증강 현실 컨텐츠 제공 장치(100)는 입력 영상에서 추출된 특징점에 기초하여 적어도 네 개의 기준점을 설정하고, 설정된 적어도 네 개의 기준점을 이용하여 입력 영상에 포함된 2차원 이미지를 3차원 객체에 대응하는 2차원 이미지에 매칭할 수 있다.According to an exemplary embodiment, the augmented reality contents providing apparatus 100 may set at least four reference points based on the extracted feature points, and generate a two-dimensional image Dimensional image corresponding to the three-dimensional object.

이후, 증강 현실 컨텐츠 제공 장치(100)는 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 카메라를 통해 입력되는 영상과 함께 디스플레이 할 수 있다(850).After that, the augmented reality contents providing apparatus 100 can display the augmented reality contents including the three-dimensional objects mapped with the texture together with the images input through the camera (operation 850).

실시예들에 따르면, 사용자가 직접 색칠한 2차원 이미지를 3차원 객체의 텍스처로 사용함으로써, 3차원 객체에 사용자가 색칠한 재료의 질감 그대로 살려 입히거나 3차원 객체의 텍스처를 쉽게 바꿀 수 있도록 하여 사용자가 원하는 다양한 증강 현실 컨텐츠를 제공함과 동시에 증강 현실 컨텐츠의 실재감을 향상시킬 수 있다.
According to embodiments, by using a two-dimensional image directly painted by a user as a texture of a three-dimensional object, it is possible to apply a texture of a material painted by a user to a three-dimensional object or to easily change the texture of the three- It is possible to provide a variety of augmented reality contents desired by the user and improve the real feeling of the augmented reality contents.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Although the preferred embodiments of the present invention have been disclosed for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

100: 증강 현실 컨텐츠 제공 장치
110: 객체 정보 저장부
120: 식별부
130: 텍스처 매핑부
140: 컨텐츠 재생부
100: augmented reality contents providing device
110: Object information storage unit
120: Identification unit
130: texture mapping unit
140:

Claims (12)

텍스처가 매핑되지 않은 3차원 객체의 모델 정보, 상기 3차원 객체에 대응하는 2차원 이미지의 특징 정보, 및 상기 3차원 객체와 상기 2차원 이미지 사이의 매핑 정보를 저장하는 객체 정보 저장부;
사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상에서 특징점을 추출하고, 추출된 특징점을 상기 특징 정보와 비교하여 상기 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 식별부;
상기 매핑 정보를 이용하여, 상기 채색된 2차원 이미지를 상기 식별된 2차원 이미지에 대응하는 3차원 객체의 텍스처로 매핑하는 텍스처 매핑부; 및
상기 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 디스플레이하는 컨텐츠 재생부
를 포함하고
상기 식별부는
상기 입력 영상에서 추출된 특징점의 상대적 좌표를 결정하고, 상기 결정된 상대적 좌표 및 상기 특징 정보를 비교함으로써 상기 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 것을 특징으로 하는 증강 현실 컨텐츠 제공 장치.
An object information storage unit for storing model information of a three-dimensional object to which a texture is not mapped, feature information of a two-dimensional image corresponding to the three-dimensional object, and mapping information between the three-dimensional object and the two-dimensional image;
An identification unit for extracting a feature point from an input image including a two-dimensional image painted by a user, comparing the extracted feature point with the feature information, and identifying a two-dimensional image corresponding to the two-dimensional image painted by the user;
A texture mapping unit for mapping the colored two-dimensional image to a texture of a three-dimensional object corresponding to the identified two-dimensional image using the mapping information; And
A content reproduction unit for displaying the augmented reality contents including the 3D object mapped with the texture,
Including the
The identification unit
Dimensional image corresponding to the two-dimensional image painted by the user by determining the relative coordinates of the minutiae extracted from the input image, and comparing the determined relative coordinates and the feature information, .
제1항에 있어서,
상기 대응하는 2차원 이미지는
상기 3차원 객체를 3차원 공간 상에서 서로 반대되는 두 개의 방향에 기초하여 투영한 두 개의 투영도를 포함하는, 증강 현실 컨텐츠 제공 장치.
The method according to claim 1,
The corresponding two-dimensional image
And two projections that project the three-dimensional object based on two directions opposite to each other in a three-dimensional space.
제1항에 있어서,
상기 특징 정보는
상기 3차원 객체에 대응하는 2차원 이미지의 특징점들의 위치 정보를 포함하는, 증강 현실 컨텐츠 제공 장치.
The method according to claim 1,
The feature information
Dimensional object, and position information of the feature points of the two-dimensional image corresponding to the three-dimensional object.
삭제delete 제1항에 있어서,
상기 텍스처 매핑부는
상기 비교 결과에 기초하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭시키는, 증강 현실 컨텐츠 제공 장치.
The method according to claim 1,
The texture mapping unit
And matches the two-dimensional image included in the input image to a two-dimensional image corresponding to the three-dimensional object, based on the comparison result.
제1항에 있어서,
상기 텍스처 매핑부는
상기 입력 영상에서 추출된 특징점에 기초하여 설정된 적어도 네 개의 기준점을 이용하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭시키는, 증강 현실 컨텐츠 제공 장치.
The method according to claim 1,
The texture mapping unit
Dimensional image corresponding to the three-dimensional object by using at least four reference points set based on the feature points extracted from the input image, the two-dimensional image included in the input image.
제1항에 있어서,
상기 컨텐츠 재생부는
상기 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 카메라를 통해 입력되는 영상과 함께 디스플레이하는, 증강 현실 컨텐츠 제공 장치.
The method according to claim 1,
The content reproducing unit
And displays the augmented reality contents including the texture-mapped three-dimensional objects together with the images input through the camera.
사용자에 의해 채색된 2차원 이미지를 포함하는 입력 영상을 수신하는 단계;
상기 입력 영상에서 특징점을 추출하는 단계;
상기 추출된 특징점과 기 저장된 2차원 이미지의 특징 정보를 비교하여 상기 기 저장된 2차원 이미지 중 상기 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 단계;
상기 식별된 2차원 이미지와 3차원 객체 사이의 매핑 정보를 이용하여, 상기 채색된 2차원 이미지를 상기 3차원 객체의 텍스처로 매핑하는 단계; 및
상기 텍스처가 매핑된 3차원 객체를 포함하는 증강 현실 컨텐츠를 디스플레이하는 단계
를 포함하고,
상기 식별하는 단계는
상기 입력 영상에서 추출된 특징점의 상대적 좌표를 결정하는 단계; 및
상기 결정된 상대적 좌표 및 상기 특징 정보를 비교함으로써 상기 사용자에 의해 채색된 2차원 이미지에 대응하는 2차원 이미지를 식별하는 단계
를 포함하는 증강 현실 컨텐츠 제공 방법.
Receiving an input image including a two-dimensional image painted by a user;
Extracting feature points from the input image;
Comparing the extracted feature points with feature information of a previously stored two-dimensional image to identify a two-dimensional image corresponding to the colored two-dimensional image among the previously stored two-dimensional images;
Mapping the colored two-dimensional image to a texture of the three-dimensional object using the identified two-dimensional image and mapping information between the three-dimensional object; And
Displaying the augmented reality contents including the texture-mapped three-dimensional object
Lt; / RTI >
The step of identifying
Determining relative coordinates of the minutiae extracted from the input image; And
Identifying the two-dimensional image corresponding to the two-dimensional image painted by the user by comparing the determined relative coordinates and the feature information
And a second step of generating the augmented reality contents.
삭제delete 제8항에 있어서,
상기 매핑하는 단계는
상기 비교 결과에 기초하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭시키는 단계
를 포함하는, 증강 현실 컨텐츠 제공방법.
9. The method of claim 8,
The mapping step
Matching the two-dimensional image included in the input image with a two-dimensional image corresponding to the three-dimensional object based on the comparison result
And generating the augmented reality contents.
제8항에 있어서,
상기 매핑하는 단계는
상기 입력 영상에서 추출된 특징점에 기초하여 적어도 네 개의 기준점을 설정하는 단계; 및
상기 설정된 적어도 네 개의 기준점을 이용하여, 상기 입력 영상에 포함된 2차원 이미지를 상기 3차원 객체에 대응하는 2차원 이미지에 매칭하는 단계
를 포함하는, 증강 현실 컨텐츠 제공 방법.
9. The method of claim 8,
The mapping step
Setting at least four reference points based on the feature points extracted from the input image; And
Matching the two-dimensional image included in the input image with the two-dimensional image corresponding to the three-dimensional object using the set at least four reference points
And generating the augmented reality contents.
하드웨어와 결합되어 제8항, 제10항 및 제11항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.11. A computer program stored in a medium for executing the method of any one of claims 8, 10 and 11 in combination with hardware.
KR1020140173567A 2014-12-05 2014-12-05 Apparatus and method for providingaugmented reality contentents KR101652594B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140173567A KR101652594B1 (en) 2014-12-05 2014-12-05 Apparatus and method for providingaugmented reality contentents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140173567A KR101652594B1 (en) 2014-12-05 2014-12-05 Apparatus and method for providingaugmented reality contentents

Publications (2)

Publication Number Publication Date
KR20160068186A KR20160068186A (en) 2016-06-15
KR101652594B1 true KR101652594B1 (en) 2016-10-10

Family

ID=56134922

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140173567A KR101652594B1 (en) 2014-12-05 2014-12-05 Apparatus and method for providingaugmented reality contentents

Country Status (1)

Country Link
KR (1) KR101652594B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101961758B1 (en) * 2016-09-21 2019-03-25 김하동 3-Dimensional Contents Providing System, Method and Computer Readable Recoding Medium
KR101998318B1 (en) * 2017-09-06 2019-10-01 단국대학교 산학협력단 360-degree Image Generation Apparatus and Method for Synchronizing Time and Position of Object
KR102138980B1 (en) * 2017-12-04 2020-07-28 (주)프론티스 Method and apparatus of generating digital contents
KR101949103B1 (en) * 2018-10-10 2019-05-21 (주)셀빅 Dynamic 3d activation method and system for offline sketch contents
KR102603972B1 (en) * 2023-04-13 2023-11-21 주식회사 크레아코퍼레이션 Method and device for providing web ar-based business information
KR102649670B1 (en) * 2023-07-28 2024-03-20 (주)코드쓰리 System for providing immersive contents and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084996A (en) * 2001-07-09 2001-09-07 한희철 Method for generating 3 dimension avatar using one face image and vending machine with the same
KR101638630B1 (en) * 2010-06-14 2016-07-11 주식회사 비즈모델라인 Method for Optimizing a Augmented Reality Data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CT 동향 영상, 종이에 그린 그림이 3D 애니메이션으로 구현되다, colAR 문화기술(CT) 동향(2014.05)*

Also Published As

Publication number Publication date
KR20160068186A (en) 2016-06-15

Similar Documents

Publication Publication Date Title
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US11798239B2 (en) Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3D environment
KR101652594B1 (en) Apparatus and method for providingaugmented reality contentents
US10002463B2 (en) Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
WO2018107910A1 (en) Method and device for fusing panoramic video images
CN115699114B (en) Method and apparatus for image augmentation for analysis
US20190005670A1 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
US10846844B1 (en) Collaborative disparity decomposition
JP6587435B2 (en) Image processing apparatus, information processing method, and program
US20170243352A1 (en) 3-dimensional scene analysis for augmented reality operations
US20220122326A1 (en) Detecting object surfaces in extended reality environments
WO2023273414A1 (en) Image processing method and apparatus, and device and storage medium
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
US9563959B2 (en) Image processor, lighting processor and method therefor
KR20160072547A (en) 3d rendering method and apparatus
US9489764B2 (en) Method of generating three-dimensional (3D) volumetric data
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
US20200211243A1 (en) Image bounding shape using 3d environment representation
JP2019509526A (en) Optimal spherical image acquisition method using multiple cameras
US20220277512A1 (en) Generation apparatus, generation method, system, and storage medium
US11277596B2 (en) Image processing apparatus, image processing method, and storage medium
KR102068251B1 (en) Method of generating 3d volumetric data
CN110520902B (en) Method and device for applying dynamic effect to image
KR102427739B1 (en) Method and apparatus for calibration of multi cameras using mirrors
Oyama et al. Illumination estimation based on human visual characteristics for AR

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190716

Year of fee payment: 4