KR101919077B1 - Method and apparatus for displaying augmented reality - Google Patents

Method and apparatus for displaying augmented reality Download PDF

Info

Publication number
KR101919077B1
KR101919077B1 KR1020170107179A KR20170107179A KR101919077B1 KR 101919077 B1 KR101919077 B1 KR 101919077B1 KR 1020170107179 A KR1020170107179 A KR 1020170107179A KR 20170107179 A KR20170107179 A KR 20170107179A KR 101919077 B1 KR101919077 B1 KR 101919077B1
Authority
KR
South Korea
Prior art keywords
virtual
augmented reality
background image
real object
real
Prior art date
Application number
KR1020170107179A
Other languages
Korean (ko)
Inventor
신승호
조익환
전진수
임국찬
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020170107179A priority Critical patent/KR101919077B1/en
Application granted granted Critical
Publication of KR101919077B1 publication Critical patent/KR101919077B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method and an apparatus for displaying augmented reality. The method comprises the steps of: creating a virtual surface of a real object in a background image in which a virtual object is to be placed; identifying optical characteristics of an actual surface of the real object; rendering the virtual surface by reflecting an influence factor which can influence on the real object by the virtual object when the virtual object is rendered in the background according to the identified optical characteristics; and outputting the rendered virtual surface, the background image, and the virtual object. Therefore, the reality of an augmented reality screen is further enhanced.

Description

증강 현실 표시 방법 및 장치{METHOD AND APPARATUS FOR DISPLAYING AUGMENTED REALITY}TECHNICAL FIELD [0001] The present invention relates to a method and an apparatus for displaying augmented reality,

본 발명은 증강 현실(augmented reality) 표시 방법 및 장치에 관한 것으로, 더욱 상세하게는 배경 영상에 가상 객체를 포함시킨 증강 현실 화면을 표시하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for displaying augmented reality, and more particularly, to a method and apparatus for displaying an augmented reality screen including a virtual object in a background image.

주지하고 있는 바와 같이, 증강 현실 기술은 현실의 배경 영상에 가상 객체를 함께 표현하여 특수 효과를 제공하는 기술로서, 가상 객체가 현실 세계에 존재하는 것처럼 느끼는 착각을 일으키게 한다.As is well known, augmented reality technology is a technique of providing a special effect by expressing a virtual object together with a background image of a real world, causing an illusion that a virtual object feels as if it exists in the real world.

이러한 증강 현실 기술 분야에서는 증강 현실 화면에 대한 현실감을 향상시키기 위한 노력이 지속되고 있다.In such augmented reality technology, efforts are being made to improve the reality of the augmented reality screen.

종래에는 배경 영상에 가상 객체를 어떻게 표시할 것인지에 대한 방향으로 주로 연구가 이루어졌다. 예를 들어, 실제 영상에서의 광원을 인식하고, 인식된 광원의 위치에 근거하여 음영을 가지는 가상 객체를 생성한 후, 생성된 가상 객체를 실제 영상에 렌더링하여 증강 현실 영상을 표시하였다.Conventionally, research has been conducted mainly on how to display a virtual object in a background image. For example, a light source in a real image is recognized, a virtual object having a shadow is generated based on the position of the recognized light source, and the generated virtual object is rendered in a real image to display an augmented reality image.

그러나 배경 영상에 가상 객체를 어떻게 표시할 것인지에 대한 고려만으로는 증강 현실 화면에 대한 현실감을 향상시키기에는 한계가 있었다.However, there is a limit to improve the reality of the augmented reality screen only by considering how to display the virtual object in the background image.

대한민국 공개특허공보 제10-2011-0107545호, 공개일자 2011년 10월 04일.Korean Patent Publication No. 10-2011-0107545, published on October 04, 2011.

본 발명의 실시예에 의하면, 가상 객체가 배경 영상 내에 렌더링될 때에 배경 영상 내의 현실 객체에게 줄 수 있는 광학적 영향인자를 반영하여 증강 현실 영상을 표시하는 증강 현실 표시 장치 및 증강 현실 표시 방법을 제공한다.According to an embodiment of the present invention, there is provided an augmented reality display apparatus and an augmented reality display method that display an augmented reality image by reflecting an optical influence factor that can be given to a real object in a background image when a virtual object is rendered in a background image .

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and another problem to be solved can be clearly understood by those skilled in the art from the following description.

본 발명의 일 관점에 따른 증강 현실 표시 장치에서 수행되는 증강 현실 표시 방법은, 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성하는 단계와, 상기 현실 객체의 실제 표면에 대한 광학적 특성을 파악하는 단계와, 상기 가상 객체가 상기 배경 영상 내에 렌더링될 때에 상기 가상 객체가 상기 현실 객체에게 광학적으로 줄 수 있는 영향인자를 파악된 상기 광학적 특성에 따라 반영하여 상기 가상 표면에 렌더링하는 단계와, 상기 렌더링된 가상 표면과 상기 배경 영상 및 상기 가상 객체를 함께 출력하는 단계를 포함한다.A method of displaying an augmented reality performed in an augmented reality display device according to an aspect of the present invention includes the steps of creating a virtual surface of a real object in a background image to which a virtual object is to be laid out, Reflecting the influence factor that the virtual object can impart to the real object optically when the virtual object is rendered in the background image according to the determined optical characteristic and rendering the virtual object on the virtual surface; And outputting the rendered virtual surface, the background image, and the virtual object together.

본 발명의 다른 관점에 따른 증강 현실 표지 장치는, 표시부와, 상기 표시부를 통해 보여지는 배경 영상에 대한 데이터를 획득하는 정보 획득부와, 제어부를 포함하되, 상기 제어부는, 가상 객체를 배치할 상기 배경 영상 내 현실 객체의 가상 표면을 상기 데이터를 이용해 생성하고, 상기 현실 객체의 실제 표면에 대한 광학적 특성을 파악하며, 상기 가상 객체가 상기 배경 영상 내에 렌더링될 때에 상기 가상 객체가 상기 현실 객체에게 광학적으로 줄 수 있는 영향인자를 파악된 상기 광학적 특성에 따라 반영하여 상기 가상 표면에 렌더링하고, 상기 렌더링된 가상 표면과 상기 배경 영상 및 상기 가상 객체를 포함하는 상기 증강 현실 화면을 생성하며, 상기 생성된 증강 현실 화면을 출력하도록 상기 표시부를 제어한다.According to another aspect of the present invention, there is provided an augmented reality indicator apparatus including a display unit, an information acquisition unit for acquiring data on a background image viewed through the display unit, and a control unit, A virtual surface of a real object in a background image is generated using the data, optical characteristics of an actual surface of the real object are grasped, and when the virtual object is rendered in the background image, And generates the augmented reality screen including the rendered virtual surface, the background image, and the virtual object, and generates the augmented reality screen including the rendered virtual surface, the background image, and the virtual object, And controls the display unit to output the augmented reality screen.

본 발명의 실시예에 의하면, 가상 객체가 배경 영상 내에 렌더링될 때에 배경 영상 내의 현실 객체에게 줄 수 있는 광학적 영향인자를 반영하여 증강 현실 영상 내에 현실 객체를 표현하기 때문에, 배경 영상 내에 현실 객체와 함께 가상 객체가 실존하는 것처럼 느끼는 착각이 더욱 현실감을 갖는다. 따라서, 증강 현실 화면에 대한 현실감이 더욱 증대되는 효과가 있다.According to an embodiment of the present invention, when a virtual object is rendered in a background image, a real object is represented in the augmented reality image by reflecting an optical influence factor that can be given to the real object in the background image. The illusion that a virtual object feels as if it exists is more realistic. Therefore, the reality of the augmented reality screen is further enhanced.

도 1은 본 발명의 일 실시예에 따른 증강 현실 표시 장치의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 표시 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 표시 방법에서 현실 객체의 가상 표면을 생성하는 과정을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 표시 방법에서 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 과정의 일 실시예를 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 증강 현실 표시 방법에서 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 과정의 다른 실시예를 설명하기 위한 흐름도이다.
도 6 내지 도 8은 본 발명의 일 실시예에 따른 증강 현실 표시 방법에 의한 가상 표면 생성 과정을 설명하기 위한 예시도이다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 증강 현실 표시 장치에서 출력될 수 있는 증강 현실 화면을 설명하기 위한 예시도이다.
1 is a block diagram of an augmented reality display apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an augmented reality display method according to an embodiment of the present invention.
3 is a flowchart illustrating a process of generating a virtual surface of a real object in the augmented reality display method according to an embodiment of the present invention.
FIG. 4 is a flowchart for explaining an optical characteristic of an actual surface of a real object in an augmented reality display method according to an embodiment of the present invention.
5 is a flowchart for explaining another embodiment of a process of grasping an optical characteristic of an actual surface of a real object in augmented reality display method according to an embodiment of the present invention.
6 to 8 are diagrams for explaining a virtual surface generation process according to an augmented reality display method according to an embodiment of the present invention.
9 and 10 are views illustrating an augmented reality screen that can be output from the augmented reality display apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 증강 현실 표시 장치의 블록 구성도이다.1 is a block diagram of an augmented reality display apparatus according to an embodiment of the present invention.

도 1에 나타낸 바와 같이 일 실시예에 따른 증강 현실 표시 장치(100)는 정보 획득부(110), 제어부(120), 저장부(130), 표시부(140)를 포함한다.1, the augmented reality display apparatus 100 includes an information obtaining unit 110, a control unit 120, a storage unit 130, and a display unit 140. As shown in FIG.

정보 획득부(110)는 증강 현실의 배경 영상에 대한 데이터를 획득한다. 즉, 정보 획득부(110)는 제어부(120)가 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성할 때에 이용하는 배경 영상에 대한 데이터를 획득한다. 예를 들어, 정보 획득부(110)는 배경 영상 내 현실 객체에 대한 2차원 영상 정보와 깊이 정보를 획득할 수 있다.The information obtaining unit 110 obtains data on the background image of the augmented reality. That is, the information obtaining unit 110 obtains data on a background image used when the control unit 120 creates a virtual surface of a real object in a background image in which a virtual object is to be arranged. For example, the information obtaining unit 110 may obtain two-dimensional image information and depth information of a real object in a background image.

이러한 정보 획득부(110)는 현실 세계를 촬영하는 카메라를 포함할 수 있고, 카메라에 의해 촬영된 프레임의 깊이 정보를 센싱하는 깊이 센서를 더 포함할 수 있다. 이 경우라면, 정보 획득부(110)는 카메라 및 깊이 센서를 이용하여 증강 현실의 배경 영상에 대한 2차원 영상 정보와 깊이 정보를 직접 생성할 수 있다.The information acquiring unit 110 may further include a camera for photographing a real world, and may further include a depth sensor for sensing depth information of a frame photographed by the camera. In this case, the information obtaining unit 110 can directly generate the two-dimensional image information and the depth information of the background image of the augmented reality using the camera and the depth sensor.

또는, 정보 획득부(110)는 증강 현실 표시 장치(100)와는 별도로 구비된 카메라 및 깊이 센서로부터 정보를 입력받을 수 있는 통신 인터페이스를 포함할 수 있다. 이 경우라면, 별도의 카메라에 의해 2차원 영상 정보가 생성되며, 정보 획득부(110)는 통신 인터페이스를 통해 2차원 영상 정보를 입력받아 획득할 수 있다. 또, 별도의 깊이 센서에 의해 2차원 영상 정보에 대응하는 프레임의 깊이 정보가 생성되고, 정보 획득부(110)는 통신 인터페이스를 통해 깊이 정보를 입력받아 획득할 수 있다.Alternatively, the information obtaining unit 110 may include a camera separately provided from the augmented reality display device 100, and a communication interface capable of receiving information from the depth sensor. In this case, the two-dimensional image information is generated by a separate camera, and the information obtaining unit 110 can receive and acquire the two-dimensional image information through the communication interface. In addition, the depth information of the frame corresponding to the two-dimensional image information is generated by the separate depth sensor, and the information obtaining unit 110 can receive the depth information through the communication interface.

저장부(130)에는 제어부(120)에 의한 실행시에, 증강 현실 표시 과정을 전반적으로 제어할 수 있는 프로세스를 수행하는 컴퓨터 실행가능 명령어가 저장된다. 그리고, 증강 현실 화면 상에 표시하고자 하는 가상 객체에 대응하는 3차원 모델 데이터가 저장될 수 있다. 또, 정보 획득부(110)에 의해 획득된 배경 영상에 대한 2차원 영상 정보 및 깊이 정보가 저장될 수 있다. 예를 들어, 저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리, 램, 롬 중 적어도 하나의 타입의 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.The storage unit 130 stores a computer-executable instruction for performing a process of controlling the augmented reality display process at the time of execution by the control unit 120. [ Then, the 3D model data corresponding to the virtual object to be displayed on the augmented reality screen can be stored. In addition, the 2D image information and the depth information of the background image obtained by the information obtaining unit 110 can be stored. For example, the storage unit 130 may store at least one of a flash memory type, a hard disk type, a multimedia card micro type, a card type memory, a RAM, and a ROM Readable < / RTI > type of recording medium.

제어부(120)는 저장부(130)에 저장된 컴퓨터 실행가능 명령어를 실행하여 증강 현실 표시 과정을 전반적으로 제어할 수 있는 프로세스를 수행한다. 이러한 프로세스에 의하면, 정보 획득부(110)에 의해 획득된 배경 영상에 대한 데이터를 이용하여 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성하고, 현실 객체의 실제 표면에 대한 광학적 특성을 파악하며, 가상 객체가 배경 영상 내에 렌더링될 때에 가상 객체가 현실 객체에게 광학적으로 줄 수 있는 영향인자를 앞서 파악된 광학적 특성에 따라 반영하여 가상 표면에 렌더링하고, 렌더링된 가상 표면과 배경 영상 및 가상 객체가 함께 출력되도록 표시부(140)를 제어한다. 예를 들어, 제어부(120)는 CPU(Central Processing Unit)나 GPU(Graphics Processing Unit) 등과 같은 프로세서를 포함할 수 있다.The controller 120 executes the computer executable instructions stored in the storage unit 130 to perform a process of controlling the augmented reality display process as a whole. According to this process, the virtual surface of the real object in the background image to be arranged by using the data of the background image obtained by the information obtaining unit 110 is generated, and the optical characteristic of the actual surface of the real object When the virtual object is rendered in the background image, the virtual object reflects the influence factor that the optical object gives to the real object optically according to the previously determined optical characteristic, and the virtual surface is rendered on the virtual surface. And controls the display unit 140 to output the objects together. For example, the control unit 120 may include a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).

표시부(140)는 제어부(120)에 의해 수행되는 프로세스의 결과에 의한 제어신호에 따라, 렌더링된 가상 표면과 배경 영상 및 가상 객체가 함께 출력되는 증강 현실 화면을 표시한다. 예를 들어, 출력부(140)는 LCD(Liquid Crystal Display) 등과 같은 평판 디스플레이 소자를 포함할 수 있다.The display unit 140 displays the augmented reality screen on which the rendered virtual surface, the background image, and the virtual object are output together according to the control signal resulting from the process performed by the control unit 120. [ For example, the output unit 140 may include a flat panel display device such as a liquid crystal display (LCD) or the like.

도 2는 본 발명의 일 실시예에 따른 증강 현실 표시 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an augmented reality display method according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 증강 현실 표시 방법은, 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성하는 단계(S210)를 포함한다. 이를 위해, 우선 증강 현실의 배경 영상에 대한 데이터를 획득하여야 한다. 즉, 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성할 때에 이용하는 배경 영상에 대한 데이터를 획득하여야 한다. 이후, 배경 영상에 대한 데이터를 이용하여 배경 영상 내 현실 객체의 가상 표면을 생성한다. 이처럼, 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성하는 과정에 대해서는 도 3를 참조하여 아래에서 다시 설명하기로 한다.Referring to FIG. 2, a method for displaying augmented reality according to an exemplary embodiment includes a step S210 of creating a virtual surface of a real object in a background image to which a virtual object is to be arranged. To do this, data on the background image of the augmented reality must first be obtained. That is, data on a background image to be used in generating a virtual surface of a real object in a background image to which a virtual object is to be arranged should be obtained. Then, the virtual surface of the real object in the background image is generated using the data of the background image. The process of creating the virtual surface of the real object in the background image to which the virtual object is to be arranged will be described below with reference to FIG.

그리고, 일 실시예에 따른 증강 현실 표시 방법은, 가상 객체가 배경 영상 내에 렌더링될 때에 가상 객체가 광학적으로 영향을 줄 수 있는 현실 객체의 실제 표면에 대한 광학적 특성을 파악하는 단계(S220)를 더 포함한다. 현실 객체의 실제 표면을 대상으로 하여 광학적 특성을 파악하기 위해 딥러링(Deep learning) 등과 같은 기계학습을 이용할 수 있다. 여기서, 광학적 특성이라 함은 현실 객체가 가지고 있는 실제 표면의 반사율, 투명도, 굴절율, 빛의 산란도 등을 포함할 수 있다. 이처럼, 현실 객체의 실제 표면에 대한 광학적 특성을 파악하는 과정에 대해서는 도 4를 참조하여 아래에서 다시 설명하기로 한다.The method of displaying an augmented reality according to an exemplary embodiment further includes a step S220 of grasping an optical characteristic of an actual surface of a real object to which a virtual object can be optically influenced when the virtual object is rendered in the background image . Machine learning such as deep learning can be used to grasp the optical properties of the actual surface of a real object. Here, the optical characteristic may include reflectance, transparency, refractive index, light scattering degree, etc. of an actual surface of a real object. The process of grasping the optical characteristics of the actual object on the actual surface will be described below with reference to FIG.

또, 일 실시예에 따른 증강 현실 표시 방법은, 가상 객체가 배경 영상 내에 렌더링될 때에 가상 객체가 현실 객체에게 광학적으로 줄 수 있는 영향인자를 현실 객체의 실제 표면에 대하여 파악된 광학적 특성에 따라 반영하여 가상 표면에 렌더링하는 단계(S230)를 더 포함한다. 이러한 단계 S230을 거치면, 현실 객체의 가상 표면에는 가상 객체와 현실 객체가 광학적으로 상호 작용한다고 가정하였을 때에, 가상 객체가 현실 객체에게 광학적으로 줄 수 있는 영향인자가 가상 표면에 표현된다. 여기서, 광학적 영향인자라 함은 현실 객체의 실제 표면에 가상 객체가 반사되는 정도, 현실 객체의 실제 표면에 의해 가상 객체가 왜곡되는 정도, 현실 객체의 실제 표면에 드리워지는 가상 객체의 그림자의 명도, 현실 객체의 실제 표면에 가상 객체에 의해 나타나는 커스틱스(caustics) 정도 등을 포함할 수 있다.According to an exemplary embodiment of the present invention, when a virtual object is rendered in a background image, an influence factor that a virtual object can give optically to a real object is reflected according to an optical characteristic of the actual surface of the real object And rendering the virtual surface on the virtual surface (S230). In step S230, when the virtual object and the real object interact with each other on the virtual surface of the real object, an influence factor that the virtual object can give to the real object is expressed on the virtual surface. Here, the optical effect refers to the degree to which the virtual object is reflected on the actual surface of the real object, the degree to which the virtual object is distorted by the actual surface of the real object, the brightness of the shadow of the virtual object, The degree of caustics exhibited by the virtual object on the actual surface of the real object, and the like.

그리고, 일 실시예에 따른 증강 현실 표시 방법은, 렌더링된 가상 표면과 배경 영상 및 가상 객체를 증강 현실 화면으로서 함께 출력하는 단계(S240)를 더 포함한다. 이처럼, 증강 현실 화면을 표시하는 과정에 대해서는 도 5 내지 도 8를 참조하여 아래에서 다시 설명하기로 한다.In addition, the method of displaying an augmented reality according to an exemplary embodiment further includes a step (S240) of outputting a rendered virtual surface, a background image, and a virtual object together as an augmented reality screen. The process of displaying the augmented reality screen will be described below with reference to FIGS. 5 to 8. FIG.

도 3은 본 발명의 일 실시예에 따른 증강 현실 표시 방법에서 현실 객체의 가상 표면을 생성하는 과정을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a process of generating a virtual surface of a real object in the augmented reality display method according to an embodiment of the present invention.

도 3을 참조하면, 일 실시예에 따라 현실 객체의 가상 표면을 생성하는 방법은, 배경 영상 내 현실 객체에 대한 2차원 영상 정보와 깊이 정보를 획득하는 단계(S310)를 포함한다. 여기서, 카메라 및 깊이 센서를 이용하여 증강 현실의 배경 영상에 대한 2차원 영상 정보와 깊이 정보를 직접 생성할 수 있으며, 별도로 구비된 카메라 및 깊이 센서로부터 통신 인터페이스를 통해 증강 현실의 배경 영상에 대한 2차원 영상 정보와 깊이 정보를 입력 받을 수도 있다.Referring to FIG. 3, a method of generating a virtual surface of a real object according to an exemplary embodiment includes acquiring (S310) two-dimensional image information and depth information of a real object in a background image. Here, 2-dimensional image information and depth information of the background image of the augmented reality can be directly generated using the camera and the depth sensor, and 2 Dimensional image information and depth information.

그리고, 일 실시예에 따라 현실 객체의 가상 표면을 생성하는 방법은, 배경 영상을 복수의 격자 형태로 나누는 다각화를 수행하여 2차원 영상 정보의 2차원 메쉬 데이터를 생성하는 단계(S320)를 더 포함한다. 여기서, 배경 영상에 대한 다각화를 수행할 때에, 예를 들어 일정한 크기 및 모양의 격자로 나누어서 정규 메쉬를 통한 삼각화(triangulation)를 수행할 수 있다. 또는, 배경 영상에 대한 다각화를 수행할 때에 삼각 메쉬를 이용하지 않고 사각 메쉬나 육각 메쉬 등과 같은 다양한 다각 메쉬를 이용할 수도 있다.The method of generating a virtual surface of a real object according to an embodiment further includes a step S320 of generating 2D mesh data of 2D image information by performing a diversification that divides the background image into a plurality of grid shapes do. Here, when the background image is diversified, it is possible to perform triangulation through a regular mesh by dividing the image into a grid of a predetermined size and shape, for example. Alternatively, various polygonal meshes such as square meshes or hexagonal meshes may be used instead of triangular meshes when performing a diversification of background images.

다음으로, 일 실시예에 따라 현실 객체의 가상 표면을 생성하는 방법은, 2차원 영상 정보와 깊이 정보를 취합 후, 2차원 메쉬 데이터의 메쉬 꼭지점에 깊이 정보에 따른 깊이값을 반영하여 배경 영상 내 현실 객체에 대한 3차원 메쉬 데이터를 현실 객체의 가상 표면으로서 생성하는 단계(S330)를 더 포함한다. 여기서, 배경 영상에 대한 2차원 영상 정보와 깊이 정보가 취합되어 배경 영상에 대한 3차원 메쉬 데이터가 생성된다.Next, a method for generating a virtual surface of a real object according to an exemplary embodiment includes combining two-dimensional image information and depth information, and then reflecting a depth value according to depth information at a mesh vertex of the two- And generating the 3D mesh data for the real object as a virtual surface of the real object (S330). Here, the 2D image information and the depth information of the background image are combined to generate 3D mesh data for the background image.

도 4는 본 발명의 일 실시예에 따른 증강 현실 표시 방법에서 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 과정의 일 실시예를 설명하기 위한 흐름도이다.FIG. 4 is a flowchart for explaining an optical characteristic of an actual surface of a real object in an augmented reality display method according to an embodiment of the present invention.

도 4를 참조하면, 일 실시예에 따라 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 방법은, 복수의 현실 객체의 실제 객체 표면에 대한 영상과 실제 객체 표면의 재질에 대한 빅 데이터를 기계학습하는 단계(S410)를 포함한다.Referring to FIG. 4, a method of grasping an optical characteristic of an actual surface of a real object according to an exemplary embodiment includes displaying an image of a real object surface of a plurality of real objects and a large data of a material of an actual object surface, (S410).

그리고, 일 실시예에 따라 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 방법은, 객체 표면의 재질을 기계학습한 결과에 기초하여 현실 객체의 실제 표면에 대한 재질을 추론하는 단계(S420)를 더 포함한다.According to an embodiment of the present invention, there is provided a method of obtaining optical characteristics of an actual surface of a real object by inferring a material of an actual surface of the real object based on a result of machine learning of the surface of the object surface (S420) .

다음으로, 일 실시예에 따라 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 방법은, 기 저장된 맵핑테이블을 이용하여, 추론된 재질에 대응하는 광학적 특성을 인식하는 단계(S430)를 더 포함한다. Next, a method of grasping an optical characteristic of an actual surface of a real object according to an embodiment further includes a step (S430) of recognizing an optical characteristic corresponding to the inferred material using a pre-stored mapping table .

도 4를 참조하여 설명한 일 실시예에 의하면, 단계 S420에서 배경 영상 내 현실 객체의 실제 표면에 대한 재질을 추론할 수 있다. 이 경우에, 재질에 대한 정보를 사용자에게 제공하여, 기계학습에 의해 추론된 재질이 올바르게 추론된 것인지를 확인할 수 있도록 하고, 추론에 오류가 있을 경우에는 사용자가 직접 재질 추론 결과를 수정할 수 있는 부가적 기능을 제공할 수도 있다.According to the embodiment described with reference to FIG. 4, in step S420, the material for the actual surface of the real object in the background image can be deduced. In this case, information on the material is provided to the user, so that it can be confirmed whether or not the material deduced by the machine learning is correctly inferred, and when there is an error in inference, the user can directly correct the material inference result It can also provide the enemy function.

도 5는 본 발명의 일 실시예에 따른 증강 현실 표시 방법에서 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 과정의 다른 실시예를 설명하기 위한 흐름도이다.5 is a flowchart for explaining another embodiment of a process of grasping an optical characteristic of an actual surface of a real object in augmented reality display method according to an embodiment of the present invention.

도 5를 참조하면, 다른 실시예에 따라 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 방법은, 복수의 현실 객체의 실제 객체 표면에 대한 영상과 상기 실제 객체 표면의 광학적 특성에 대한 빅 데이터를 기계학습하는 단계(S510)를 포함한다.Referring to FIG. 5, a method of grasping an optical characteristic of an actual surface of a real object according to an embodiment of the present invention includes: displaying an image of an actual object surface of a plurality of real objects and an optical characteristic of an optical characteristic of the surface of the actual object; And machine learning (S510).

그리고, 다른 실시예에 따라 현실 객체의 실제 표면에 대해 광학적 특성을 파악하는 방법은, 객체 표면의 광학적 특성을 기계학습한 결과에 기초하여 현실 객체의 실제 표면에 대한 광학적 특성을 추론하는 단계(S520)를 더 포함한다.According to another embodiment, a method of grasping an optical characteristic of an actual surface of a real object may include inferring an optical characteristic of an actual surface of the real object based on a result of machine learning of the optical characteristic of the object surface (S520 ).

도 5를 참조하여 설명한 다른 실시예에 의하면, 도 4의 일 실시예와는 달리, 재질을 추론하지 않고 곧바로 객체 표면의 광학적 특성을 추론한다. 이 경우에, 도 4의 일 실시예와 비교할 때에 연산량이 줄어, 객체 표면의 광학적 특성을 상대적으로 더 빨리 추론할 수 있다.According to another embodiment described with reference to FIG. 5, unlike the embodiment of FIG. 4, the optical characteristics of the object surface are directly inferred without deducing the material. In this case, the amount of computation is reduced as compared with the embodiment of Fig. 4, and the optical characteristics of the object surface can be relatively quickly inferred.

도 4 및 도 5에 예시한 바와는 달리 또 다른 실시예로서, 현실 객체의 실제 객체 표면에 대한 재질 또는 광학적 특성에 대한 정보를 사용자로부터 직접 입력받을 수도 있다. 예를 들어, 다양한 재질 또는 다양한 광학적 특성 중에서 어느 하나를 선택할 수 있는 GUI(Graphical User Interface)를 제공하고, GUI를 통해 현실 객체의 실제 표면에 대한 재질 또는 광학적 특성에 대한 정보를 입력 받을 수 있다.4 and 5, information on the material or optical characteristic of the actual object surface of the real object may be directly input from the user. For example, a graphical user interface (GUI) can be provided to select one of various materials or various optical characteristics, and information about the material or optical characteristics of the actual surface of the real object can be input through the GUI.

이하, 도 1 내지 도 10을 참조하여 본 발명의 실시예에 따른 증강 현실 표시 장치(100)에 의해 수행되는 증강 현실 표시 방법에 대해 더 자세히 살펴보기로 한다.Hereinafter, a method for displaying an augmented reality performed by the augmented reality display apparatus 100 according to an embodiment of the present invention will be described in more detail with reference to Figs. 1 to 10. Fig.

먼저, 증강 현실 표시 장치(100)의 저장부(130)에는 증강 현실 표시 장치(100)의 제어부(120)에 의한 실행시에, 증강 현실 표시 과정을 전반적으로 제어할 수 있는 프로세스를 수행하는 컴퓨터 실행가능 명령어가 저장된다. 그리고, 증강 현실 화면 상에 표시하고자 하는 가상 객체에 대응하는 3차원 모델 데이터가 저장될 수 있다.The storage unit 130 of the augmented reality display apparatus 100 includes a computer 120 for performing a process of controlling the augmented reality display process at the time of execution by the control unit 120 of the augmented reality display apparatus 100. [ Executable instructions are stored. Then, the 3D model data corresponding to the virtual object to be displayed on the augmented reality screen can be stored.

이러한 상태에서 제어부(120)는 저장부(130)에 저장되어 있는 컴퓨터 실행가능 명령어를 실행하여 증강 현실 표시 과정을 전반적으로 제어할 수 있는 프로세스를 수행하게 된다. 제어부(120)에 의해 해당 프로세스가 수행되면, 증강 현실 표시 장치(100)의 정보 획득부(110)는 증강 현실의 배경 영상에 대한 데이터를 획득한다. 즉, 가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성할 때에 이용할 수 있는 배경 영상에 대한 데이터를 획득한다. 그리고, 제어부(120)는 정보 획득부(110)에 의해 획득된 배경 영상에 대한 데이터를 이용하여 배경 영상 내 현실 객체의 가상 표면을 생성한다(S210).In this state, the controller 120 executes the computer executable instructions stored in the storage unit 130 to perform a process of controlling the augmented reality display process as a whole. When the control unit 120 performs the process, the information obtaining unit 110 of the augmented reality display apparatus 100 obtains data on the background image of the augmented reality. That is, data on a background image that can be used when creating a virtual surface of a real object in a background image to which a virtual object is to be arranged is acquired. Then, the controller 120 generates a virtual surface of the real object in the background image using the data of the background image obtained by the information obtaining unit 110 (S210).

단계 S210에서 배경 영상 내 현실 객체의 가상 표면을 생성하는 과정을 좀 더 자세히 살펴보면 다음과 같다.The process of creating the virtual surface of the real object in the background image in step S210 will be described in more detail as follows.

정보 획득부(110)가 카메라와 깊이 센서를 포함하는 경우라면, 카메라에 의해 하여 현실 세계가 촬영되어 배경 영상에 대한 2차원 영상 정보가 생성되며, 깊이 센서는 카메라에 의해 촬영된 프레임의 깊이 정보를 센싱한다. 또는, 카메라와 깊이 센서가 증강 현실 표시 장치(100)와는 별도로 구비된 경우라면, 제어부(120)의 제어와는 무관하게 카메라에 의해 2차원 영상 정보가 생성되고, 제어부(120)의 제어와는 무관하게 깊이 센서는 카메라에 의해 촬영된 프레임의 깊이 정보를 센싱하며, 이렇게 생성된 2차원 영상 정보 및 깊이 정보가 정보 획득부(110)로 입력된다(S310).If the information acquiring unit 110 includes a camera and a depth sensor, the real world is photographed by the camera to generate two-dimensional image information on the background image, and the depth sensor acquires the depth information of the frame photographed by the camera Lt; / RTI > Alternatively, if the camera and the depth sensor are provided separately from the augmented reality display device 100, the two-dimensional image information is generated by the camera irrespective of the control of the controller 120, The depth sensor senses the depth information of the frame photographed by the camera, and the generated two-dimensional image information and depth information are input to the information obtaining unit 110 (S310).

이어서, 제어부(120)는 단계 S310에서 획득된 배경 영상을 복수의 격자 형태로 나누는 다각화를 수행하여 2차원 영상 정보의 2차원 메쉬 데이터를 생성한다(S320).Then, the controller 120 performs a diversification process to divide the background image obtained in step S310 into a plurality of grid shapes to generate two-dimensional mesh data of the two-dimensional image information (S320).

여기서, 배경 영상에 대한 다각화를 수행할 때에, 예를 들어 일정한 크기 및 모양의 격자로 나누어서 정규 메쉬를 통한 삼각화(triangulation)를 수행할 수 있다. 예를 들어, 단계 S310에서 도 6에 예시한 바와 같은 2차원 영상 정보가 획득된 경우라면, 단계 S320에서는 도 7에 예시한 바와 같은 2차원 메쉬 데이터가 생성될 수 있다. Here, when the background image is diversified, it is possible to perform triangulation through a regular mesh by dividing the image into a grid of a predetermined size and shape, for example. For example, if two-dimensional image information as illustrated in FIG. 6 is obtained in step S310, two-dimensional mesh data as illustrated in FIG. 7 may be generated in step S320.

한편, 단계 S320에서 배경 영상에 대한 다각화를 수행할 때에 삼각 메쉬를 이용하지 않고 사각 메쉬나 육각 메쉬 등과 같은 다양한 다각 메쉬를 이용할 수도 있다. 또, 배경 영상의 특징점을 추출한 후에 추출된 특징점을 반영하여 들로네(Delaunay) 다각화를 수행하거나, 배경 영상의 특징이 있는 부분에만 적응적(adaptive)으로 테셀레이션(tessellation)을 수행하는 방식의 분할 다각화를 수행할 수도 있다.In step S320, various polygonal meshes such as a square mesh or a hexagonal mesh may be used instead of the triangular mesh when the background image is diversified. In addition, it is also possible to perform Delaunay diversification by extracting feature points of a background image and then reflecting the extracted feature points, or to perform a divisional diversification in which adaptive tessellation is performed only in a feature portion of a background image .

이어서, 제어부(120)는 단계 S320에서 생성된 2차원 메쉬 데이터의 메쉬 꼭지점에 단계 S310에서 획득된 깊이 정보에 따른 깊이값을 반영하여 3차원 메쉬 데이터를 생성한다. 이로써, 배경 영상에 대한 2차원 영상 정보와 깊이 정보가 취합되어 배경 영상에 대한 3차원 메쉬 데이터가 현실 객체의 가상 표면으로서 생성되는 것이다(S330). 예를 들어, 단계 S320에서 도 7에 예시한 바와 같은 2차원 메쉬 데이터가 생성된 경우라면, 단계 S330에서는 도 8에 예시한 바와 같은 배경 영상에 대한 3차원 메쉬 데이터가 현실 객체의 가상 표면으로서 생성될 수 있다.Then, the controller 120 generates the 3D mesh data by reflecting the depth value according to the depth information obtained in step S310 to the mesh vertices of the 2D mesh data generated in step S320. In this manner, the 2D image information and the depth information of the background image are combined to generate the 3D mesh data of the background image as a virtual surface of the real object (S330). For example, if the 2D mesh data as illustrated in FIG. 7 is generated in step S320, the 3D mesh data for the background image as illustrated in FIG. 8 is generated as a virtual surface of the real object in step S330 .

한편, 본 발명의 실시예에 따른 증강 현실 표시 장치(100)에서 현실 객체의 가상 표면을 생성하는 과정은 도 3을 참조하여 설명한 전술한 예로 한정되지 않는다. 카메라로 SLAM(Simultaneous Localization and Mapping) 알고리즘을 사용하여 포인트 클라우드(point cloud) 데이터를 획득하고, 포인트 클라우드 데이터로부터 가장 에러가 적은 평면을 추정하여 현실 객체의 가상 표면을 생성할 수 있다. 또는, 포인트 클라우드로부터 볼륨(volume) 데이터를 생성하고, 마칭 큐브(Marching Cube) 알고리즘, 스페이스 카빙(Space Carving) 알고리즘 등을 사용하여 3차원 모델을 생성할 수도 있다.Meanwhile, the process of generating a virtual surface of a real object in the augmented reality display apparatus 100 according to the embodiment of the present invention is not limited to the example described with reference to FIG. It is possible to acquire point cloud data using a SLAM (Simultaneous Localization and Mapping) algorithm with the camera, and to estimate the least error plane from the point cloud data, thereby creating a virtual surface of the real object. Alternatively, volume data may be generated from a point cloud, and a three-dimensional model may be generated using a Marching Cube algorithm, a space carving algorithm, or the like.

다음으로, 제어부(120)는 배경 영상 내의 가상 객체가 배경 영상 내에 렌더링될 때에 가상 객체가 광학적으로 영향을 줄 수 있는 현실 객체의 실제 표면에 대한 광학적 특성을 파악하는 과정들을 수행한다.Next, the controller 120 performs a process of grasping the optical characteristics of the real surface of the real object, to which the virtual object can be optically influenced, when the virtual object in the background image is rendered in the background image.

여기서, 제어부(120)가 복수의 현실 객체의 실제 객체 표면에 대한 영상과 실제 객체 표면의 재질에 대한 빅 데이터를 기계학습(S410)한 경우라면 도 4에 나타낸 과정을 통해 현실 객체의 실제 표면에 대한 광학적 특성을 파악한다. 즉, 제어부(120)는 객체 표면의 재질을 기계학습한 결과에 기초하여 현실 객체의 실제 표면에 대한 재질을 추론하며(S420), 기 저장된 맵핑테이블을 이용하여, 추론된 재질에 대응하는 광학적 특성을 인식한다(S430).If the controller 120 carries out the machine learning (S410) of the image of the actual object surface of the plurality of real objects and the big data of the material of the actual object surface, Identify the optical properties of That is, the controller 120 deduces the material of the actual surface of the real object based on the result of machine learning of the material of the object surface (S420), and uses the pre-stored mapping table to calculate the optical characteristic corresponding to the inferred material (S430).

또는, 제어부(120)가 복수의 현실 객체의 실제 객체 표면에 대한 영상과 실제 객체 표면의 광학적 특성에 대한 빅 데이터를 기계학습(S510)한 경우라면 도 5에 나타낸 과정을 통해 현실 객체의 실제 표면에 대한 광학적 특성을 파악한다. 즉, 제어부(120)는 객체 표면의 광학적 특성을 기계학습한 결과에 기초하여 현실 객체의 실제 표면에 대한 광학적 특성을 추론한다(S520).Alternatively, if the controller 120 learns the video about the actual object surface of a plurality of real objects and the big data about the optical characteristics of the actual object surface (S510), the actual surface of the real object The optical properties of That is, the controller 120 deduces the optical characteristic of the real surface of the real object based on the result of the mechanical learning of the optical characteristic of the surface of the object (S520).

또한, 제어부(120)는 현실 객체의 실제 표면에 대한 재질 또는 광학적 특성에 대한 정보를 사용자로부터 직접 입력받을 수도 있다. 예를 들어, 다양한 재질 또는 다양한 광학적 특성 중에서 어느 하나를 선택할 수 있는 GUI를 표시하도록 표시부(140)를 제어하고, 표시부(140)의 GUI를 통해 현실 객체의 실제 표면에 대한 재질 또는 광학적 특성에 대한 정보를 입력 받을 수 있다.In addition, the control unit 120 may directly receive information on the material or optical characteristic of the real surface of the real object from the user. For example, it is possible to control the display unit 140 to display a GUI capable of selecting any one of various materials or various optical characteristics, and to control the display unit 140 to display the material or optical characteristic Information can be input.

이처럼, 제어부(120)는 다양한 방법을 통해 배경 영상 내에 가상 객체가 렌더링될 때에 가상 객체가 광학적으로 영향을 줄 수 있는 현실 객체의 실제 표면에 대한 광학적 특성을 파악한다. 즉, 제어부(120)에 의해, 현실 객체가 가지고 있는 실제 표면의 반사율, 투명도, 굴절율, 빛의 산란도 등과 같은 광학적 특성이 파악된 것이다(S220).As described above, the control unit 120 grasps the optical characteristics of the real surface of the real object that the virtual object can optically influence when the virtual object is rendered in the background image through various methods. That is, the optical characteristic such as reflectance, transparency, refractive index, scattering degree of light, etc. of the actual surface of the real object is obtained by the controller 120 (S220).

다음으로, 제어부(120)는 배경 영상 내에 가상 객체가 렌더링될 때에 가상 객체가 현실 객체에게 광학적으로 줄 수 있는 영향인자를 단계 S220에서 현실 객체의 실제 표면에 대하여 파악된 광학적 특성에 따라 반영하여 가상 표면에 렌더링한다(S230). 예를 들어, 제어부(120)는 SSR(Screen Space Reflection)과 GPU(Graphics Processing Unit) 가속화를 통한 커스틱스 렌더링을 활용함으로써, 모바일 디바이스처럼 컴퓨팅 처리능력이 제한될 수 있는 환경에서도 실시간 렌더링이 가능하게 할 수 있다. 또는, 제어부(120)는 레이 트레이싱(Ray Tracing)과 포톤 매핑(Photo Mapping) 기술 등과 같은 고연산의 렌더링 기술을 사용할 수도 있다.Next, the controller 120 reflects an influence factor that the virtual object can optically give to the real object when the virtual object is rendered in the background image, in accordance with the optical characteristic determined with respect to the actual surface of the real object in step S220, And rendered on the surface (S230). For example, the control unit 120 can perform real-time rendering in an environment where the computing processing capability may be restricted like a mobile device, by utilizing the context rendering by SSR (Screen Space Reflection) and GPU (Graphics Processing Unit) can do. Alternatively, the control unit 120 may use rendering techniques of high computation such as Ray Tracing and Photon Mapping techniques.

여기서, 배경 영상 내에서 가상 객체와 현실 객체의 상호 작용에 의해 가상 객체가 현실 객체에게 광학적으로 줄 수 있는 영향인자로는 현실 객체의 실제 표면에 가상 객체가 반사되는 정도, 현실 객체의 실제 표면에 의해 가상 객체가 왜곡되는 정도, 현실 객체의 실제 표면에 드리워지는 가상 객체의 그림자의 명도, 현실 객체의 실제 표면에 가상 객체에 의해 나타나는 커스틱스(caustics) 정도 등을 포함한다.In this case, the influence of the virtual object on the real object due to the interaction between the virtual object and the real object in the background image may include the degree of reflection of the virtual object on the actual surface of the real object, The degree to which the virtual object is distorted, the brightness of the shadow of the virtual object that is applied to the actual surface of the real object, and the degree of caustics represented by the virtual object on the actual surface of the real object.

이러한 제어부(120)에 의한 렌더링 과정 중에, 광학적 영향인자를 광학적 특성에 따라 현실 객체의 가상 표면에 반영한다는 것은 광학적 영향인자의 반영비율을 광학적 특성을 나타내는 값의 크기에 따라 조정하는 것이라 할 수 있다.During the rendering process by the controller 120, reflecting the optical influence factor on the virtual surface of the real object according to the optical characteristic can be said to adjust the reflection ratio of the optical influence factor according to the magnitude of the value indicating the optical characteristic .

다음으로, 제어부(120)는 단계 S230에서 렌더링된 가상 표면과 단계 S210에서 획득된 배경 영상 및 저장부(130)에 저장된 3차원 모델 데이터에 대응하는 가상 객체를 포함하는 증강 현실 화면을 생성하며, 생성된 증강 현실 화면을 출력하도록 표시부(140)를 제어하고, 이로써, 표시부(140)가 증강 현실 화면을 출력한다(S240).Next, the controller 120 generates an augmented reality screen including the virtual surface rendered in step S230, the background image obtained in step S210, and virtual objects corresponding to the three-dimensional model data stored in the storage unit 130, And controls the display unit 140 to output the generated augmented reality screen, whereby the display unit 140 outputs the augmented reality screen (S240).

도 9는 서로 다른 반사율을 가지는 3종의 현실 객체 상에 그릇 모양의 가상 객체가 배치되었을 때에, 단계 S240에서 출력되는 증강 현실 화면의 차이를 나타낸 것이다. 현실 객체의 실제 표면에 가상 객체가 반사되는 정도는 실제 표면의 광학적 특성 중에서 반사율에 의해 변화되기 때문에, 실제 표면의 반사율이 높을수록 가상 객체가 더 명확히 반사되는 것처럼 보이도록 가상 표면에 가상 객체의 이미지를 렌더링할 필요가 있다. 도 9의 현실 객체 중에서 맨 오른쪽의 현실 객체는 0%이거나 0%에 매우 가까운 반사율을 가진 경우이고, 중간에 위치한 현실 객체의 반사율보다 맨 왼쪽에 위치한 현실 객체의 반사율이 더 높은 경우이다. 중간에 위치한 가상 객체보다 맨 왼쪽에 위치한 가상 객체가 현실 객체에 더 명확히 반사되는 것처럼 증강 현실 화면이 출력되었다. 예를 들어, 단계 S220에서 현실 객체의 실제 표면에 대한 광학적 특성 중에서 반사율이 낮게 파악된 경우에 단계 S230의 렌더링 시에 칼라값을 낮게 설정하여 가상 표면에 가상 객체를 렌더링할 수 있고, 단계 S220에서 현실 객체의 실제 표면에 대한 광학적 특성 중에서 반사율이 높게 파악된 경우에 단계 S230의 렌더링 시에 칼라값을 높게 설정하여 가상 표면에 가상 객체를 렌더링할 수 있다.FIG. 9 shows a difference between the augmented reality images output in step S240 when bowl-like virtual objects are arranged on three types of reality objects having different reflectances. Since the degree to which a virtual object is reflected on the actual surface of a real object changes depending on the reflectance among the optical characteristics of the actual surface so that the virtual object is more clearly reflected as the actual surface reflectance increases, You need to render. The rightmost reality object in FIG. 9 is 0% or very close to 0%, and the reflectance of the leftmost reality object is higher than that of the centered reality object. The augmented reality screen is displayed as if the leftmost virtual object is more clearly reflected to the real object than the virtual object positioned at the middle. For example, if it is determined in step S220 that the reflectance of the actual surface of the real object is low, the virtual object may be rendered on the virtual surface by setting the color value to low during rendering in step S230. In step S220 When the reflectance is high among the optical characteristics of the actual surface of the real object, the virtual object may be rendered on the virtual surface by setting the color value to high at the rendering time of step S230.

단계 S220에서 현실 객체의 실제 표면에 대해 파악되는 광학적 특성 중에서 빛의 산란도는 현실 객체의 실제 표면에 반사되어 보이는 가상 객체의 선명도와 관련된다. 산란도가 높을수록 단계 S230의 렌더링 시에 선명도를 낮추어 가상 표면에 가상 객체를 렌더링할 수 있다. 선명도를 낮출수록 인접 픽셀간의 블러(blur) 현상이 증대되어 보인다.Among the optical characteristics perceived with respect to the actual surface of the real object in step S220, the scattering degree of light is related to the sharpness of the virtual object that is reflected on the actual surface of the real object. As the scattering degree increases, the virtual object may be rendered on the virtual surface by reducing the sharpness at the rendering time of step S230. As the sharpness is lowered, the blur phenomenon between adjacent pixels increases.

단계 S220에서 현실 객체의 실제 표면에 대해 파악되는 광학적 특성 중에서 투명도는 현실 객체의 실제 표면의 뒤쪽에 위치한 가상 객체를 실제 표면의 앞쪽에서 바라볼 때에 가상 객체가 어느 정도로 명확히 보이는가와 관련된다. 투명도가 높을수록 단계 S230의 렌더링 시에 칼라값을 높게 설정하여 가상 표면에 가상 객체를 렌더링할 수 있다. 또, 투명도는 현실 객체의 실제 표면에 드리워지는 가상 객체의 그림자의 명도와도 관련된다. 투명도가 낮을수록 단계 S230의 렌더링 시에 칼라값을 높게 설정하여 가상 표면에 가상 객체의 그림자를 렌더링할 수 있다.Among the optical characteristics perceived with respect to the actual surface of the real object in step S220, transparency relates to how clearly the virtual object is seen when the virtual object located behind the actual surface of the real object is viewed from the front of the actual surface. As the transparency increases, the virtual object may be rendered on the virtual surface by setting the color value to high at the rendering time of step S230. The transparency is also related to the brightness of the shadow of a virtual object that is applied to the actual surface of the real object. The lower the transparency is, the higher the color value is set at the rendering time in step S230, and the shadow of the virtual object can be rendered on the virtual surface.

단계 S220에서 현실 객체의 실제 표면에 대해 파악되는 광학적 특성 중에서 굴절율은 현실 객체의 실제 표면의 뒤쪽에 위치한 가상 객체를 실제 표면의 앞쪽에서 바라볼 때에 가상 객체가 어느 정도로 왜곡되어 보이는가와 관련된다. 굴절율이 높을수록 단계 S230의 렌더링 시에 왜곡율을 높여서 가상 표면에 가상 객체를 렌더링할 수 있다.Among the optical characteristics perceived with respect to the actual surface of the real object in step S220, the refractive index relates to how much the virtual object is distorted when the virtual object located behind the actual surface of the real object is viewed from the front of the actual surface. The higher the refractive index, the higher the distortion rate at the rendering time of step S230, and render the virtual object on the virtual surface.

도 10은 커스틱스 현상을 표현한 증강 현실 화면의 예시도로서, (가)는 단계 S230에서 가상 표면에 커스틱스 현상에 의한 빛 몽우리(601)가 렌더링된 결과와 배경 영상 내 현실 객체(602)를 나타내고 있으며, (나)는 단계 S240에서 렌더링된 가상 표면이 합쳐진 현실 객체(603)의 예를 나타내고 있다. 제어부(120)는 단계 S230의 렌더링 시에 단계 S220에서 파악된 현실 객체의 실제 표면에 대한 광학적 특성 중에서 반사율과 투명도에 따라 커스틱스 현상에 의한 빛 몽우리(601)의 명도를 조정할 수 있다. 예를 들어, 반사율이 높을수록 빛 몽우리(601)의 명도를 높이고, 투명도가 높을수록 빛 몽우리(601)의 명도를 낮출 수 있다.10A and 10B illustrate an augmented reality screen expressing a custody phenomenon. FIG. 10A illustrates a result of rendering a light well 601 by a custody phenomenon on a virtual surface in step S230 and a result of rendering a reality object 602 in a background image (B) shows an example of a real object 603 in which the virtual surfaces rendered in step S240 are combined. The controller 120 can adjust the lightness of the light source 601 by the custody phenomenon according to the reflectance and the transparency among the optical characteristics of the actual surface of the real object observed at the step S220 at the rendering time of step S230. For example, the higher the reflectance, the higher the brightness of the light source 601, and the higher the transparency, the lower the brightness of the light source 601.

지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 가상 객체가 배경 영상 내에 렌더링될 때에 배경 영상 내의 현실 객체에게 줄 수 있는 광학적 영향인자를 반영하여 증강 현실 영상 내에 현실 객체를 표현하기 때문에, 배경 영상 내에 현실 객체와 함께 가상 객체가 실존하는 것처럼 느끼는 착각이 더욱 현실감을 갖는다. 따라서, 증강 현실 화면에 대한 현실감이 더욱 증대된다.As described above, according to the embodiment of the present invention, when a virtual object is rendered in a background image, a real object is represented in the augmented reality image by reflecting an optical influence factor given to the real object in the background image, The illusion that a virtual object exists in a video together with a real object is more realistic. Therefore, the reality of the augmented reality screen is further enhanced.

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of the flowchart and each block of the block diagrams appended to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which may be executed by a processor of a computer or other programmable data processing apparatus, And means for performing the functions described in each step are created. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce a manufacturing item containing instruction means for performing the functions described in each block or flowchart of the block diagram. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명의 실시예에 따르면, 가상 객체가 배경 영상 내에 렌더링될 때에 배경 영상 내의 현실 객체에게 줄 수 있는 광학적 영향인자를 반영하여 증강 현실 영상 내에 현실 객체를 표현하기 때문에, 배경 영상 내에 현실 객체와 함께 가상 객체가 실존하는 것처럼 느끼는 착각이 더욱 현실감을 갖는다. 따라서, 증강 현실 화면에 대한 현실감이 더욱 증대된다.According to the embodiment of the present invention, when a virtual object is rendered in a background image, a real object is represented in the augmented reality image by reflecting an optical influence factor that can be given to the real object in the background image. The illusion that a virtual object feels as if it exists is more realistic. Therefore, the reality of the augmented reality screen is further enhanced.

이러한 본 발명은 현실의 배경 영상 내에 가상 객체를 함께 표현하여 특수 효과를 제공하는 증강 현실용 디바이스를 채용하는 각종의 증강 현실 산업 분야에 널리 이용할 수 있다.The present invention can be widely used in various augmented reality industrial fields employing a device for augmented reality in which a virtual object is represented together with a background image in a real world to provide a special effect.

100 : 증강 현실 표시 장치
110 : 정보 획득부
120 : 제어부
130 : 저장부
140 : 출력부
100: Augmented reality display
110: Information obtaining unit
120:
130:
140:

Claims (8)

증강 현실 표시 장치에서 수행되는 증강 현실 표시 방법으로서,
가상 객체를 배치할 배경 영상 내 현실 객체의 가상 표면을 생성하는 단계와,
상기 현실 객체의 실제 표면에 대한 광학적 특성을 파악하는 단계와,
상기 가상 객체가 상기 배경 영상 내에 렌더링될 때에 상기 배경 영상 내에서 상기 가상 객체와 상기 현실 객체의 상호 작용에 의해 상기 가상 객체가 상기 현실 객체에게 광학적으로 줄 수 있는 영향인자를 상기 광학적 특성에 따라 반영하여 상기 가상 표면에 렌더링하는 단계와,
상기 렌더링된 가상 표면과 상기 배경 영상 및 상기 가상 객체를 함께 출력하는 단계를 포함하는
증강 현실 표시 방법.
A method for displaying an augmented reality performed in an augmented reality display device,
Creating a virtual surface of a real object in a background image to which a virtual object is to be placed,
Determining an optical characteristic of an actual surface of the real object;
When the virtual object is rendered in the background image, an influence factor that the virtual object can optically give to the real object by interaction of the virtual object and the real object in the background image is reflected according to the optical characteristic Rendering on the virtual surface,
And outputting the rendered virtual surface, the background image, and the virtual object together
Augmented reality display method.
제 1 항에 있어서,
상기 현실 객체의 가상 표면을 생성하는 단계는,
상기 배경 영상 내 현실 객체에 대한 2차원 영상 정보와 깊이 정보를 획득하는 단계와,
상기 2차원 영상 정보와 상기 깊이 정보를 취합하여 상기 배경 영상 내 현실 객체에 대한 3차원 메쉬 데이터를 상기 현실 객체의 가상 표면으로서 생성하는 단계를 포함하는
증강 현실 표시 방법.
The method according to claim 1,
Wherein creating a virtual surface of the real object comprises:
Acquiring two-dimensional image information and depth information of a real object in the background image;
And combining the two-dimensional image information and the depth information to generate three-dimensional mesh data for a real object in the background image as a virtual surface of the real object
Augmented reality display method.
제 2 항에 있어서,
상기 3차원 메쉬 데이터를 생성할 때에, 상기 배경 영상을 복수의 격자 형태로 나누는 다각화를 수행하여 상기 2차원 영상 정보의 2차원 메쉬 데이터를 생성한 후, 상기 2차원 메쉬 데이터의 메쉬 꼭지점에 상기 깊이 정보에 따른 깊이값을 반영하여 상기 3차원 메쉬 데이터를 생성하는
증강 현실 표시 방법.
3. The method of claim 2,
Dimensional mesh image data is generated by dividing the background image into a plurality of grid shapes to generate two-dimensional mesh data of the two-dimensional image information, and then the mesh vertex of the two- Dimensional mesh data by reflecting the depth value according to the information
Augmented reality display method.
제 1 항에 있어서,
상기 광학적 특성을 파악하는 단계는, 복수의 현실 객체의 실제 객체 표면에 대한 영상과 상기 실제 객체 표면의 광학적 특성에 대한 빅 데이터를 기계학습한 결과에 기초하여 추론하는
증강 현실 표시 방법.
The method according to claim 1,
The step of grasping the optical characteristics may include inferring based on the result of the machine learning of the image of the actual object surface of the plurality of real objects and the big data of the optical characteristics of the actual object surface
Augmented reality display method.
제 1 항에 있어서,
상기 광학적 특성을 파악하는 단계는,
복수의 현실 객체의 실제 객체 표면에 대한 영상과 상기 실제 객체 표면의 재질에 대한 빅 데이터를 기계학습한 결과에 기초하여 상기 현실 객체의 실제 표면에 대한 재질을 추론하는 단계와,
기 저장된 맵핑테이블을 이용하여, 추론된 상기 재질에 대응하는 광학적 특성을 인식하는 단계를 포함하는
증강 현실 표시 방법.
The method according to claim 1,
Wherein the step of grasping the optical characteristic comprises:
Inferring a material for an actual surface of the real object based on a result of machine learning of an image of a real object surface of a plurality of real objects and a big data of a material of the actual object surface;
And recognizing the optical characteristic corresponding to the material inferred using the pre-stored mapping table
Augmented reality display method.
제 1 항에 있어서,
상기 영향인자는, 상기 현실 객체의 실제 표면에 상기 가상 객체가 반사되는 정도, 상기 현실 객체의 실제 표면에 의해 상기 가상 객체가 왜곡되는 정도, 상기 현실 객체의 실제 표면에 드리워지는 상기 가상 객체의 그림자의 명도, 상기 현실 객체의 실제 표면에 상기 가상 객체에 의해 나타나는 커스틱스(caustics) 정도 중에서 하나 이상을 포함하는
증강 현실 표시 방법.
The method according to claim 1,
Wherein the influence factor includes at least one of a degree to which the virtual object is reflected on an actual surface of the real object, a degree to which the virtual object is distorted by an actual surface of the real object, The degree of caustics exhibited by the virtual object on the actual surface of the real object,
Augmented reality display method.
제 1 항 내지 제 6 항 중에서 어느 한 항에 기재된 증강 현실 표시 방법을 프로세서가 수행하도록 하기 위하여
컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
In order to allow the processor to perform the augmented reality display method according to any one of claims 1 to 6
A computer program stored on a computer readable recording medium.
증강 현실 화면을 표시하는 증강 현실 표시 장치로서,
표시부와,
상기 표시부를 통해 보여지는 배경 영상에 대한 데이터를 획득하는 정보 획득부와,
제어부를 포함하되,
상기 제어부는,
가상 객체를 배치할 상기 배경 영상 내 현실 객체의 가상 표면을 상기 데이터를 이용해 생성하고,
상기 현실 객체의 실제 표면에 대한 광학적 특성을 파악하며,
상기 가상 객체가 상기 배경 영상 내에 렌더링될 때에 상기 배경 영상 내에서 상기 가상 객체와 상기 현실 객체의 상호 작용에 의해 상기 가상 객체가 상기 현실 객체에게 광학적으로 줄 수 있는 영향인자를 파악된 상기 광학적 특성에 따라 반영하여 상기 가상 표면에 렌더링하고,
상기 렌더링된 가상 표면과 상기 배경 영상 및 상기 가상 객체를 포함하는 상기 증강 현실 화면을 생성하며,
상기 생성된 증강 현실 화면을 출력하도록 상기 표시부를 제어하는
증강 현실 표시 장치.
An augmented reality display device for displaying an augmented reality screen,
A display section,
An information obtaining unit for obtaining data on a background image viewed through the display unit;
And a control unit,
Wherein,
Generating a virtual surface of a real object in the background image to which a virtual object is to be laid out using the data,
Grasping an optical characteristic of an actual surface of the real object,
Wherein when the virtual object is rendered in the background image, an influence factor that the virtual object can optically give to the real object by interaction of the virtual object and the real object in the background image is determined from the obtained optical characteristic And rendering it on the virtual surface,
Generating the augmented reality screen including the rendered virtual surface, the background image, and the virtual object,
And controls the display unit to output the generated augmented reality screen
Augmented reality display.
KR1020170107179A 2017-08-24 2017-08-24 Method and apparatus for displaying augmented reality KR101919077B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170107179A KR101919077B1 (en) 2017-08-24 2017-08-24 Method and apparatus for displaying augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170107179A KR101919077B1 (en) 2017-08-24 2017-08-24 Method and apparatus for displaying augmented reality

Publications (1)

Publication Number Publication Date
KR101919077B1 true KR101919077B1 (en) 2018-11-16

Family

ID=64565098

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170107179A KR101919077B1 (en) 2017-08-24 2017-08-24 Method and apparatus for displaying augmented reality

Country Status (1)

Country Link
KR (1) KR101919077B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111857335A (en) * 2020-07-09 2020-10-30 北京市商汤科技开发有限公司 Virtual object driving method and device, display equipment and storage medium
US10977774B2 (en) * 2015-09-16 2021-04-13 Sony Corporation Information processing apparatus, information processing method, and program for estimating prediction accuracy
KR20220112655A (en) * 2021-02-04 2022-08-11 (주)스마트큐브 Apparatus and method for providing augmented reality-based video conference for multi-party online business collaboration

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235537A (en) * 2012-05-11 2013-11-21 Nikon Corp Image creation device, image creation program and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235537A (en) * 2012-05-11 2013-11-21 Nikon Corp Image creation device, image creation program and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977774B2 (en) * 2015-09-16 2021-04-13 Sony Corporation Information processing apparatus, information processing method, and program for estimating prediction accuracy
CN111857335A (en) * 2020-07-09 2020-10-30 北京市商汤科技开发有限公司 Virtual object driving method and device, display equipment and storage medium
KR20220112655A (en) * 2021-02-04 2022-08-11 (주)스마트큐브 Apparatus and method for providing augmented reality-based video conference for multi-party online business collaboration
KR102472115B1 (en) * 2021-02-04 2022-11-29 (주)스마트큐브 Apparatus and method for providing augmented reality-based video conference for multi-party online business collaboration

Similar Documents

Publication Publication Date Title
RU2427918C2 (en) Metaphor of 2d editing for 3d graphics
KR101334187B1 (en) Apparatus and method for rendering
US20120005624A1 (en) User Interface Elements for Use within a Three Dimensional Scene
US20070139408A1 (en) Reflective image objects
US9530242B2 (en) Point and click lighting for image based lighting surfaces
US10127711B2 (en) Method and apparatus rendering caustics
JP2006293792A (en) Stereoscopic image generation device
JP5055214B2 (en) Image processing apparatus and image processing method
KR101919077B1 (en) Method and apparatus for displaying augmented reality
US9754398B1 (en) Animation curve reduction for mobile application user interface objects
JP2012190428A (en) Stereoscopic image visual effect processing method
GB2406252A (en) Generation of texture maps for use in 3D computer graphics
KR102107706B1 (en) Method and apparatus for processing image
US8248405B1 (en) Image compositing with ray tracing
JP4983793B2 (en) Image processing program and image processing apparatus
CN114663632A (en) Method and equipment for displaying virtual object by illumination based on spatial position
CN102693065A (en) Method for processing visual effect of stereo image
JP2003115055A (en) Image generator
EP3923245A2 (en) Surface material pattern finish simulation device and surface material pattern finish simulation method
KR101428577B1 (en) Method of providing a 3d earth globes based on natural user interface using motion-recognition infrared camera
KR101227155B1 (en) Graphic image processing apparatus and method for realtime transforming low resolution image into high resolution image
CN115803782A (en) Augmented reality effect of perception geometry with real-time depth map
Poulin et al. Interactive point-based modeling of complex objects from images
JP2020013390A (en) Information processing apparatus, information processing program, and information processing method
CN117011492B (en) Image rendering method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant