KR20230014606A - Method and apparatus for generating mega size augmented reality image information - Google Patents

Method and apparatus for generating mega size augmented reality image information Download PDF

Info

Publication number
KR20230014606A
KR20230014606A KR1020210182818A KR20210182818A KR20230014606A KR 20230014606 A KR20230014606 A KR 20230014606A KR 1020210182818 A KR1020210182818 A KR 1020210182818A KR 20210182818 A KR20210182818 A KR 20210182818A KR 20230014606 A KR20230014606 A KR 20230014606A
Authority
KR
South Korea
Prior art keywords
information
virtual object
layer
virtual
sky
Prior art date
Application number
KR1020210182818A
Other languages
Korean (ko)
Inventor
신윤수
유한준
Original Assignee
주식회사 백스포트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 백스포트 filed Critical 주식회사 백스포트
Priority to KR1020210182818A priority Critical patent/KR20230014606A/en
Publication of KR20230014606A publication Critical patent/KR20230014606A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

One embodiment of the present invention relates to a method for generating large augmented reality (AR) image information, performed by a user terminal including a photographing device, which comprises the steps of: obtaining information about a virtual object from an external server; obtaining original image information including the sky through the photographing device; deriving a first layer corresponding to a sky area from the original image information based on a pre-trained sky area detection model; deriving a second layer corresponding to the remaining area excluding the sky area from the original image information based on the first layer; deriving a specific virtual lighting among a plurality of virtual lightings from the first layer based on a pre-trained virtual lighting classification model; deriving corrected color information of the virtual object based on the information about the virtual object and information about the specific virtual lighting; and generating information about the corrected virtual object including the corrected color information according to a preset spatial relationship, and generating AR image information in which the virtual object is inserted into the sky based on the first layer and the second layer.

Description

거대 AR 영상 정보 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING MEGA SIZE AUGMENTED REALITY IMAGE INFORMATION}Method and apparatus for generating giant AR image information {METHOD AND APPARATUS FOR GENERATING MEGA SIZE AUGMENTED REALITY IMAGE INFORMATION}

본 발명은 거대 AR(Augmented Reality) 영상 정보 생성 방법 및 장치에 관한 것으로, 더욱 상세하게는 스카이라인을 고려하여 하늘 공간에 거대한 가상 객체가 삽입된 AR 영상 정보 생성 방법에 관한 것이다.The present invention relates to a method and apparatus for generating augmented reality (AR) image information, and more particularly, to a method for generating AR image information in which a huge virtual object is inserted in a sky space in consideration of a skyline.

AR(Augmented Reality)은 현실에 기반하여 정보를 추가 제공하는 기술로 배경 및 객체를 모두 가상의 이미지로 제공하는 VR(Virtual Reality)과는 차이가 있다. 즉, AR은 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 것으로, 현실 세계의 환경 위에 가상의 대상을 결합시켜 현실의 효과를 더욱 증가시키는 것이다.AR (Augmented Reality) is a technology that provides additional information based on reality, and is different from VR (Virtual Reality), which provides both backgrounds and objects as virtual images. In other words, AR is to superimpose virtual objects on the real world that users see, and to further increase the effect of reality by combining virtual objects on the environment of the real world.

AR은 촬영 장치 및 디스플레이를 가지는 스마트폰, 태블릿 또는 스마트 글라스 등과 같은 다양한 IT(Information Technology) 기기를 통해 제공될 수 있으며, 최근 이러한 다양한 IT 기기들이 보급화되고, 통신 속도도 빨라진 바, 많은 주목을 받고 있는 기술이다.AR can be provided through various IT (Information Technology) devices such as smartphones, tablets, or smart glasses having a shooting device and display. It is a technology that

다만, 일반적으로 AR은 촬영 장치를 통해 공간 내 특징점의 클러스터를 찾아 가상 객체가 놓일 가상 평면을 선행하여 구성하는 환경 이해가 필요하며, 이러한 선행 절차로 인해 가상 평면을 찾기 어려운 환경에서는 가상 객체의 위치 지정이 힘들고, 특정 사이즈 이상의 가상 객체는 구현하기 어려운 한계가 존재한다.However, in general, AR requires an understanding of the environment in which a virtual plane on which a virtual object is placed is constructed in advance by finding a cluster of feature points in space through a photographing device. It is difficult to designate, and virtual objects of a certain size or larger are difficult to implement.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 거대 AR(Augmented Reality) 영상 정보 생성 방법을 제공하는데 있다.An object of the present invention to solve the above problems is to provide a method for generating large Augmented Reality (AR) image information.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은 거대 AR 영상 정보 생성 장치를 제공하는데 있다.Another object of the present invention to solve the above problems is to provide a device for generating large AR image information.

상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은 거대 AR 영상 정보 생성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체를 제공하는데 있다.Another object of the present invention to solve the above problems is to provide a computer readable recording medium recording a program for executing a method for generating large AR image information.

상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은 거대 AR 영상 정보 생성 방법을 수행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램을 제공하는데 있다.Another object of the present invention to solve the above problems is to provide a program stored in a computer readable recording medium for performing a method for generating large AR image information.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 촬영 장치를 포함하는 사용자 단말에 의해 수행되는 거대 AR(Augmented Reality) 영상 정보 생성 방법은 외부 서버로부터 가상 객체에 대한 정보를 획득하는 단계, 상기 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하는 단계, 미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하는 단계, 상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하는 단계, 미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하는 단계, 상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하는 단계 및 미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하는 단계를 포함할 수 있다.In order to achieve the above object, a method for generating augmented reality (AR) image information performed by a user terminal including a photographing device according to an embodiment of the present invention includes acquiring information on a virtual object from an external server, the Obtaining original image information including the sky through a photographing device, deriving a first layer corresponding to the sky region from the original image information based on a previously learned sky region detection model, based on the first layer deriving a second layer corresponding to an area other than the sky area from the original image information, deriving a specific virtual light among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model deriving corrected color information of the virtual object based on the information on the virtual object and the information on the specific virtual light, and corrected virtual including the corrected color information according to a preset spatial relationship. The method may include generating AR image information in which the virtual object is inserted into the sky based on object information, the first layer, and the second layer.

여기서, 상기 AR 영상 정보는 상기 제2 레이어가 가장 앞에 배치되고, 상기 제1 레이어가 가장 뒤에 배치되고, 상기 보정된 가상 객체에 대한 정보가 상기 제2 레이어 및 상기 제1 레이어 사이에 배치되어 합성될 수 있다.Here, the AR image information is synthesized by placing the second layer at the front, the first layer at the back, and the corrected virtual object information between the second layer and the first layer. It can be.

여기서, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보를 포함하고, 상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 상기 특정 가상 조명의 입사각 정보 및 높이 정보를 포함하고, 상기 입사각 정보 및 상기 높이 정보는 현재 날짜 정보, 현재 시간 정보 및 상기 기준 위치 정보를 기반으로 도출될 수 있다.Here, the information on the virtual object includes reference position information of the virtual object, the information on the specific virtual light includes incident angle information and height information of the specific virtual light to be given to the virtual object, and the incident angle Information and the height information may be derived based on current date information, current time information, and the reference position information.

여기서, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보를 포함하고, 상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 거리감 정보를 포함하고, 상기 거리감 정보는 상기 사용자 단말의 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 기반으로 도출되는 대비 조절 정보 및 채도 조절 정보를 포함하고, 상기 대비 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 하늘 영역과 상기 가상 객체 간의 대비가 적어지도록 설정되고, 상기 채도 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 가상 객체의 채도가 낮아지도록 설정될 수 있다.Here, the information on the virtual object includes reference position information of the virtual object, the information on the specific virtual lighting includes distance information to be given to the virtual object, and the distance information includes location information of the user terminal. and contrast control information and saturation control information derived based on distance information between the reference location information, wherein the contrast control information is such that the contrast between the sky area and the virtual object decreases as the distance according to the distance information increases. The saturation adjustment information may be set so that the saturation of the virtual object decreases as the distance according to the distance information increases.

여기서, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보 및 상기 가상 객체의 기준 크기 정보를 포함하고, 상기 사용자 단말의 현재 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 도출하는 단계 및 상기 거리 정보 및 상기 기준 크기 정보를 기반으로 상기 가상 객체의 보정된 크기 정보를 도출하는 단계를 더 포함하고, 상기 보정된 가상 객체에 대한 정보는 상기 보정된 크기 정보를 포함할 수 있다.Here, the information on the virtual object includes reference position information and reference size information of the virtual object, and deriving distance information between the current position information of the user terminal and the reference position information; The method may further include deriving corrected size information of the virtual object based on information and the reference size information, and the corrected information on the virtual object may include the corrected size information.

여기서, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보 및 상기 가상 객체의 기준 방향 정보를 포함하고, 상기 사용자 단말의 현재 위치 정보에 따른 현재 위치로부터 상기 기준 위치 정보에 따른 기준 위치로의 방향성 정보를 도출하는 단계 및 상기 기준 방향 정보 및 상기 방향성 정보를 기반으로 상기 가상 객체의 보정된 방향 정보를 도출하는 단계를 더 포함할 수 있다.Here, the information on the virtual object includes reference position information of the virtual object and reference direction information of the virtual object, and the user terminal moves from a current position according to the current position information to a reference position according to the reference position information. The method may further include deriving direction information and deriving corrected direction information of the virtual object based on the reference direction information and the direction information.

상기 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 거대 AR(Augmented Reality) 영상 정보 생성 방법을 수행하는 전자 장치는 촬영 장치, 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 명령을 저장하는 메모리를 포함하고, 상기 적어도 하나의 명령은 외부 서버로부터 가상 객체에 대한 정보를 획득하도록 실행되고, 상기 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하도록 실행되고, 미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하도록 실행되고, 상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하도록 실행되고, 미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하도록 실행되고, 상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하도록 실행되고, 미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하도록 실행될 수 있다.An electronic device performing a method for generating augmented reality (AR) image information according to an embodiment of the present invention for achieving the other object is a photographing device, at least one processor, and at least one processor executed by the at least one processor. A memory for storing commands of, wherein the at least one command is executed to obtain information on a virtual object from an external server, and is executed to acquire original image information including the sky through the photographing device, and is pre-learned deriving a first layer corresponding to the sky region from the original image information based on the sky region detection model, and a first layer corresponding to the remaining region excluding the sky region from the original image information based on the first layer. Execute to derive two layers, and to derive a specific virtual light among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model, information about the virtual object and the specific virtual light corrected color information of the virtual object is derived based on information about the corrected virtual object including the corrected color information according to a preset spatial relationship, the first layer and the second layer; It can be executed to generate AR image information in which the virtual object is inserted into the sky based on.

상기 또 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 사용자 단말에 의해 수행되는 거대 AR(Augmented Reality) 영상 정보 생성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서, 상기 거대 AR 영상 정보 생성 방법은 외부 서버로부터 가상 객체에 대한 정보를 획득하는 단계, 상기 사용자 단말의 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하는 단계, 미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하는 단계, 상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하는 단계, 미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하는 단계, 상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하는 단계 및 미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하는 단계를 포함할 수 있다.A computer-readable recording medium recording a program for executing a method for generating giant AR (Augmented Reality) image information performed by a user terminal according to an embodiment of the present invention for achieving the above another object, wherein the giant AR image The information generating method includes obtaining information on a virtual object from an external server, obtaining original image information including the sky through a photographing device of the user terminal, and the original image based on a previously learned sky region detection model. Deriving a first layer corresponding to the sky area from information, deriving a second layer corresponding to an area other than the sky area from the original image information based on the first layer, and pre-learned virtual lighting Deriving a specific virtual light from among a plurality of virtual lights from the first layer based on a classification model, correcting color information of the virtual object based on information on the virtual object and the information on the specific virtual light. Information on the corrected virtual object including the corrected color information according to the step of deriving and a preset spatial relationship, AR image information in which the virtual object is inserted into the sky based on the first layer and the second layer It may include the step of generating.

상기 또 다른 목적을 달성하기 위한 본 발명의 일 실시예에 따른 사용자 단말을 통해 거대 AR(Augmented Reality) 영상 정보 생성 방법을 수행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램으로서, 상기 거대 AR 영상 정보 생성 방법은 외부 서버로부터 가상 객체에 대한 정보를 획득하는 단계, 상기 사용자 단말의 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하는 단계, 미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하는 단계, 상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하는 단계, 미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하는 단계, 상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하는 단계 및 미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하는 단계를 포함할 수 있다.A program stored in a computer readable recording medium for performing a method of generating augmented reality (AR) image information through a user terminal according to an embodiment of the present invention for achieving the another object, wherein the augmented reality image information is generated. The method includes obtaining information on a virtual object from an external server, acquiring original image information including the sky through a photographing device of the user terminal, and obtaining original image information from the original image information based on a previously learned sky region detection model. Deriving a first layer corresponding to the sky area, deriving a second layer corresponding to the remaining area excluding the sky area from the original image information based on the first layer, a pre-learned virtual lighting classification model Deriving a specific virtual light from among a plurality of virtual lights from the first layer based on, deriving corrected color information of the virtual object based on information on the virtual object and information on the specific virtual light generating AR image information in which the virtual object is inserted into the sky based on information about the corrected virtual object including the corrected color information and the first layer and the second layer according to the step and a preset spatial relationship; steps may be included.

본 발명에 따르면, 가상 객체가 놓여야 하는 가상 평면 도출 방식의 환경 이해에 따른 한계를 벗어날 수 있다.According to the present invention, it is possible to overcome the limitations of understanding the environment of the method of deriving a virtual plane in which a virtual object should be placed.

본 발명에 따르면, 거대한 가상 객체를 구현할 수 있다.According to the present invention, it is possible to implement a huge virtual object.

본 발명에 따르면, 가상 객체의 기준 위치 및 사용자의 현재 위치를 고려하여 동일한 가상 객체에 대한 다양한 모습을 제공하여 실감 넘치는 AR 콘텐츠를 제공할 수 있다.According to the present invention, it is possible to provide realistic AR content by providing various views of the same virtual object in consideration of the reference location of the virtual object and the current location of the user.

본 발명에 따르면, 주변 환경을 고려하여 가상 조명을 도출하고, 가상 객체에 가상 조명을 반영함으로써 가상 객체와 현실 사이의 일치감을 높일 수 있다.According to the present invention, by deriving virtual lighting in consideration of the surrounding environment and reflecting the virtual lighting on the virtual object, it is possible to increase the sense of agreement between the virtual object and reality.

본 발명에 따르면, 다양한 종류의 가상 공연을 방대한 크기로 제공할 수 있다.According to the present invention, various types of virtual performances can be provided in a vast size.

도 1은 본 발명의 일 실시예에 따른 거대 AR(Augmented Reality) 영상 정보 생성 장치의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 거대 AR 영상 정보 생성에 이용되는 레이어들을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 거대 AR 영상 정보 생성에 이용되는 레이어들의 도출 순서를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 하늘 영역 검출 모델을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 미리 학습된 가상 조명 분류 모델을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 가상 객체의 보정된 색상 정보의 도출을 위한 가상 조명의 입사각 정보 및 높이 정보를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 가상 객체의 보정된 색상 정보의 도출을 위한 거리감 정보를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 가상 객체의 보정된 크기 정보의 도출을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 가상 객체의 보정된 방향 정보의 도출을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 거대 AR 영상 정보 생성 방법의 순서도이다.
1 is a block diagram of a device for generating augmented reality (AR) image information according to an embodiment of the present invention.
2 is a diagram for explaining layers used for generating large AR image information according to an embodiment of the present invention.
3 is a diagram for explaining a derivation sequence of layers used to generate giant AR image information according to an embodiment of the present invention.
4 is a diagram for explaining a sky area detection model according to an embodiment of the present invention.
5 is a diagram for explaining a pre-learned virtual light classification model according to an embodiment of the present invention.
6 is a diagram for explaining incident angle information and height information of virtual light for deriving corrected color information of a virtual object according to an embodiment of the present invention.
7 is a diagram for explaining distance information for deriving corrected color information of a virtual object according to an embodiment of the present invention.
8 is a diagram for explaining derivation of corrected size information of a virtual object according to an embodiment of the present invention.
9 is a diagram for explaining derivation of corrected direction information of a virtual object according to an embodiment of the present invention.
10 is a flowchart of a method for generating giant AR image information according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

본 문서에서 거대 AR(Mega size AR)은 GPS(Global Positioning System)를 기반으로 수평 정보(x, y)를 산출하고, 머신러닝을 통해 수직 정보(z)를 산출하여 구현하는 표준 사이즈 이상의 AR 가상 객체로 체감적으로 100 m ~ 10 km의 사이즈로 구현되는 AR을 나타낼 수 있다.In this document, Mega size AR is a standard size or larger AR virtual reality that calculates horizontal information (x, y) based on GPS (Global Positioning System) and calculates vertical information (z) through machine learning. As an object, it is possible to represent AR implemented in a size of 100 m to 10 km in a tangible way.

본 문서에서 공간 관계(spatial relationship)는 실제 공간을 기준으로 도출된 가상 공간 내에서 관찰자(사용자)를 기준으로 가상 객체와 실제 객체 사이의 거리와 중첩 상태를 이르는 말로 이 관계 설정을 통해서 가상 객체의 중첩 상태를 표현해줄 수 있다.In this document, spatial relationship refers to the distance and overlapping state between a virtual object and a real object based on an observer (user) in a virtual space derived from a real space. It can express the superposition state.

본 문서에서 환경 이해(environmental understanding)는 테이블이나 벽과 같은 일반적인 수평 또는 수직 표면에 있는 특징점의 집합을 찾고 이러한 표면을 기준으로 가상 개체가 위치하기 위한 평면을 잡는 절차를 나타낼 수 있다. 이러한 과정을 선행하여 투시(perspective)가 맞는 가상 객체의 배치가 가능해질 수 있다.In this document, environmental understanding can refer to the process of finding a set of feature points on a typical horizontal or vertical surface such as a table or wall, and locating a plane for positioning a virtual object relative to this surface. Prior to this process, it may be possible to arrange a virtual object having a suitable perspective.

본 문서에서 조명 유추(light estimation)는 사물이나, 환경의 조명에 대해 인간은 무의식적으로 인지하고 있기 때문에 가상 객체가 주변 환경과 조화를 이루기 위해서는 실제 환경의 조명을 유추하여 이를 가상 객체에 적용해주기 위한 것으로, 이를 위해서 그림자(shadows), 주변광(ambient light), 음영(shading), 하일라이트(specular highlights) 반사(reflections)를 단서로 실제 조명을 유추하는 과정을 나타낼 수 있다.In this document, light estimation is used to infer the lighting of the real environment and apply it to the virtual object in order for the virtual object to harmonize with the surrounding environment because humans are unconsciously aware of the lighting of the object or environment. To this end, it can represent a process of inferring actual lighting using shadows, ambient light, shading, and specular highlights reflections as clues.

본 문서에서 가상 객체(virtual object)는 실제 객체(real world object)에 대비되는 개념으로 실제 공간을 기준으로 구현되는 모든 디지털 콘텐츠를 나타낼 수 있으며, 형식은 3D 모델, 2D 이미지 등을 모두 포괄할 수 있다.In this document, a virtual object is a concept in contrast to a real world object, and can represent all digital content implemented based on real space, and its format can encompass 3D models and 2D images. there is.

본 문서에서 대기 원근법 (aerial perspective)은 짧은 파장의 가시광선은 긴 파장의 가시광선에 비해 더 멀리 산란됨으로 멀리 있는 사물은 실제보다 푸른색을 띠고, 색상의 대조도 덜하게 보이는 바, 이 같은 특성을 회화에 적용하는 방식을 나타낼 수 있다.In this paper, the aerial perspective is that short-wavelength visible light is scattered farther than longer-wavelength visible light, so distant objects appear bluer than they actually are and have less color contrast. can show how to apply to painting.

본 문서에서 SVM(Support Vector Machine)은 기계 학습의 한 분야로서 패턴 인식, 자료 분석을 위한 지도 학습 모델이며 주로 분류와 회귀 분석을 위해 사용될 수 있다. SVM의 핵심 기능은 분류가 필요한 변인이 있을 때 어느 쪽에 속하는지 결정 경계(decision boundary)를 도출하는 기능일 수 있다.In this document, SVM (Support Vector Machine) is a supervised learning model for pattern recognition and data analysis as a field of machine learning, and can be mainly used for classification and regression analysis. A key function of SVM may be a function of deriving a decision boundary on which side a variable belongs to when there is a variable that needs to be classified.

본 문서에서 거대 AR 영상 정보는 설명의 편의를 위해 AR 영상 정보라고 나타낼 수 있고, 레이어는 원본 영상으로부터 추출된 일부 영역 또는 일부 정보에 대응되는 영상을 나타낼 수 있다.In this document, giant AR image information may be referred to as AR image information for convenience of explanation, and a layer may represent an image corresponding to a partial area or partial information extracted from an original image.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. In order to facilitate overall understanding in the description of the present invention, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 거대 AR(Augmented Reality) 영상 정보 생성 장치의 블록 구성도이다.1 is a block diagram of a device for generating augmented reality (AR) image information according to an embodiment of the present invention.

도 1을 참조하면, 거대 AR 영상 정보 생성 장치는 적어도 하나의 프로세서(110), 메모리(120), 송수신 장치(transceiver)(130), 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 및 버스(bus)(170)를 포함하여 구성될 수 있다. Referring to FIG. 1, the apparatus for generating giant AR image information includes at least one processor 110, memory 120, transceiver 130, input interface device 140, output interface device 150, storage It may comprise a device 160 and a bus 170.

예를 들어, 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.For example, the at least one processor 110 may be a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. can mean Each of the memory 120 and the storage device 160 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 may be a flash-memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, a micro SD card).

또한, 계층적 식별자 관리 체계에 기초한 데이터 제공 장치(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 계층적 식별자 관리 체계에 기초한 데이터 제공 장치(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 계층적 식별자 관리 체계에 기초한 데이터 제공 장치(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the data providing device 100 based on the hierarchical identifier management system may include a transceiver 130 that performs communication through a wireless network. In addition, the data providing device 100 based on the hierarchical identifier management system may further include an input interface device 140, an output interface device 150, a storage device 160, and the like. Each component included in the data providing apparatus 100 based on the hierarchical identifier management system is connected by a bus 170 to communicate with each other.

거대 AR 영상 정보 생성 장치는 촬영 장치를 탑재한 사용자 단말일 수 있다. 예를 들어, 사용자 단말은 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone) 또는 스마트 글래스(smart glass)일 수 있으나, 이에 한정되는 것은 아니다.The giant AR image information generating device may be a user terminal equipped with a photographing device. For example, the user terminal may be a smart phone, tablet PC, mobile phone, or smart glass, but is not limited thereto.

여기서, 메모리(120)는 적어도 하나의 프로세서(110)에 의해 실행되는 적어도 하나의 명령을 저장할 수 있다.Here, the memory 120 may store at least one command executed by the at least one processor 110 .

예를 들어, 상기 적어도 하나의 명령은 외부 서버로부터 가상 객체에 대한 정보를 획득하도록 실행되고, 상기 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하도록 실행되고, 미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하도록 실행되고, 상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하도록 실행되고, 미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하도록 실행되고, 상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하도록 실행되고, 미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하도록 실행될 수 있다.For example, the at least one command is executed to obtain information on a virtual object from an external server, is executed to acquire original image information including the sky through the photographing device, and a pre-learned sky area detection model is executed. and derive a first layer corresponding to the sky area from the original image information based on the first layer, and derive a second layer corresponding to the remaining area excluding the sky area from the original image information based on the first layer. and derives a specific virtual light among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model, and based on the information on the virtual object and the information on the specific virtual light, the It is executed to derive corrected color information of a virtual object, and information on a corrected virtual object including the corrected color information according to a preset spatial relationship, the color of the sky based on the first layer and the second layer. It may be executed to generate AR image information in which the virtual object is inserted.

예를 들어, 상기 AR 영상 정보는 상기 제2 레이어가 가장 앞에 배치되고, 상기 제1 레이어가 가장 뒤에 배치되고, 상기 보정된 가상 객체에 대한 정보가 상기 제2 레이어 및 상기 제1 레이어 사이에 배치되어 합성될 수 있다.For example, in the AR image information, the second layer is disposed at the front, the first layer is disposed at the rear, and information on the corrected virtual object is disposed between the second layer and the first layer. and can be synthesized.

예를 들어, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보를 포함하고, 상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 상기 특정 가상 조명의 입사각 정보 및 높이 정보를 포함하고, 상기 입사각 정보 및 상기 높이 정보는 현재 날짜 정보, 현재 시간 정보 및 상기 기준 위치 정보를 기반으로 도출될 수 있다.For example, the information on the virtual object includes reference position information of the virtual object, and the information on the specific virtual light includes incident angle information and height information of the specific virtual light to be assigned to the virtual object; The incident angle information and the height information may be derived based on current date information, current time information, and reference position information.

예를 들어, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보를 포함하고, 상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 거리감 정보를 포함하고, 상기 거리감 정보는 상기 사용자 단말의 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 기반으로 도출되는 대비 조절 정보 및 채도 조절 정보를 포함하고, 상기 대비 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 하늘 영역과 상기 가상 객체 간의 대비가 적어지도록 설정되고, 상기 채도 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 가상 객체의 채도가 낮아지도록 설정될 수 있다.For example, the information on the virtual object includes reference position information of the virtual object, the information on the specific virtual lighting includes information on a sense of distance to be given to the virtual object, and the information on the sense of distance includes information on a sense of distance of the user terminal. Contrast control information and saturation control information derived based on distance information between location information and the reference position information, wherein the contrast control information increases the contrast between the sky area and the virtual object as the distance according to the distance information increases. The saturation adjustment information may be set such that the saturation of the virtual object decreases as the distance according to the distance information increases.

예를 들어, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보 및 상기 가상 객체의 기준 크기 정보를 포함하고, 상기 적어도 하나의 명령은 상기 사용자 단말의 현재 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 도출하도록 실행되고, 상기 거리 정보 및 상기 기준 크기 정보를 기반으로 상기 가상 객체의 보정된 크기 정보를 도출하도록 실행될 수 있고, 상기 보정된 가상 객체에 대한 정보는 상기 보정된 크기 정보를 포함할 수 있다.For example, the information on the virtual object includes reference position information of the virtual object and reference size information of the virtual object, and the at least one command is a distance between the current position information of the user terminal and the reference position information. information, and derive corrected size information of the virtual object based on the distance information and the reference size information, wherein the corrected information on the virtual object includes the corrected size information. can

예를 들어, 상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보 및 상기 가상 객체의 기준 방향 정보를 포함하고, 상기 적어도 하나의 명령은 상기 사용자 단말의 현재 위치 정보에 따른 현재 위치로부터 상기 기준 위치 정보에 따른 기준 위치로의 방향성 정보를 도출하도록 실행되고, 상기 기준 방향 정보 및 상기 방향성 정보를 기반으로 상기 가상 객체의 보정된 방향 정보를 도출하도록 실행될 수 있고, 상기 보정된 가상 객체에 대한 정보는 상기 보정된 방향 정보를 포함할 수 있다.For example, the information on the virtual object includes reference position information of the virtual object and reference direction information of the virtual object, and the at least one command includes the reference from a current position according to current position information of the user terminal. Deriving direction information to a reference position according to location information, and deriving corrected direction information of the virtual object based on the reference direction information and the direction information, and information about the corrected virtual object. may include the corrected direction information.

또는 예를 들어, 일 실시예에 따른 거대 AR 영상 정보 생성 방법은 프로그램으로써 사용자 단말 또는 거대 AR 영상 정보 생성 장치에 의해 실행될 수 있고, 컴퓨터 판독 가능한 기록 매체에 저장 또는 기록될 수 있다.Alternatively, for example, the method for generating giant AR image information according to an embodiment may be executed as a program by a user terminal or a device for generating giant AR image information, and may be stored or recorded in a computer-readable recording medium.

도 2는 본 발명의 일 실시예에 따른 거대 AR 영상 정보 생성에 이용되는 레이어들을 설명하기 위한 도면이다.2 is a diagram for explaining layers used for generating large AR image information according to an embodiment of the present invention.

본 발명의 일 실시예는 복수의 레이어 또는 가상 객체에 대한 정보를 기반으로 거대 AR 영상 정보를 생성할 수 있다. 즉, 거대 AR 영상 정보는 복수의 레이어 또는 가상 객체에 대한 정보를 합성하여 생성될 수 있다.An embodiment of the present invention may generate large AR image information based on information on a plurality of layers or virtual objects. That is, large AR image information may be generated by synthesizing information on a plurality of layers or virtual objects.

도 2를 참조하면, A는 촬영 장치를 통해 획득된 원본 영상을 나타낼 수 있으며, B는 원본 영상으로부터 하늘 영역을 추출한 영상을 나타낼 수 있으며, C는 원본 영상 중 하늘 영역을 제외한 나머지 영역에 대한 영상을 나타낼 수 있다. D-1은 가상 객체에 대한 정보를 나타낼 수 있으며, D-2는 보정된 색상 정보가 반영된 가상 객체에 대한 정보를 나타낼 수 있다. E는 AR 영상 정보를 나타내며, 앞서 설명한 영상들 중 C, D2 및 B를 앞에서부터 순서대로 합성하여 생성된 영상 정보일 수 있다. 보다 상세하게는 도 3과 함께 후술하겠다.Referring to FIG. 2 , A may represent an original image acquired through a photographing device, B may represent an image obtained by extracting a sky region from the original image, and C may represent an image of the remaining region of the original image excluding the sky region. can represent D-1 may represent information on a virtual object, and D-2 may represent information on a virtual object to which corrected color information is reflected. E represents AR image information, and may be image information generated by sequentially combining C, D2, and B among the images described above. In more detail, it will be described later together with FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 거대 AR 영상 정보 생성에 이용되는 레이어들의 도출 순서를 설명하기 위한 도면이다.3 is a diagram for explaining a derivation sequence of layers used to generate giant AR image information according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예는 크게 4개의 단계를 순차적으로 수행하여 거대 AR 영상 정보를 생성할 수 있다.Referring to FIG. 3 , an embodiment of the present invention can generate large AR image information by sequentially performing four steps.

제1 단계는 영상을 획득하는 단계일 수 있다. 예를 들어, 거대 AR 영상 정보는 촬영 장치가 포함된 사용자 단말을 통해 제공될 수 있는 바, 사용자 단말의 촬영 장치를 통해 하늘을 포함하는 영상이 촬영될 수 있다. 여기서, 촬영된 영상은 가상 객체가 삽입되지 않고, 일부 영역 또는 일부 정보가 추출되지 않은 상태의 영상인 바, 원본 영상 또는 원본 영상 정보라고 나타낼 수 있다.A first step may be obtaining an image. For example, since the large AR image information may be provided through a user terminal including a photographing device, an image including the sky may be captured through the photographing device of the user terminal. Here, the captured image may be referred to as an original image or original image information because it is an image in which no virtual object is inserted and a partial area or partial information is not extracted.

제2 단계는 하늘 영역을 검출하는 단계일 수 있다. 예를 들어, 하늘 영역은 미리 학습된 하늘 영역 검출 모델을 기반으로 원본 영상으로부터 검출 또는 도출될 수 있으며, 하늘 영역이 검출 또는 도출된 하늘 영역에 대응되는 영상을 제1 레이어라고 나타낼 수 있다. 여기서, 하늘 영역 검출 모델에 대한 상세한 설명은 도 4에서 후술하겠다.A second step may be a step of detecting the sky area. For example, the sky region may be detected or derived from an original image based on a previously learned sky region detection model, and an image corresponding to the detected or derived sky region may be referred to as a first layer. Here, a detailed description of the sky area detection model will be described later with reference to FIG. 4 .

제3 단계는 하늘 외 영역을 검출하는 단계일 수 있다. 예를 들어, 하늘 영역 외 영역은 선행 단계에서 획득한 하늘 영역에 대응되는 제1 레이어를 통해 검출 또는 도출될 수 있다. 즉, 하늘 외 영역은 원본 영상에서 제1 레이어에 대응되는 하늘 영역을 제외한 영역으로 판단할 수 있으므로, 제1 레이어의 하늘 영역을 반전하면 하늘 영역 외 나머지 영역이 검출 또는 도출될 수 있으며, 나머지 영역에 대응되는 영상을 제2 레이어라고 나타낼 수 있다. 다시 말해, 제2 레이어는 원본 영상 정보 또는 제1 레이어를 기반으로 검출 또는 도출될 수 있다.A third step may be a step of detecting an area other than the sky. For example, an area other than the sky area may be detected or derived through the first layer corresponding to the sky area obtained in the previous step. That is, since the non-sky area can be determined as an area excluding the sky area corresponding to the first layer in the original image, if the sky area of the first layer is inverted, the remaining area other than the sky area can be detected or derived, and the remaining area An image corresponding to may be referred to as a second layer. In other words, the second layer may be detected or derived based on original image information or the first layer.

제4 단계는 공간 관계를 구성하는 단계일 수 있다. 여기서, 공간 관계는 제1 레이어, 제2 레이어 및 가상 객체에 대한 정보 간의 공간적인 위치 관계에 대한 정보를 나타낼 수 있다. 다시 말해, 공간 관계는 영상, 레이어 또는 정보 간의 배치 관계를 나타낼 수 있으며, 일 실시예에 따른 공간 관계는 하늘 영역 외에 건물 또는 사용자로부터 인접한 물체들에 대응되는 제2 레이어를 가장 앞에 배치시키고, 배경이 되는 하늘 영역에 대응되는 제1 레이어를 가장 뒤에 배치시키며, 하늘 영역에 삽입할 가상 객체를 제2 레이어 및 제1 레이어 사이에 배치시키도록 미리 설정될 수 있다.A fourth step may be a step of constructing a spatial relationship. Here, the spatial relationship may represent information about a spatial positional relationship between the first layer, the second layer, and information about the virtual object. In other words, the spatial relationship may indicate an arrangement relationship between images, layers, or information. In the spatial relationship according to an embodiment, a second layer corresponding to a building or objects adjacent to a user is placed at the forefront in addition to the sky area, and the background The first layer corresponding to the sky area may be placed at the rear, and the virtual object to be inserted into the sky area may be set in advance to be placed between the second layer and the first layer.

일 실시예에 따른 AR 영상 정보는 상술한 제1 레이어 및 제2 레이어 외에 하늘 영역에 삽입할 가상 객체에 대한 정보도 함께 합성되어 생성되어야 하므로, 가상 객체에 대한 정보가 외부 서버로부터 획득될 수 있다. Since AR image information according to an embodiment must be generated by combining information on a virtual object to be inserted into the sky area in addition to the above-described first layer and second layer, information on the virtual object can be obtained from an external server. .

여기서, 획득된 가상 객체에 대한 정보는 곧바로 제1 레이어 및 제2 레이어와 합성되지 않을 수 있고, 환경 및 위치를 고려하여 색상, 크기 및 방향 등이 보정된 후, 보정된 가상 객체에 대한 정보가 제1 레이어 및 제2 레이어와 합성될 수 있다. 보정된 가상 객체에 대한 정보를 도출하는 방법에 대해서는 도 5 내지 도 9와 함께 상세히 후술하겠다.Here, information on the obtained virtual object may not be directly synthesized with the first layer and the second layer, and after the color, size, direction, etc. are corrected in consideration of the environment and location, the information on the corrected virtual object is It may be combined with the first layer and the second layer. A method of deriving information on the corrected virtual object will be described later in detail together with FIGS. 5 to 9 .

도 4는 본 발명의 일 실시예에 따른 하늘 영역 검출 모델을 설명하기 위한 도면이다.4 is a diagram for explaining a sky area detection model according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 하늘 영역 검출 모델은 하늘 관련 모델 및 비-하늘 관련 모델을 포함할 수 있으며, 2개의 관련 모델을 통해 도출되는 2개의 결과를 종합하여 하늘 영역을 검출할 수 있다. 여기서, 하늘 관련 모델 및 비-하늘 관련 모델은 모두 SVM를 이용하여 학습된 모델인 바, 하늘 관련 모델은 하늘 관련 SVM(sky concerned SVM)라고 나타낼 수 있고, 비-하늘 관련 모델은 비-하늘 관련 SVM(non-sky concerned SVM)라고 나타낼 수 있다.Referring to FIG. 4 , the sky area detection model according to an embodiment of the present invention may include a sky related model and a non-sky related model, and the sky area is synthesized by combining two results derived from the two related models. can be detected. Here, both the sky-related model and the non-sky-related model are models learned using SVM. The sky-related model can be referred to as a sky-related SVM (sky concerned SVM), and the non-sky-related model is non-sky-related. It can be expressed as a non-sky concerned SVM (SVM).

하늘 관련 모델 및 비-하늘 관련 모델은 SVM 트레이닝(SVM training)을 통해 생성될 수 있으며, 이를 위해 하늘 영역 및 하늘 외 영역을 포함하는 학습을 위한 트레이닝 이미지들(training images)을 획득하고, 각 트레이닝 이미지를 세그먼테이션(segmentation)하여 각 트레이닝 이미지 내의 영역을 유사한 영역들끼리 구분, 분류 또는 세분화할 수 있다. 세그먼테이션 방법은 슬라이딩 윈도우(sliding window) 방법 또는 풀리 컨볼루셔널(fully convolutional) 방법 등 통상의 기술자에게 자명한 다양한 방법이 존재하므로 다양한 방법 중 가장 효과적인 방법을 통해 수행하면 족한 바, 상세한 설명은 생략하겠다. 이후, 세그먼테이션이 수행된 트레이닝 이미지에 대해서는 특징 추출(features extraction)이 수행되어 학습에 이용할 복수의 샘플들을 추출할 수 있다. 예를 들어, 특징 추출은 세분화한 영역들 간의 특징적인 배열을 도출하는 과정일 수 있으며, 특징 추출 방법은 SIFT(scale invariant feature transform), HOG(histogram of oriented gradients) 및 LBP(local binary pattern) 등 통상의 기술자에게 자명한 다양한 방법이 존재하므로 다양한 방법 중 가장 효과적인 방법을 통해 수행하면 족한 바, 상세한 설명은 생략하겠다. 추출된 복수의 (학습용) 샘플들은 분류되어 SVM 알고리즘을 이용하는 하늘 관련 모델의 학습 또는 비-하늘 관련 모델의 학습에 이용할 수 있다.The sky-related model and the non-sky-related model may be generated through SVM training. For this purpose, training images for learning including a sky area and a non-sky area are obtained, and each training image is acquired. By segmenting the image, regions in each training image can be divided, classified, or subdivided into similar regions. As for the segmentation method, there are various methods that are obvious to those skilled in the art, such as a sliding window method or a fully convolutional method, so it is sufficient to perform the segmentation through the most effective method among the various methods, and a detailed description thereof will be omitted. . Thereafter, a plurality of samples to be used for learning may be extracted by performing feature extraction on the segmented training image. For example, feature extraction may be a process of deriving a characteristic arrangement between subdivided regions, and feature extraction methods include scale invariant feature transform (SIFT), histogram of oriented gradients (HOG), and local binary pattern (LBP). Since there are various methods obvious to those skilled in the art, it is sufficient to perform the method through the most effective method among the various methods, and a detailed description thereof will be omitted. The extracted plurality of samples (for training) are classified and used for learning a sky-related model or a non-sky-related model using an SVM algorithm.

일 실시예는 학습을 마친 하늘 관련 모델 및 비-하늘 관련 모델이 확보된 경우, 테스트 이미지 또는 입력 영상에 대하여 상술한 바와 동일하게 세그먼테이션을 수행하고, 특징 추출을 수행 후, 추출된 복수의 샘플들을 분류하여 하늘 관련 모델 및 비-하늘 관련 모델에 입력할 수 있으며, 하늘 관련 모델 및 비-하늘 관련 모델은 각각 분류되어 입력된 복수의 샘플들로부터 하늘 영역이 1차적으로 검출된 영상 정보를 도출할 수 있다. 즉, 1차적으로 검출된 영상 정보가 2개 확보될 수 있다. 이후, 일 실시예는 2개의 1차적으로 검출된 영상을 간의 유사성 관측(similarity measure)을 수행하여 최종적으로 하늘 영역을 검출한 영상이 도출될 수 있다. 상술한 바와 같이 입력 영상으로부터 최종적으로 하늘 영역을 검출한 영상이 도출되는 절차를 수행하는 모델을 하늘 영역 검출 모델이라 나타낼 수 있으며, 이를 통해 도출된 영상을 제1 레이어라고 나타낼 수 있다.In one embodiment, when a sky-related model and a non-sky-related model that have been learned are secured, segmentation is performed on a test image or an input image in the same manner as described above, feature extraction is performed, and a plurality of extracted samples are extracted. It can be classified and input into a sky-related model and a non-sky-related model, and the sky-related model and the non-sky-related model can derive image information in which the sky region is primarily detected from a plurality of samples that are classified and input. can That is, two pieces of primarily detected image information can be secured. Thereafter, according to an embodiment, a similarity measure between the two primarily detected images may be performed to finally derive an image in which the sky area is detected. As described above, a model that performs a procedure for deriving an image that finally detects the sky region from an input image may be referred to as a sky region detection model, and an image derived through this may be referred to as a first layer.

도 5는 본 발명의 일 실시예에 따른 미리 학습된 가상 조명 분류 모델을 설명하기 위한 도면이다.5 is a diagram for explaining a pre-learned virtual light classification model according to an embodiment of the present invention.

하늘은 태양의 위치, 시간 및 날짜 등에 따라 화창하게 밝거나 노을이 지는 등 다양한 색상을 가질 수 있는 바, 하늘에 삽입할 가상 객체도 이를 반영하여 현실감을 높일 수 있다.Since the sky may have various colors such as bright and sunny or sunset depending on the position of the sun, time and date, etc., a virtual object to be inserted in the sky may also reflect this to enhance a sense of reality.

도 5를 참조하면, 본 발명의 일 실시예에 따른 미리 학습된 가상 조명 분류 모델은 하늘 영역에 대응되는 제1 레이어로부터 하늘 영역의 색상에 대응되는 특정 가상 조명을 도출할 수 있다. 다시 말해, 일 실시예는 가상 조명 분류 모델을 통해 미리 결정된 복수의 가상 조명들 중 제1 레이어에 적합한 특정 가상 조명을 도출할 수 있으며, 특정 가상 조명에 대한 정보를 이용하여 가상 객체의 색상을 보정할 수 있다.Referring to FIG. 5 , the pre-learned virtual light classification model according to an embodiment of the present invention may derive a specific virtual light corresponding to a color of the sky area from a first layer corresponding to the sky area. In other words, an embodiment may derive a specific virtual light suitable for the first layer from among a plurality of virtual lights predetermined through a virtual light classification model, and correct the color of the virtual object using information on the specific virtual light. can do.

가상 조명 분류 모델은 SVM 트레이닝을 통해 생성될 수 있으며, 이를 위해 다양한 색상을 가지는 하늘 영역을 포함하는 복수의 트레이닝 세트들을 획득하고, 이에 대하여 특징 추출(features extraction)을 수행한 후 머신 러닝을 통해 SVM를 정의할 수 있다. 즉, 다양한 색상을 가지는 하늘 영역을 포함하는 복수의 트레이닝 세트들을 기반으로 SVM 알고리즘을 이용하여 가상 조명 분류 모델을 생성할 수 있다. 여기서, 복수의 가상 조명들은 하늘 영역의 색상에 따라 미리 분류된 가상 조명일 수 있다.A virtual lighting classification model can be generated through SVM training. To this end, a plurality of training sets including sky areas with various colors are obtained, and after performing feature extraction on them, SVM is performed through machine learning. can define That is, a virtual light classification model may be generated using an SVM algorithm based on a plurality of training sets including sky regions having various colors. Here, the plurality of virtual lights may be virtual lights classified in advance according to the color of the sky area.

일 실시예는 학습을 마친 가상 조명 분류 모델이 확보된 경우, 가상 조명 분류 모델을 기반으로 입력 영상 즉, 제1 레이어로부터 복수의 가상 조명들 중 제1 레이어의 하늘 영역(의 색상)에 대응되는 특정 가상 조명을 선택할 수 있다. In one embodiment, when a trained virtual light classification model is secured, an input image, that is, a sky area corresponding to (color of) of a first layer among a plurality of virtual lights from the first layer based on the virtual light classification model. You can select specific virtual lights.

이후, 일 실시예는 선택한 특정 가상 조명에 대한 정보를 이용하여 가상 객체의 색상 정보를 보정하여 특정 가상 조명이 가상 객체를 비추는 것과 같은 효과를 주는 보정된 색상 정보를 생성할 수 있다.Thereafter, in an embodiment, color information of the virtual object may be corrected using information on the selected specific virtual light to generate corrected color information giving the same effect as when the specific virtual light illuminates the virtual object.

가상 객체는 색상 정보 외에 크기 정보 및 방향 정보에 대하여 보정을 수행할 수 있으며, 보정된 가상 객체를 통해 높은 실감 효과를 제공할 수 있다.The virtual object may perform correction on size information and direction information in addition to color information, and a high sensory effect may be provided through the corrected virtual object.

도 6은 본 발명의 일 실시예에 따른 가상 객체의 보정된 색상 정보의 도출을 위한 가상 조명의 입사각 정보 및 높이 정보를 설명하기 위한 도면이다.6 is a diagram for explaining incident angle information and height information of virtual light for deriving corrected color information of a virtual object according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 특정 가상 조명에 대한 정보는 도 5와 함께 설명한 특정 가상 조명의 색상 정보뿐만 아니라 특정 가상 조명의 입사각 정보 및 높이 정보도 포함할 수 있다. 즉, 일 실시예는 더욱 높은 실감 효과를 위해 하늘 영역의 색상을 반영할 뿐 빛이 비추어지는 방향 및 각도 등을 더 고려할 수 있다. Referring to FIG. 6 , information on a specific virtual light according to an embodiment of the present invention may include not only color information of the specific virtual light described with reference to FIG. 5 , but also information on an incidence angle and height of the specific virtual light. That is, in one embodiment, the color of the sky region may be reflected, but the direction and angle of the light may be further considered for a higher sensory effect.

여기서, 입사각 정보 및 높이 정보의 확보를 위해 가상 객체에 대한 정보는 가상 객체의 기준 위치 정보를 포함할 수 있다. 가상 객체의 기준 위치 정보는 가상 객체가 놓이는 것으로 설정되는 GPS 기반의 좌표 정보를 나타낼 수 있다.Here, information on the virtual object may include reference position information of the virtual object in order to obtain information on the incident angle and height information. The reference location information of the virtual object may indicate GPS-based coordinate information set as the location of the virtual object.

입사각 정보 및 높이 정보는 현재 날짜 정보, 현재 시간 정보 및 상기 기준 위치 정보를 기반으로 도출될 수 있다. 이는 날짜 및 시간에 따라 일정한 방위각 및 고도각을 가지기 때문이며, 위의 정보를 기반으로 입사각 및 높이가 도출될 수 있다.Incidence angle information and height information may be derived based on current date information, current time information, and reference position information. This is because it has constant azimuth and elevation angles according to the date and time, and the incident angle and height can be derived based on the above information.

도 7은 본 발명의 일 실시예에 따른 가상 객체의 보정된 색상 정보의 도출을 위한 거리감 정보를 설명하기 위한 도면이다.7 is a diagram for explaining distance information for deriving corrected color information of a virtual object according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시예에 따른 특정 가상 조명에 대한 정보는 도 5 및 도 6과 함께 설명한 특정 가상 조명의 색상 정보, 입사각 정보 및 높이 정보 외에 특정 가상 조명의 거리감 정보도 포함할 수 있다. 즉, 일 실시예는 더욱 높은 실감 효과를 위해 한르 영역의 색상을 반영할 뿐 아니라 대기원근법을 적용하여 대기의 중첩에 따라 물체의 색상이 변하는 점을 더 고려할 수 있다.Referring to FIG. 7 , information on a specific virtual light according to an embodiment of the present invention includes information about a sense of distance of a specific virtual light in addition to color information, incident angle information, and height information of the specific virtual light described together with FIGS. 5 and 6 . can do. That is, one embodiment may further consider that the color of an object changes according to the overlapping of the atmosphere by applying the atmospheric perspective method as well as reflecting the color of the hall area for a higher sensory effect.

여기서, 거리감 정보의 확보를 위해 가상 객체에 대한 정보는 가상 객체의 기준 위치 정보를 포함할 수 있다. 가상 객체의 기준 위치 정보는 가상 객체가 놓이는 것으로 설정되는 GPS 기반의 좌표 정보를 나타낼 수 있다.Here, information on the virtual object may include reference position information of the virtual object in order to secure distance information. The reference location information of the virtual object may indicate GPS-based coordinate information set as the location of the virtual object.

거리감 정보는 사용자 단말의 위치 정보 및 기준 위치 정보 간의 거리 정보를 기반으로 도출되는 대비 조절 정보 및 채도 조절 정보를 포함할 수 있으며, 대비 조절 정보는 거리 정보에 따른 거리가 멀수록 하늘 영역과 가상 객체 간의 대비가 적어지도록 설정될 수 있고, 채도 조절 정보는 거리 정보에 따른 거리가 멀수록 가상 객체의 채도가 낮아지도록 설정될 수 있다.The distance information may include contrast control information and saturation control information derived based on distance information between the location information of the user terminal and the reference location information. The contrast between the virtual objects may be set to decrease, and the saturation adjustment information may be set such that the saturation of the virtual object decreases as the distance according to the distance information increases.

도 8은 본 발명의 일 실시예에 따른 가상 객체의 보정된 크기 정보의 도출을 설명하기 위한 도면이다.8 is a diagram for explaining derivation of corrected size information of a virtual object according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 특정 가상 조명에 대한 정보를 통해 가상 객체의 색상을 보정하는 것 외에 사용자 단말의 위치를 기반으로 가상 객체의 크기도 보정하여 보정된 크기 정보를 생성할 수 있고, 보정된 가상 객체에 대한 정보는 보정된 크기 정보를 포함할 수 있다.Referring to FIG. 8 , in addition to correcting the color of a virtual object through information on a specific virtual light according to an embodiment of the present invention, the size of the virtual object is also corrected based on the location of the user terminal to obtain corrected size information. Information on the generated and corrected virtual object may include corrected size information.

여기서, 보정된 크기 정보를 도출하기 위해 가상 객체에 대한 정보는 가상 객체의 기준 위치 정보 및 기준 크기 정보를 포함할 수 있다. 가상 객체의 기준 위치 정보는 가상 객체가 놓이는 것으로 설정되는 GPS 기반의 좌표 정보를 나타낼 수 있고, 가상 객체의 기준 크기 정보는 기준 위치에 놓이는 가상 객체의 기본 크기 정보를 나타낼 수 있다.Here, in order to derive the corrected size information, information on the virtual object may include reference position information and reference size information of the virtual object. The reference position information of the virtual object may indicate GPS-based coordinate information set as the virtual object is placed, and the reference size information of the virtual object may indicate basic size information of the virtual object positioned at the reference position.

일 실시예는 보정된 크기 정보를 도출하기 위해 사용자 단말의 현재 위치 정보 및 기준 위치 정보 간의 거리 정보를 도출할 수 있으며, 거리 정보를 기반으로 가상 객체의 보정된 크기 정보를 도출할 수 있다. 즉, 가상 객체의 기준 위치로부터 사용자 단말의 위치가 먼 경우, 가상 객체가 작게 보이도록 보정된 크기 정보가 도출될 수 있고, 가상 객체의 기준 위치로부터 사용자 단말의 위치가 가까운 경우, 가상 객체가 상대적으로 크게 보이도록 보정된 크기 정보가 도출될 수 있다.According to an embodiment, distance information between current location information and reference location information of a user terminal may be derived to derive corrected size information, and corrected size information of a virtual object may be derived based on the distance information. That is, when the location of the user terminal is far from the reference location of the virtual object, size information corrected to make the virtual object look small may be derived, and when the location of the user terminal is close to the reference location of the virtual object, the virtual object is relatively Size information corrected to look large can be derived.

도 9는 본 발명의 일 실시예에 따른 가상 객체의 보정된 방향 정보의 도출을 설명하기 위한 도면이다.9 is a diagram for explaining derivation of corrected direction information of a virtual object according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시예에 따른 특정 가상 조명에 대한 정보를 통해 가상 객체의 색상을 보정하는 것 외에 사용자 단말의 위치를 기반으로 가상 객체의 방향도 보정하여 보정된 방향 정보를 생성할 수 있고, 보정된 가상 객체에 대한 정보는 보정된 방향 정보를 포함할 수 있다.Referring to FIG. 9 , in addition to correcting the color of a virtual object through information on a specific virtual light according to an embodiment of the present invention, the direction of the virtual object is also corrected based on the location of the user terminal to obtain corrected direction information. Information on the generated and corrected virtual object may include corrected direction information.

여기서, 보정된 방향 정보를 도출하기 위해 가상 객체에 대한 정보는 가상 객체의 기준 위치 정보 및 기준 방향 정보를 포함할 수 있다. 가상 객체의 기준 위치 정보는 가상 객체가 놓이는 것으로 설정되는 GPS 기반의 좌표 정보를 나타낼 수 있고, 가상 객체의 기준 방향 정보는 기준 위치에서 가상 객체가 바라보는 정면 방향이 어느 방향인지에 관한 정보를 나타낼 수 있다.Here, information on the virtual object may include reference position information and reference direction information of the virtual object in order to derive corrected direction information. The reference position information of the virtual object may indicate GPS-based coordinate information set as the virtual object is placed, and the reference direction information of the virtual object may indicate information on which front direction the virtual object is facing from the reference position. can

일 실시예는 보정된 방향 정보를 도출하기 위해 사용자 단말의 현재 위치 정보 및 기준 위치 정보를 기반으로 사용자 단말이 가상 객체로부터 어느 방향에 위치하는지에 관한 방향성 정보를 도출할 수 있으며, 방향성 정보 및 가상 객체의 기준 방향 정보를 기반으로 보정된 방향 정보를 도출할 수 있다. 즉, 가상 객체가 기준 방향 정보에 따라 북쪽을 정면으로 바라보고 있으며, 사용자 단말이 방향성 정보에 따라 가상 객체로부터 남쪽 방향에 위치하는 경우, 사용자 단말은 보정된 방향 정보에 따라 가상 객체의 뒷모습이 제공될 수 있다.An embodiment may derive direction information about a direction in which the user terminal is located from a virtual object based on current position information and reference position information of the user terminal in order to derive corrected direction information. Corrected direction information may be derived based on the reference direction information of the object. That is, when the virtual object faces north in front according to the reference direction information and the user terminal is located in the south direction from the virtual object according to the direction information, the user terminal provides the back view of the virtual object according to the corrected direction information. It can be.

도 10은 본 발명의 일 실시예에 따른 거대 AR 영상 정보 생성 방법의 순서도이다.10 is a flowchart of a method for generating giant AR image information according to an embodiment of the present invention.

도 10을 참조하면, 일 실시예는 외부 서버로부터 가상 객체에 대한 정보를 획득할 수 있다(S1010). 여기서, 가상 객체에 대한 정보는 가상 객체의 영상 정보를 포함할 수 있으며, 가상 객체의 기준 위치 정보, 가상 객체의 기준 크기 정보 또는 가상 객체의 기준 방향 정보 중 적어도 하나를 더 포함할 수 있다.Referring to FIG. 10 , in one embodiment, information on a virtual object may be obtained from an external server (S1010). Here, the information on the virtual object may include image information of the virtual object, and may further include at least one of reference position information of the virtual object, reference size information of the virtual object, and reference direction information of the virtual object.

일 실시예는 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득할 수 있다(S1020). 예를 들어, 사용자 단말의 촬영 ?遲見? 통해 촬영된 영상은 가상 객체가 삽입되지 않고, 일부 영역 또는 일부 정보가 추출되지 않은 상태의 영상인 바, 원본 영상 또는 원본 영상 정보라고 나타낼 수 있다.According to an embodiment, original image information including the sky may be acquired through a photographing device (S1020). For example, taking a picture of the user terminal ?遲見? Since the captured image is an image in which a virtual object is not inserted and a partial area or partial information is not extracted, it may be referred to as an original image or original image information.

일 실시예는 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출할 수 있다(S1030). 즉, 일 실시예는 미리 학습된 하늘 영역 검출 모델을 기반으로 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출할 수 있다.In one embodiment, a first layer corresponding to the sky area may be derived from original image information (S1030). That is, in an embodiment, a first layer corresponding to the sky region may be derived from original image information based on a previously learned sky region detection model.

일 실시예는 제1 레이어를 기반으로 나머지 영역에 대응되는 제2 레이어를 도출할 수 있다(S1040). 즉, 일 실시예는 제1 레이어를 기반으로 원본 영상 정보로부터 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출할 수 있다.According to an embodiment, a second layer corresponding to the remaining area may be derived based on the first layer (S1040). That is, an embodiment may derive a second layer corresponding to the remaining area excluding the sky area from original image information based on the first layer.

일 실시예는 제1 레이어를 이용하여 복수의 가상 조명들 중 특정 가상 조명을 도출할 수 있다(S1050). 즉, 일 실시예는 미리 학습된 가상 조명 분류 모델을 기반으로 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출할 수 있다.In one embodiment, a specific virtual light among a plurality of virtual lights may be derived using the first layer (S1050). That is, in one embodiment, a specific virtual light among a plurality of virtual lights may be derived from the first layer based on a pre-learned virtual light classification model.

예를 들어, 상기 특정 가상 조명에 대한 정보는 특정 가상 조명의 색상 값 또는 색상 필터에 관한 정보를 포함할 수 있다. For example, the information on the specific virtual light may include information about a color value or a color filter of the specific virtual light.

예를 들어, 상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 상기 특정 가상 조명의 입사각 정보 및 높이 정보를 포함할 수 있고, 상기 입사각 정보 및 상기 높이 정보는 현재 날짜 정보, 현재 시간 정보 및 상기 기준 위치 정보를 기반으로 도출될 수 있다.For example, the information on the specific virtual light may include incident angle information and height information of the specific virtual light to be assigned to the virtual object, and the incident angle information and height information may include current date information, current time information, and It may be derived based on the reference location information.

예를 들어, 상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 거리감 정보를 포함할 수 있고, 상기 거리감 정보는 상기 사용자 단말의 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 기반으로 도출되는 대비 조절 정보 및 채도 조절 정보를 포함할 수 있다. 여기서, 대비 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 하늘 영역과 상기 가상 객체 간의 대비가 적어지도록 설정될 수 있고, 채도 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 가상 객체의 채도가 낮아지도록 설정될 수 있다.For example, the information on the specific virtual light may include distance information to be given to the virtual object, and the distance information is a contrast derived based on distance information between the location information of the user terminal and the reference location information. Adjustment information and saturation adjustment information may be included. Here, the contrast adjustment information may be set such that the contrast between the sky area and the virtual object decreases as the distance according to the distance information increases, and the saturation adjustment information increases the saturation of the virtual object as the distance according to the distance information increases. can be set to lower

일 실시예는 가상 객체에 대한 정보 및 특정 가상 조명에 대한 정보를 기반으로 가상 객체의 보정된 색상 정보를 도출할 수 있다(S1060). 예를 들어, 보정된 색상 정보는 상기 색상 필터에 관한 정보, 입사각 정보, 높이 정보 또는 거리감 정보 중 적어도 하나를 기반으로 보정된 정보를 나타낼 수 있다. According to an embodiment, calibrated color information of a virtual object may be derived based on information on the virtual object and information on specific virtual lighting (S1060). For example, the corrected color information may indicate corrected information based on at least one of information about the color filter, information on an incident angle, information on a height, or information on a sense of distance.

일 실시예는 미리 설정된 공간 관계에 따라 보정된 가상 객체에 대한 정보, 제1 레이어 및 상기 제2 레이어를 기반으로 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성할 수 있다(S1070). 여기서, 상기 AR 영상 정보는 상기 제2 레이어가 가장 앞에 배치되고, 상기 제1 레이어가 가장 뒤에 배치되고, 상기 보정된 가상 객체에 대한 정보가 상기 제2 레이어 및 상기 제1 레이어 사이에 배치되어 합성될 수 있다. According to an embodiment, AR image information in which the virtual object is inserted into the sky may be generated based on information about the virtual object corrected according to a preset spatial relationship, the first layer, and the second layer (S1070). Here, the AR image information is synthesized by placing the second layer at the front, the first layer at the back, and the corrected virtual object information between the second layer and the first layer. It can be.

예를 들어, 가상 객체에 대한 정보는 가상 객체의 기준 위치 정보, 가상 객체의 기준 크기 정보 또는 가상 객체의 기준 방향 정보 중 적어도 하나를 포함할 수 있고, 보정된 가상 객체에 대한 정보는 보정된 색상 정보, 보정된 크기 정보 또는 보정된 방향 정보 중 적어도 하나를 포함할 수 있다.For example, the information on the virtual object may include at least one of reference position information of the virtual object, reference size information of the virtual object, or reference direction information of the virtual object, and information on the corrected virtual object may include corrected color information. information, corrected size information, or corrected direction information.

또는 도 10에 도시하지 않았으나, 일 실시예는 상기 사용자 단말의 현재 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 도출할 수 있고, 상기 거리 정보 및 상기 기준 크기 정보를 기반으로 상기 가상 객체의 보정된 크기 정보를 도출할 수 있다. Alternatively, although not shown in FIG. 10 , an embodiment may derive distance information between the current location information and the reference location information of the user terminal, and correct the virtual object based on the distance information and the reference size information. Size information can be derived.

또는 일 실시예는 상기 사용자 단말의 현재 위치 정보에 따른 현재 위치로부터 상기 기준 위치 정보에 따른 기준 위치로의 방향성 정보를 도출할 수 있고, 상기 기준 방향 정보 및 상기 방향성 정보를 기반으로 상기 가상 객체의 보정된 방향 정보를 도출할 수 있다.Alternatively, an embodiment may derive direction information from a current location according to the current location information of the user terminal to a reference location according to the reference location information, and based on the reference direction information and the direction information, the direction information of the virtual object may be derived. Corrected direction information may be derived.

본 발명의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. Operations according to embodiments of the present invention can be implemented as computer-readable programs or codes on a computer-readable recording medium. A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. In addition, computer-readable recording media may be distributed to computer systems connected through a network to store and execute computer-readable programs or codes in a distributed manner.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program command may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine code generated by a compiler.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the present invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also be represented by a corresponding block or item or a corresponding feature of a device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, programmable computer, or electronic circuitry. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, a field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. Generally, methods are preferably performed by some hardware device.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

Claims (9)

촬영 장치를 포함하는 사용자 단말에 의해 수행되는 거대 AR(Augmented Reality) 영상 정보 생성 방법으로서,
외부 서버로부터 가상 객체에 대한 정보를 획득하는 단계;
상기 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하는 단계;
미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하는 단계;
상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하는 단계;
미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하는 단계;
상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하는 단계; 및
미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하는 단계를 포함하는,
거대 AR 영상 정보 생성 방법.
A method of generating augmented reality (AR) image information performed by a user terminal including a photographing device,
obtaining information about a virtual object from an external server;
acquiring original image information including the sky through the photographing device;
deriving a first layer corresponding to the sky region from the original image information based on a previously learned sky region detection model;
deriving a second layer corresponding to an area other than the sky area from the original image information based on the first layer;
deriving a specific virtual light from among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model;
deriving corrected color information of the virtual object based on the information about the virtual object and the information about the specific virtual light; and
Generating AR image information in which the virtual object is inserted into the sky based on information about the corrected virtual object including the corrected color information and the first layer and the second layer according to a preset spatial relationship including,
How to generate huge AR image information.
청구항 1에 있어서,
상기 AR 영상 정보는 상기 제2 레이어가 가장 앞에 배치되고, 상기 제1 레이어가 가장 뒤에 배치되고, 상기 보정된 가상 객체에 대한 정보가 상기 제2 레이어 및 상기 제1 레이어 사이에 배치되어 합성되는,
거대 AR 영상 정보 생성 방법.
The method of claim 1,
In the AR image information, the second layer is disposed at the front, the first layer is disposed at the rear, and information on the corrected virtual object is disposed and synthesized between the second layer and the first layer.
How to generate huge AR image information.
청구항 1에 있어서,
상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보를 포함하고,
상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 상기 특정 가상 조명의 입사각 정보 및 높이 정보를 포함하고,
상기 입사각 정보 및 상기 높이 정보는 현재 날짜 정보, 현재 시간 정보 및 상기 기준 위치 정보를 기반으로 도출되는,
거대 AR 영상 정보 생성 방법.
The method of claim 1,
The information on the virtual object includes reference position information of the virtual object;
The information on the specific virtual light includes incident angle information and height information of the specific virtual light to be given to the virtual object;
The incident angle information and the height information are derived based on current date information, current time information, and the reference position information,
How to generate huge AR image information.
청구항 1에 있어서,
상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보를 포함하고,
상기 특정 가상 조명에 대한 정보는 상기 가상 객체에 부여할 거리감 정보를 포함하고,
상기 거리감 정보는 상기 사용자 단말의 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 기반으로 도출되는 대비 조절 정보 및 채도 조절 정보를 포함하고,
상기 대비 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 하늘 영역과 상기 가상 객체 간의 대비가 적어지도록 설정되고,
상기 채도 조절 정보는 상기 거리 정보에 따른 거리가 멀수록 상기 가상 객체의 채도가 낮아지도록 설정되는,
거대 AR 영상 정보 생성 방법.
The method of claim 1,
The information on the virtual object includes reference position information of the virtual object;
The information on the specific virtual light includes distance information to be given to the virtual object;
The distance information includes contrast control information and saturation control information derived based on distance information between the location information of the user terminal and the reference location information,
The contrast adjustment information is set so that the contrast between the sky area and the virtual object decreases as the distance according to the distance information increases,
The saturation adjustment information is set so that the saturation of the virtual object decreases as the distance according to the distance information increases.
How to generate huge AR image information.
청구항 1에 있어서,
상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보 및 상기 가상 객체의 기준 크기 정보를 포함하고,
상기 사용자 단말의 현재 위치 정보 및 상기 기준 위치 정보 간의 거리 정보를 도출하는 단계; 및
상기 거리 정보 및 상기 기준 크기 정보를 기반으로 상기 가상 객체의 보정된 크기 정보를 도출하는 단계를 더 포함하고,
상기 보정된 가상 객체에 대한 정보는 상기 보정된 크기 정보를 포함하는,
거대 AR 영상 정보 생성 방법.
The method of claim 1,
The information on the virtual object includes reference position information of the virtual object and reference size information of the virtual object;
deriving distance information between current location information and the reference location information of the user terminal; and
Deriving corrected size information of the virtual object based on the distance information and the reference size information;
The corrected information on the virtual object includes the corrected size information.
How to generate huge AR image information.
청구항 1에 있어서,
상기 가상 객체에 대한 정보는 상기 가상 객체의 기준 위치 정보 및 상기 가상 객체의 기준 방향 정보를 포함하고,
상기 사용자 단말의 현재 위치 정보에 따른 현재 위치로부터 상기 기준 위치 정보에 따른 기준 위치로의 방향성 정보를 도출하는 단계; 및
상기 기준 방향 정보 및 상기 방향성 정보를 기반으로 상기 가상 객체의 보정된 방향 정보를 도출하는 단계를 더 포함하고,
상기 보정된 가상 객체에 대한 정보는 상기 보정된 방향 정보를 포함하는,
거대 AR 영상 정보 생성 방법.
The method of claim 1,
The information on the virtual object includes reference position information of the virtual object and reference direction information of the virtual object;
deriving direction information from a current location according to the current location information of the user terminal to a reference location according to the reference location information; and
Further comprising deriving corrected direction information of the virtual object based on the reference direction information and the direction information;
The information on the corrected virtual object includes the corrected direction information.
How to generate huge AR image information.
거대 AR(Augmented Reality) 영상 정보 생성 방법을 수행하는 전자 장치로서,
촬영 장치;
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 명령을 저장하는 메모리를 포함하고,
상기 적어도 하나의 명령은,
외부 서버로부터 가상 객체에 대한 정보를 획득하도록 실행되고,
상기 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하도록 실행되고,
미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하도록 실행되고,
상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하도록 실행되고,
미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하도록 실행되고,
상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하도록 실행되고,
미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하도록 실행되는,
전자 장치.
An electronic device that performs a method for generating augmented reality (AR) image information,
filming device;
at least one processor; and
a memory storing at least one instruction executed by the at least one processor;
The at least one command,
Execute to acquire information about a virtual object from an external server;
Execute to obtain original image information including the sky through the photographing device,
Deriving a first layer corresponding to the sky region from the original image information based on a previously learned sky region detection model;
Deriving a second layer corresponding to an area other than the sky area from the original image information based on the first layer;
Execute to derive a specific virtual light from among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model;
Execute to derive corrected color information of the virtual object based on the information on the virtual object and the information on the specific virtual light;
Execute to generate AR image information in which the virtual object is inserted into the sky based on information about the corrected virtual object including the corrected color information, the first layer, and the second layer according to a preset spatial relationship. felled,
electronic device.
사용자 단말에 의해 수행되는 거대 AR(Augmented Reality) 영상 정보 생성 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서,
상기 거대 AR 영상 정보 생성 방법은,
외부 서버로부터 가상 객체에 대한 정보를 획득하는 단계;
상기 사용자 단말의 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하는 단계;
미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하는 단계;
상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하는 단계;
미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하는 단계;
상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하는 단계; 및
미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하는 단계를 포함하는,
컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium recording a program for executing a method of generating augmented reality (AR) image information performed by a user terminal,
The method for generating the giant AR image information,
obtaining information about a virtual object from an external server;
obtaining original image information including the sky through a photographing device of the user terminal;
deriving a first layer corresponding to the sky region from the original image information based on a previously learned sky region detection model;
deriving a second layer corresponding to an area other than the sky area from the original image information based on the first layer;
deriving a specific virtual light from among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model;
deriving corrected color information of the virtual object based on the information about the virtual object and the information about the specific virtual light; and
Generating AR image information in which the virtual object is inserted into the sky based on information about the corrected virtual object including the corrected color information and the first layer and the second layer according to a preset spatial relationship including,
A computer-readable recording medium.
사용자 단말을 통해 거대 AR(Augmented Reality) 영상 정보 생성 방법을 수행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램으로서,
상기 거대 AR 영상 정보 생성 방법은,
외부 서버로부터 가상 객체에 대한 정보를 획득하는 단계;
상기 사용자 단말의 촬영 장치를 통해 하늘을 포함하는 원본 영상 정보를 획득하는 단계;
미리 학습된 하늘 영역 검출 모델을 기반으로 상기 원본 영상 정보로부터 하늘 영역에 대응되는 제1 레이어를 도출하는 단계;
상기 제1 레이어를 기반으로 상기 원본 영상 정보로부터 상기 하늘 영역을 제외한 나머지 영역에 대응되는 제2 레이어를 도출하는 단계;
미리 학습된 가상 조명 분류 모델을 기반으로 상기 제1 레이어로부터 복수의 가상 조명들 중 특정 가상 조명을 도출하는 단계;
상기 가상 객체에 대한 정보 및 상기 특정 가상 조명에 대한 정보를 기반으로 상기 가상 객체의 보정된 색상 정보를 도출하는 단계; 및
미리 설정된 공간 관계에 따라 상기 보정된 색상 정보를 포함하는 보정된 가상 객체에 대한 정보, 상기 제1 레이어 및 상기 제2 레이어를 기반으로 상기 하늘에 상기 가상 객체가 삽입된 AR 영상 정보를 생성하는 단계를 포함하는,
프로그램.
A program stored in a computer-readable recording medium for performing a method of generating augmented reality (AR) image information through a user terminal,
The method for generating the giant AR image information,
obtaining information about a virtual object from an external server;
obtaining original image information including the sky through a photographing device of the user terminal;
deriving a first layer corresponding to the sky region from the original image information based on a previously learned sky region detection model;
deriving a second layer corresponding to an area other than the sky area from the original image information based on the first layer;
deriving a specific virtual light from among a plurality of virtual lights from the first layer based on a pre-learned virtual light classification model;
deriving corrected color information of the virtual object based on the information about the virtual object and the information about the specific virtual lighting; and
Generating AR image information in which the virtual object is inserted into the sky based on information about the corrected virtual object including the corrected color information and the first layer and the second layer according to a preset spatial relationship including,
program.
KR1020210182818A 2021-07-16 2021-12-20 Method and apparatus for generating mega size augmented reality image information KR20230014606A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210182818A KR20230014606A (en) 2021-07-16 2021-12-20 Method and apparatus for generating mega size augmented reality image information

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210093589 2021-07-16
KR20210093918 2021-07-19
KR1020210095636A KR102342738B1 (en) 2021-07-16 2021-07-21 Method and apparatus for generating mega size augmented reality image information
KR1020210182818A KR20230014606A (en) 2021-07-16 2021-12-20 Method and apparatus for generating mega size augmented reality image information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210095636A Division KR102342738B1 (en) 2021-07-16 2021-07-21 Method and apparatus for generating mega size augmented reality image information

Publications (1)

Publication Number Publication Date
KR20230014606A true KR20230014606A (en) 2023-01-30

Family

ID=79176232

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020210095636A KR102342738B1 (en) 2021-07-16 2021-07-21 Method and apparatus for generating mega size augmented reality image information
KR1020210182819A KR20230014607A (en) 2021-07-16 2021-12-20 Method and apparatus for generating mega size augmented reality image information
KR1020210182818A KR20230014606A (en) 2021-07-16 2021-12-20 Method and apparatus for generating mega size augmented reality image information

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020210095636A KR102342738B1 (en) 2021-07-16 2021-07-21 Method and apparatus for generating mega size augmented reality image information
KR1020210182819A KR20230014607A (en) 2021-07-16 2021-12-20 Method and apparatus for generating mega size augmented reality image information

Country Status (1)

Country Link
KR (3) KR102342738B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102622709B1 (en) * 2022-06-13 2024-01-08 태나다 주식회사 Method and Apparatus for generating 360 degree image including 3-dimensional virtual object based on 2-dimensional image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101225421B1 (en) * 2011-06-10 2013-01-22 한남대학교 산학협력단 Authoring Method of Augmented Reality base Chroma-Key using Overlay Layer
KR102142567B1 (en) * 2017-09-15 2020-08-07 주식회사 케이티 Image composition apparatus using virtual chroma-key background, method and computer program

Also Published As

Publication number Publication date
KR20230014607A (en) 2023-01-30
KR102342738B1 (en) 2021-12-24

Similar Documents

Publication Publication Date Title
US11887247B2 (en) Visual localization
US11238606B2 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
US20200380769A1 (en) Image processing method and apparatus, storage medium, and computer device
US10235771B2 (en) Methods and systems of performing object pose estimation
CN111328396A (en) Pose estimation and model retrieval for objects in images
JP5822322B2 (en) Network capture and 3D display of localized and segmented images
CN109815843B (en) Image processing method and related product
KR20210121182A (en) augmented reality system
CN109242961A (en) A kind of face modeling method, apparatus, electronic equipment and computer-readable medium
US20190197709A1 (en) Graphical coordinate system transform for video frames
US20180300531A1 (en) Computer-implemented 3d model analysis method, electronic device, and non-transitory computer readable storage medium
US20220335682A1 (en) Generating physically-based material maps
US10839599B2 (en) Method and device for three-dimensional modeling
Beyeler OpenCV with Python blueprints
CN113689578B (en) Human body data set generation method and device
US11600039B2 (en) Mechanism for improved light estimation
WO2019164497A1 (en) Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics
Boom et al. Interactive light source position estimation for augmented reality with an RGB‐D camera
KR102342738B1 (en) Method and apparatus for generating mega size augmented reality image information
US11657568B2 (en) Methods and systems for augmented reality tracking based on volumetric feature descriptor data
US11443477B2 (en) Methods and systems for generating a volumetric two-dimensional representation of a three-dimensional object
CN108876895A (en) 3D model is constructed from 2D assets
CN115039137A (en) Method for rendering virtual objects based on luminance estimation, method for training a neural network, and related product
Pham Integrating a Neural Network for Depth from Defocus with a Single MEMS Actuated Camera
CN117197385A (en) Method and device for testing plane reconstruction of three-dimensional model, electronic equipment and medium