KR102541262B1 - METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content - Google Patents

METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content Download PDF

Info

Publication number
KR102541262B1
KR102541262B1 KR1020200149248A KR20200149248A KR102541262B1 KR 102541262 B1 KR102541262 B1 KR 102541262B1 KR 1020200149248 A KR1020200149248 A KR 1020200149248A KR 20200149248 A KR20200149248 A KR 20200149248A KR 102541262 B1 KR102541262 B1 KR 102541262B1
Authority
KR
South Korea
Prior art keywords
content
object image
image
user input
images
Prior art date
Application number
KR1020200149248A
Other languages
Korean (ko)
Other versions
KR20220063419A (en
Inventor
서인호
Original Assignee
서인호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서인호 filed Critical 서인호
Priority to KR1020200149248A priority Critical patent/KR102541262B1/en
Publication of KR20220063419A publication Critical patent/KR20220063419A/en
Application granted granted Critical
Publication of KR102541262B1 publication Critical patent/KR102541262B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

본 발명은 VR 컨텐츠의 오브젝트 적용 방법, 장치 및 컴퓨터-판독 가능 기록 매체에 관한 것으로서, 본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계; 상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계; 상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및 상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 한다. 이 외에도 본 문서를 통해 파악되는 다양한 실시예들이 가능하다.The present invention relates to a method, apparatus, and computer-readable recording medium for applying VR contents to objects, and includes one or more processors and one or more memories storing instructions executable by the processors according to an embodiment of the present invention. A method of applying an object to VR contents implemented by a device includes a first method of generating first content by converting the acquired plurality of images into one VR contents image when acquiring a plurality of images through at least one camera module. Content creation step; When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input; Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and a third content generation step of generating third content by displaying the second content on the first content. In addition to this, various embodiments understood through this document are possible.

Description

VR 컨텐츠의 오브젝트 적용 방법, 장치 및 컴퓨터-판독 가능 기록 매체{METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content} METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content}

본 발명은 VR 컨텐츠의 오브젝트 적용 방법에 관한 것으로서, 구체적으로는 표시 중인 360VR 컨텐츠의 곡면 형상을 별도의 오브젝트에 자동으로 반영하고, 360VR 컨텐츠에 VR 컨텐츠용 이미지로 자동으로 삽입 또는 합성할 수 있다. 이에 따라, 오브젝트의 구부러짐 현상을 방지할 수 있어 완성도가 높은 360VR 컨텐츠를 획득할 수 있다. 또한, 360VR 컨텐츠를 자동으로 생성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 향상시키는 효과를 가질 수 있다.The present invention relates to a method for applying VR content to an object, and specifically, the curved shape of 360VR content being displayed can be automatically reflected in a separate object and automatically inserted or synthesized as an image for VR content in 360VR content. Accordingly, bending of the object can be prevented, and 360VR content with a high degree of completion can be obtained. In addition, by automatically generating 360VR content, it is possible to have an effect of supporting various and unique production ideas of 360VR content to the general public as well as experts and improving the spread of related content.

VR(virtual reality) 즉, 가상현실은 사이버 공간(Cyber Space)에서 체험되는 현실을 가리키는데, 이때 사이버 공간이란 전자 장치를 통해 생성된 가상의 공간으로, 3차원 시각 효과를 통해 현실성을 부여하는 공간을 말한다. VR 기술은 사용자에게 실감나는 몰입감을 제공하기 위하여 실존하는 물체를 시뮬레이션할 수 있을 뿐만 아니라, 실제로 존재하지 않는 물체 또는 상황을 체험할 수 있도록할 수 있다. 특히, 최근에는 1인 컨텐츠가 대두됨에 따라 VR 기술을 활용한 VR 컨텐츠가 활발하게 증가하고 있다. 일 예로서, 한국공개특허 10-2020-0101583(VR 영상 컨텐츠 제작 방법, 장치 및 프로그램)에는, 하나 이상의 360도 영상을 획득하고, 상기 360도 영상 간의 재생 순위를 설정하는 단계; 상기 360도 영상 내 특정 지점 또는 객체를 오브젝트로 선택하고, 상기 선택된 오브젝트에 정보태그를 설정하는 단계; 및 상기 선택된 둘 이상의 오브젝트의 재생 순위를 설정하는 단계;를 포함하며, 상기 정보태그는 해당 오브젝트에 대한 부가정보를 포함하며, 각 오브젝트가 재생될 때 상기 VR 영상 내 특정 위치에 표출되는 것이고, 상기 제작된 VR 영상 컨텐츠는 상기 설정된 오브젝트 재생 순위에 따라서 상기 360도 영상이 순차적으로 재생하는 기술이 개시되어 있다.VR (virtual reality), that is, virtual reality, refers to the reality experienced in cyberspace. At this time, cyberspace is a virtual space created through electronic devices, a space that gives reality through three-dimensional visual effects. says VR technology not only simulates real objects to provide a realistic sense of immersion to users, but also allows users to experience objects or situations that do not actually exist. In particular, as single-person content has emerged recently, VR content using VR technology is actively increasing. As an example, Korean Patent Publication No. 10-2020-0101583 (VR video content production method, apparatus and program) includes obtaining one or more 360-degree videos and setting a playback order between the 360-degree videos; selecting a specific point or object in the 360 degree image as an object and setting an information tag to the selected object; and setting a reproduction order of the selected two or more objects, wherein the information tag includes additional information about the corresponding object, and is displayed at a specific location in the VR image when each object is reproduced. A technique for sequentially reproducing the 360-degree video according to the set object reproduction order of the produced VR video contents is disclosed.

그러나, 상술한 선행기술에서는 VR 컨텐츠를 제작하는 기술이 개시되어 있으나, 360 곡면 형상인 VR 컨텐츠에 합성되는 오브젝트의 구부러짐 또는 이탈 현상을 방지하기 위한 기술이 개시되어 있지 않음에 따라, VR 컨텐츠의 제작에 숙달하지 않은 일반인이 상기 선행기술을 통해 VR 컨텐츠를 제작하는 경우, 완성도가 높지 않은 VR 컨텐츠가 제작되는 문제점을 내재하고 있다.However, in the above-mentioned prior art, although a technology for producing VR contents is disclosed, a technology for preventing bending or separation of an object synthesized in a 360-degree curved VR content is not disclosed, and thus, production of VR contents When an ordinary person who is not proficient in producing VR contents through the above prior art, there is a problem that VR contents that are not high in completion are produced.

이에 본 발명은, VR 컨텐츠의 오브젝트 적용 방법에 있어서, 구체적으로는 360VR 컨텐츠에 360VR 제공 장치의 고유한 속성 값 반영한 별도의 오브젝트를 자동으로 합성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 하기 위한 기술을 제공하는 것에 목적을 가지고 있다.Therefore, in the object application method of VR content, the present invention automatically synthesizes a separate object reflecting the unique attribute value of the 360VR providing device to 360VR content, thereby providing a variety and personality of 360VR content not only to experts but also to the general public. Its purpose is to support existing production ideas and to provide technology for dissemination of related contents.

상기 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법에 있어서, 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계; 상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계; 상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및 상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, in the object application method of VR content implemented by a computing device including one or more processors and one or more memories for storing commands executable by the processors according to an embodiment of the present invention, at least one When acquiring a plurality of images through the camera module of the first content generation step of converting the acquired plurality of images into one image for VR content and generating first content; When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input; Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and a third content generation step of generating third content by displaying the second content on the first content.

상기 사용자 편집 단계는, 상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하는 것이 바람직하다.In the user editing step, it is preferable to edit the object image based on the second user input in order to automatically synthesize and display the second content in a preset area of the first content.

상기 기설정된 영역은, 상기 제1 컨텐츠의 배경 영역을 포함하는 것을 특징으로 한다. 제2 컨텐츠 변환 단계는, 기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하는 것이 가능하다.The predetermined area may include a background area of the first content. In the second content conversion step, based on preset attribute information, it is possible to convert the object image whose size and insertion area are determined into the second content.

상기 기설정된 속성 정보는, 상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되는 것이 가능하다.The predetermined attribute information may be determined based on the curvature, F value, and angle of view of the first content.

상기 제1 컨텐츠 생성 단계는, 스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하는 것이 바람직하다.In the first content generating step, it is preferable to create the single VR content image by attaching the obtained plurality of images through a stitching technique.

상기 오브젝트 이미지는 3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하는 것이 바람직하다.Preferably, the object image includes at least one of a 3D image, a 2D image, and text.

상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능한 것이 바람직하다.Preferably, the third content can be transmitted to other electronic devices through a communication module.

본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, 오브젝트 이미지에 제1 컨텐츠 의 곡면 형상을 반영하여 제2 컨텐츠로 변환하고, 제1 컨텐츠 상에 제2 컨텐츠를 삽입 또는 합성하여 제3 컨텐츠를 자동 생성하기 때문에, VR 컨텐츠용 이미지의 제작 시, 편의성을 제공할 수 있다.According to an embodiment of the present invention, a method for applying a VR content to an object implemented by a computing device including one or more processors and one or more memories storing commands executable by the processors includes applying a curved shape of first content to an object image. Since the second content is reflected and converted into the second content, and the third content is automatically generated by inserting or synthesizing the second content on the first content, convenience can be provided when creating an image for VR content.

또한, 상기 본 발명의 일 실시 예에 따르면, 제1 컨텐츠의 기설정된 영역에서 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 제2 사용자 입력을 기반으로 오브젝트 이미지를 편집할 수 있어, 다양한 형태의 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to one embodiment of the present invention, in order to automatically synthesize and display the second content in a preset area of the first content, the object image can be edited based on the second user input, so that various forms of There is an effect of generating an image for VR content.

또한, 상기 본 발명의 일 실시 예에 따르면, 기설정된 속성 정보를 기반으로, 크기 및 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환할 수 있어, 제3 컨텐츠에 포함된 구성들의 구부러지는 현상을 방지하여 완성도가 높은 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, an object image having a size and an insertion area determined based on predetermined attribute information may be converted into second content, thereby preventing bending of elements included in the third content. There is an effect of generating an image for VR content with a high degree of completion by preventing

또한, 상기 본 발명의 일 실시 예에 따르면, 스티칭(stitching) 기법을 통해 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성할 수 있어, 카메라의 개수가 제한적인 전자 장치에서도 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, a plurality of images acquired through a stitching technique can be joined to create one image for VR content, so that even in an electronic device with a limited number of cameras, There is an effect of generating an image for VR content.

또한, 상기 본 발명의 일 실시 예에 따르면, 상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능하여, 컨텐츠의 확산 속도를 향상시키는 효과가 있다. In addition, according to an embodiment of the present invention, the third content can be transmitted to other electronic devices through a communication module, thereby improving the content spreading speed.

도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.
도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자의 시야를 기반으로, 제3 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
1 is a flowchart illustrating a method of applying an object to VR content implemented according to an embodiment of the present invention.
2 is a block diagram of an object application device for VR content implemented according to an embodiment of the present invention.
3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.
4 is a diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.
5 is another diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.
6 is a diagram for explaining a method of sharing third content generated through an object application method of implemented VR content according to an embodiment of the present invention with another electronic device.
7 is a diagram for explaining a method of being connected to a link associated with third content based on a user's field of view according to an embodiment of the present invention.
8 is a diagram for explaining an example of an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are disclosed with reference now to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings describe in detail certain illustrative aspects of one or more aspects. However, these aspects are exemplary and some of the various methods in principle of the various aspects may be used, and the described descriptions are intended to include all such aspects and their equivalents.

본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.References to “embodiment,” “example,” “aspect,” “example,” etc., used in this specification should not be construed as indicating that any aspect or design described is preferable to or advantageous over other aspects or designs. .

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. It should be understood that it does not.

또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are those commonly understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the embodiments of the present invention, an ideal or excessively formal meaning not be interpreted as

도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method of applying an object to VR content implemented according to an embodiment of the present invention.

도 1을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, S101 단계(제1 컨텐츠 생성 단계)를 수행할 수 있다. 상기 컴퓨팅 장치는 스마트폰, 데스크 탑, 테블릿 등을 포함할 수 있으며, VR 컨텐츠에 오브젝트를 자동으로 적용할 수 있는 장치이면, 이에 한정되지 않는다.Referring to FIG. 1 , a method for applying a VR content to an object implemented by a computing device including one or more processors and one or more memories storing commands executable by the processors may perform step S101 (first content creation step). can The computing device may include a smart phone, a desktop, a tablet, and the like, and is not limited thereto as long as it is a device capable of automatically applying an object to VR content.

상기 S101 단계에서, 상기 하나 이상의 프로세서(이하 프로세서로 칭함)는 적어도 하나의 카메라 모듈(이하 카메라 모듈로 칭함)을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 카메라 모듈을 통해 복수 개의 이미지를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. In step S101, the one or more processors (hereinafter referred to as processors) may obtain a plurality of images through at least one camera module (hereinafter referred to as camera modules). When acquiring a plurality of images through the camera module, the processor may convert the obtained plurality of images to generate first content, which is an image for VR content.

일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지일 수 있다. 또한, 상기 복수 개의 이미지는 이미지, 사진 및 동영상을 포함할 수 있으며 제1 컨텐츠를 생성할 수 있는 소스(source) 파일이면, 이에 한정되지 않는다.According to an embodiment, the image for VR content may be a stereoscopic image supporting omnidirectional angles of 360 degrees generated through a stitching technique of overlapping or attaching a plurality of acquired images. In addition, the plurality of images may include images, photos, and videos, and are not limited thereto as long as they are source files capable of generating the first content.

일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지를 기반으로 생성될 수 있다. 일 예로, 상기 프로세서는 상기 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content, which is the image for the VR content, may be generated based on a plurality of images pre-stored in the memory as well as an image acquired through the camera. For example, the processor may generate first content, which is an image for VR content, by attaching a first image and a second image acquired through the camera module. For another example, the processor may generate the first content by attaching the third image and the fourth image pre-stored in the memory through a stitching technique.

상기 프로세서는 상기 제1 컨텐츠의 생성이 완료되는 경우, S103 단계(이미지 입력 단계)를 수행할 수 있다.When the generation of the first content is completed, the processor may perform step S103 (image input step).

S103 단계에서 상기 프로세서는 상기 제1 컨텐츠가 생성된 상태에서 오브젝트 이미지를 상기 제1 컨텐츠 상에 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 경우, 상기 오브젝트 이미지를 호출할 수 있으며, 상기 오브젝트 이미지의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지의 크기 및 삽입 영역을 결정할 수 있다.In step S103, the processor may receive a first user input for displaying an object image on the first content in a state in which the first content is generated. When the first user input is received, the processor may call the object image, and may receive a second user input in a state in which the calling of the object image is completed. When receiving the second user input, the processor may determine the size and insertion area of the called object image based on the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지를 표시하기 위하여, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D, 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the processor may receive the first user input through a display or a touch screen included in the computing device, and may receive the first user input from a separate device connected to the computing device. there is. The first user input may be an input for calling an object image previously stored in the memory or an object image stored in another electronic device connected to the computing device through a wired network and/or a wireless network. The object image may be at least one of a 2D image and a 3D image before being converted into an image for VR content in order to display the image for VR content on the first content.

다른 실시 예에 따르면, 상기 오브젝트 이미지는 제2 사용자 입력이 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 텍스트 입력을 기반으로, 상기 제1 컨텐츠 상에 텍스트를 표시할 수 있다. 즉, 상기 프로세서는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 VR 컨텐츠용 이미지로 변환하기 위한 오브젝트 이미지로 인식할 수 있다.According to another embodiment, the object image may include text input based on a text input other than the second user input. According to another embodiment, the processor may display text on the first content based on text input. That is, the processor may distinguish between a first user input and a text input, and may recognize the input text as an object image for converting an image for VR content based on the received text input.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지를 호출하는 경우, 상기 호출된 오브젝트 이미지를 상기 디스플레이 또는 터치스크린을 통해 표시중인 제1 컨텐츠 상에 표시할 수 있다. 상기 프로세서는 상기 오브젝트 이미지가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 오브젝트 이미지의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when the object image is called through the first user input, the processor may display the called object image on the first content being displayed through the display or the touch screen. The processor may receive a second user input for determining at least one of a size and an insertion area of the object image while the object image is being displayed on the first content. For example, when receiving the second user input, the processor may change the size of the object image being displayed on the first content to a minimum size based on the second user input. For another example, when receiving the second user input, the processor may determine to insert the object image into a left region of the first content.

또 다른 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 텍스트가 표시 중인 상태에서 상기 제2 사용자 입력을 수신하는 경우, 상기 수신한 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 삽입 영역을 결정할 수 있다. 상기와 같이, 본 발명은 별도의 사용자 입력(예: 제2 사용자 입력)을 통하여 오브젝트 이미지에 다양한 효과를 적용할 수 있어, 다양한 효과가 적용된 VR 컨텐츠를 제공하는 효과가 있다.According to another embodiment, when receiving the second user input while text is being displayed on the first content, the processor determines the size and insertion area of the text based on the received second user input. can decide As described above, the present invention can apply various effects to an object image through a separate user input (eg, a second user input), and thus has an effect of providing VR content to which various effects are applied.

상기 프로세서는 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하는 경우, S105 단계(제2 컨텐츠 변환 단계)를 수행할 수 있다.When determining at least one of the size and insertion area of the object image being displayed on the first content, the processor may perform step S105 (second content conversion step).

S105 단계에서 상기 프로세서는 상기 이미지 입력 단계가 완료되는 경우, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환할 수 있다.In step S105, when the image input step is completed, the processor may convert the object image into second content by reflecting the curved shape of the first content, which is a VR content image.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 표시 중인 상기 오브젝트 이미지의 크기 및 삽입 영역이 결정되는 경우, 상기 오브젝트 이미지를 제2 컨텐츠로 자동 변환할 수 있다. 상기 프로세서는 상기 오브젝트 이미지를 곡면 형상인 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지에 반영할 수 있다. 상기 제1 컨텐츠의 곡면 형상이 반영된 상기 오브젝트 이미지는 제2 컨텐츠로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 기설정된 속성 정보를 기반으로 상기 오브젝트 이미지를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, the processor may automatically convert the object image into the second content when the size and insertion area of the object image being displayed on the first content are determined. The processor may reflect the curved shape of the first content to the object image in order to combine the object image with the curved first content without bending. The object image in which the curved shape of the first content is reflected may be converted into second content. More specifically, the processor may convert the object image into the second content based on preset attribute information. The predetermined attribute information may be information including at least one of a curvature, an F (focus) value, and an angle of view of the first content, and may be information for determining a curved surface shape of the first content.

일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 제2 컨텐츠로 자동으로 변환할 수 있다. 상기 제2 컨텐츠는 상기 기설정된 속성 정보(상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보)를 통해 변환되므로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 상기 제2 컨텐츠 변환 단계는 2D 이미지, 3D 이미지 및 텍스트를 포함하는 오브젝트 이미지를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하기 위해 수행되는 단계일 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠 이미지에 별도의 오브젝트를 구부러짐 현상 없이 합성할 수 있어 완성도가 높은 VR 컨텐츠를 사용자에게 제공하는 효과가 있다.According to an embodiment, the processor may automatically convert the object image into second content based on the preset attribute information. Since the second content is converted through the predetermined attribute information (information including at least one of a curvature, an F (focus) value, and an angle of view of the first content), it may have the same curved surface shape as the first content. . That is, the second content conversion step may be a step performed to convert an object image including a 2D image, a 3D image, and text into a second content image for VR content. As described above, the present invention can synthesize a separate object to a VR content image without bending, and thus has an effect of providing users with VR content with a high degree of completion.

상기 프로세서는 상기 S105 단계가 완료되는 경우, S107 단계(제3 컨텐츠 생성 단계)를 수행할 수 있다.When the step S105 is completed, the processor may perform step S107 (third content creation step).

S107 단계에서 상기 프로세서는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성할 수 있다.In step S107, the processor may display the second content on the first content to generate third content.

일 실시 예에 따르면, 상기 프로세서는 기설정된 속성 정보를 기반으로 변환된 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은 S103 단계(이미지 입력 단계)에서 제2 사용자 입력을 기반으로 설정한 상기 오브젝트 이미지의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 프로세서는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입할 수 있다. According to an embodiment, the processor may display the converted second content based on preset attribute information in one of preset areas on the first content. The preset area may be an insertion area of the object image set based on the second user input in step S103 (image input step). Also, the predetermined area may be any one of background areas of the first content. For example, the processor may automatically synthesize or insert the second content into an upper left area that is a background area of the first content.

즉, 상기 프로세서는 S107 단계에서 상기 오브젝트 이미지에서 변환된 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 표시하여, 상기 기설정된 영역에 합성 또는 삽입된 제2 컨텐츠를 표시중인 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 자동 생성할 수 있다. 상기와 같이, 본 발명은 자동으로 VR 컨텐츠를 제작함에 따라, 일반인도 어려움 없이 VR 컨텐츠를 제작할 수 있어 사용자에게 편의성을 제공하는 효과를 개시할 수 있다.That is, the processor displays the second content converted from the object image in step S107 in a preset area of the first content, and displays the first content synthesized or inserted second content in the preset area. Third content, which is an image for one completed VR content, can be automatically generated. As described above, according to the present invention, as VR contents are automatically produced, ordinary people can produce VR contents without difficulty, thereby providing convenience to users.

도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.2 is a block diagram of an object application device for VR content implemented according to an embodiment of the present invention.

도 2를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치는 제1 컨텐츠 생성부(201), 이미지 입력부(203), 제2 컨텐츠 변환부(205) 및 제3 컨텐츠 생성부(207)를 포함할 수 있다.Referring to FIG. 2 , a computing device including one or more processors and one or more memories storing instructions executable by the processors includes a first content generator 201, an image input unit 203, and a second content converter 205. ) and a third content generator 207.

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 복수 개의 이미지(211)를 획득할 수 있다. 상기 제1 컨텐츠 생성부(201)는 카메라 모듈을 통해 상기 복수 개의 이미지(211)를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. According to one embodiment, the first content generator 201 may acquire a plurality of images 211 . When the first content generator 201 acquires the plurality of images 211 through the camera module, the first content creation unit 201 converts the obtained plurality of images to generate first content, which is an image for VR content. .

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지인 상기 VR 컨텐츠용 이미지를 생성할 수 있다. According to an embodiment, the VR, which is a three-dimensional image supporting omnidirectional angles of 360 degrees, generated by the first content generator 201 through a stitching technique in which a plurality of acquired images are overlapped or joined together. You can create images for content.

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 생성된 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지(211)를 기반으로 생성될 수 있다. 일 예로, 상기 제1 컨텐츠 생성부(201)는 적어도 하나의 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 제1 컨텐츠 생성부(201)는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 상기 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content, which is an image for VR content generated by the first content generator 201, includes a plurality of images 211 pre-stored in the memory as well as an image acquired through the camera. can be created based on For example, the first content generator 201 may generate first content, which is an image for VR content, by attaching a first image and a second image acquired through at least one camera module. For another example, the first content generator 201 may generate the first content by attaching a third image and a fourth image pre-stored in the memory through a stitching technique.

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 상기 제1 컨텐츠의 생성이 완료되는 경우, 상기 이미지 입력부(203)는 상기 제1 컨텐츠가 생성된 상태에서 상기 제1 컨텐츠 상에 오브젝트 이미지(213)를 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 수신한 경우, 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출할 수 있으며, 상기 오브젝트 이미지(213)의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지(213)의 크기 및 삽입 영역을 결정할 수 있다.According to an embodiment, when the generation of the first content by the first content creation unit 201 is completed, the image input unit 203 is placed on the first content in a state in which the first content is created. A first user input for displaying the object image 213 may be received. When receiving the first user input, the image input unit 203 may call an object image 213 pre-stored in the memory, and in a state in which the calling of the object image 213 is completed, a second user input may be received. can receive When receiving the second user input, the image input unit 203 may determine the size and insertion area of the called object image 213 based on the second user input.

일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지(213)를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지(213)는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지인 제1 컨텐츠로 표시되기 위해, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D 이미지 및 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the image input unit 203 may receive the first user input through a display or touch screen included in the computing device, and the first user input from a separate device connected to the computing device. can receive The first user input is for calling an object image 213 pre-stored in the memory or an object image 213 stored in another electronic device connected to the computing device through a wired network and/or a wireless network. can be an input. The object image 213 may be at least one of a 2D image and a 3D image before being converted into an image for VR content to be displayed as first content, which is an image for VR content, on the first content.

다른 실시 예에 따르면, 상기 오브젝트 이미지(213)는 제1 사용자 입력에 의해 호출되는 2D 이미지 또는 3D 이미지가 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 상기 이미지 입력부(203)는 텍스트 입력을 기반으로 입력되는 텍스트를 상기 제1 컨텐츠 상에 표시할 수 있다. 즉, 상기 이미지 입력부(203)는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 오브젝트 이미지(213)로 인식할 수 있다.According to another embodiment, the object image 213 may include text input based on a text input rather than a 2D image or a 3D image called by the first user input. The image input unit 203 may display text input on the first content based on text input. That is, the image input unit 203 can distinguish a first user input from a text input, and can recognize input text as an object image 213 based on the received text input.

일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지(213)를 호출하는 경우, 상기 호출된 오브젝트 이미지(213)를 상기 제1 컨텐츠 상에 표시할 수 있다. 상기 이미지 입력부(203)는 상기 오브젝트 이미지(213)가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 상기 오브젝트 이미지(213)의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when calling the object image 213 through the first user input, the image input unit 203 may display the called object image 213 on the first content. . The image input unit 203 receives a second user input for determining at least one of a size and an insertion area of the object image 213 while the object image 213 is being displayed on the first content. can do. For example, when receiving the second user input, the image input unit 203 may change the size of the object image 213 displayed on the first content to a minimum size based on the second user input. there is. For another example, when receiving the second user input, the image input unit 203 may determine to insert the object image 213 into a left region of the first content.

일 실시 예에 따르면, 상기 이미지 입력부(203)에 의해 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나가 결정되는 경우, 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 곡면 형상을 반영하여 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환할 수 있다.According to an embodiment, when at least one of the size and insertion area of the object image 213 being displayed on the first content is determined by the image input unit 203, the second content conversion unit 205 converts the object image 213 to the object image 213. The image 213 may be converted into second content, which is an image for VR content, by reflecting the curved shape of the first content.

일 실시 예에 따르면, 상기 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지(213)에 반영하여 상기 제2 컨텐츠로 변환할 수 있다. 상기 제2 컨텐츠 변환부(205)는 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 적어도 하나의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, the second content converter 205 reflects the curved shape of the first content on the object image 213 in order to combine the object image 213 with the first content without bending. and can be converted into the second content. The second content conversion unit 205 may convert the object image 213 into the second content based on preset attribute information. The preset attribute information may be information including at least one of a curvature, an F (focus) value, and an angle of view of the first content, and information for determining a curved shape of at least one of the first content and the second content. can be

일 실시 예에 따르면, 제2 컨텐츠 변환부(205)는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 제2 컨텐츠로 자동 변환할 수 있다. 상기 제2 컨텐츠는, 상기 오브젝트 이미지(213)가 상기 기설정된 속성 정보를 기반으로 변환된 것으로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 제2 컨텐츠 변환부(205)는 2D 이미지, 3D 이미지 및 텍스트 중 적어도 하나를 포함하는 오브젝트 이미지(213)를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하는 구성일 수 있다.According to an embodiment, the second content conversion unit 205 may automatically convert the object image 213 into second content based on the preset attribute information. The second content is obtained by converting the object image 213 based on the preset attribute information, and may have the same curved shape as the first content. That is, the second content conversion unit 205 may be a component that converts the object image 213 including at least one of a 2D image, a 3D image, and text into second content that is an image for VR content.

일 실시 예에 따르면, 제2 컨텐츠 변환부(205)에 의해 상기 오브젝트 이미지(213)가 제2 컨텐츠로 변환된 경우, 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠(215)를 생성할 수 있다.According to an embodiment, when the object image 213 is converted into second content by the second content converting unit 205, the third content generating unit 207 converts the second content onto the first content. By displaying, third content 215 can be created.

일 실시 예에 따르면, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은, 상기 이미지 입력부(203)가 상기 제2 사용자 입력을 기반으로 결정한 상기 오브젝트 이미지(213)의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)를 생성할 수 있다. 즉, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 자동으로 표시하여, 상기 제2 컨텐츠를 포함하고 있는 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)로 자동 생성할 수 있다. According to an embodiment, the third content generator 207 may display the second content in one of preset areas on the first content. The predetermined area may be an insertion area of the object image 213 determined by the image input unit 203 based on the second user input. Also, the predetermined area may be any one of background areas of the first content. For example, the third content creation unit 207 automatically synthesizes or inserts the second content into the upper left area, which is the background area of the first content, so that the third content is a completed VR content image. (215) can be produced. That is, the third content generator 207 automatically displays the second content in a predetermined area of the first content, and converts the first content including the second content into one completed VR content. It can be automatically generated as the third content 215 that is an image.

도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.

도 3(a) 및 (b)를 참조하면, 보편적인 VR 컨텐츠 생성 장치(300)는 디스플레이를 통해 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)를 표시할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 적용 장치(300)에 포함된 적어도 하나의 카메라를 통해 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 중복하거나 이어붙여 하나의 VR 컨텐츠 이미지인 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)로 변환할 수 있다.Referring to FIGS. 3(a) and (b), a universal VR content creation device 300 may display first content (301 in FIG. 3(a) or 305 in FIG. 3(b)) through a display. there is. According to an embodiment, the processor duplicates or connects a plurality of images acquired through at least one camera included in the application device 300 through a stitching technique to form a single VR content image, the first content. (301 in FIG. 3(a) or 305 in FIG. 3(b)).

일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이를 통해 상기 제1 컨텐츠를 표시하는 동안, 상기 제1 컨텐츠 상에 제2 컨텐츠를 합성 또는 삽입하여 제3 컨텐츠를 생성할 수 있다. 그러나, 상기 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)의 곡면 형상을 반영하지 않은 채, 오브젝트 이미지를 제2 컨텐츠로 변환하는 경우, 구부러짐 현상이 발생할 수 있다. 이에 따라, 보편적인 VR 컨텐츠 생성 장치(300)는, 구부러짐 현상이 발생된 제2 컨텐츠에 의해 상기 제3 컨텐츠의 심미성 및 완성도가 저하되는 문제점을 내재하고 있다. 반면에, 본 발명에 기반한 VR 컨텐츠의 오브젝트 적용 장치는 제2 컨텐츠의 구부러짐 현상을 방지함과 동시에 VR 컨텐츠 제작을 자동으로 수행함으로써, VR 컨텐츠의 완성도를 향상시키는 효과, VR 컨텐츠의 심미성을 향상시키는 효과 및 VR 컨텐츠 제작의 편의성을 제공하는 효과를 가질 수 있다.According to an embodiment, the processor may create third content by synthesizing or inserting second content onto the first content while displaying the first content through the display. However, when the object image is converted into the second content without reflecting the curved shape of the first content (301 in FIG. 3(a) or 305 in FIG. 3(b)), bending may occur. Accordingly, the universal VR content creation device 300 has a problem in that aesthetics and completeness of the third content are deteriorated due to the second content in which the bending phenomenon has occurred. On the other hand, the object application device for VR content based on the present invention prevents the bending of the second content and automatically produces the VR content, thereby improving the completeness of the VR content and improving the aesthetics of the VR content. It may have an effect of providing convenience in creating effects and VR contents.

도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.4 is a diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.

도 4(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4(a) , an object application device 400 (hereinafter referred to as “electronic device”) for VR content including one or more processors and one or more memories storing commands executable by the processors displays The first content 401 can be displayed through.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 입력되는 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive text input through a display or touch screen included in the electronic device 400 . According to another embodiment, the processor may receive the text input through a peripheral device (eg, a keyboard and a mouse) connected to the electronic device 400 . According to another embodiment, the processor may receive text input from another electronic device connected to the electronic device 400 through a wired network and/or a wireless network.

일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이를 통해 표시중인 상기 제1 컨텐츠(401) 상에 텍스트를 표시할 수 있다. 상기 프로세서는 상기 텍스트 입력을 표시하는 동안, 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 입력 영역 중 적어도 하나를 결정할 수 있다. According to an embodiment, the processor may display text on the first content 401 displayed through the display based on the received text input. When receiving a second user input while displaying the text input, the processor may determine at least one of a size of the text and an input area based on the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여 상기 제1 컨텐츠(401) 상에 표시된 텍스트를 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(401)의 곡면 형상을 기반으로, 상기 텍스트를 상기 3D 또는 2D 형태로 구성된 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(401)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 텍스트를 상기 제2 컨텐츠(403)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 제2 컨텐츠(403)로 변환될 텍스트의 곡면 형상을 결정할 수 있다. According to an embodiment, the processor may convert text displayed on the first content 401 into second content 403 that is a VR content image in response to completion of the second user input. The processor may convert the text into second content 403 that is a VR content image configured in the 3D or 2D form based on the curved shape of the first content 401 . More specifically, the processor may convert the text into the second content 403 through predetermined attribute information including at least one of a curvature, an F (focus) value, and an angle of view of the first content 401 . there is. That is, the processor may determine the curved shape of the text to be converted into the second content 403 based on the preset attribute information.

일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 텍스트를 상기 제2 컨텐츠(403)로 변환함에 따라, 상기 제2 컨텐츠(403) 곡면 형상은 상기 제1 컨텐츠(401)와 동일한 곡면 형상을 가질 수 있다.According to an embodiment, as the processor converts the text into the second content 403 based on the preset attribute information, the curved shape of the second content 403 is the first content 401 It may have the same curved shape as

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401) 상의 기설정된 영역에 상기 제2 컨텐츠(403)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(401)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 텍스트의 삽입 영역일 수 있다. According to an embodiment, the processor may insert or combine the second content 403 into a predetermined area on the first content 401 . The predetermined area may be a background area of the first content 401, or may be a text insertion area determined by the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401)의 기설정된 영역에 상기 제2 컨텐츠(403)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(403)를 구부러짐 현상 없이, 제1 컨텐츠(401)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다.According to an embodiment, the processor may display the second content 403 in a preset area of the first content 401 to generate third content, which is a completed VR content image. That is, the processor may display the second content 403 on a predetermined area of the first content 401 without bending, and generate third content, which is a completed VR content image.

도 4(b)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4(b) , an object application device 400 (hereinafter referred to as “electronic device”) for VR content including one or more processors and one or more memories storing instructions executable by the processors displays The first content 401 can be displayed through.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 제1 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 제1 사용자 입력을 수신할 수 있다.According to an embodiment, the processor may receive a first user input through a display or a touch screen included in the electronic device 400 . According to another embodiment, the processor may receive the first user input through a peripheral device (eg, a keyboard and a mouse) connected to the electronic device 400 .

일 실시 예에 따르면, 상기 프로세서는 상기 수신한 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 2D 이미지 또는 3D 이미지(예: 캐릭터)를 표시할 수 있다. 상기 제1 사용자 입력을 기반으로 표시되는 상기 2D 이미지 또는 상기 3D 이미지는 오브젝트 이미지로, VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환되기 전의 이미지일 수 있다. According to an embodiment, the processor may display a 2D image or a 3D image (eg, a character) on the first content 405 based on the received first user input. The 2D image or the 3D image displayed based on the first user input may be an object image before being converted into the second content 407, which is an image for VR content.

일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 수신한 제2 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 표시 중인 오브젝트 이미지(예: 캐릭터)의 크기 및 삽입 영역 중 적어도 하나를 결정할 수 있다.According to an embodiment, the processor may receive the second user input. The processor may determine at least one of a size and an insertion area of an object image (eg, character) being displayed on the first content 405 based on the received second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여, 상기 제1 컨텐츠(405) 상에 표시중인 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(405)의 곡면 형상을 기반으로, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(405)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 오브젝트 이미지를 상기 VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로 상기 제2 컨텐츠(407)로 변환될 오브젝트 이미지의 곡면 형상을 결정할 수 있다. According to an embodiment, the processor may convert an object image being displayed on the first content 405 into second content 407 that is a VR content image in response to completion of the second user input. The processor may convert the object image into second content 407 as a VR content image based on the curved shape of the first content 405 . In more detail, the processor converts the object image through predetermined attribute information including at least one of a curvature, an F (focus) value, and an angle of view of the first content 405 to the second content (which is an image for the VR content) 407) can be converted to That is, the processor may determine the curved shape of the object image to be converted into the second content 407 based on the preset attribute information.

일 실시 예에 따르면, 상기 프로세서가 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 상기 제2 컨텐츠(407)로 변환함에 따라, 상기 제2 컨텐츠(407)의 곡면 형상은 상기 제1 컨텐츠(405)와 동일한 곡면 형상을 가질 수 있다. According to an embodiment, as the processor converts the object image into the second content 407 based on the preset attribute information, the curved shape of the second content 407 is the first content ( 405) may have the same curved shape.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405) 상의 기설정된 영역에 상기 제2 컨텐츠(407)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(405)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 오브젝트 이미지의 삽입 영역일 수 있다. According to one embodiment, the processor may insert or combine the second content 407 into a predetermined area on the first content 405 . The predetermined area may be a background area of the first content 405 or an insertion area of an object image determined by the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405)의 기설정된 영역에 상기 제2 컨텐츠(407)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(407)를 구부러짐 현상 없이, 제1 컨텐츠(405)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다. 상기와 같이, 본 발명은 텍스트 및 오브젝트 이미지를 VR 컨텐츠용 이미지로 변환할 수 있어, VR 컨텐츠를 다양한 작업 환경에 제공하는 효과를 가질 수 있다.According to an embodiment, the processor may display the second content 407 in a preset area of the first content 405 to generate third content, which is a completed image for VR content. That is, the processor may display the second content 407 on a predetermined area of the first content 405 without bending, and generate third content, which is a completed VR content image. As described above, the present invention can convert text and object images into images for VR content, and thus can have an effect of providing VR content to various working environments.

도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.5 is another diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.

도 5를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(501)를 표시할 수 있다.Referring to FIG. 5 , an object application device 400 (hereinafter, referred to as “electronic device”) for VR content including one or more processors and one or more memories storing commands executable by the processors is provided through a display. 1 content 501 can be displayed.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(501)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(501)를 상기 디스플레이를 통해 표시하는 동안, 텍스트 입력 및 제1 사용자 입력 중 적어도 하나를 수신할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the electronic device 400 . The processor may convert the obtained plurality of images into first content 501, which is an image for VR content, through a stitching technique. The processor may receive at least one of a text input and a first user input while displaying the first content 501 through the display.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive text input through a display or touch screen included in the electronic device 500 . According to another embodiment, the processor may receive the text input through a peripheral device (eg, a keyboard and a mouse) connected to the electronic device 500 .

일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이 상에 텍스트(503)를 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치를 통해 입력되는 텍스트 입력을 기반으로, 상기 전자 장치(500)의 디스플레이 상에 텍스트(503)를 표시할 수 있다.According to an embodiment, the processor may display text 503 on the display based on the received text input. According to another embodiment, the processor may display text 503 on the display of the electronic device 500 based on a text input input through another electronic device connected to the electronic device 500 .

일 실시 예에 따르면, 상기 프로세서는 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 것에 대응하여, 상기 전자 장치(500)의 메모리에 기저장된 오브젝트 이미지를 상기 디스플레이를 통해 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 상기 오브젝트 이미지를 호출하여 상기 전자 장치(500)의 디스플레이 상에 표시할 수 있다.According to an embodiment, the processor may receive a first user input. In response to receiving the first user input, the processor may display an object image pre-stored in the memory of the electronic device 500 through the display. According to another embodiment, the processor may display the object image on the display of the electronic device 500 by calling the object image from another electronic device connected to the electronic device 500 through a wired network and/or a wireless network. .

일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이 또는 상기 터치스크린을 통해 제3 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치로부터 제3 사용자 입력을 수신할 수 있다. 상기 제3 사용자 입력은 상기 텍스트 입력 또는 상기 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(501) 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위하여 작업 상자(505)를 호출하는 입력일 수 있다. 상기 프로세서는 상기 제3 사용자 입력을 수신한 것에 대응하여 상기 제1 컨텐츠(501)의 일 영역에 상기 작업 상자(505)를 표시할 수 있다. According to an embodiment, the processor may receive a third user input through the display or the touch screen. According to another embodiment, the processor may receive a third user input from another electronic device connected to the electronic device 500 . The third user input may be an input that calls an action box 505 to edit text or an object image input on the first content 501 based on the text input or the first user input. The processor may display the task box 505 in one area of the first content 501 in response to receiving the third user input.

일 실시 예에 따르면, 상기 작업 상자(505)는 상기 텍스트(503) 또는 오브젝트 이미지의 시각 효과를 변경하기 위한 기능을 포함할 수 있다. 예를 들어, 상기 작업 상자(505)는 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경과 같은 기능을 포함할 수 있다. 상기 작업 상자(505)의 기능은 일부 삭제되거나 추가될 수 있으며, 상기 개시된 기능으로 한정되지 않는다. 상기와 같이, 본 발명은 별도의 작업 상자(505)를 통해 오브젝트 이미지에 다양한 시각 효과를 적용할 수 있어, 완성된 VR 컨텐츠의 심미성 및 완성도를 향상시키는 효과를 가질 수 있다.According to an embodiment, the task box 505 may include a function for changing the visual effect of the text 503 or object image. For example, the task box 505 may include functions such as contrast adjustment, size adjustment, font change, effect application, and location change. Some of the functions of the task box 505 may be deleted or added, and are not limited to the functions disclosed above. As described above, the present invention can apply various visual effects to object images through a separate task box 505, and thus can have an effect of improving aesthetics and completeness of completed VR contents.

도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of sharing third content generated through an object application method of implemented VR content according to an embodiment of the present invention with another electronic device.

도 6을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 통신 모듈(미도시)를 포함할 수 있다.Referring to FIG. 6 , an object application device 400 for VR content (hereinafter referred to as “electronic device”) including one or more processors and one or more memories storing commands executable by the processors includes a communication module (not shown). city) may be included.

일 실시 예에 따르면, 상기 프로세서는 상기 통신 모듈을 통해 다른 전자 장치(610)와 통신적으로 연결될 수 있다. 상기 다른 전자 장치(610)는 스마트 폰, 데스크 탑, 테블릿 및 웨어러블 장치일 수 있으며, 상기 전자 장치(600)로부터 VR 컨텐츠용 이미지를 송수신할 수 있으면, 이에 한정되지 않는다.According to an embodiment, the processor may be communicatively connected to another electronic device 610 through the communication module. The other electronic device 610 may be a smart phone, desktop, tablet, or wearable device, and is not limited thereto as long as it can transmit/receive images for VR content from the electronic device 600 .

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(600)의 디스플레이를 통해 표시중인 제1 컨텐츠(601) 및 제2 컨텐츠(603)를 포함하는 제3 컨텐츠를 상기 통신 모듈을 통해 상기 다른 전자 장치(610)에 전송할 수 있다. According to an embodiment, the processor transmits third content including the first content 601 and the second content 603 being displayed through the display of the electronic device 600 to the other electronic device through the communication module. (610).

일 실시 예에 따르면, 상기 전자 장치(600)로부터 상기 제3 컨텐츠를 수신한 다른 전자 장치(610)는 상기 제3 컨텐츠와 동일한 제6 컨텐츠를 표시할 수 있다. 상기 제6 컨텐츠는 상기 제1 컨텐츠(601)와 동일한 제4 컨텐츠(611) 및 상기 제2 컨텐츠(603)와 동일한 제5 컨텐츠(613)를 포함하는 컨텐츠일 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)가 통신적으로 연결되는 경우, VR 컨텐츠용 이미지를 공유할 수 있다.According to an embodiment, another electronic device 610 receiving the third content from the electronic device 600 may display the same sixth content as the third content. The sixth content may be content including a fourth content 611 identical to the first content 601 and a fifth content 613 identical to the second content 603 . That is, when the electronic device 600 and the other electronic device 610 are communicatively connected, images for VR content may be shared.

일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠에 포함된 일부 구성(예: 제2 컨텐츠(603))이 변경되는 경우, 상기 다른 전자 장치(610)에 상기 변경된 구성에 대한 정보(이하, "변경 정보"로 칭함)를 실시간으로 전송할 수 있다. 상기 변경 정보는 변경되는 구성과 관련된 정보일 수 있다. According to an embodiment, when a part of the configuration (eg, the second content 603) included in the third content is changed, the processor sends information about the changed configuration to the other electronic device 610 (hereinafter, referred to as "change information") can be transmitted in real time. The change information may be information related to a changed configuration.

예를 들어, 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경된 경우, 상기 변경 정보는 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경되었음을 알리는 정보를 포함할 수 있다. 상기 다른 전자 장치(610)는 상기 변경 정보를 수신하는 경우, 상기 제2 컨텐츠(603)와 대응하는 제5 컨텐츠(613)의 크기를 "10"으로 변경할 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)는 하나의 동일한 VR 컨텐츠용 이미지를 공유함에 따라, 상기 변경 정보를 기반으로 상기 VR 컨텐츠용 이미지에 포함된 구성들 중 적어도 하나를 동일하게 변경할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 복수 개의 다른 전자 장치와 공유할 수 있어, VR 컨텐츠의 확산 속도를 향상시키는 효과를 가질 수 있다.For example, when the size of the second content 603 is changed to "10", the change information may include information notifying that the size of the second content 603 is changed to "10". When receiving the change information, the other electronic device 610 may change the size of the fifth content 613 corresponding to the second content 603 to "10". That is, as the electronic device 600 and the other electronic device 610 share one and the same VR content image, based on the change information, at least one of components included in the VR content image is identical. can be changed to As described above, the present invention can share VR contents with a plurality of other electronic devices, and thus can have an effect of improving the diffusion speed of VR contents.

도 7은 본 발명의 일 실시예에 따른 FOV(field of view)를 기반으로, 제2 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a method of being connected to a link associated with second content based on a field of view (FOV) according to an embodiment of the present invention.

도 7(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(700)(이하, "전자 장치"라 칭함)는 제1 컨텐츠(701) 및 제2 컨텐츠(703)를 포함하는 제3 컨텐츠를 디스플레이를 통해 표시할 수 있다.Referring to FIG. 7(a) , an object application device 700 for VR contents (hereinafter referred to as an "electronic device") including one or more processors and one or more memories storing instructions executable by the processors includes a first The third content including the first content 701 and the second content 703 may be displayed on the display.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(700)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 중복 또는 이어 붙이는 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(701)로 생성할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(701)의 기설정된 영역에 제2 컨텐츠(703)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 출력할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the electronic device 700 . The processor may generate first content 701, which is an image for VR content, through a stitching technique of overlapping or attaching the obtained plurality of images. The processor may display the second content 703 in a preset area of the first content 701 to output third content, which is a completed VR content image.

일 실시 예에 따르면, 상기 제2 컨텐츠(703)는 상기 제2 컨텐츠(703)와 관련된 링크(link) 정보를 포함할 수 있다. 예를 들어, 도 (a)를 참조하면, 상기 제2 컨텐츠(703)는 "보물 322호"라는 형태의 VR 컨텐츠용 이미지일 수 있다. 상기 제2 컨텐츠(703)는 상기 보물 322호와 관련된 정보를 포함하는 링크 정보를 포함할 수 있다. 즉, 상기 링크 정보는 본 발명의 설계 과정에 변경될 수 있다.According to one embodiment, the second content 703 may include link information related to the second content 703 . For example, referring to (a), the second content 703 may be an image for VR content in the form of "Treasure No. 322". The second content 703 may include link information including information related to treasure No. 322. That is, the link information may be changed during the design process of the present invention.

일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 영역 중 일 영역이 상기 디스플레이에 표시되는 경우, 상기 일 영역이 상기 디스플레이를 통해 지정된 시간 동안 표시되는지를 인식할 수 있다. 즉, 상기 프로세서는 상기 지정된 시간을 기반으로, 사용자의 관심 영역인 ROI(region of interest)을 분석할 수 있다.According to an embodiment, when one of the regions of the third content is displayed on the display, the processor may recognize whether the one region is displayed for a specified time through the display. That is, the processor may analyze a region of interest (ROI), which is a region of interest of the user, based on the designated time.

일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)를 표시할 수 있다. 상기 제2 컨텐츠(703)는 상기 제3 컨텐츠에 포함된 장소, 건물, 사람 및 물품과 같은 구성물의 인근에 위치할 수 있다. 예를 들어, 상기 프로세서는 상기 제3 컨텐츠에 포함된 구성물인 건물 인근에 "보물 322호"라는 3D 이미지 형태의 VR 컨텐츠용 이미지인 제2 컨텐츠(703)를 표시할 수 있다.According to an embodiment, the processor may display the second content 703 in one area of the third content. The second content 703 may be located near structures included in the third content, such as places, buildings, people, and articles. For example, the processor may display the second content 703, which is an image for VR content in the form of a 3D image called “Treasure No. 322,” near a building included in the third content.

일 실시 예에 따르면, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 지정된 시간동안 표시되는지를 측정할 수 있다. 상기 프로세서는 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 상기 지정된 시간 이상으로 표시되는 경우, 상기 제3 컨텐츠의 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다.According to an embodiment, when the second content 703 is located in one area of the third content, the processor is configured to display one area of the third content including the second content 703. can be measured for a specified amount of time. When a region of the third content including the second content 703 is displayed on the display for more than the specified time, the processor regards a region of the third content as a user's region of interest (ROI). can judge

일 실시 예에 따르면, 상기 제3 컨텐츠의 일 영역이 상기 사용자의 관심 영역인 것을 판단한 프로세서는, 상기 제2 컨텐츠(703)가 링크 정보를 포함하고 있는지를 확인할 수 있다. 상기 제2 컨텐츠(703)가 상기 링크 정보를 포함하는 경우, 도(b)와 같이 상기 링크 정보를 기반으로 상기 제2 컨텐츠(703)와 관련된 화면(705)을 출력할 수 있다. According to an embodiment, upon determining that one region of the third content is the user's region of interest, the processor may determine whether the second content 703 includes link information. When the second content 703 includes the link information, a screen 705 related to the second content 703 may be displayed based on the link information as shown in FIG. (b).

예를 들어, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역이 지정된 시간인 10초 이상 표시되는 경우, 상기 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다. 상기 프로세서는 상기 일 영역이 사용자의 관심 영역을 판단한 경우, 상기 사용자의 관심 영역에"보물 322호"라는 3D 이미지 형태인 제2 컨텐츠(703)가 위치하는지를 확인할 수 있다. 상기 프로세서는 상기 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 제2 컨텐츠(703)에 연동된 링크 정보가 있는지를 확인할 수 있다. 상기 프로세서는 상기 제2 컨텐츠(703)에 연동된 링크 정보가 존재하는 경우, 상기 링크 정보가 포함하고 있는 링크에 접속하여 상기 디스플레이를 통해 상기 "보물 322호"의 정보를 개시하고 있는 화면(705)을 출력할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 제공함과 동시에 보다 많은 유효 정보를 제공할 수 있기 때문에, 향상된 교육 효과를 제공할 수 있다. 또한, 확인된 사용자의 관심 영역(ROI) 정보는 다양한 데이터 연구 분야에 활용할 수 있는 효과를 가질 수 있다.For example, when one region of the third content is displayed for 10 seconds or more, which is a designated time, the processor may determine that the one region is the user's region of interest (ROI). When determining that the one region is the user's region of interest, the processor may determine whether the second content 703 in the form of a 3D image called "Treasure No. 322" is located in the user's region of interest. When the second content 703 is located in the one area, the processor may check whether there is link information associated with the second content 703 . When link information associated with the second content 703 exists, the processor accesses the link included in the link information and displays the information of "Treasure No. 322" through the display (705). ) can be output. As described above, since the present invention can provide more effective information while providing VR content, it can provide improved educational effects. In addition, the identified user's region of interest (ROI) information may have effects that can be utilized in various data research fields.

도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 7에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.8 illustrates an example of an internal configuration of a computing device according to an embodiment of the present invention, and in the following description, descriptions of unnecessary embodiments overlapping with those of FIGS. 1 to 7 will be omitted. do it with

도 8에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.As shown in FIG. 8, a computing device 10000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( It may include at least an I/O subsystem (11400), a power circuit (11500), and a communication circuit (11600). In this case, the computing device 10000 may correspond to a user terminal connected to the tactile interface device (A) or the aforementioned computing device (B).

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. there is. The memory 11200 may include a software module, a command set, or other various data necessary for the operation of the computing device 10000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components, such as the processor 11100 or the peripheral device interface 11300, may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 10000 to processor 11100 and memory 11200 . The processor 11100 may execute various functions for the computing device 10000 and process data by executing software modules or command sets stored in the memory 11200 .

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.Input/output subsystem 11400 can couple various input/output peripherals to peripheral interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor, keyboard, mouse, printer, or touch screen or sensor to the peripheral interface 11300 as needed. According to another aspect, input/output peripherals may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the terminal's components. For example, power circuit 11500 may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator or power It may contain any other components for creation, management and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit 11600 may include an RF circuit and transmit/receive an RF signal, also known as an electromagnetic signal, to enable communication with another computing device.

이러한 도 8의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 8에 도시된 일부 컴포넌트가 생략되거나, 도 8에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 8에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 8 is only an example of the computing device 10000, and the computing device 11000 may omit some of the components shown in FIG. 8, further include additional components not shown in FIG. It may have a configuration or arrangement combining two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 10000 may be implemented as hardware including one or more signal processing or application-specific integrated circuits, software, or a combination of both hardware and software.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in computer readable media. In particular, the program according to the present embodiment may be configured as a PC-based program or a mobile terminal-only application. An application to which the present invention is applied may be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of a user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (10)

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법에 있어서,
적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하되,
상기 이미지 입력 단계는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하되,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하되,
제2 컨텐츠 변환 단계는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하되,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되되.
상기 제1 컨텐츠 생성 단계는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하되,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하되,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능하되,
상기 VR 컨텐츠의 오브젝트 적용 방법은,
상기 통신 모듈을 통해 상기 다른 전자 장치로부터 제3 사용자 입력을 수신하는 경우, 상기 수신된 제3 사용자 입력을 기반으로 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위한 작업 상자를 호출하여, 상기 제1 컨텐츠의 일 영역을 통해 상기 호출된 작업 상자를 출력하되,
상기 작업 상자는,
상기 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지 중 적어도 하나의 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경 중 적어도 하나를 포함하는 기능을 제공하는 인터페이스인 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
A method for applying objects to VR content implemented by a computing device including one or more processors and one or more memories storing instructions executable by the processors,
When a plurality of images are acquired through at least one camera module, a first content generation step of converting the acquired plurality of images into one VR content image and generating first content;
When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and
A third content generation step of generating third content by displaying the second content on the first content; including,
The image input step,
In order to automatically synthesize and display the second content in a preset area of the first content, edit the object image based on the second user input,
The preset area is
Including a background area of the first content,
In the second content conversion step,
Based on preset attribute information, converting the object image having the size and the insertion area determined into the second content,
The preset attribute information,
It is determined based on the curvature, F value, and angle of view of the first content.
The first content creation step,
A plurality of images acquired through a stitching technique are connected and attached to create the one image for VR content,
The object image,
Including at least one of 3D images, 2D images and text,
The third content,
Can be transmitted to other electronic devices through the communication module,
The object application method of the VR content,
When a third user input is received from the other electronic device through the communication module, an action box for editing text or an object image input on the first content is called based on the received third user input, Outputting the called operation box through one area of the first content,
The working box,
An object of VR content, characterized in that the interface provides a function including at least one of contrast adjustment, size adjustment, font change, effect application, and position change of at least one of text or object image input on the first content. method of application.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠에 대한 오브젝트 적용 장치에 있어서,
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성부;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력부;
상기 이미지 입력부의 동작의 완료되는 경우, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환부; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성부;를 포함하되,
상기 이미지 입력부는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하되,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하되,
제2 컨텐츠 변환부는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하되,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되되.
상기 제1 컨텐츠 생성부는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하되,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하되,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능하되,
상기 VR 컨텐츠의 오브젝트 적용 장치는,
상기 통신 모듈을 통해 상기 다른 전자 장치로부터 제3 사용자 입력을 수신하는 경우, 상기 수신된 제3 사용자 입력을 기반으로 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위한 작업 상자를 호출하여, 상기 제1 컨텐츠의 일 영역을 통해 상기 호출된 작업 상자를 출력하되,
상기 작업 상자는,
상기 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지 중 적어도 하나의 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경 중 적어도 하나를 포함하는 기능을 제공하는 인터페이스인 것을 특징으로 하는 VR 컨텐츠에 대한 오브젝트 적용 장치.
An object application device for VR content implemented as a computing device including one or more processors and one or more memories storing instructions executable by the processors,
When acquiring a plurality of images through a plurality of camera modules, a first content generator for generating first content by converting the obtained plurality of images into a single image;
When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input unit configured to call the object image and determine a size and insertion area of the object image according to a user input and the second user input;
When the operation of the image input unit is completed, the object image of which the size and the insertion area are determined is converted into the second content, and the second content is converted into the second content by reflecting the curved shape of the first content, which is VR content. conversion unit; and
A third content generator configured to display the second content on the first content and generate third content;
The image input unit,
In order to automatically synthesize and display the second content in a preset area of the first content, edit the object image based on the second user input,
The preset area is
Including a background area of the first content,
The second content conversion unit,
Based on predetermined attribute information, converting the object image having the size and the insertion area determined into the second content,
The preset attribute information,
It is determined based on the curvature, F value, and angle of view of the first content.
The first content generator,
The plurality of acquired images are connected and pasted through a stitching technique to create the one VR content image,
The object image,
Including at least one of 3D images, 2D images and text,
The third content,
Can be transmitted to other electronic devices through the communication module,
The object application device of the VR content,
When a third user input is received from the other electronic device through the communication module, an action box for editing text or an object image input on the first content is called based on the received third user input, Outputting the called operation box through one area of the first content,
The working box,
An interface that provides a function including at least one of contrast adjustment, size adjustment, font change, effect application, and position change of at least one of text or object image input on the first content. object application device.
컴퓨터-판독가능 기록매체로서,
상기 컴퓨터-판독가능 기록매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은;
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하되,
상기 이미지 입력 단계는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하되,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하되,
제2 컨텐츠 변환 단계는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하되,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되되.
상기 제1 컨텐츠 생성 단계는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하되,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하되,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능하되,
VR 컨텐츠의 오브젝트 적용 방법은,
상기 통신 모듈을 통해 상기 다른 전자 장치로부터 제3 사용자 입력을 수신하는 경우, 상기 수신된 제3 사용자 입력을 기반으로 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위한 작업 상자를 호출하여, 상기 제1 컨텐츠의 일 영역을 통해 상기 호출된 작업 상자를 출력하되,
상기 작업 상자는,
상기 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지 중 적어도 하나의 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경 중 적어도 하나를 포함하는 기능을 제공하는 인터페이스인 것을 특징으로 하는 것을 특징으로 하는 컴퓨터-판독가능 기록매체.
As a computer-readable recording medium,
The computer-readable recording medium stores instructions for causing a computing device to perform the following steps, which include;
When a plurality of images are acquired through a plurality of camera modules, a first content generation step of converting the acquired plurality of images into one VR content image and generating first content;
When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and
A third content generation step of generating third content by displaying the second content on the first content; including,
The image input step,
In order to automatically synthesize and display the second content in a preset area of the first content, edit the object image based on the second user input,
The preset area is
Including a background area of the first content,
In the second content conversion step,
Based on preset attribute information, converting the object image having the size and the insertion area determined into the second content,
The preset attribute information,
It is determined based on the curvature, F value, and angle of view of the first content.
The first content creation step,
A plurality of images acquired through a stitching technique are connected and attached to create the one image for VR content,
The object image,
Including at least one of 3D images, 2D images and text,
The third content,
Can be transmitted to other electronic devices through the communication module,
How to apply objects to VR content,
When a third user input is received from the other electronic device through the communication module, an action box for editing text or an object image input on the first content is called based on the received third user input, Outputting the called operation box through one area of the first content,
The working box,
Characterized in that the interface provides a function including at least one of contrast adjustment, size adjustment, font change, effect application, and position change of at least one of text or object image input on the first content. A computer-readable recording medium.
KR1020200149248A 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content KR102541262B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200149248A KR102541262B1 (en) 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200149248A KR102541262B1 (en) 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content

Publications (2)

Publication Number Publication Date
KR20220063419A KR20220063419A (en) 2022-05-17
KR102541262B1 true KR102541262B1 (en) 2023-06-07

Family

ID=81799649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200149248A KR102541262B1 (en) 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content

Country Status (1)

Country Link
KR (1) KR102541262B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278342B1 (en) * 2018-09-27 2021-07-16 주식회사 더픽트 System and method for editing virtual reality image and video

Also Published As

Publication number Publication date
KR20220063419A (en) 2022-05-17

Similar Documents

Publication Publication Date Title
US11200617B2 (en) Efficient rendering of 3D models using model placement metadata
Hilfert et al. Low-cost virtual reality environment for engineering and construction
US9818228B2 (en) Mixed reality social interaction
KR101108743B1 (en) Method and apparatus for holographic user interface communication
JP2021524094A (en) Application virtual scene recognition and interaction key matching method, and arithmetic unit
KR102263133B1 (en) Device for providing 3d virtual exhibition space production service
US10620807B2 (en) Association of objects in a three-dimensional model with time-related metadata
JP7128188B2 (en) 3D MODEL CONSTRUCTION METHOD, APPARATUS AND SYSTEM
CN109493431B (en) 3D model data processing method, device and system
CN103970518A (en) 3D rendering method and device for logic window
CN113010945A (en) BIM model linkage method and system
Vajak et al. Combining photogrammetry, 3D modeling and real time information gathering for highly immersive VR experience
JP7351877B2 (en) Method and apparatus for providing graphical user interface prototype
EP3594906B1 (en) Method and device for providing augmented reality, and computer program
KR102541262B1 (en) METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content
JP2016122443A (en) Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program
CN114913277A (en) Method, device, equipment and medium for three-dimensional interactive display of object
KR102268013B1 (en) Method, apparatus and computer readable recording medium of rroviding authoring platform for authoring augmented reality contents
Huang et al. Developing a BIM-based visualization and interactive system for healthcare design
US10204184B2 (en) Apparatus and method for modeling cultural heritage building
JP2017084215A (en) Information processing system, control method thereof, and program
KR102483078B1 (en) Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting
CN108920598A (en) Panorama sketch browsing method, device, terminal device, server and storage medium
KR20230075050A (en) Devices for creating vr exhibition spaces
CN115174993B (en) Method, apparatus, device and storage medium for video production

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant