KR20220063419A - METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content - Google Patents

METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content Download PDF

Info

Publication number
KR20220063419A
KR20220063419A KR1020200149248A KR20200149248A KR20220063419A KR 20220063419 A KR20220063419 A KR 20220063419A KR 1020200149248 A KR1020200149248 A KR 1020200149248A KR 20200149248 A KR20200149248 A KR 20200149248A KR 20220063419 A KR20220063419 A KR 20220063419A
Authority
KR
South Korea
Prior art keywords
content
image
object image
user input
processor
Prior art date
Application number
KR1020200149248A
Other languages
Korean (ko)
Other versions
KR102541262B1 (en
Inventor
서인호
Original Assignee
서인호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서인호 filed Critical 서인호
Priority to KR1020200149248A priority Critical patent/KR102541262B1/en
Publication of KR20220063419A publication Critical patent/KR20220063419A/en
Application granted granted Critical
Publication of KR102541262B1 publication Critical patent/KR102541262B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method and apparatus for applying objects to virtual reality (VR) content, and a computer-readable recording medium to provide convenience when images for VR content are generated. According to one embodiment of the present invention, the method for applying objects to VR content is implemented by a computing device including one or more processors and one or more memories storing commands executable by the processors. The method comprises: a first content generation step of converting acquired plurality of images into one VR content image to generate first content when the plurality of images are acquired through at least one camera module; an image input step of determining a call of an object image and a size and insertion area of the object image according to a first user input and second user input when receiving the first user input for adding the object image to the first content and the second user input for the size and insertion area of the object image after the first content is generated; a second content conversion step of converting, upon completion of the image input step, the object image whose size and insertion area are determined into second content, wherein the object image is converted into second content by reflecting the curved shape of the first content, which is VR content; and a third content generation step of displaying the second content on the first content to generate third content. In addition to this, various embodiments understood through this document are possible.

Description

VR 컨텐츠의 오브젝트 적용 방법, 장치 및 컴퓨터-판독 가능 기록 매체{METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content} Object application method, device and computer-readable recording medium of VR content

본 발명은 VR 컨텐츠의 오브젝트 적용 방법에 관한 것으로서, 구체적으로는 표시 중인 360VR 컨텐츠의 곡면 형상을 별도의 오브젝트에 자동으로 반영하고, 360VR 컨텐츠에 VR 컨텐츠용 이미지로 자동으로 삽입 또는 합성할 수 있다. 이에 따라, 오브젝트의 구부러짐 현상을 방지할 수 있어 완성도가 높은 360VR 컨텐츠를 획득할 수 있다. 또한, 360VR 컨텐츠를 자동으로 생성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 향상시키는 효과를 가질 수 있다.The present invention relates to a method of applying an object of VR content, and specifically, it is possible to automatically reflect the curved shape of 360VR content being displayed on a separate object, and automatically insert or synthesize the 360VR content as an image for VR content. Accordingly, it is possible to prevent bending of the object, and thus it is possible to obtain 360VR content with a high degree of completion. In addition, by automatically generating 360VR content, it can have the effect of supporting various and unique production ideas of 360VR content not only for experts but also for the general public, and improving the spread of related content.

VR(virtual reality) 즉, 가상현실은 사이버 공간(Cyber Space)에서 체험되는 현실을 가리키는데, 이때 사이버 공간이란 전자 장치를 통해 생성된 가상의 공간으로, 3차원 시각 효과를 통해 현실성을 부여하는 공간을 말한다. VR 기술은 사용자에게 실감나는 몰입감을 제공하기 위하여 실존하는 물체를 시뮬레이션할 수 있을 뿐만 아니라, 실제로 존재하지 않는 물체 또는 상황을 체험할 수 있도록할 수 있다. 특히, 최근에는 1인 컨텐츠가 대두됨에 따라 VR 기술을 활용한 VR 컨텐츠가 활발하게 증가하고 있다. 일 예로서, 한국공개특허 10-2020-0101583(VR 영상 컨텐츠 제작 방법, 장치 및 프로그램)에는, 하나 이상의 360도 영상을 획득하고, 상기 360도 영상 간의 재생 순위를 설정하는 단계; 상기 360도 영상 내 특정 지점 또는 객체를 오브젝트로 선택하고, 상기 선택된 오브젝트에 정보태그를 설정하는 단계; 및 상기 선택된 둘 이상의 오브젝트의 재생 순위를 설정하는 단계;를 포함하며, 상기 정보태그는 해당 오브젝트에 대한 부가정보를 포함하며, 각 오브젝트가 재생될 때 상기 VR 영상 내 특정 위치에 표출되는 것이고, 상기 제작된 VR 영상 컨텐츠는 상기 설정된 오브젝트 재생 순위에 따라서 상기 360도 영상이 순차적으로 재생하는 기술이 개시되어 있다.VR (virtual reality), that is, virtual reality refers to the reality experienced in cyberspace. In this case, cyberspace is a virtual space created through an electronic device, a space that provides reality through three-dimensional visual effects. say In order to provide a realistic and immersive feeling to the user, VR technology may not only simulate an existing object, but may also allow the user to experience an object or situation that does not actually exist. In particular, in recent years, as single-person content has emerged, VR content using VR technology is actively increasing. As an example, Korean Patent Laid-Open Publication No. 10-2020-0101583 (VR video content production method, apparatus, and program) includes the steps of: acquiring one or more 360-degree images and setting a playback order among the 360-degree images; selecting a specific point or object in the 360-degree image as an object, and setting an information tag on the selected object; and setting the playback order of the selected two or more objects, wherein the information tag includes additional information about the corresponding object, and is displayed at a specific location in the VR image when each object is played back, A technique for sequentially reproducing the 360-degree image according to the set object reproduction order of the produced VR image content is disclosed.

그러나, 상술한 선행기술에서는 VR 컨텐츠를 제작하는 기술이 개시되어 있으나, 360 곡면 형상인 VR 컨텐츠에 합성되는 오브젝트의 구부러짐 또는 이탈 현상을 방지하기 위한 기술이 개시되어 있지 않음에 따라, VR 컨텐츠의 제작에 숙달하지 않은 일반인이 상기 선행기술을 통해 VR 컨텐츠를 제작하는 경우, 완성도가 높지 않은 VR 컨텐츠가 제작되는 문제점을 내재하고 있다.However, in the prior art described above, although a technology for producing VR content is disclosed, a technology for preventing bending or separation of an object synthesized in a 360 curved VR content is not disclosed. In the case where the general public who is not adept at creating VR contents through the prior art, there is a problem in that VR contents that are not of high degree of completion are produced.

이에 본 발명은, VR 컨텐츠의 오브젝트 적용 방법에 있어서, 구체적으로는 360VR 컨텐츠에 360VR 제공 장치의 고유한 속성 값 반영한 별도의 오브젝트를 자동으로 합성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 하기 위한 기술을 제공하는 것에 목적을 가지고 있다.Accordingly, in the present invention, in the object application method of VR content, specifically, by automatically synthesizing a separate object that reflects the unique attribute value of the 360VR providing device to the 360VR content, various and individual 360VR content can be applied not only to experts but also to the general public. It aims to support production ideas that exist and to provide technology to spread related contents.

상기 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법에 있어서, 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계; 상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계; 상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및 상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, according to an embodiment of the present invention there is provided a method for applying an object of VR content implemented in a computing device including one or more processors and one or more memories for storing instructions executable by the processor, at least one a first content creation step of generating a first content by converting the plurality of acquired images into one VR content image when acquiring a plurality of images through the camera module of the ; When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input step of calling the object image and determining a size and an insertion area of the object image according to a user input and the second user input; Upon completion of the image input step, a second content conversion step of converting the object image having the size and the insertion area determined into second content, and converting it into second content by reflecting the curved shape of the first content, which is VR content ; and a third content generation step of generating the third content by displaying the second content on the first content.

상기 사용자 편집 단계는, 상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하는 것이 바람직하다.The user editing step may include editing the object image based on the second user input so as to automatically synthesize and display the second content in a preset area of the first content.

상기 기설정된 영역은, 상기 제1 컨텐츠의 배경 영역을 포함하는 것을 특징으로 한다. 제2 컨텐츠 변환 단계는, 기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하는 것이 가능하다.The preset area may include a background area of the first content. In the second content conversion step, it is possible to convert the object image having the size and the insertion area determined into the second content based on preset attribute information.

상기 기설정된 속성 정보는, 상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되는 것이 가능하다.The preset attribute information may be determined based on a curvature, an F value, and an angle of view of the first content.

상기 제1 컨텐츠 생성 단계는, 스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하는 것이 바람직하다.In the first content creation step, it is preferable to connect the plurality of images obtained through a stitching technique to generate the single image for VR content.

상기 오브젝트 이미지는 3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하는 것이 바람직하다.The object image may include at least one of a 3D image, a 2D image, and text.

상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능한 것이 바람직하다.The third content may be transmitted to another electronic device through a communication module.

본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, 오브젝트 이미지에 제1 컨텐츠 의 곡면 형상을 반영하여 제2 컨텐츠로 변환하고, 제1 컨텐츠 상에 제2 컨텐츠를 삽입 또는 합성하여 제3 컨텐츠를 자동 생성하기 때문에, VR 컨텐츠용 이미지의 제작 시, 편의성을 제공할 수 있다.According to an embodiment of the present invention, a method for applying an object of VR content implemented in a computing device including one or more processors and one or more memories for storing instructions executable by the processor includes adding a curved shape of a first content to an object image. Since the third content is automatically generated by reflecting the conversion into the second content and inserting or synthesizing the second content on the first content, it is possible to provide convenience when producing an image for VR content.

또한, 상기 본 발명의 일 실시 예에 따르면, 제1 컨텐츠의 기설정된 영역에서 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 제2 사용자 입력을 기반으로 오브젝트 이미지를 편집할 수 있어, 다양한 형태의 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, in order to automatically synthesize and display the second content in a preset area of the first content, an object image can be edited based on a second user input, so that various types of It has the effect of creating an image for VR content.

또한, 상기 본 발명의 일 실시 예에 따르면, 기설정된 속성 정보를 기반으로, 크기 및 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환할 수 있어, 제3 컨텐츠에 포함된 구성들의 구부러지는 현상을 방지하여 완성도가 높은 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, it is possible to convert an object image whose size and insertion area are determined based on preset attribute information into the second content, so that bending of the components included in the third content can be prevented. This has the effect of creating an image for VR content with a high degree of completion.

또한, 상기 본 발명의 일 실시 예에 따르면, 스티칭(stitching) 기법을 통해 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성할 수 있어, 카메라의 개수가 제한적인 전자 장치에서도 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, a plurality of images acquired through a stitching technique can be stitched together to generate the single VR content image, so that even in an electronic device having a limited number of cameras It has the effect of creating an image for VR content.

또한, 상기 본 발명의 일 실시 예에 따르면, 상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능하여, 컨텐츠의 확산 속도를 향상시키는 효과가 있다. In addition, according to an embodiment of the present invention, the third content can be transmitted to another electronic device through a communication module, thereby improving the content diffusion speed.

도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.
도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자의 시야를 기반으로, 제3 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
1 is a flowchart illustrating a method of applying an object of VR content implemented according to an embodiment of the present invention.
2 is a block diagram of an apparatus for applying an object of VR content implemented according to an embodiment of the present invention.
3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.
4 is a view for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.
5 is another diagram for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.
6 is a diagram for explaining a method of sharing a third content generated through an object application method of VR content implemented according to an embodiment of the present invention with another electronic device.
7 is a diagram for explaining a method of connecting to a link linked to a third content based on a user's field of view according to an embodiment of the present invention.
8 is a diagram for explaining an example of an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Hereinafter, various embodiments and/or aspects are disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be recognized by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of various methods may be employed in the principles of the various aspects, and the descriptions set forth are intended to include all such aspects and their equivalents.

본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.As used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. may not be construed as an advantage or advantage in any aspect or design described above over other aspects or designs. .

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. should be understood as not

또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are those commonly understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in an embodiment of the present invention, an ideal or excessively formal meaning is not interpreted as

도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method for applying an object of VR content implemented according to an embodiment of the present invention.

도 1을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, S101 단계(제1 컨텐츠 생성 단계)를 수행할 수 있다. 상기 컴퓨팅 장치는 스마트폰, 데스크 탑, 테블릿 등을 포함할 수 있으며, VR 컨텐츠에 오브젝트를 자동으로 적용할 수 있는 장치이면, 이에 한정되지 않는다.Referring to FIG. 1 , in the method for applying an object of VR content implemented with a computing device including one or more processors and one or more memories for storing instructions executable by the processor, step S101 (first content creation step) is performed. can The computing device may include a smartphone, a desktop, a tablet, and the like, and is not limited thereto as long as it is a device capable of automatically applying an object to VR content.

상기 S101 단계에서, 상기 하나 이상의 프로세서(이하 프로세서로 칭함)는 적어도 하나의 카메라 모듈(이하 카메라 모듈로 칭함)을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 카메라 모듈을 통해 복수 개의 이미지를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. In step S101, the one or more processors (hereinafter referred to as a processor) may acquire a plurality of images through at least one camera module (hereinafter referred to as a camera module). When acquiring a plurality of images through the camera module, the processor may convert the plurality of acquired images to generate a first content image for one VR content.

일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지일 수 있다. 또한, 상기 복수 개의 이미지는 이미지, 사진 및 동영상을 포함할 수 있으며 제1 컨텐츠를 생성할 수 있는 소스(source) 파일이면, 이에 한정되지 않는다.According to an embodiment, the image for VR content may be a three-dimensional image supporting a 360-degree omnidirectional angle generated through a stitching technique that overlaps or connects the plurality of acquired images. In addition, the plurality of images may include an image, a photo, and a moving picture, and is not limited thereto as long as it is a source file capable of generating the first content.

일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지를 기반으로 생성될 수 있다. 일 예로, 상기 프로세서는 상기 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content, which is an image for the VR content, may be generated based on a plurality of images pre-stored in the memory as well as an image acquired through the camera. For example, the processor may generate the first content, which is an image for VR content, by attaching the first image and the second image acquired through the camera module. As another example, the processor may generate the first content by connecting the third image and the fourth image previously stored in the memory through a stitching technique.

상기 프로세서는 상기 제1 컨텐츠의 생성이 완료되는 경우, S103 단계(이미지 입력 단계)를 수행할 수 있다.When the generation of the first content is completed, the processor may perform step S103 (an image input step).

S103 단계에서 상기 프로세서는 상기 제1 컨텐츠가 생성된 상태에서 오브젝트 이미지를 상기 제1 컨텐츠 상에 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 경우, 상기 오브젝트 이미지를 호출할 수 있으며, 상기 오브젝트 이미지의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지의 크기 및 삽입 영역을 결정할 수 있다.In step S103, the processor may receive a first user input for displaying an object image on the first content while the first content is generated. When receiving the first user input, the processor may call the object image, and receive the second user input in a state where the call of the object image is completed. When receiving the second user input, the processor may determine the size and insertion area of the called object image based on the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지를 표시하기 위하여, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D, 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the processor may receive the first user input through a display or a touch screen included in the computing device, and may receive the first user input from a separate device connected to the computing device. there is. The first user input may be an input for calling an object image pre-stored in the memory or an object image stored in another electronic device connected to the computing device through a wired network and/or wireless network. The object image may be at least one of a 2D image and a 3D image before being converted into the image for VR content in order to display the image for VR content on the first content.

다른 실시 예에 따르면, 상기 오브젝트 이미지는 제2 사용자 입력이 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 텍스트 입력을 기반으로, 상기 제1 컨텐츠 상에 텍스트를 표시할 수 있다. 즉, 상기 프로세서는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 VR 컨텐츠용 이미지로 변환하기 위한 오브젝트 이미지로 인식할 수 있다.According to another embodiment, the object image may include text input based on a text input instead of a second user input. According to another embodiment, the processor may display text on the first content based on the text input. That is, the processor may distinguish the first user input from the text input, and may recognize the text input based on the received text input as an object image for converting into an image for VR content.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지를 호출하는 경우, 상기 호출된 오브젝트 이미지를 상기 디스플레이 또는 터치스크린을 통해 표시중인 제1 컨텐츠 상에 표시할 수 있다. 상기 프로세서는 상기 오브젝트 이미지가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 오브젝트 이미지의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when the object image is called through the first user input, the processor may display the called object image on the first content being displayed through the display or the touch screen. The processor may receive a second user input for determining at least one of a size and an insertion area of the object image while the object image is being displayed on the first content. For example, when receiving the second user input, the processor may change the size of the object image displayed on the first content to a minimum size based on the second user input. As another example, when receiving the second user input, the processor may determine to insert the object image into a left region of the first content.

또 다른 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 텍스트가 표시 중인 상태에서 상기 제2 사용자 입력을 수신하는 경우, 상기 수신한 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 삽입 영역을 결정할 수 있다. 상기와 같이, 본 발명은 별도의 사용자 입력(예: 제2 사용자 입력)을 통하여 오브젝트 이미지에 다양한 효과를 적용할 수 있어, 다양한 효과가 적용된 VR 컨텐츠를 제공하는 효과가 있다.According to another embodiment, when receiving the second user input while text is being displayed on the first content, the processor determines the size and insertion area of the text based on the received second user input. can decide As described above, according to the present invention, various effects can be applied to an object image through a separate user input (eg, a second user input), thereby providing VR contents to which various effects are applied.

상기 프로세서는 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하는 경우, S105 단계(제2 컨텐츠 변환 단계)를 수행할 수 있다.When the processor determines at least one of the size of the object image being displayed on the first content and the insertion area, the processor may perform step S105 (a second content conversion step).

S105 단계에서 상기 프로세서는 상기 이미지 입력 단계가 완료되는 경우, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환할 수 있다.In step S105 , when the image input step is completed, the processor may convert the object image into second content by reflecting the curved shape of the first content, which is a VR content image.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 표시 중인 상기 오브젝트 이미지의 크기 및 삽입 영역이 결정되는 경우, 상기 오브젝트 이미지를 제2 컨텐츠로 자동 변환할 수 있다. 상기 프로세서는 상기 오브젝트 이미지를 곡면 형상인 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지에 반영할 수 있다. 상기 제1 컨텐츠의 곡면 형상이 반영된 상기 오브젝트 이미지는 제2 컨텐츠로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 기설정된 속성 정보를 기반으로 상기 오브젝트 이미지를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, when the size and insertion area of the object image being displayed on the first content are determined, the processor may automatically convert the object image into the second content. The processor may reflect the curved shape of the first content to the object image in order to synthesize the object image with the curved first content without bending. The object image to which the curved shape of the first content is reflected may be converted into the second content. In more detail, the processor may convert the object image into the second content based on preset attribute information. The preset attribute information may be information including at least one of a curvature, a focus (F) value, and an angle of view of the first content, and may be information that determines a curved shape of the first content.

일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 제2 컨텐츠로 자동으로 변환할 수 있다. 상기 제2 컨텐츠는 상기 기설정된 속성 정보(상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보)를 통해 변환되므로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 상기 제2 컨텐츠 변환 단계는 2D 이미지, 3D 이미지 및 텍스트를 포함하는 오브젝트 이미지를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하기 위해 수행되는 단계일 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠 이미지에 별도의 오브젝트를 구부러짐 현상 없이 합성할 수 있어 완성도가 높은 VR 컨텐츠를 사용자에게 제공하는 효과가 있다.According to an embodiment, the processor may automatically convert the object image into second content based on the preset attribute information. Since the second content is converted through the preset attribute information (information including at least one of a curvature of the first content, an F (focus) value, and an angle of view), the second content may have the same curved shape as the first content. . That is, the second content conversion step may be a step performed to convert an object image including a 2D image, a 3D image, and text into a second content image for VR content. As described above, the present invention has the effect of providing high-quality VR content to the user by synthesizing a separate object in the VR content image without bending.

상기 프로세서는 상기 S105 단계가 완료되는 경우, S107 단계(제3 컨텐츠 생성 단계)를 수행할 수 있다.When step S105 is completed, the processor may perform step S107 (a third content creation step).

S107 단계에서 상기 프로세서는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성할 수 있다.In step S107, the processor may generate the third content by displaying the second content on the first content.

일 실시 예에 따르면, 상기 프로세서는 기설정된 속성 정보를 기반으로 변환된 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은 S103 단계(이미지 입력 단계)에서 제2 사용자 입력을 기반으로 설정한 상기 오브젝트 이미지의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 프로세서는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입할 수 있다. According to an embodiment, the processor may display the second content converted based on preset attribute information in any one of preset areas on the first content. The preset area may be an insertion area of the object image set based on a second user input in step S103 (image input step). Also, the preset area may be any one of the background areas of the first content. For example, the processor may automatically synthesize or insert the second content into an upper left region that is a background region of the first content.

즉, 상기 프로세서는 S107 단계에서 상기 오브젝트 이미지에서 변환된 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 표시하여, 상기 기설정된 영역에 합성 또는 삽입된 제2 컨텐츠를 표시중인 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 자동 생성할 수 있다. 상기와 같이, 본 발명은 자동으로 VR 컨텐츠를 제작함에 따라, 일반인도 어려움 없이 VR 컨텐츠를 제작할 수 있어 사용자에게 편의성을 제공하는 효과를 개시할 수 있다.That is, the processor displays the second content converted from the object image in step S107 in a preset area of the first content, and displays the second content synthesized or inserted in the preset area. It is possible to automatically create a third content that is an image for one completed VR content. As described above, according to the present invention, as VR contents are automatically created, even the general public can produce VR contents without difficulty, thereby providing convenience to users.

도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.2 is a block diagram of an apparatus for applying an object of VR content implemented according to an embodiment of the present invention.

도 2를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치는 제1 컨텐츠 생성부(201), 이미지 입력부(203), 제2 컨텐츠 변환부(205) 및 제3 컨텐츠 생성부(207)를 포함할 수 있다.Referring to FIG. 2 , a computing device including one or more processors and one or more memories for storing instructions executable by the processor includes a first content generating unit 201 , an image input unit 203 , and a second content converting unit 205 . ) and a third content generator 207 .

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 복수 개의 이미지(211)를 획득할 수 있다. 상기 제1 컨텐츠 생성부(201)는 카메라 모듈을 통해 상기 복수 개의 이미지(211)를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. According to an embodiment, the first content generator 201 may acquire a plurality of images 211 . When the plurality of images 211 are acquired through the camera module, the first content generating unit 201 may convert the acquired plurality of images and generate the first content as one image for VR content. .

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지인 상기 VR 컨텐츠용 이미지를 생성할 수 있다. According to an embodiment, the first content generating unit 201 is the VR, which is a stereoscopic image supporting an omnidirectional angle of 360 degrees generated through a stitching technique that overlaps or connects the plurality of acquired images. You can create images for content.

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 생성된 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지(211)를 기반으로 생성될 수 있다. 일 예로, 상기 제1 컨텐츠 생성부(201)는 적어도 하나의 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 제1 컨텐츠 생성부(201)는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 상기 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content that is an image for VR content generated by the first content generator 201 includes not only the image acquired through the camera, but also a plurality of images 211 pre-stored in the memory. can be created based on For example, the first content generating unit 201 may generate the first content, which is an image for VR content, by attaching the first image and the second image acquired through at least one camera module. As another example, the first content generator 201 may generate the first content by connecting the third image and the fourth image previously stored in the memory through a stitching technique.

일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 상기 제1 컨텐츠의 생성이 완료되는 경우, 상기 이미지 입력부(203)는 상기 제1 컨텐츠가 생성된 상태에서 상기 제1 컨텐츠 상에 오브젝트 이미지(213)를 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 수신한 경우, 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출할 수 있으며, 상기 오브젝트 이미지(213)의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지(213)의 크기 및 삽입 영역을 결정할 수 있다.According to an embodiment, when the generation of the first content by the first content generating unit 201 is completed, the image input unit 203 displays the image on the first content while the first content is generated. A first user input for displaying the object image 213 may be received. When receiving the first user input, the image input unit 203 may call the object image 213 pre-stored in the memory, and receive the second user input after the object image 213 is called. can receive When receiving the second user input, the image input unit 203 may determine the size and insertion area of the called object image 213 based on the second user input.

일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지(213)를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지(213)는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지인 제1 컨텐츠로 표시되기 위해, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D 이미지 및 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the image input unit 203 may receive the first user input through a display or a touch screen included in the computing device, and the first user input from a separate device connected to the computing device. can receive The first user input is for calling the object image 213 stored in the memory or for calling the object image 213 stored in another electronic device connected to the computing device through a wired network and/or a wireless network. It can be an input. The object image 213 may be at least one of a 2D image and a 3D image before being converted into an image for VR content to be displayed on the first content as the first content, which is an image for VR content.

다른 실시 예에 따르면, 상기 오브젝트 이미지(213)는 제1 사용자 입력에 의해 호출되는 2D 이미지 또는 3D 이미지가 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 상기 이미지 입력부(203)는 텍스트 입력을 기반으로 입력되는 텍스트를 상기 제1 컨텐츠 상에 표시할 수 있다. 즉, 상기 이미지 입력부(203)는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 오브젝트 이미지(213)로 인식할 수 있다.According to another embodiment, the object image 213 may include a text input based on a text input instead of a 2D image or a 3D image called by the first user input. The image input unit 203 may display text input based on the text input on the first content. That is, the image input unit 203 may distinguish the first user input from the text input, and may recognize the inputted text as the object image 213 based on the received text input.

일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지(213)를 호출하는 경우, 상기 호출된 오브젝트 이미지(213)를 상기 제1 컨텐츠 상에 표시할 수 있다. 상기 이미지 입력부(203)는 상기 오브젝트 이미지(213)가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 상기 오브젝트 이미지(213)의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when the object image 213 is called through the first user input, the image input unit 203 may display the called object image 213 on the first content. . The image input unit 203 receives a second user input for determining at least one of a size and an insertion area of the object image 213 while the object image 213 is being displayed on the first content can do. For example, when receiving the second user input, the image input unit 203 may change the size of the object image 213 displayed on the first content to a minimum size based on the second user input. there is. As another example, when receiving the second user input, the image input unit 203 may determine to insert the object image 213 into a left region of the first content.

일 실시 예에 따르면, 상기 이미지 입력부(203)에 의해 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나가 결정되는 경우, 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 곡면 형상을 반영하여 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환할 수 있다.According to an embodiment, when at least one of the size and the insertion area of the object image 213 being displayed on the first content is determined by the image input unit 203 , the second content conversion unit 205 may The image 213 may be converted into second content, which is an image for VR content, by reflecting the curved shape of the first content.

일 실시 예에 따르면, 상기 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지(213)에 반영하여 상기 제2 컨텐츠로 변환할 수 있다. 상기 제2 컨텐츠 변환부(205)는 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 적어도 하나의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, the second content conversion unit 205 reflects the curved shape of the first content to the object image 213 in order to synthesize the object image 213 into the first content without bending. to convert to the second content. The second content conversion unit 205 may convert the object image 213 into the second content based on preset attribute information. The preset attribute information may be information including at least one of a curvature, an F (focus) value, and an angle of view of the first content, and information for determining a curved shape of at least one of the first content and the second content can be

일 실시 예에 따르면, 제2 컨텐츠 변환부(205)는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 제2 컨텐츠로 자동 변환할 수 있다. 상기 제2 컨텐츠는, 상기 오브젝트 이미지(213)가 상기 기설정된 속성 정보를 기반으로 변환된 것으로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 제2 컨텐츠 변환부(205)는 2D 이미지, 3D 이미지 및 텍스트 중 적어도 하나를 포함하는 오브젝트 이미지(213)를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하는 구성일 수 있다.According to an embodiment, the second content conversion unit 205 may automatically convert the object image 213 into second content based on the preset attribute information. The second content is the object image 213 converted based on the preset attribute information, and may have the same curved shape as that of the first content. That is, the second content conversion unit 205 may be configured to convert the object image 213 including at least one of a 2D image, a 3D image, and text into second content that is an image for VR content.

일 실시 예에 따르면, 제2 컨텐츠 변환부(205)에 의해 상기 오브젝트 이미지(213)가 제2 컨텐츠로 변환된 경우, 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠(215)를 생성할 수 있다.According to an embodiment, when the object image 213 is converted into the second content by the second content converter 205 , the third content generator 207 converts the second content onto the first content. displayed, the third content 215 may be generated.

일 실시 예에 따르면, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은, 상기 이미지 입력부(203)가 상기 제2 사용자 입력을 기반으로 결정한 상기 오브젝트 이미지(213)의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)를 생성할 수 있다. 즉, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 자동으로 표시하여, 상기 제2 컨텐츠를 포함하고 있는 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)로 자동 생성할 수 있다. According to an embodiment, the third content generating unit 207 may display the second content in any one of a preset area on the first content. The preset area may be an insertion area of the object image 213 determined by the image input unit 203 based on the second user input. Also, the preset area may be any one of the background areas of the first content. For example, the third content generating unit 207 automatically synthesizes or inserts the second content into the upper left region, which is the background region of the first content, to form a third content that is a completed image for VR content. (215) can be created. That is, the third content generator 207 automatically displays the second content in a preset area of the first content, and converts the first content including the second content into one completed VR content. The image may be automatically generated as the third content 215 .

도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.

도 3(a) 및 (b)를 참조하면, 보편적인 VR 컨텐츠 생성 장치(300)는 디스플레이를 통해 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)를 표시할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 적용 장치(300)에 포함된 적어도 하나의 카메라를 통해 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 중복하거나 이어붙여 하나의 VR 컨텐츠 이미지인 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)로 변환할 수 있다.Referring to FIGS. 3A and 3B , the universal VR content generating apparatus 300 may display the first content ( 301 in FIG. 3A or 305 in FIG. 3B ) through a display. there is. According to an embodiment, the processor overlaps or concatenates a plurality of images acquired through at least one camera included in the application device 300 through a stitching technique to form a first content image as one VR content image. (301 in FIG. 3(a) or 305 in FIG. 3(b)).

일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이를 통해 상기 제1 컨텐츠를 표시하는 동안, 상기 제1 컨텐츠 상에 제2 컨텐츠를 합성 또는 삽입하여 제3 컨텐츠를 생성할 수 있다. 그러나, 상기 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)의 곡면 형상을 반영하지 않은 채, 오브젝트 이미지를 제2 컨텐츠로 변환하는 경우, 구부러짐 현상이 발생할 수 있다. 이에 따라, 보편적인 VR 컨텐츠 생성 장치(300)는, 구부러짐 현상이 발생된 제2 컨텐츠에 의해 상기 제3 컨텐츠의 심미성 및 완성도가 저하되는 문제점을 내재하고 있다. 반면에, 본 발명에 기반한 VR 컨텐츠의 오브젝트 적용 장치는 제2 컨텐츠의 구부러짐 현상을 방지함과 동시에 VR 컨텐츠 제작을 자동으로 수행함으로써, VR 컨텐츠의 완성도를 향상시키는 효과, VR 컨텐츠의 심미성을 향상시키는 효과 및 VR 컨텐츠 제작의 편의성을 제공하는 효과를 가질 수 있다.According to an embodiment, while the first content is displayed through the display, the processor may generate the third content by synthesizing or inserting the second content on the first content. However, when the object image is converted to the second content without reflecting the curved shape of the first content ( 301 in FIG. 3A or 305 in FIG. 3B ), a bending phenomenon may occur. Accordingly, the universal VR content generating apparatus 300 has a problem in that the aesthetics and completeness of the third content are deteriorated due to the second content in which the bending phenomenon has occurred. On the other hand, the device for applying an object of VR content based on the present invention prevents bending of the second content and automatically performs VR content production at the same time, thereby improving the completeness of VR content and improving the aesthetics of VR content. It may have an effect of providing convenience in effect and VR content creation.

도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.4 is a view for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.

도 4(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4A , an apparatus 400 for applying an object to VR content (hereinafter, referred to as an “electronic device”) including one or more processors and one or more memories for storing instructions executable by the processors is a display The first content 401 may be displayed through .

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 입력되는 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive a text input through a display or a touch screen included in the electronic device 400 . According to another embodiment, the processor may receive the text input through a peripheral device (eg, a keyboard and a mouse) connected to the electronic device 400 . According to another embodiment, the processor may receive a text input input from another electronic device connected to the electronic device 400 through a wired network and/or a wireless network.

일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이를 통해 표시중인 상기 제1 컨텐츠(401) 상에 텍스트를 표시할 수 있다. 상기 프로세서는 상기 텍스트 입력을 표시하는 동안, 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 입력 영역 중 적어도 하나를 결정할 수 있다. According to an embodiment, the processor may display text on the first content 401 being displayed through the display based on the received text input. When receiving a second user input while displaying the text input, the processor may determine at least one of a size of the text and an input area based on the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여 상기 제1 컨텐츠(401) 상에 표시된 텍스트를 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(401)의 곡면 형상을 기반으로, 상기 텍스트를 상기 3D 또는 2D 형태로 구성된 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(401)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 텍스트를 상기 제2 컨텐츠(403)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 제2 컨텐츠(403)로 변환될 텍스트의 곡면 형상을 결정할 수 있다. According to an embodiment, the processor may convert the text displayed on the first content 401 into the second content 403 that is a VR content image in response to the completion of the second user input. The processor may convert the text into the second content 403 , which is a VR content image configured in the 3D or 2D form, based on the curved shape of the first content 401 . In more detail, the processor may convert the text into the second content 403 through preset attribute information including at least one of a curvature, a focus (F) value, and an angle of view of the first content 401 . there is. That is, the processor may determine the curved shape of the text to be converted into the second content 403 based on the preset attribute information.

일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 텍스트를 상기 제2 컨텐츠(403)로 변환함에 따라, 상기 제2 컨텐츠(403) 곡면 형상은 상기 제1 컨텐츠(401)와 동일한 곡면 형상을 가질 수 있다.According to an embodiment, as the processor converts the text into the second content 403 based on the preset attribute information, the curved shape of the second content 403 is the first content 401 . may have the same curved shape as

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401) 상의 기설정된 영역에 상기 제2 컨텐츠(403)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(401)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 텍스트의 삽입 영역일 수 있다. According to an embodiment, the processor may insert or synthesize the second content 403 in a preset area on the first content 401 . The preset area may be a background area of the first content 401 or an insertion area of text determined by the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401)의 기설정된 영역에 상기 제2 컨텐츠(403)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(403)를 구부러짐 현상 없이, 제1 컨텐츠(401)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다.According to an embodiment, the processor may display the second content 403 in a preset area of the first content 401 to generate a third content that is an image for one completed VR content. That is, the processor may display the second content 403 on a preset area of the first content 401 without bending, thereby generating a third content that is an image for one completed VR content.

도 4(b)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4(b) , an apparatus 400 for applying an object to VR content (hereinafter, referred to as “electronic device”) including one or more processors and one or more memories for storing instructions executable by the processors is a display. The first content 401 may be displayed through .

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 제1 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 제1 사용자 입력을 수신할 수 있다.According to an embodiment, the processor may receive a first user input through a display or a touch screen included in the electronic device 400 . According to another embodiment, the processor may receive the first user input through a peripheral device (eg, a keyboard and a mouse) connected to the electronic device 400 .

일 실시 예에 따르면, 상기 프로세서는 상기 수신한 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 2D 이미지 또는 3D 이미지(예: 캐릭터)를 표시할 수 있다. 상기 제1 사용자 입력을 기반으로 표시되는 상기 2D 이미지 또는 상기 3D 이미지는 오브젝트 이미지로, VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환되기 전의 이미지일 수 있다. According to an embodiment, the processor may display a 2D image or a 3D image (eg, a character) on the first content 405 based on the received first user input. The 2D image or the 3D image displayed based on the first user input may be an object image and may be an image before being converted into the second content 407 which is an image for VR content.

일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 수신한 제2 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 표시 중인 오브젝트 이미지(예: 캐릭터)의 크기 및 삽입 영역 중 적어도 하나를 결정할 수 있다.According to an embodiment, the processor may receive the second user input. The processor may determine at least one of a size and an insertion area of an object image (eg, a character) being displayed on the first content 405 based on the received second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여, 상기 제1 컨텐츠(405) 상에 표시중인 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(405)의 곡면 형상을 기반으로, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(405)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 오브젝트 이미지를 상기 VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로 상기 제2 컨텐츠(407)로 변환될 오브젝트 이미지의 곡면 형상을 결정할 수 있다. According to an embodiment, in response to the completion of the second user input, the processor may convert the object image displayed on the first content 405 into the second content 407 that is a VR content image. The processor may convert the object image into the second content 407 that is a VR content image based on the curved shape of the first content 405 . In more detail, the processor converts the object image to the second content (image for VR content) through preset attribute information including at least one of a curvature, a focus (F) value, and an angle of view of the first content 405 . 407) can be converted to That is, the processor may determine the curved shape of the object image to be converted into the second content 407 based on the preset attribute information.

일 실시 예에 따르면, 상기 프로세서가 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 상기 제2 컨텐츠(407)로 변환함에 따라, 상기 제2 컨텐츠(407)의 곡면 형상은 상기 제1 컨텐츠(405)와 동일한 곡면 형상을 가질 수 있다. According to an embodiment, as the processor converts the object image into the second content 407 based on the preset attribute information, the curved shape of the second content 407 changes to the first content ( 405) and may have the same curved shape.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405) 상의 기설정된 영역에 상기 제2 컨텐츠(407)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(405)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 오브젝트 이미지의 삽입 영역일 수 있다. According to an embodiment, the processor may insert or synthesize the second content 407 in a preset area on the first content 405 . The preset area may be a background area of the first content 405 or an insertion area of an object image determined by the second user input.

일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405)의 기설정된 영역에 상기 제2 컨텐츠(407)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(407)를 구부러짐 현상 없이, 제1 컨텐츠(405)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다. 상기와 같이, 본 발명은 텍스트 및 오브젝트 이미지를 VR 컨텐츠용 이미지로 변환할 수 있어, VR 컨텐츠를 다양한 작업 환경에 제공하는 효과를 가질 수 있다.According to an embodiment, the processor may display the second content 407 in a preset area of the first content 405 to generate a third content that is an image for one completed VR content. That is, the processor may display the second content 407 on a preset area of the first content 405 without bending, thereby generating a third content that is an image for one completed VR content. As described above, the present invention can convert text and object images into images for VR content, and thus can have the effect of providing VR content to various work environments.

도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.5 is another diagram for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.

도 5를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(501)를 표시할 수 있다.Referring to FIG. 5 , an apparatus 400 for applying an object to VR content (hereinafter, referred to as “electronic device”) including one or more processors and one or more memories for storing instructions executable by the processors is provided through a display. 1 content 501 may be displayed.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(501)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(501)를 상기 디스플레이를 통해 표시하는 동안, 텍스트 입력 및 제1 사용자 입력 중 적어도 하나를 수신할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the electronic device 400 . The processor may convert the plurality of acquired images into a first content 501 that is an image for one VR content through a stitching technique. The processor may receive at least one of a text input and a first user input while displaying the first content 501 through the display.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive a text input through a display or a touch screen included in the electronic device 500 . According to another embodiment, the processor may receive the text input through a peripheral device (eg, a keyboard and a mouse) connected to the electronic device 500 .

일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이 상에 텍스트(503)를 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치를 통해 입력되는 텍스트 입력을 기반으로, 상기 전자 장치(500)의 디스플레이 상에 텍스트(503)를 표시할 수 있다.According to an embodiment, the processor may display the text 503 on the display based on the received text input. According to another embodiment, the processor may display the text 503 on the display of the electronic device 500 based on a text input input through another electronic device connected to the electronic device 500 .

일 실시 예에 따르면, 상기 프로세서는 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 것에 대응하여, 상기 전자 장치(500)의 메모리에 기저장된 오브젝트 이미지를 상기 디스플레이를 통해 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 상기 오브젝트 이미지를 호출하여 상기 전자 장치(500)의 디스플레이 상에 표시할 수 있다.According to an embodiment, the processor may receive a first user input. In response to receiving the first user input, the processor may display an object image previously stored in the memory of the electronic device 500 through the display. According to another embodiment, the processor may call the object image from another electronic device connected to the electronic device 500 through a wired network and/or a wireless network and display it on the display of the electronic device 500 . .

일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이 또는 상기 터치스크린을 통해 제3 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치로부터 제3 사용자 입력을 수신할 수 있다. 상기 제3 사용자 입력은 상기 텍스트 입력 또는 상기 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(501) 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위하여 작업 상자(505)를 호출하는 입력일 수 있다. 상기 프로세서는 상기 제3 사용자 입력을 수신한 것에 대응하여 상기 제1 컨텐츠(501)의 일 영역에 상기 작업 상자(505)를 표시할 수 있다. According to an embodiment, the processor may receive a third user input through the display or the touch screen. According to another embodiment, the processor may receive a third user input from another electronic device connected to the electronic device 500 . The third user input may be an input for calling the work box 505 to edit the text or object image input on the first content 501 based on the text input or the first user input. The processor may display the task box 505 in one area of the first content 501 in response to receiving the third user input.

일 실시 예에 따르면, 상기 작업 상자(505)는 상기 텍스트(503) 또는 오브젝트 이미지의 시각 효과를 변경하기 위한 기능을 포함할 수 있다. 예를 들어, 상기 작업 상자(505)는 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경과 같은 기능을 포함할 수 있다. 상기 작업 상자(505)의 기능은 일부 삭제되거나 추가될 수 있으며, 상기 개시된 기능으로 한정되지 않는다. 상기와 같이, 본 발명은 별도의 작업 상자(505)를 통해 오브젝트 이미지에 다양한 시각 효과를 적용할 수 있어, 완성된 VR 컨텐츠의 심미성 및 완성도를 향상시키는 효과를 가질 수 있다.According to an embodiment, the work box 505 may include a function for changing a visual effect of the text 503 or an object image. For example, the work box 505 may include functions such as contrast adjustment, size adjustment, font change, effect application, and position change. The functions of the task box 505 may be partially deleted or added, and is not limited to the above-described functions. As described above, the present invention can apply various visual effects to an object image through a separate work box 505 , thereby improving the aesthetics and completeness of the completed VR content.

도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of sharing a third content generated through an object application method of VR content implemented according to an embodiment of the present invention with another electronic device.

도 6을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 통신 모듈(미도시)를 포함할 수 있다.Referring to FIG. 6 , the apparatus 400 for applying an object to VR content including one or more processors and one or more memories for storing instructions executable by the processors (hereinafter, referred to as “electronic device”) includes a communication module (not shown). city) may be included.

일 실시 예에 따르면, 상기 프로세서는 상기 통신 모듈을 통해 다른 전자 장치(610)와 통신적으로 연결될 수 있다. 상기 다른 전자 장치(610)는 스마트 폰, 데스크 탑, 테블릿 및 웨어러블 장치일 수 있으며, 상기 전자 장치(600)로부터 VR 컨텐츠용 이미지를 송수신할 수 있으면, 이에 한정되지 않는다.According to an embodiment, the processor may be communicatively connected to another electronic device 610 through the communication module. The other electronic device 610 may be a smart phone, a desktop device, a tablet, or a wearable device, and is not limited thereto as long as it can transmit/receive an image for VR content from the electronic device 600 .

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(600)의 디스플레이를 통해 표시중인 제1 컨텐츠(601) 및 제2 컨텐츠(603)를 포함하는 제3 컨텐츠를 상기 통신 모듈을 통해 상기 다른 전자 장치(610)에 전송할 수 있다. According to an embodiment, the processor transmits third content including the first content 601 and the second content 603 being displayed through the display of the electronic device 600 to the other electronic device through the communication module. 610 may be transmitted.

일 실시 예에 따르면, 상기 전자 장치(600)로부터 상기 제3 컨텐츠를 수신한 다른 전자 장치(610)는 상기 제3 컨텐츠와 동일한 제6 컨텐츠를 표시할 수 있다. 상기 제6 컨텐츠는 상기 제1 컨텐츠(601)와 동일한 제4 컨텐츠(611) 및 상기 제2 컨텐츠(603)와 동일한 제5 컨텐츠(613)를 포함하는 컨텐츠일 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)가 통신적으로 연결되는 경우, VR 컨텐츠용 이미지를 공유할 수 있다.According to an embodiment, the other electronic device 610 that has received the third content from the electronic device 600 may display the same sixth content as the third content. The sixth content may be content including a fourth content 611 identical to the first content 601 and a fifth content 613 identical to the second content 603 . That is, when the electronic device 600 and the other electronic device 610 are communicatively connected, an image for VR content may be shared.

일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠에 포함된 일부 구성(예: 제2 컨텐츠(603))이 변경되는 경우, 상기 다른 전자 장치(610)에 상기 변경된 구성에 대한 정보(이하, "변경 정보"로 칭함)를 실시간으로 전송할 수 있다. 상기 변경 정보는 변경되는 구성과 관련된 정보일 수 있다. According to an embodiment, when a part of the configuration (eg, the second content 603) included in the third content is changed, the processor provides information on the changed configuration to the other electronic device 610 (hereinafter, referred to as "change information") may be transmitted in real time. The change information may be information related to a changed configuration.

예를 들어, 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경된 경우, 상기 변경 정보는 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경되었음을 알리는 정보를 포함할 수 있다. 상기 다른 전자 장치(610)는 상기 변경 정보를 수신하는 경우, 상기 제2 컨텐츠(603)와 대응하는 제5 컨텐츠(613)의 크기를 "10"으로 변경할 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)는 하나의 동일한 VR 컨텐츠용 이미지를 공유함에 따라, 상기 변경 정보를 기반으로 상기 VR 컨텐츠용 이미지에 포함된 구성들 중 적어도 하나를 동일하게 변경할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 복수 개의 다른 전자 장치와 공유할 수 있어, VR 컨텐츠의 확산 속도를 향상시키는 효과를 가질 수 있다.For example, when the size of the second content 603 is changed to “10”, the change information may include information indicating that the size of the second content 603 is changed to “10”. When receiving the change information, the other electronic device 610 may change the size of the fifth content 613 corresponding to the second content 603 to “10”. That is, as the electronic device 600 and the other electronic device 610 share one and the same image for VR content, at least one of the components included in the image for VR content is the same based on the change information. can be changed to As described above, according to the present invention, VR content can be shared with a plurality of other electronic devices, and thus the diffusion speed of VR content can be improved.

도 7은 본 발명의 일 실시예에 따른 FOV(field of view)를 기반으로, 제2 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.7 is a view for explaining a method of connecting to a link linked to a second content based on a field of view (FOV) according to an embodiment of the present invention.

도 7(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(700)(이하, "전자 장치"라 칭함)는 제1 컨텐츠(701) 및 제2 컨텐츠(703)를 포함하는 제3 컨텐츠를 디스플레이를 통해 표시할 수 있다.Referring to FIG. 7( a ), an apparatus 700 for applying an object to VR content (hereinafter, referred to as “electronic device”) including one or more processors and one or more memories for storing instructions executable by the processors is a first Third content including the first content 701 and the second content 703 may be displayed through the display.

일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(700)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 중복 또는 이어 붙이는 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(701)로 생성할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(701)의 기설정된 영역에 제2 컨텐츠(703)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 출력할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the electronic device 700 . The processor may generate the first content 701 as one image for VR content through a stitching technique in which the plurality of acquired images are overlapped or connected. The processor may display a second content 703 in a preset area of the first content 701 to output a third content that is an image for one completed VR content.

일 실시 예에 따르면, 상기 제2 컨텐츠(703)는 상기 제2 컨텐츠(703)와 관련된 링크(link) 정보를 포함할 수 있다. 예를 들어, 도 (a)를 참조하면, 상기 제2 컨텐츠(703)는 "보물 322호"라는 형태의 VR 컨텐츠용 이미지일 수 있다. 상기 제2 컨텐츠(703)는 상기 보물 322호와 관련된 정보를 포함하는 링크 정보를 포함할 수 있다. 즉, 상기 링크 정보는 본 발명의 설계 과정에 변경될 수 있다.According to an embodiment, the second content 703 may include link information related to the second content 703 . For example, referring to FIG. (a) , the second content 703 may be an image for VR content in the form of “Treasure No. 322”. The second content 703 may include link information including information related to the treasure 322 . That is, the link information may be changed during the design process of the present invention.

일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 영역 중 일 영역이 상기 디스플레이에 표시되는 경우, 상기 일 영역이 상기 디스플레이를 통해 지정된 시간 동안 표시되는지를 인식할 수 있다. 즉, 상기 프로세서는 상기 지정된 시간을 기반으로, 사용자의 관심 영역인 ROI(region of interest)을 분석할 수 있다.According to an embodiment, when one of the areas of the third content is displayed on the display, the processor may recognize whether the one area is displayed through the display for a specified time. That is, the processor may analyze a region of interest (ROI), which is the user's region of interest, based on the specified time.

일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)를 표시할 수 있다. 상기 제2 컨텐츠(703)는 상기 제3 컨텐츠에 포함된 장소, 건물, 사람 및 물품과 같은 구성물의 인근에 위치할 수 있다. 예를 들어, 상기 프로세서는 상기 제3 컨텐츠에 포함된 구성물인 건물 인근에 "보물 322호"라는 3D 이미지 형태의 VR 컨텐츠용 이미지인 제2 컨텐츠(703)를 표시할 수 있다.According to an embodiment, the processor may display the second content 703 in one area of the third content. The second content 703 may be located in the vicinity of a place, a building, a person, and an article included in the third content. For example, the processor may display the second content 703 that is an image for VR content in the form of a 3D image called “Treasure No. 322” near a building that is a component included in the third content.

일 실시 예에 따르면, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 지정된 시간동안 표시되는지를 측정할 수 있다. 상기 프로세서는 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 상기 지정된 시간 이상으로 표시되는 경우, 상기 제3 컨텐츠의 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다.According to an embodiment, when the second content 703 is located in one region of the third content, the processor is configured to display a region of the third content including the second content 703 through the display. It can be measured whether it is displayed for a specified time. When a region of the third content including the second content 703 is displayed for more than the specified time through the display, the processor determines that the region of the third content is the user's region of interest (ROI). can judge

일 실시 예에 따르면, 상기 제3 컨텐츠의 일 영역이 상기 사용자의 관심 영역인 것을 판단한 프로세서는, 상기 제2 컨텐츠(703)가 링크 정보를 포함하고 있는지를 확인할 수 있다. 상기 제2 컨텐츠(703)가 상기 링크 정보를 포함하는 경우, 도(b)와 같이 상기 링크 정보를 기반으로 상기 제2 컨텐츠(703)와 관련된 화면(705)을 출력할 수 있다. According to an embodiment, the processor that determines that the one area of the third content is the user's interest area may check whether the second content 703 includes link information. When the second content 703 includes the link information, a screen 705 related to the second content 703 may be output based on the link information as shown in FIG. (b).

예를 들어, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역이 지정된 시간인 10초 이상 표시되는 경우, 상기 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다. 상기 프로세서는 상기 일 영역이 사용자의 관심 영역을 판단한 경우, 상기 사용자의 관심 영역에"보물 322호"라는 3D 이미지 형태인 제2 컨텐츠(703)가 위치하는지를 확인할 수 있다. 상기 프로세서는 상기 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 제2 컨텐츠(703)에 연동된 링크 정보가 있는지를 확인할 수 있다. 상기 프로세서는 상기 제2 컨텐츠(703)에 연동된 링크 정보가 존재하는 경우, 상기 링크 정보가 포함하고 있는 링크에 접속하여 상기 디스플레이를 통해 상기 "보물 322호"의 정보를 개시하고 있는 화면(705)을 출력할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 제공함과 동시에 보다 많은 유효 정보를 제공할 수 있기 때문에, 향상된 교육 효과를 제공할 수 있다. 또한, 확인된 사용자의 관심 영역(ROI) 정보는 다양한 데이터 연구 분야에 활용할 수 있는 효과를 가질 수 있다.For example, when the one region of the third content is displayed for 10 seconds or longer, which is a specified time, the processor may determine that the one region is the user's region of interest (ROI). When the one region determines the user's ROI, the processor may determine whether the second content 703 in the form of a 3D image of "treasure No. 322" is located in the user's ROI. When the second content 703 is located in the one area, the processor may check whether there is link information linked to the second content 703 . When the link information linked to the second content 703 exists, the processor accesses the link included in the link information and displays the information of the “Treasure No. 322” through the display screen 705 ) can be printed. As described above, since the present invention can provide more effective information while providing VR content, an improved educational effect can be provided. In addition, the confirmed user's region of interest (ROI) information may have an effect that can be utilized in various data research fields.

도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 7에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.8 illustrates an example of an internal configuration of a computing device according to an embodiment of the present invention, and in the following description, descriptions of unnecessary embodiments that overlap with those of FIGS. 1 to 7 will be omitted. do it with

도 8에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.8, the computing device 10000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( It may include at least an I/O subsystem) 11400 , a power circuit 11500 , and a communication circuit 11600 . In this case, the computing device 10000 may correspond to a user terminal connected to the tactile interface device (A) or the aforementioned computing device (B).

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, a high-speed random access memory, a magnetic disk, an SRAM, a DRAM, a ROM, a flash memory, or a non-volatile memory. there is. The memory 11200 may include a software module, an instruction set, or other various data required for the operation of the computing device 10000 .

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100 .

주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 10000 to processor 11100 and memory 11200 . The processor 11100 may execute a software module or an instruction set stored in the memory 11200 to perform various functions for the computing device 10000 and process data.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 may couple various input/output peripherals to the peripheral interface 11300 . For example, the input/output subsystem 11400 may include a controller for coupling a peripheral device such as a monitor, keyboard, mouse, printer, or a touch screen or sensor as needed to the peripheral interface 11300 . According to another aspect, input/output peripherals may be coupled to peripheral interface 11300 without going through input/output subsystem 11400 .

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or a power source. It may include any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may include an RF circuit to transmit and receive an RF signal, also known as an electromagnetic signal, to enable communication with other computing devices.

이러한 도 8의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 8에 도시된 일부 컴포넌트가 생략되거나, 도 8에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 8에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 8 is only an example of the computing device 10000, and the computing device 11000 may omit some components shown in FIG. 8, or further include additional components not shown in FIG. 8, or 2 It may have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. 8 , and may include various communication methods (WiFi, 3G, LTE) in the communication circuit 1160 , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 10000 may be implemented in hardware including an integrated circuit specialized for one or more signal processing or applications, software, or a combination of both hardware and software.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed in the user terminal through a file provided by the file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file in response to a request from the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be permanently or temporarily embody in The software may be distributed over networked computing devices, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible for those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the following claims.

Claims (10)

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법에 있어서,
적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 VR 컨텐츠의 오브젝트 적용 방법.
In the object application method of VR content implemented by a computing device including one or more processors and one or more memories for storing instructions executable by the processor,
a first content creation step of generating a first content by converting the plurality of acquired images into one VR content image when acquiring a plurality of images through at least one camera module;
When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input step of calling the object image and determining a size and an insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image of which the size and the insertion area are determined into second content, and reflecting the curved shape of the first content, which is VR content, into second content ; and
and a third content generation step of generating the third content by displaying the second content on the first content.
제1항에 있어서,
상기 사용자 편집 단계는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The user editing step is
In order to automatically synthesize and display the second content in a preset area of the first content, the object image is edited based on the second user input.
제2항에 있어서,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
3. The method of claim 2,
The preset area is
The object application method of VR content, characterized in that it includes a background area of the first content.
제1항에 있어서,
제2 컨텐츠 변환 단계는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The second content conversion step is,
The object application method of VR content, characterized in that, based on preset attribute information, converting the object image having the size and the insertion area determined into the second content.
제4항에 있어서,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
5. The method of claim 4,
The preset attribute information is
The object application method of VR content, characterized in that it is determined based on the curvature, F value, and angle of view of the first content.
제1항에 있어서,
상기 제1 컨텐츠 생성 단계는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The first content creation step is,
An object application method of VR content, characterized in that by attaching the plurality of images obtained through a stitching technique to generate the single image for VR content.
제1항에 있어서,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The object image is
An object application method of VR content, comprising at least one of a 3D image, a 2D image, and text.
제1항에 있어서,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능한 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The third content is
An object application method of VR content, characterized in that it can be transmitted to another electronic device through a communication module.
하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠에 대한 오브젝트 적용 장치에 있어서,
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성부;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력부;
상기 이미지 입력부의 동작의 완료되는 경우, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환부; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성부;를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치.
In the object application device for VR content implemented as a computing device including one or more processors and one or more memories for storing instructions executable by the processor,
a first content generating unit that, when acquiring a plurality of images through a plurality of camera modules, converts the plurality of acquired images into one image and generates a first content;
When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input unit configured to call the object image and determine a size and insertion area of the object image according to a user input and the second user input;
When the operation of the image input unit is completed, the object image having the size and the insertion area determined is converted into second content, and the second content is converted into second content by reflecting the curved shape of the first content, which is VR content conversion unit; and
and a third content generator configured to generate third content by displaying the second content on the first content.
컴퓨터-판독가능 기록매체로서,
상기 컴퓨터-판독가능 기록매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은;
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 하는 컴퓨터-판독가능 기록매체.
A computer-readable recording medium comprising:
The computer-readable recording medium stores instructions for causing a computing device to perform the following steps;
a first content creation step of generating a first content by converting the plurality of acquired images into one VR content image when acquiring a plurality of images through a plurality of camera modules;
When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input step of calling the object image and determining a size and an insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image of which the size and the insertion area are determined into second content, and reflecting the curved shape of the first content, which is VR content, into second content ; and
and a third content generating step of generating third content by displaying the second content on the first content.
KR1020200149248A 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content KR102541262B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200149248A KR102541262B1 (en) 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200149248A KR102541262B1 (en) 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content

Publications (2)

Publication Number Publication Date
KR20220063419A true KR20220063419A (en) 2022-05-17
KR102541262B1 KR102541262B1 (en) 2023-06-07

Family

ID=81799649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200149248A KR102541262B1 (en) 2020-11-10 2020-11-10 METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content

Country Status (1)

Country Link
KR (1) KR102541262B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200035696A (en) * 2018-09-27 2020-04-06 주식회사 더픽트 System and method for editing virtual reality image and video

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200035696A (en) * 2018-09-27 2020-04-06 주식회사 더픽트 System and method for editing virtual reality image and video

Also Published As

Publication number Publication date
KR102541262B1 (en) 2023-06-07

Similar Documents

Publication Publication Date Title
US11200617B2 (en) Efficient rendering of 3D models using model placement metadata
US9818228B2 (en) Mixed reality social interaction
Hilfert et al. Low-cost virtual reality environment for engineering and construction
KR20220035380A (en) System and method for augmented reality scenes
KR102263133B1 (en) Device for providing 3d virtual exhibition space production service
CN117197403A (en) Mixed reality system and method for generating virtual content using the same
JP2021524094A (en) Application virtual scene recognition and interaction key matching method, and arithmetic unit
JP7128188B2 (en) 3D MODEL CONSTRUCTION METHOD, APPARATUS AND SYSTEM
JP6920057B2 (en) Image processing equipment, image processing method, computer program
US10620807B2 (en) Association of objects in a three-dimensional model with time-related metadata
Vajak et al. Combining photogrammetry, 3D modeling and real time information gathering for highly immersive VR experience
CN110286906B (en) User interface display method and device, storage medium and mobile terminal
Borycki Programming for Mixed Reality with Windows 10, Unity, Vuforia, and UrhoSharp
KR102541262B1 (en) METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content
JP2016122443A (en) Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program
CN115861577A (en) Method, device and equipment for editing posture of virtual field scene and storage medium
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
KR20170006219A (en) Method for three dimensions modeling service and Apparatus therefor
CN114913277A (en) Method, device, equipment and medium for three-dimensional interactive display of object
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
CN114138250A (en) Method, device and equipment for generating steps of system case and storage medium
JP2017084215A (en) Information processing system, control method thereof, and program
KR20210046967A (en) Method, apparatus and computer readable recording medium of rroviding authoring platform for authoring augmented reality contents
US20180225883A1 (en) Non-transitory computer-readable storage medium, display control method, and display control apparatus
KR102483078B1 (en) Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant