KR102541262B1 - METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content - Google Patents
METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content Download PDFInfo
- Publication number
- KR102541262B1 KR102541262B1 KR1020200149248A KR20200149248A KR102541262B1 KR 102541262 B1 KR102541262 B1 KR 102541262B1 KR 1020200149248 A KR1020200149248 A KR 1020200149248A KR 20200149248 A KR20200149248 A KR 20200149248A KR 102541262 B1 KR102541262 B1 KR 102541262B1
- Authority
- KR
- South Korea
- Prior art keywords
- content
- object image
- image
- user input
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Abstract
본 발명은 VR 컨텐츠의 오브젝트 적용 방법, 장치 및 컴퓨터-판독 가능 기록 매체에 관한 것으로서, 본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계; 상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계; 상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및 상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 한다. 이 외에도 본 문서를 통해 파악되는 다양한 실시예들이 가능하다.The present invention relates to a method, apparatus, and computer-readable recording medium for applying VR contents to objects, and includes one or more processors and one or more memories storing instructions executable by the processors according to an embodiment of the present invention. A method of applying an object to VR contents implemented by a device includes a first method of generating first content by converting the acquired plurality of images into one VR contents image when acquiring a plurality of images through at least one camera module. Content creation step; When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input; Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and a third content generation step of generating third content by displaying the second content on the first content. In addition to this, various embodiments understood through this document are possible.
Description
본 발명은 VR 컨텐츠의 오브젝트 적용 방법에 관한 것으로서, 구체적으로는 표시 중인 360VR 컨텐츠의 곡면 형상을 별도의 오브젝트에 자동으로 반영하고, 360VR 컨텐츠에 VR 컨텐츠용 이미지로 자동으로 삽입 또는 합성할 수 있다. 이에 따라, 오브젝트의 구부러짐 현상을 방지할 수 있어 완성도가 높은 360VR 컨텐츠를 획득할 수 있다. 또한, 360VR 컨텐츠를 자동으로 생성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 향상시키는 효과를 가질 수 있다.The present invention relates to a method for applying VR content to an object, and specifically, the curved shape of 360VR content being displayed can be automatically reflected in a separate object and automatically inserted or synthesized as an image for VR content in 360VR content. Accordingly, bending of the object can be prevented, and 360VR content with a high degree of completion can be obtained. In addition, by automatically generating 360VR content, it is possible to have an effect of supporting various and unique production ideas of 360VR content to the general public as well as experts and improving the spread of related content.
VR(virtual reality) 즉, 가상현실은 사이버 공간(Cyber Space)에서 체험되는 현실을 가리키는데, 이때 사이버 공간이란 전자 장치를 통해 생성된 가상의 공간으로, 3차원 시각 효과를 통해 현실성을 부여하는 공간을 말한다. VR 기술은 사용자에게 실감나는 몰입감을 제공하기 위하여 실존하는 물체를 시뮬레이션할 수 있을 뿐만 아니라, 실제로 존재하지 않는 물체 또는 상황을 체험할 수 있도록할 수 있다. 특히, 최근에는 1인 컨텐츠가 대두됨에 따라 VR 기술을 활용한 VR 컨텐츠가 활발하게 증가하고 있다. 일 예로서, 한국공개특허 10-2020-0101583(VR 영상 컨텐츠 제작 방법, 장치 및 프로그램)에는, 하나 이상의 360도 영상을 획득하고, 상기 360도 영상 간의 재생 순위를 설정하는 단계; 상기 360도 영상 내 특정 지점 또는 객체를 오브젝트로 선택하고, 상기 선택된 오브젝트에 정보태그를 설정하는 단계; 및 상기 선택된 둘 이상의 오브젝트의 재생 순위를 설정하는 단계;를 포함하며, 상기 정보태그는 해당 오브젝트에 대한 부가정보를 포함하며, 각 오브젝트가 재생될 때 상기 VR 영상 내 특정 위치에 표출되는 것이고, 상기 제작된 VR 영상 컨텐츠는 상기 설정된 오브젝트 재생 순위에 따라서 상기 360도 영상이 순차적으로 재생하는 기술이 개시되어 있다.VR (virtual reality), that is, virtual reality, refers to the reality experienced in cyberspace. At this time, cyberspace is a virtual space created through electronic devices, a space that gives reality through three-dimensional visual effects. says VR technology not only simulates real objects to provide a realistic sense of immersion to users, but also allows users to experience objects or situations that do not actually exist. In particular, as single-person content has emerged recently, VR content using VR technology is actively increasing. As an example, Korean Patent Publication No. 10-2020-0101583 (VR video content production method, apparatus and program) includes obtaining one or more 360-degree videos and setting a playback order between the 360-degree videos; selecting a specific point or object in the 360 degree image as an object and setting an information tag to the selected object; and setting a reproduction order of the selected two or more objects, wherein the information tag includes additional information about the corresponding object, and is displayed at a specific location in the VR image when each object is reproduced. A technique for sequentially reproducing the 360-degree video according to the set object reproduction order of the produced VR video contents is disclosed.
그러나, 상술한 선행기술에서는 VR 컨텐츠를 제작하는 기술이 개시되어 있으나, 360 곡면 형상인 VR 컨텐츠에 합성되는 오브젝트의 구부러짐 또는 이탈 현상을 방지하기 위한 기술이 개시되어 있지 않음에 따라, VR 컨텐츠의 제작에 숙달하지 않은 일반인이 상기 선행기술을 통해 VR 컨텐츠를 제작하는 경우, 완성도가 높지 않은 VR 컨텐츠가 제작되는 문제점을 내재하고 있다.However, in the above-mentioned prior art, although a technology for producing VR contents is disclosed, a technology for preventing bending or separation of an object synthesized in a 360-degree curved VR content is not disclosed, and thus, production of VR contents When an ordinary person who is not proficient in producing VR contents through the above prior art, there is a problem that VR contents that are not high in completion are produced.
이에 본 발명은, VR 컨텐츠의 오브젝트 적용 방법에 있어서, 구체적으로는 360VR 컨텐츠에 360VR 제공 장치의 고유한 속성 값 반영한 별도의 오브젝트를 자동으로 합성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 하기 위한 기술을 제공하는 것에 목적을 가지고 있다.Therefore, in the object application method of VR content, the present invention automatically synthesizes a separate object reflecting the unique attribute value of the 360VR providing device to 360VR content, thereby providing a variety and personality of 360VR content not only to experts but also to the general public. Its purpose is to support existing production ideas and to provide technology for dissemination of related contents.
상기 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법에 있어서, 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계; 상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계; 상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및 상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, in the object application method of VR content implemented by a computing device including one or more processors and one or more memories for storing commands executable by the processors according to an embodiment of the present invention, at least one When acquiring a plurality of images through the camera module of the first content generation step of converting the acquired plurality of images into one image for VR content and generating first content; When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input; Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and a third content generation step of generating third content by displaying the second content on the first content.
상기 사용자 편집 단계는, 상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하는 것이 바람직하다.In the user editing step, it is preferable to edit the object image based on the second user input in order to automatically synthesize and display the second content in a preset area of the first content.
상기 기설정된 영역은, 상기 제1 컨텐츠의 배경 영역을 포함하는 것을 특징으로 한다. 제2 컨텐츠 변환 단계는, 기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하는 것이 가능하다.The predetermined area may include a background area of the first content. In the second content conversion step, based on preset attribute information, it is possible to convert the object image whose size and insertion area are determined into the second content.
상기 기설정된 속성 정보는, 상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되는 것이 가능하다.The predetermined attribute information may be determined based on the curvature, F value, and angle of view of the first content.
상기 제1 컨텐츠 생성 단계는, 스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하는 것이 바람직하다.In the first content generating step, it is preferable to create the single VR content image by attaching the obtained plurality of images through a stitching technique.
상기 오브젝트 이미지는 3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하는 것이 바람직하다.Preferably, the object image includes at least one of a 3D image, a 2D image, and text.
상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능한 것이 바람직하다.Preferably, the third content can be transmitted to other electronic devices through a communication module.
본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, 오브젝트 이미지에 제1 컨텐츠 의 곡면 형상을 반영하여 제2 컨텐츠로 변환하고, 제1 컨텐츠 상에 제2 컨텐츠를 삽입 또는 합성하여 제3 컨텐츠를 자동 생성하기 때문에, VR 컨텐츠용 이미지의 제작 시, 편의성을 제공할 수 있다.According to an embodiment of the present invention, a method for applying a VR content to an object implemented by a computing device including one or more processors and one or more memories storing commands executable by the processors includes applying a curved shape of first content to an object image. Since the second content is reflected and converted into the second content, and the third content is automatically generated by inserting or synthesizing the second content on the first content, convenience can be provided when creating an image for VR content.
또한, 상기 본 발명의 일 실시 예에 따르면, 제1 컨텐츠의 기설정된 영역에서 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 제2 사용자 입력을 기반으로 오브젝트 이미지를 편집할 수 있어, 다양한 형태의 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to one embodiment of the present invention, in order to automatically synthesize and display the second content in a preset area of the first content, the object image can be edited based on the second user input, so that various forms of There is an effect of generating an image for VR content.
또한, 상기 본 발명의 일 실시 예에 따르면, 기설정된 속성 정보를 기반으로, 크기 및 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환할 수 있어, 제3 컨텐츠에 포함된 구성들의 구부러지는 현상을 방지하여 완성도가 높은 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, an object image having a size and an insertion area determined based on predetermined attribute information may be converted into second content, thereby preventing bending of elements included in the third content. There is an effect of generating an image for VR content with a high degree of completion by preventing
또한, 상기 본 발명의 일 실시 예에 따르면, 스티칭(stitching) 기법을 통해 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성할 수 있어, 카메라의 개수가 제한적인 전자 장치에서도 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, a plurality of images acquired through a stitching technique can be joined to create one image for VR content, so that even in an electronic device with a limited number of cameras, There is an effect of generating an image for VR content.
또한, 상기 본 발명의 일 실시 예에 따르면, 상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능하여, 컨텐츠의 확산 속도를 향상시키는 효과가 있다. In addition, according to an embodiment of the present invention, the third content can be transmitted to other electronic devices through a communication module, thereby improving the content spreading speed.
도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.
도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자의 시야를 기반으로, 제3 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.1 is a flowchart illustrating a method of applying an object to VR content implemented according to an embodiment of the present invention.
2 is a block diagram of an object application device for VR content implemented according to an embodiment of the present invention.
3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.
4 is a diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.
5 is another diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.
6 is a diagram for explaining a method of sharing third content generated through an object application method of implemented VR content according to an embodiment of the present invention with another electronic device.
7 is a diagram for explaining a method of being connected to a link associated with third content based on a user's field of view according to an embodiment of the present invention.
8 is a diagram for explaining an example of an internal configuration of a computing device according to an embodiment of the present invention.
이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are disclosed with reference now to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings describe in detail certain illustrative aspects of one or more aspects. However, these aspects are exemplary and some of the various methods in principle of the various aspects may be used, and the described descriptions are intended to include all such aspects and their equivalents.
본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.References to “embodiment,” “example,” “aspect,” “example,” etc., used in this specification should not be construed as indicating that any aspect or design described is preferable to or advantageous over other aspects or designs. .
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. It should be understood that it does not.
또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are those commonly understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the embodiments of the present invention, an ideal or excessively formal meaning not be interpreted as
도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method of applying an object to VR content implemented according to an embodiment of the present invention.
도 1을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, S101 단계(제1 컨텐츠 생성 단계)를 수행할 수 있다. 상기 컴퓨팅 장치는 스마트폰, 데스크 탑, 테블릿 등을 포함할 수 있으며, VR 컨텐츠에 오브젝트를 자동으로 적용할 수 있는 장치이면, 이에 한정되지 않는다.Referring to FIG. 1 , a method for applying a VR content to an object implemented by a computing device including one or more processors and one or more memories storing commands executable by the processors may perform step S101 (first content creation step). can The computing device may include a smart phone, a desktop, a tablet, and the like, and is not limited thereto as long as it is a device capable of automatically applying an object to VR content.
상기 S101 단계에서, 상기 하나 이상의 프로세서(이하 프로세서로 칭함)는 적어도 하나의 카메라 모듈(이하 카메라 모듈로 칭함)을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 카메라 모듈을 통해 복수 개의 이미지를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. In step S101, the one or more processors (hereinafter referred to as processors) may obtain a plurality of images through at least one camera module (hereinafter referred to as camera modules). When acquiring a plurality of images through the camera module, the processor may convert the obtained plurality of images to generate first content, which is an image for VR content.
일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지일 수 있다. 또한, 상기 복수 개의 이미지는 이미지, 사진 및 동영상을 포함할 수 있으며 제1 컨텐츠를 생성할 수 있는 소스(source) 파일이면, 이에 한정되지 않는다.According to an embodiment, the image for VR content may be a stereoscopic image supporting omnidirectional angles of 360 degrees generated through a stitching technique of overlapping or attaching a plurality of acquired images. In addition, the plurality of images may include images, photos, and videos, and are not limited thereto as long as they are source files capable of generating the first content.
일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지를 기반으로 생성될 수 있다. 일 예로, 상기 프로세서는 상기 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content, which is the image for the VR content, may be generated based on a plurality of images pre-stored in the memory as well as an image acquired through the camera. For example, the processor may generate first content, which is an image for VR content, by attaching a first image and a second image acquired through the camera module. For another example, the processor may generate the first content by attaching the third image and the fourth image pre-stored in the memory through a stitching technique.
상기 프로세서는 상기 제1 컨텐츠의 생성이 완료되는 경우, S103 단계(이미지 입력 단계)를 수행할 수 있다.When the generation of the first content is completed, the processor may perform step S103 (image input step).
S103 단계에서 상기 프로세서는 상기 제1 컨텐츠가 생성된 상태에서 오브젝트 이미지를 상기 제1 컨텐츠 상에 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 경우, 상기 오브젝트 이미지를 호출할 수 있으며, 상기 오브젝트 이미지의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지의 크기 및 삽입 영역을 결정할 수 있다.In step S103, the processor may receive a first user input for displaying an object image on the first content in a state in which the first content is generated. When the first user input is received, the processor may call the object image, and may receive a second user input in a state in which the calling of the object image is completed. When receiving the second user input, the processor may determine the size and insertion area of the called object image based on the second user input.
일 실시 예에 따르면, 상기 프로세서는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지를 표시하기 위하여, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D, 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the processor may receive the first user input through a display or a touch screen included in the computing device, and may receive the first user input from a separate device connected to the computing device. there is. The first user input may be an input for calling an object image previously stored in the memory or an object image stored in another electronic device connected to the computing device through a wired network and/or a wireless network. The object image may be at least one of a 2D image and a 3D image before being converted into an image for VR content in order to display the image for VR content on the first content.
다른 실시 예에 따르면, 상기 오브젝트 이미지는 제2 사용자 입력이 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 텍스트 입력을 기반으로, 상기 제1 컨텐츠 상에 텍스트를 표시할 수 있다. 즉, 상기 프로세서는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 VR 컨텐츠용 이미지로 변환하기 위한 오브젝트 이미지로 인식할 수 있다.According to another embodiment, the object image may include text input based on a text input other than the second user input. According to another embodiment, the processor may display text on the first content based on text input. That is, the processor may distinguish between a first user input and a text input, and may recognize the input text as an object image for converting an image for VR content based on the received text input.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지를 호출하는 경우, 상기 호출된 오브젝트 이미지를 상기 디스플레이 또는 터치스크린을 통해 표시중인 제1 컨텐츠 상에 표시할 수 있다. 상기 프로세서는 상기 오브젝트 이미지가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 오브젝트 이미지의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when the object image is called through the first user input, the processor may display the called object image on the first content being displayed through the display or the touch screen. The processor may receive a second user input for determining at least one of a size and an insertion area of the object image while the object image is being displayed on the first content. For example, when receiving the second user input, the processor may change the size of the object image being displayed on the first content to a minimum size based on the second user input. For another example, when receiving the second user input, the processor may determine to insert the object image into a left region of the first content.
또 다른 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 텍스트가 표시 중인 상태에서 상기 제2 사용자 입력을 수신하는 경우, 상기 수신한 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 삽입 영역을 결정할 수 있다. 상기와 같이, 본 발명은 별도의 사용자 입력(예: 제2 사용자 입력)을 통하여 오브젝트 이미지에 다양한 효과를 적용할 수 있어, 다양한 효과가 적용된 VR 컨텐츠를 제공하는 효과가 있다.According to another embodiment, when receiving the second user input while text is being displayed on the first content, the processor determines the size and insertion area of the text based on the received second user input. can decide As described above, the present invention can apply various effects to an object image through a separate user input (eg, a second user input), and thus has an effect of providing VR content to which various effects are applied.
상기 프로세서는 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하는 경우, S105 단계(제2 컨텐츠 변환 단계)를 수행할 수 있다.When determining at least one of the size and insertion area of the object image being displayed on the first content, the processor may perform step S105 (second content conversion step).
S105 단계에서 상기 프로세서는 상기 이미지 입력 단계가 완료되는 경우, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환할 수 있다.In step S105, when the image input step is completed, the processor may convert the object image into second content by reflecting the curved shape of the first content, which is a VR content image.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 표시 중인 상기 오브젝트 이미지의 크기 및 삽입 영역이 결정되는 경우, 상기 오브젝트 이미지를 제2 컨텐츠로 자동 변환할 수 있다. 상기 프로세서는 상기 오브젝트 이미지를 곡면 형상인 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지에 반영할 수 있다. 상기 제1 컨텐츠의 곡면 형상이 반영된 상기 오브젝트 이미지는 제2 컨텐츠로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 기설정된 속성 정보를 기반으로 상기 오브젝트 이미지를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, the processor may automatically convert the object image into the second content when the size and insertion area of the object image being displayed on the first content are determined. The processor may reflect the curved shape of the first content to the object image in order to combine the object image with the curved first content without bending. The object image in which the curved shape of the first content is reflected may be converted into second content. More specifically, the processor may convert the object image into the second content based on preset attribute information. The predetermined attribute information may be information including at least one of a curvature, an F (focus) value, and an angle of view of the first content, and may be information for determining a curved surface shape of the first content.
일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 제2 컨텐츠로 자동으로 변환할 수 있다. 상기 제2 컨텐츠는 상기 기설정된 속성 정보(상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보)를 통해 변환되므로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 상기 제2 컨텐츠 변환 단계는 2D 이미지, 3D 이미지 및 텍스트를 포함하는 오브젝트 이미지를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하기 위해 수행되는 단계일 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠 이미지에 별도의 오브젝트를 구부러짐 현상 없이 합성할 수 있어 완성도가 높은 VR 컨텐츠를 사용자에게 제공하는 효과가 있다.According to an embodiment, the processor may automatically convert the object image into second content based on the preset attribute information. Since the second content is converted through the predetermined attribute information (information including at least one of a curvature, an F (focus) value, and an angle of view of the first content), it may have the same curved surface shape as the first content. . That is, the second content conversion step may be a step performed to convert an object image including a 2D image, a 3D image, and text into a second content image for VR content. As described above, the present invention can synthesize a separate object to a VR content image without bending, and thus has an effect of providing users with VR content with a high degree of completion.
상기 프로세서는 상기 S105 단계가 완료되는 경우, S107 단계(제3 컨텐츠 생성 단계)를 수행할 수 있다.When the step S105 is completed, the processor may perform step S107 (third content creation step).
S107 단계에서 상기 프로세서는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성할 수 있다.In step S107, the processor may display the second content on the first content to generate third content.
일 실시 예에 따르면, 상기 프로세서는 기설정된 속성 정보를 기반으로 변환된 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은 S103 단계(이미지 입력 단계)에서 제2 사용자 입력을 기반으로 설정한 상기 오브젝트 이미지의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 프로세서는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입할 수 있다. According to an embodiment, the processor may display the converted second content based on preset attribute information in one of preset areas on the first content. The preset area may be an insertion area of the object image set based on the second user input in step S103 (image input step). Also, the predetermined area may be any one of background areas of the first content. For example, the processor may automatically synthesize or insert the second content into an upper left area that is a background area of the first content.
즉, 상기 프로세서는 S107 단계에서 상기 오브젝트 이미지에서 변환된 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 표시하여, 상기 기설정된 영역에 합성 또는 삽입된 제2 컨텐츠를 표시중인 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 자동 생성할 수 있다. 상기와 같이, 본 발명은 자동으로 VR 컨텐츠를 제작함에 따라, 일반인도 어려움 없이 VR 컨텐츠를 제작할 수 있어 사용자에게 편의성을 제공하는 효과를 개시할 수 있다.That is, the processor displays the second content converted from the object image in step S107 in a preset area of the first content, and displays the first content synthesized or inserted second content in the preset area. Third content, which is an image for one completed VR content, can be automatically generated. As described above, according to the present invention, as VR contents are automatically produced, ordinary people can produce VR contents without difficulty, thereby providing convenience to users.
도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.2 is a block diagram of an object application device for VR content implemented according to an embodiment of the present invention.
도 2를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치는 제1 컨텐츠 생성부(201), 이미지 입력부(203), 제2 컨텐츠 변환부(205) 및 제3 컨텐츠 생성부(207)를 포함할 수 있다.Referring to FIG. 2 , a computing device including one or more processors and one or more memories storing instructions executable by the processors includes a
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 복수 개의 이미지(211)를 획득할 수 있다. 상기 제1 컨텐츠 생성부(201)는 카메라 모듈을 통해 상기 복수 개의 이미지(211)를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. According to one embodiment, the
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지인 상기 VR 컨텐츠용 이미지를 생성할 수 있다. According to an embodiment, the VR, which is a three-dimensional image supporting omnidirectional angles of 360 degrees, generated by the
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 생성된 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지(211)를 기반으로 생성될 수 있다. 일 예로, 상기 제1 컨텐츠 생성부(201)는 적어도 하나의 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 제1 컨텐츠 생성부(201)는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 상기 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content, which is an image for VR content generated by the
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 상기 제1 컨텐츠의 생성이 완료되는 경우, 상기 이미지 입력부(203)는 상기 제1 컨텐츠가 생성된 상태에서 상기 제1 컨텐츠 상에 오브젝트 이미지(213)를 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 수신한 경우, 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출할 수 있으며, 상기 오브젝트 이미지(213)의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지(213)의 크기 및 삽입 영역을 결정할 수 있다.According to an embodiment, when the generation of the first content by the first
일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지(213)를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지(213)는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지인 제1 컨텐츠로 표시되기 위해, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D 이미지 및 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the
다른 실시 예에 따르면, 상기 오브젝트 이미지(213)는 제1 사용자 입력에 의해 호출되는 2D 이미지 또는 3D 이미지가 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 상기 이미지 입력부(203)는 텍스트 입력을 기반으로 입력되는 텍스트를 상기 제1 컨텐츠 상에 표시할 수 있다. 즉, 상기 이미지 입력부(203)는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 오브젝트 이미지(213)로 인식할 수 있다.According to another embodiment, the
일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지(213)를 호출하는 경우, 상기 호출된 오브젝트 이미지(213)를 상기 제1 컨텐츠 상에 표시할 수 있다. 상기 이미지 입력부(203)는 상기 오브젝트 이미지(213)가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 상기 오브젝트 이미지(213)의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when calling the
일 실시 예에 따르면, 상기 이미지 입력부(203)에 의해 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나가 결정되는 경우, 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 곡면 형상을 반영하여 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환할 수 있다.According to an embodiment, when at least one of the size and insertion area of the
일 실시 예에 따르면, 상기 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지(213)에 반영하여 상기 제2 컨텐츠로 변환할 수 있다. 상기 제2 컨텐츠 변환부(205)는 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 적어도 하나의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, the
일 실시 예에 따르면, 제2 컨텐츠 변환부(205)는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 제2 컨텐츠로 자동 변환할 수 있다. 상기 제2 컨텐츠는, 상기 오브젝트 이미지(213)가 상기 기설정된 속성 정보를 기반으로 변환된 것으로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 제2 컨텐츠 변환부(205)는 2D 이미지, 3D 이미지 및 텍스트 중 적어도 하나를 포함하는 오브젝트 이미지(213)를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하는 구성일 수 있다.According to an embodiment, the second
일 실시 예에 따르면, 제2 컨텐츠 변환부(205)에 의해 상기 오브젝트 이미지(213)가 제2 컨텐츠로 변환된 경우, 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠(215)를 생성할 수 있다.According to an embodiment, when the
일 실시 예에 따르면, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은, 상기 이미지 입력부(203)가 상기 제2 사용자 입력을 기반으로 결정한 상기 오브젝트 이미지(213)의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)를 생성할 수 있다. 즉, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 자동으로 표시하여, 상기 제2 컨텐츠를 포함하고 있는 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)로 자동 생성할 수 있다. According to an embodiment, the
도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.
도 3(a) 및 (b)를 참조하면, 보편적인 VR 컨텐츠 생성 장치(300)는 디스플레이를 통해 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)를 표시할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 적용 장치(300)에 포함된 적어도 하나의 카메라를 통해 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 중복하거나 이어붙여 하나의 VR 컨텐츠 이미지인 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)로 변환할 수 있다.Referring to FIGS. 3(a) and (b), a universal VR
일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이를 통해 상기 제1 컨텐츠를 표시하는 동안, 상기 제1 컨텐츠 상에 제2 컨텐츠를 합성 또는 삽입하여 제3 컨텐츠를 생성할 수 있다. 그러나, 상기 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)의 곡면 형상을 반영하지 않은 채, 오브젝트 이미지를 제2 컨텐츠로 변환하는 경우, 구부러짐 현상이 발생할 수 있다. 이에 따라, 보편적인 VR 컨텐츠 생성 장치(300)는, 구부러짐 현상이 발생된 제2 컨텐츠에 의해 상기 제3 컨텐츠의 심미성 및 완성도가 저하되는 문제점을 내재하고 있다. 반면에, 본 발명에 기반한 VR 컨텐츠의 오브젝트 적용 장치는 제2 컨텐츠의 구부러짐 현상을 방지함과 동시에 VR 컨텐츠 제작을 자동으로 수행함으로써, VR 컨텐츠의 완성도를 향상시키는 효과, VR 컨텐츠의 심미성을 향상시키는 효과 및 VR 컨텐츠 제작의 편의성을 제공하는 효과를 가질 수 있다.According to an embodiment, the processor may create third content by synthesizing or inserting second content onto the first content while displaying the first content through the display. However, when the object image is converted into the second content without reflecting the curved shape of the first content (301 in FIG. 3(a) or 305 in FIG. 3(b)), bending may occur. Accordingly, the universal VR
도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.4 is a diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.
도 4(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4(a) , an object application device 400 (hereinafter referred to as “electronic device”) for VR content including one or more processors and one or more memories storing commands executable by the processors displays The
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 입력되는 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive text input through a display or touch screen included in the
일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이를 통해 표시중인 상기 제1 컨텐츠(401) 상에 텍스트를 표시할 수 있다. 상기 프로세서는 상기 텍스트 입력을 표시하는 동안, 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 입력 영역 중 적어도 하나를 결정할 수 있다. According to an embodiment, the processor may display text on the
일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여 상기 제1 컨텐츠(401) 상에 표시된 텍스트를 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(401)의 곡면 형상을 기반으로, 상기 텍스트를 상기 3D 또는 2D 형태로 구성된 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(401)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 텍스트를 상기 제2 컨텐츠(403)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 제2 컨텐츠(403)로 변환될 텍스트의 곡면 형상을 결정할 수 있다. According to an embodiment, the processor may convert text displayed on the
일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 텍스트를 상기 제2 컨텐츠(403)로 변환함에 따라, 상기 제2 컨텐츠(403) 곡면 형상은 상기 제1 컨텐츠(401)와 동일한 곡면 형상을 가질 수 있다.According to an embodiment, as the processor converts the text into the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401) 상의 기설정된 영역에 상기 제2 컨텐츠(403)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(401)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 텍스트의 삽입 영역일 수 있다. According to an embodiment, the processor may insert or combine the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401)의 기설정된 영역에 상기 제2 컨텐츠(403)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(403)를 구부러짐 현상 없이, 제1 컨텐츠(401)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다.According to an embodiment, the processor may display the
도 4(b)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4(b) , an object application device 400 (hereinafter referred to as “electronic device”) for VR content including one or more processors and one or more memories storing instructions executable by the processors displays The
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 제1 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 제1 사용자 입력을 수신할 수 있다.According to an embodiment, the processor may receive a first user input through a display or a touch screen included in the
일 실시 예에 따르면, 상기 프로세서는 상기 수신한 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 2D 이미지 또는 3D 이미지(예: 캐릭터)를 표시할 수 있다. 상기 제1 사용자 입력을 기반으로 표시되는 상기 2D 이미지 또는 상기 3D 이미지는 오브젝트 이미지로, VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환되기 전의 이미지일 수 있다. According to an embodiment, the processor may display a 2D image or a 3D image (eg, a character) on the
일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 수신한 제2 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 표시 중인 오브젝트 이미지(예: 캐릭터)의 크기 및 삽입 영역 중 적어도 하나를 결정할 수 있다.According to an embodiment, the processor may receive the second user input. The processor may determine at least one of a size and an insertion area of an object image (eg, character) being displayed on the
일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여, 상기 제1 컨텐츠(405) 상에 표시중인 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(405)의 곡면 형상을 기반으로, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(405)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 오브젝트 이미지를 상기 VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로 상기 제2 컨텐츠(407)로 변환될 오브젝트 이미지의 곡면 형상을 결정할 수 있다. According to an embodiment, the processor may convert an object image being displayed on the
일 실시 예에 따르면, 상기 프로세서가 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 상기 제2 컨텐츠(407)로 변환함에 따라, 상기 제2 컨텐츠(407)의 곡면 형상은 상기 제1 컨텐츠(405)와 동일한 곡면 형상을 가질 수 있다. According to an embodiment, as the processor converts the object image into the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405) 상의 기설정된 영역에 상기 제2 컨텐츠(407)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(405)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 오브젝트 이미지의 삽입 영역일 수 있다. According to one embodiment, the processor may insert or combine the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405)의 기설정된 영역에 상기 제2 컨텐츠(407)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(407)를 구부러짐 현상 없이, 제1 컨텐츠(405)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다. 상기와 같이, 본 발명은 텍스트 및 오브젝트 이미지를 VR 컨텐츠용 이미지로 변환할 수 있어, VR 컨텐츠를 다양한 작업 환경에 제공하는 효과를 가질 수 있다.According to an embodiment, the processor may display the
도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.5 is another diagram for explaining third content generated through a method of applying an object to VR content according to an embodiment of the present invention.
도 5를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(501)를 표시할 수 있다.Referring to FIG. 5 , an object application device 400 (hereinafter, referred to as “electronic device”) for VR content including one or more processors and one or more memories storing commands executable by the processors is provided through a display. 1
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(501)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(501)를 상기 디스플레이를 통해 표시하는 동안, 텍스트 입력 및 제1 사용자 입력 중 적어도 하나를 수신할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive text input through a display or touch screen included in the
일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이 상에 텍스트(503)를 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치를 통해 입력되는 텍스트 입력을 기반으로, 상기 전자 장치(500)의 디스플레이 상에 텍스트(503)를 표시할 수 있다.According to an embodiment, the processor may display
일 실시 예에 따르면, 상기 프로세서는 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 것에 대응하여, 상기 전자 장치(500)의 메모리에 기저장된 오브젝트 이미지를 상기 디스플레이를 통해 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 상기 오브젝트 이미지를 호출하여 상기 전자 장치(500)의 디스플레이 상에 표시할 수 있다.According to an embodiment, the processor may receive a first user input. In response to receiving the first user input, the processor may display an object image pre-stored in the memory of the
일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이 또는 상기 터치스크린을 통해 제3 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치로부터 제3 사용자 입력을 수신할 수 있다. 상기 제3 사용자 입력은 상기 텍스트 입력 또는 상기 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(501) 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위하여 작업 상자(505)를 호출하는 입력일 수 있다. 상기 프로세서는 상기 제3 사용자 입력을 수신한 것에 대응하여 상기 제1 컨텐츠(501)의 일 영역에 상기 작업 상자(505)를 표시할 수 있다. According to an embodiment, the processor may receive a third user input through the display or the touch screen. According to another embodiment, the processor may receive a third user input from another electronic device connected to the
일 실시 예에 따르면, 상기 작업 상자(505)는 상기 텍스트(503) 또는 오브젝트 이미지의 시각 효과를 변경하기 위한 기능을 포함할 수 있다. 예를 들어, 상기 작업 상자(505)는 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경과 같은 기능을 포함할 수 있다. 상기 작업 상자(505)의 기능은 일부 삭제되거나 추가될 수 있으며, 상기 개시된 기능으로 한정되지 않는다. 상기와 같이, 본 발명은 별도의 작업 상자(505)를 통해 오브젝트 이미지에 다양한 시각 효과를 적용할 수 있어, 완성된 VR 컨텐츠의 심미성 및 완성도를 향상시키는 효과를 가질 수 있다.According to an embodiment, the
도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of sharing third content generated through an object application method of implemented VR content according to an embodiment of the present invention with another electronic device.
도 6을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 통신 모듈(미도시)를 포함할 수 있다.Referring to FIG. 6 , an
일 실시 예에 따르면, 상기 프로세서는 상기 통신 모듈을 통해 다른 전자 장치(610)와 통신적으로 연결될 수 있다. 상기 다른 전자 장치(610)는 스마트 폰, 데스크 탑, 테블릿 및 웨어러블 장치일 수 있으며, 상기 전자 장치(600)로부터 VR 컨텐츠용 이미지를 송수신할 수 있으면, 이에 한정되지 않는다.According to an embodiment, the processor may be communicatively connected to another electronic device 610 through the communication module. The other electronic device 610 may be a smart phone, desktop, tablet, or wearable device, and is not limited thereto as long as it can transmit/receive images for VR content from the
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(600)의 디스플레이를 통해 표시중인 제1 컨텐츠(601) 및 제2 컨텐츠(603)를 포함하는 제3 컨텐츠를 상기 통신 모듈을 통해 상기 다른 전자 장치(610)에 전송할 수 있다. According to an embodiment, the processor transmits third content including the
일 실시 예에 따르면, 상기 전자 장치(600)로부터 상기 제3 컨텐츠를 수신한 다른 전자 장치(610)는 상기 제3 컨텐츠와 동일한 제6 컨텐츠를 표시할 수 있다. 상기 제6 컨텐츠는 상기 제1 컨텐츠(601)와 동일한 제4 컨텐츠(611) 및 상기 제2 컨텐츠(603)와 동일한 제5 컨텐츠(613)를 포함하는 컨텐츠일 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)가 통신적으로 연결되는 경우, VR 컨텐츠용 이미지를 공유할 수 있다.According to an embodiment, another electronic device 610 receiving the third content from the
일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠에 포함된 일부 구성(예: 제2 컨텐츠(603))이 변경되는 경우, 상기 다른 전자 장치(610)에 상기 변경된 구성에 대한 정보(이하, "변경 정보"로 칭함)를 실시간으로 전송할 수 있다. 상기 변경 정보는 변경되는 구성과 관련된 정보일 수 있다. According to an embodiment, when a part of the configuration (eg, the second content 603) included in the third content is changed, the processor sends information about the changed configuration to the other electronic device 610 (hereinafter, referred to as "change information") can be transmitted in real time. The change information may be information related to a changed configuration.
예를 들어, 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경된 경우, 상기 변경 정보는 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경되었음을 알리는 정보를 포함할 수 있다. 상기 다른 전자 장치(610)는 상기 변경 정보를 수신하는 경우, 상기 제2 컨텐츠(603)와 대응하는 제5 컨텐츠(613)의 크기를 "10"으로 변경할 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)는 하나의 동일한 VR 컨텐츠용 이미지를 공유함에 따라, 상기 변경 정보를 기반으로 상기 VR 컨텐츠용 이미지에 포함된 구성들 중 적어도 하나를 동일하게 변경할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 복수 개의 다른 전자 장치와 공유할 수 있어, VR 컨텐츠의 확산 속도를 향상시키는 효과를 가질 수 있다.For example, when the size of the
도 7은 본 발명의 일 실시예에 따른 FOV(field of view)를 기반으로, 제2 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a method of being connected to a link associated with second content based on a field of view (FOV) according to an embodiment of the present invention.
도 7(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(700)(이하, "전자 장치"라 칭함)는 제1 컨텐츠(701) 및 제2 컨텐츠(703)를 포함하는 제3 컨텐츠를 디스플레이를 통해 표시할 수 있다.Referring to FIG. 7(a) , an
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(700)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 중복 또는 이어 붙이는 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(701)로 생성할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(701)의 기설정된 영역에 제2 컨텐츠(703)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 출력할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the
일 실시 예에 따르면, 상기 제2 컨텐츠(703)는 상기 제2 컨텐츠(703)와 관련된 링크(link) 정보를 포함할 수 있다. 예를 들어, 도 (a)를 참조하면, 상기 제2 컨텐츠(703)는 "보물 322호"라는 형태의 VR 컨텐츠용 이미지일 수 있다. 상기 제2 컨텐츠(703)는 상기 보물 322호와 관련된 정보를 포함하는 링크 정보를 포함할 수 있다. 즉, 상기 링크 정보는 본 발명의 설계 과정에 변경될 수 있다.According to one embodiment, the
일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 영역 중 일 영역이 상기 디스플레이에 표시되는 경우, 상기 일 영역이 상기 디스플레이를 통해 지정된 시간 동안 표시되는지를 인식할 수 있다. 즉, 상기 프로세서는 상기 지정된 시간을 기반으로, 사용자의 관심 영역인 ROI(region of interest)을 분석할 수 있다.According to an embodiment, when one of the regions of the third content is displayed on the display, the processor may recognize whether the one region is displayed for a specified time through the display. That is, the processor may analyze a region of interest (ROI), which is a region of interest of the user, based on the designated time.
일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)를 표시할 수 있다. 상기 제2 컨텐츠(703)는 상기 제3 컨텐츠에 포함된 장소, 건물, 사람 및 물품과 같은 구성물의 인근에 위치할 수 있다. 예를 들어, 상기 프로세서는 상기 제3 컨텐츠에 포함된 구성물인 건물 인근에 "보물 322호"라는 3D 이미지 형태의 VR 컨텐츠용 이미지인 제2 컨텐츠(703)를 표시할 수 있다.According to an embodiment, the processor may display the
일 실시 예에 따르면, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 지정된 시간동안 표시되는지를 측정할 수 있다. 상기 프로세서는 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 상기 지정된 시간 이상으로 표시되는 경우, 상기 제3 컨텐츠의 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다.According to an embodiment, when the
일 실시 예에 따르면, 상기 제3 컨텐츠의 일 영역이 상기 사용자의 관심 영역인 것을 판단한 프로세서는, 상기 제2 컨텐츠(703)가 링크 정보를 포함하고 있는지를 확인할 수 있다. 상기 제2 컨텐츠(703)가 상기 링크 정보를 포함하는 경우, 도(b)와 같이 상기 링크 정보를 기반으로 상기 제2 컨텐츠(703)와 관련된 화면(705)을 출력할 수 있다. According to an embodiment, upon determining that one region of the third content is the user's region of interest, the processor may determine whether the
예를 들어, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역이 지정된 시간인 10초 이상 표시되는 경우, 상기 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다. 상기 프로세서는 상기 일 영역이 사용자의 관심 영역을 판단한 경우, 상기 사용자의 관심 영역에"보물 322호"라는 3D 이미지 형태인 제2 컨텐츠(703)가 위치하는지를 확인할 수 있다. 상기 프로세서는 상기 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 제2 컨텐츠(703)에 연동된 링크 정보가 있는지를 확인할 수 있다. 상기 프로세서는 상기 제2 컨텐츠(703)에 연동된 링크 정보가 존재하는 경우, 상기 링크 정보가 포함하고 있는 링크에 접속하여 상기 디스플레이를 통해 상기 "보물 322호"의 정보를 개시하고 있는 화면(705)을 출력할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 제공함과 동시에 보다 많은 유효 정보를 제공할 수 있기 때문에, 향상된 교육 효과를 제공할 수 있다. 또한, 확인된 사용자의 관심 영역(ROI) 정보는 다양한 데이터 연구 분야에 활용할 수 있는 효과를 가질 수 있다.For example, when one region of the third content is displayed for 10 seconds or more, which is a designated time, the processor may determine that the one region is the user's region of interest (ROI). When determining that the one region is the user's region of interest, the processor may determine whether the
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 7에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.8 illustrates an example of an internal configuration of a computing device according to an embodiment of the present invention, and in the following description, descriptions of unnecessary embodiments overlapping with those of FIGS. 1 to 7 will be omitted. do it with
도 8에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.As shown in FIG. 8, a
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the
주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.Input/output subsystem 11400 can couple various input/output peripherals to
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the
이러한 도 8의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 8에 도시된 일부 컴포넌트가 생략되거나, 도 8에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 8에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 8 is only an example of the
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in computer readable media. In particular, the program according to the present embodiment may be configured as a PC-based program or a mobile terminal-only application. An application to which the present invention is applied may be installed in a user terminal through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of a user terminal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (10)
적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하되,
상기 이미지 입력 단계는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하되,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하되,
제2 컨텐츠 변환 단계는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하되,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되되.
상기 제1 컨텐츠 생성 단계는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하되,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하되,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능하되,
상기 VR 컨텐츠의 오브젝트 적용 방법은,
상기 통신 모듈을 통해 상기 다른 전자 장치로부터 제3 사용자 입력을 수신하는 경우, 상기 수신된 제3 사용자 입력을 기반으로 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위한 작업 상자를 호출하여, 상기 제1 컨텐츠의 일 영역을 통해 상기 호출된 작업 상자를 출력하되,
상기 작업 상자는,
상기 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지 중 적어도 하나의 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경 중 적어도 하나를 포함하는 기능을 제공하는 인터페이스인 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
A method for applying objects to VR content implemented by a computing device including one or more processors and one or more memories storing instructions executable by the processors,
When a plurality of images are acquired through at least one camera module, a first content generation step of converting the acquired plurality of images into one VR content image and generating first content;
When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and
A third content generation step of generating third content by displaying the second content on the first content; including,
The image input step,
In order to automatically synthesize and display the second content in a preset area of the first content, edit the object image based on the second user input,
The preset area is
Including a background area of the first content,
In the second content conversion step,
Based on preset attribute information, converting the object image having the size and the insertion area determined into the second content,
The preset attribute information,
It is determined based on the curvature, F value, and angle of view of the first content.
The first content creation step,
A plurality of images acquired through a stitching technique are connected and attached to create the one image for VR content,
The object image,
Including at least one of 3D images, 2D images and text,
The third content,
Can be transmitted to other electronic devices through the communication module,
The object application method of the VR content,
When a third user input is received from the other electronic device through the communication module, an action box for editing text or an object image input on the first content is called based on the received third user input, Outputting the called operation box through one area of the first content,
The working box,
An object of VR content, characterized in that the interface provides a function including at least one of contrast adjustment, size adjustment, font change, effect application, and position change of at least one of text or object image input on the first content. method of application.
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성부;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력부;
상기 이미지 입력부의 동작의 완료되는 경우, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환부; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성부;를 포함하되,
상기 이미지 입력부는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하되,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하되,
제2 컨텐츠 변환부는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하되,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되되.
상기 제1 컨텐츠 생성부는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하되,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하되,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능하되,
상기 VR 컨텐츠의 오브젝트 적용 장치는,
상기 통신 모듈을 통해 상기 다른 전자 장치로부터 제3 사용자 입력을 수신하는 경우, 상기 수신된 제3 사용자 입력을 기반으로 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위한 작업 상자를 호출하여, 상기 제1 컨텐츠의 일 영역을 통해 상기 호출된 작업 상자를 출력하되,
상기 작업 상자는,
상기 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지 중 적어도 하나의 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경 중 적어도 하나를 포함하는 기능을 제공하는 인터페이스인 것을 특징으로 하는 VR 컨텐츠에 대한 오브젝트 적용 장치.
An object application device for VR content implemented as a computing device including one or more processors and one or more memories storing instructions executable by the processors,
When acquiring a plurality of images through a plurality of camera modules, a first content generator for generating first content by converting the obtained plurality of images into a single image;
When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input unit configured to call the object image and determine a size and insertion area of the object image according to a user input and the second user input;
When the operation of the image input unit is completed, the object image of which the size and the insertion area are determined is converted into the second content, and the second content is converted into the second content by reflecting the curved shape of the first content, which is VR content. conversion unit; and
A third content generator configured to display the second content on the first content and generate third content;
The image input unit,
In order to automatically synthesize and display the second content in a preset area of the first content, edit the object image based on the second user input,
The preset area is
Including a background area of the first content,
The second content conversion unit,
Based on predetermined attribute information, converting the object image having the size and the insertion area determined into the second content,
The preset attribute information,
It is determined based on the curvature, F value, and angle of view of the first content.
The first content generator,
The plurality of acquired images are connected and pasted through a stitching technique to create the one VR content image,
The object image,
Including at least one of 3D images, 2D images and text,
The third content,
Can be transmitted to other electronic devices through the communication module,
The object application device of the VR content,
When a third user input is received from the other electronic device through the communication module, an action box for editing text or an object image input on the first content is called based on the received third user input, Outputting the called operation box through one area of the first content,
The working box,
An interface that provides a function including at least one of contrast adjustment, size adjustment, font change, effect application, and position change of at least one of text or object image input on the first content. object application device.
상기 컴퓨터-판독가능 기록매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은;
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하되,
상기 이미지 입력 단계는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하되,
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하되,
제2 컨텐츠 변환 단계는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하되,
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되되.
상기 제1 컨텐츠 생성 단계는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하되,
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하되,
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능하되,
VR 컨텐츠의 오브젝트 적용 방법은,
상기 통신 모듈을 통해 상기 다른 전자 장치로부터 제3 사용자 입력을 수신하는 경우, 상기 수신된 제3 사용자 입력을 기반으로 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위한 작업 상자를 호출하여, 상기 제1 컨텐츠의 일 영역을 통해 상기 호출된 작업 상자를 출력하되,
상기 작업 상자는,
상기 제1 컨텐츠 상에 입력된 텍스트 또는 오브젝트 이미지 중 적어도 하나의 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경 중 적어도 하나를 포함하는 기능을 제공하는 인터페이스인 것을 특징으로 하는 것을 특징으로 하는 컴퓨터-판독가능 기록매체.
As a computer-readable recording medium,
The computer-readable recording medium stores instructions for causing a computing device to perform the following steps, which include;
When a plurality of images are acquired through a plurality of camera modules, a first content generation step of converting the acquired plurality of images into one VR content image and generating first content;
When a first user input for adding an object image to the first content and a second user input for the size and insertion area of the object image are received in a state where the first content is created, the received first an image input step of calling the object image and determining a size and insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image whose size and the insertion area are determined into second content, and converting the object image into second content by reflecting the curved shape of the first content, which is VR content. ; and
A third content generation step of generating third content by displaying the second content on the first content; including,
The image input step,
In order to automatically synthesize and display the second content in a preset area of the first content, edit the object image based on the second user input,
The preset area is
Including a background area of the first content,
In the second content conversion step,
Based on preset attribute information, converting the object image having the size and the insertion area determined into the second content,
The preset attribute information,
It is determined based on the curvature, F value, and angle of view of the first content.
The first content creation step,
A plurality of images acquired through a stitching technique are connected and attached to create the one image for VR content,
The object image,
Including at least one of 3D images, 2D images and text,
The third content,
Can be transmitted to other electronic devices through the communication module,
How to apply objects to VR content,
When a third user input is received from the other electronic device through the communication module, an action box for editing text or an object image input on the first content is called based on the received third user input, Outputting the called operation box through one area of the first content,
The working box,
Characterized in that the interface provides a function including at least one of contrast adjustment, size adjustment, font change, effect application, and position change of at least one of text or object image input on the first content. A computer-readable recording medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200149248A KR102541262B1 (en) | 2020-11-10 | 2020-11-10 | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200149248A KR102541262B1 (en) | 2020-11-10 | 2020-11-10 | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220063419A KR20220063419A (en) | 2022-05-17 |
KR102541262B1 true KR102541262B1 (en) | 2023-06-07 |
Family
ID=81799649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200149248A KR102541262B1 (en) | 2020-11-10 | 2020-11-10 | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102541262B1 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102278342B1 (en) * | 2018-09-27 | 2021-07-16 | 주식회사 더픽트 | System and method for editing virtual reality image and video |
-
2020
- 2020-11-10 KR KR1020200149248A patent/KR102541262B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20220063419A (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200617B2 (en) | Efficient rendering of 3D models using model placement metadata | |
Hilfert et al. | Low-cost virtual reality environment for engineering and construction | |
US9818228B2 (en) | Mixed reality social interaction | |
KR101108743B1 (en) | Method and apparatus for holographic user interface communication | |
JP2021524094A (en) | Application virtual scene recognition and interaction key matching method, and arithmetic unit | |
KR102263133B1 (en) | Device for providing 3d virtual exhibition space production service | |
US10620807B2 (en) | Association of objects in a three-dimensional model with time-related metadata | |
JP7128188B2 (en) | 3D MODEL CONSTRUCTION METHOD, APPARATUS AND SYSTEM | |
CN109493431B (en) | 3D model data processing method, device and system | |
CN103970518A (en) | 3D rendering method and device for logic window | |
CN113010945A (en) | BIM model linkage method and system | |
Vajak et al. | Combining photogrammetry, 3D modeling and real time information gathering for highly immersive VR experience | |
JP7351877B2 (en) | Method and apparatus for providing graphical user interface prototype | |
EP3594906B1 (en) | Method and device for providing augmented reality, and computer program | |
KR102541262B1 (en) | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content | |
JP2016122443A (en) | Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program | |
CN114913277A (en) | Method, device, equipment and medium for three-dimensional interactive display of object | |
KR102268013B1 (en) | Method, apparatus and computer readable recording medium of rroviding authoring platform for authoring augmented reality contents | |
Huang et al. | Developing a BIM-based visualization and interactive system for healthcare design | |
US10204184B2 (en) | Apparatus and method for modeling cultural heritage building | |
JP2017084215A (en) | Information processing system, control method thereof, and program | |
KR102483078B1 (en) | Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting | |
CN108920598A (en) | Panorama sketch browsing method, device, terminal device, server and storage medium | |
KR20230075050A (en) | Devices for creating vr exhibition spaces | |
CN115174993B (en) | Method, apparatus, device and storage medium for video production |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |