KR20220063419A - METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content - Google Patents
METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content Download PDFInfo
- Publication number
- KR20220063419A KR20220063419A KR1020200149248A KR20200149248A KR20220063419A KR 20220063419 A KR20220063419 A KR 20220063419A KR 1020200149248 A KR1020200149248 A KR 1020200149248A KR 20200149248 A KR20200149248 A KR 20200149248A KR 20220063419 A KR20220063419 A KR 20220063419A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- image
- object image
- user input
- processor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000003780 insertion Methods 0.000 claims abstract description 31
- 230000037431 insertion Effects 0.000 claims abstract description 31
- 230000015654 memory Effects 0.000 claims abstract description 29
- 238000006243 chemical reaction Methods 0.000 claims abstract description 15
- 238000004891 communication Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 13
- 238000005452 bending Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 VR 컨텐츠의 오브젝트 적용 방법에 관한 것으로서, 구체적으로는 표시 중인 360VR 컨텐츠의 곡면 형상을 별도의 오브젝트에 자동으로 반영하고, 360VR 컨텐츠에 VR 컨텐츠용 이미지로 자동으로 삽입 또는 합성할 수 있다. 이에 따라, 오브젝트의 구부러짐 현상을 방지할 수 있어 완성도가 높은 360VR 컨텐츠를 획득할 수 있다. 또한, 360VR 컨텐츠를 자동으로 생성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 향상시키는 효과를 가질 수 있다.The present invention relates to a method of applying an object of VR content, and specifically, it is possible to automatically reflect the curved shape of 360VR content being displayed on a separate object, and automatically insert or synthesize the 360VR content as an image for VR content. Accordingly, it is possible to prevent bending of the object, and thus it is possible to obtain 360VR content with a high degree of completion. In addition, by automatically generating 360VR content, it can have the effect of supporting various and unique production ideas of 360VR content not only for experts but also for the general public, and improving the spread of related content.
VR(virtual reality) 즉, 가상현실은 사이버 공간(Cyber Space)에서 체험되는 현실을 가리키는데, 이때 사이버 공간이란 전자 장치를 통해 생성된 가상의 공간으로, 3차원 시각 효과를 통해 현실성을 부여하는 공간을 말한다. VR 기술은 사용자에게 실감나는 몰입감을 제공하기 위하여 실존하는 물체를 시뮬레이션할 수 있을 뿐만 아니라, 실제로 존재하지 않는 물체 또는 상황을 체험할 수 있도록할 수 있다. 특히, 최근에는 1인 컨텐츠가 대두됨에 따라 VR 기술을 활용한 VR 컨텐츠가 활발하게 증가하고 있다. 일 예로서, 한국공개특허 10-2020-0101583(VR 영상 컨텐츠 제작 방법, 장치 및 프로그램)에는, 하나 이상의 360도 영상을 획득하고, 상기 360도 영상 간의 재생 순위를 설정하는 단계; 상기 360도 영상 내 특정 지점 또는 객체를 오브젝트로 선택하고, 상기 선택된 오브젝트에 정보태그를 설정하는 단계; 및 상기 선택된 둘 이상의 오브젝트의 재생 순위를 설정하는 단계;를 포함하며, 상기 정보태그는 해당 오브젝트에 대한 부가정보를 포함하며, 각 오브젝트가 재생될 때 상기 VR 영상 내 특정 위치에 표출되는 것이고, 상기 제작된 VR 영상 컨텐츠는 상기 설정된 오브젝트 재생 순위에 따라서 상기 360도 영상이 순차적으로 재생하는 기술이 개시되어 있다.VR (virtual reality), that is, virtual reality refers to the reality experienced in cyberspace. In this case, cyberspace is a virtual space created through an electronic device, a space that provides reality through three-dimensional visual effects. say In order to provide a realistic and immersive feeling to the user, VR technology may not only simulate an existing object, but may also allow the user to experience an object or situation that does not actually exist. In particular, in recent years, as single-person content has emerged, VR content using VR technology is actively increasing. As an example, Korean Patent Laid-Open Publication No. 10-2020-0101583 (VR video content production method, apparatus, and program) includes the steps of: acquiring one or more 360-degree images and setting a playback order among the 360-degree images; selecting a specific point or object in the 360-degree image as an object, and setting an information tag on the selected object; and setting the playback order of the selected two or more objects, wherein the information tag includes additional information about the corresponding object, and is displayed at a specific location in the VR image when each object is played back, A technique for sequentially reproducing the 360-degree image according to the set object reproduction order of the produced VR image content is disclosed.
그러나, 상술한 선행기술에서는 VR 컨텐츠를 제작하는 기술이 개시되어 있으나, 360 곡면 형상인 VR 컨텐츠에 합성되는 오브젝트의 구부러짐 또는 이탈 현상을 방지하기 위한 기술이 개시되어 있지 않음에 따라, VR 컨텐츠의 제작에 숙달하지 않은 일반인이 상기 선행기술을 통해 VR 컨텐츠를 제작하는 경우, 완성도가 높지 않은 VR 컨텐츠가 제작되는 문제점을 내재하고 있다.However, in the prior art described above, although a technology for producing VR content is disclosed, a technology for preventing bending or separation of an object synthesized in a 360 curved VR content is not disclosed. In the case where the general public who is not adept at creating VR contents through the prior art, there is a problem in that VR contents that are not of high degree of completion are produced.
이에 본 발명은, VR 컨텐츠의 오브젝트 적용 방법에 있어서, 구체적으로는 360VR 컨텐츠에 360VR 제공 장치의 고유한 속성 값 반영한 별도의 오브젝트를 자동으로 합성하여, 전문가뿐만 아니라 일반인들에게도 360VR 컨텐츠의 다양하고 개성 있는 제작 아이디어를 지원하고 관련 컨텐츠의 확산을 하기 위한 기술을 제공하는 것에 목적을 가지고 있다.Accordingly, in the present invention, in the object application method of VR content, specifically, by automatically synthesizing a separate object that reflects the unique attribute value of the 360VR providing device to the 360VR content, various and individual 360VR content can be applied not only to experts but also to the general public. It aims to support production ideas that exist and to provide technology to spread related contents.
상기 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법에 있어서, 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계; 상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계; 상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및 상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, according to an embodiment of the present invention there is provided a method for applying an object of VR content implemented in a computing device including one or more processors and one or more memories for storing instructions executable by the processor, at least one a first content creation step of generating a first content by converting the plurality of acquired images into one VR content image when acquiring a plurality of images through the camera module of the ; When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input step of calling the object image and determining a size and an insertion area of the object image according to a user input and the second user input; Upon completion of the image input step, a second content conversion step of converting the object image having the size and the insertion area determined into second content, and converting it into second content by reflecting the curved shape of the first content, which is VR content ; and a third content generation step of generating the third content by displaying the second content on the first content.
상기 사용자 편집 단계는, 상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하는 것이 바람직하다.The user editing step may include editing the object image based on the second user input so as to automatically synthesize and display the second content in a preset area of the first content.
상기 기설정된 영역은, 상기 제1 컨텐츠의 배경 영역을 포함하는 것을 특징으로 한다. 제2 컨텐츠 변환 단계는, 기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하는 것이 가능하다.The preset area may include a background area of the first content. In the second content conversion step, it is possible to convert the object image having the size and the insertion area determined into the second content based on preset attribute information.
상기 기설정된 속성 정보는, 상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되는 것이 가능하다.The preset attribute information may be determined based on a curvature, an F value, and an angle of view of the first content.
상기 제1 컨텐츠 생성 단계는, 스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하는 것이 바람직하다.In the first content creation step, it is preferable to connect the plurality of images obtained through a stitching technique to generate the single image for VR content.
상기 오브젝트 이미지는 3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하는 것이 바람직하다.The object image may include at least one of a 3D image, a 2D image, and text.
상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능한 것이 바람직하다.The third content may be transmitted to another electronic device through a communication module.
본 발명의 일 실시 예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, 오브젝트 이미지에 제1 컨텐츠 의 곡면 형상을 반영하여 제2 컨텐츠로 변환하고, 제1 컨텐츠 상에 제2 컨텐츠를 삽입 또는 합성하여 제3 컨텐츠를 자동 생성하기 때문에, VR 컨텐츠용 이미지의 제작 시, 편의성을 제공할 수 있다.According to an embodiment of the present invention, a method for applying an object of VR content implemented in a computing device including one or more processors and one or more memories for storing instructions executable by the processor includes adding a curved shape of a first content to an object image. Since the third content is automatically generated by reflecting the conversion into the second content and inserting or synthesizing the second content on the first content, it is possible to provide convenience when producing an image for VR content.
또한, 상기 본 발명의 일 실시 예에 따르면, 제1 컨텐츠의 기설정된 영역에서 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 제2 사용자 입력을 기반으로 오브젝트 이미지를 편집할 수 있어, 다양한 형태의 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, in order to automatically synthesize and display the second content in a preset area of the first content, an object image can be edited based on a second user input, so that various types of It has the effect of creating an image for VR content.
또한, 상기 본 발명의 일 실시 예에 따르면, 기설정된 속성 정보를 기반으로, 크기 및 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환할 수 있어, 제3 컨텐츠에 포함된 구성들의 구부러지는 현상을 방지하여 완성도가 높은 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, it is possible to convert an object image whose size and insertion area are determined based on preset attribute information into the second content, so that bending of the components included in the third content can be prevented. This has the effect of creating an image for VR content with a high degree of completion.
또한, 상기 본 발명의 일 실시 예에 따르면, 스티칭(stitching) 기법을 통해 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성할 수 있어, 카메라의 개수가 제한적인 전자 장치에서도 VR 컨텐츠용 이미지를 생성하는 효과가 있다.In addition, according to an embodiment of the present invention, a plurality of images acquired through a stitching technique can be stitched together to generate the single VR content image, so that even in an electronic device having a limited number of cameras It has the effect of creating an image for VR content.
또한, 상기 본 발명의 일 실시 예에 따르면, 상기 제3 컨텐츠는, 통신 모듈을 통해 다른 전자 장치에 전송 가능하여, 컨텐츠의 확산 속도를 향상시키는 효과가 있다. In addition, according to an embodiment of the present invention, the third content can be transmitted to another electronic device through a communication module, thereby improving the content diffusion speed.
도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.
도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자의 시야를 기반으로, 제3 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.1 is a flowchart illustrating a method of applying an object of VR content implemented according to an embodiment of the present invention.
2 is a block diagram of an apparatus for applying an object of VR content implemented according to an embodiment of the present invention.
3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.
4 is a view for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.
5 is another diagram for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.
6 is a diagram for explaining a method of sharing a third content generated through an object application method of VR content implemented according to an embodiment of the present invention with another electronic device.
7 is a diagram for explaining a method of connecting to a link linked to a third content based on a user's field of view according to an embodiment of the present invention.
8 is a diagram for explaining an example of an internal configuration of a computing device according to an embodiment of the present invention.
이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Hereinafter, various embodiments and/or aspects are disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be recognized by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of various methods may be employed in the principles of the various aspects, and the descriptions set forth are intended to include all such aspects and their equivalents.
본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.As used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. may not be construed as an advantage or advantage in any aspect or design described above over other aspects or designs. .
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. should be understood as not
또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are those commonly understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in an embodiment of the present invention, an ideal or excessively formal meaning is not interpreted as
도 1은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a method for applying an object of VR content implemented according to an embodiment of the present invention.
도 1을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치로 구현되는 VR 컨텐츠의 오브젝트 적용 방법은, S101 단계(제1 컨텐츠 생성 단계)를 수행할 수 있다. 상기 컴퓨팅 장치는 스마트폰, 데스크 탑, 테블릿 등을 포함할 수 있으며, VR 컨텐츠에 오브젝트를 자동으로 적용할 수 있는 장치이면, 이에 한정되지 않는다.Referring to FIG. 1 , in the method for applying an object of VR content implemented with a computing device including one or more processors and one or more memories for storing instructions executable by the processor, step S101 (first content creation step) is performed. can The computing device may include a smartphone, a desktop, a tablet, and the like, and is not limited thereto as long as it is a device capable of automatically applying an object to VR content.
상기 S101 단계에서, 상기 하나 이상의 프로세서(이하 프로세서로 칭함)는 적어도 하나의 카메라 모듈(이하 카메라 모듈로 칭함)을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 카메라 모듈을 통해 복수 개의 이미지를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. In step S101, the one or more processors (hereinafter referred to as a processor) may acquire a plurality of images through at least one camera module (hereinafter referred to as a camera module). When acquiring a plurality of images through the camera module, the processor may convert the plurality of acquired images to generate a first content image for one VR content.
일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지일 수 있다. 또한, 상기 복수 개의 이미지는 이미지, 사진 및 동영상을 포함할 수 있으며 제1 컨텐츠를 생성할 수 있는 소스(source) 파일이면, 이에 한정되지 않는다.According to an embodiment, the image for VR content may be a three-dimensional image supporting a 360-degree omnidirectional angle generated through a stitching technique that overlaps or connects the plurality of acquired images. In addition, the plurality of images may include an image, a photo, and a moving picture, and is not limited thereto as long as it is a source file capable of generating the first content.
일 실시 예에 따르면, 상기 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지를 기반으로 생성될 수 있다. 일 예로, 상기 프로세서는 상기 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content, which is an image for the VR content, may be generated based on a plurality of images pre-stored in the memory as well as an image acquired through the camera. For example, the processor may generate the first content, which is an image for VR content, by attaching the first image and the second image acquired through the camera module. As another example, the processor may generate the first content by connecting the third image and the fourth image previously stored in the memory through a stitching technique.
상기 프로세서는 상기 제1 컨텐츠의 생성이 완료되는 경우, S103 단계(이미지 입력 단계)를 수행할 수 있다.When the generation of the first content is completed, the processor may perform step S103 (an image input step).
S103 단계에서 상기 프로세서는 상기 제1 컨텐츠가 생성된 상태에서 오브젝트 이미지를 상기 제1 컨텐츠 상에 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 경우, 상기 오브젝트 이미지를 호출할 수 있으며, 상기 오브젝트 이미지의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지의 크기 및 삽입 영역을 결정할 수 있다.In step S103, the processor may receive a first user input for displaying an object image on the first content while the first content is generated. When receiving the first user input, the processor may call the object image, and receive the second user input in a state where the call of the object image is completed. When receiving the second user input, the processor may determine the size and insertion area of the called object image based on the second user input.
일 실시 예에 따르면, 상기 프로세서는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지를 표시하기 위하여, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D, 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the processor may receive the first user input through a display or a touch screen included in the computing device, and may receive the first user input from a separate device connected to the computing device. there is. The first user input may be an input for calling an object image pre-stored in the memory or an object image stored in another electronic device connected to the computing device through a wired network and/or wireless network. The object image may be at least one of a 2D image and a 3D image before being converted into the image for VR content in order to display the image for VR content on the first content.
다른 실시 예에 따르면, 상기 오브젝트 이미지는 제2 사용자 입력이 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 텍스트 입력을 기반으로, 상기 제1 컨텐츠 상에 텍스트를 표시할 수 있다. 즉, 상기 프로세서는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 VR 컨텐츠용 이미지로 변환하기 위한 오브젝트 이미지로 인식할 수 있다.According to another embodiment, the object image may include text input based on a text input instead of a second user input. According to another embodiment, the processor may display text on the first content based on the text input. That is, the processor may distinguish the first user input from the text input, and may recognize the text input based on the received text input as an object image for converting into an image for VR content.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지를 호출하는 경우, 상기 호출된 오브젝트 이미지를 상기 디스플레이 또는 터치스크린을 통해 표시중인 제1 컨텐츠 상에 표시할 수 있다. 상기 프로세서는 상기 오브젝트 이미지가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 오브젝트 이미지의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 프로세서는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when the object image is called through the first user input, the processor may display the called object image on the first content being displayed through the display or the touch screen. The processor may receive a second user input for determining at least one of a size and an insertion area of the object image while the object image is being displayed on the first content. For example, when receiving the second user input, the processor may change the size of the object image displayed on the first content to a minimum size based on the second user input. As another example, when receiving the second user input, the processor may determine to insert the object image into a left region of the first content.
또 다른 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 텍스트가 표시 중인 상태에서 상기 제2 사용자 입력을 수신하는 경우, 상기 수신한 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 삽입 영역을 결정할 수 있다. 상기와 같이, 본 발명은 별도의 사용자 입력(예: 제2 사용자 입력)을 통하여 오브젝트 이미지에 다양한 효과를 적용할 수 있어, 다양한 효과가 적용된 VR 컨텐츠를 제공하는 효과가 있다.According to another embodiment, when receiving the second user input while text is being displayed on the first content, the processor determines the size and insertion area of the text based on the received second user input. can decide As described above, according to the present invention, various effects can be applied to an object image through a separate user input (eg, a second user input), thereby providing VR contents to which various effects are applied.
상기 프로세서는 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지의 크기 및 삽입 영역 중 적어도 하나를 결정하는 경우, S105 단계(제2 컨텐츠 변환 단계)를 수행할 수 있다.When the processor determines at least one of the size of the object image being displayed on the first content and the insertion area, the processor may perform step S105 (a second content conversion step).
S105 단계에서 상기 프로세서는 상기 이미지 입력 단계가 완료되는 경우, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환할 수 있다.In step S105 , when the image input step is completed, the processor may convert the object image into second content by reflecting the curved shape of the first content, which is a VR content image.
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠 상에 표시 중인 상기 오브젝트 이미지의 크기 및 삽입 영역이 결정되는 경우, 상기 오브젝트 이미지를 제2 컨텐츠로 자동 변환할 수 있다. 상기 프로세서는 상기 오브젝트 이미지를 곡면 형상인 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지에 반영할 수 있다. 상기 제1 컨텐츠의 곡면 형상이 반영된 상기 오브젝트 이미지는 제2 컨텐츠로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 기설정된 속성 정보를 기반으로 상기 오브젝트 이미지를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, when the size and insertion area of the object image being displayed on the first content are determined, the processor may automatically convert the object image into the second content. The processor may reflect the curved shape of the first content to the object image in order to synthesize the object image with the curved first content without bending. The object image to which the curved shape of the first content is reflected may be converted into the second content. In more detail, the processor may convert the object image into the second content based on preset attribute information. The preset attribute information may be information including at least one of a curvature, a focus (F) value, and an angle of view of the first content, and may be information that determines a curved shape of the first content.
일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 제2 컨텐츠로 자동으로 변환할 수 있다. 상기 제2 컨텐츠는 상기 기설정된 속성 정보(상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보)를 통해 변환되므로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 상기 제2 컨텐츠 변환 단계는 2D 이미지, 3D 이미지 및 텍스트를 포함하는 오브젝트 이미지를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하기 위해 수행되는 단계일 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠 이미지에 별도의 오브젝트를 구부러짐 현상 없이 합성할 수 있어 완성도가 높은 VR 컨텐츠를 사용자에게 제공하는 효과가 있다.According to an embodiment, the processor may automatically convert the object image into second content based on the preset attribute information. Since the second content is converted through the preset attribute information (information including at least one of a curvature of the first content, an F (focus) value, and an angle of view), the second content may have the same curved shape as the first content. . That is, the second content conversion step may be a step performed to convert an object image including a 2D image, a 3D image, and text into a second content image for VR content. As described above, the present invention has the effect of providing high-quality VR content to the user by synthesizing a separate object in the VR content image without bending.
상기 프로세서는 상기 S105 단계가 완료되는 경우, S107 단계(제3 컨텐츠 생성 단계)를 수행할 수 있다.When step S105 is completed, the processor may perform step S107 (a third content creation step).
S107 단계에서 상기 프로세서는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성할 수 있다.In step S107, the processor may generate the third content by displaying the second content on the first content.
일 실시 예에 따르면, 상기 프로세서는 기설정된 속성 정보를 기반으로 변환된 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은 S103 단계(이미지 입력 단계)에서 제2 사용자 입력을 기반으로 설정한 상기 오브젝트 이미지의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 프로세서는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입할 수 있다. According to an embodiment, the processor may display the second content converted based on preset attribute information in any one of preset areas on the first content. The preset area may be an insertion area of the object image set based on a second user input in step S103 (image input step). Also, the preset area may be any one of the background areas of the first content. For example, the processor may automatically synthesize or insert the second content into an upper left region that is a background region of the first content.
즉, 상기 프로세서는 S107 단계에서 상기 오브젝트 이미지에서 변환된 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 표시하여, 상기 기설정된 영역에 합성 또는 삽입된 제2 컨텐츠를 표시중인 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 자동 생성할 수 있다. 상기와 같이, 본 발명은 자동으로 VR 컨텐츠를 제작함에 따라, 일반인도 어려움 없이 VR 컨텐츠를 제작할 수 있어 사용자에게 편의성을 제공하는 효과를 개시할 수 있다.That is, the processor displays the second content converted from the object image in step S107 in a preset area of the first content, and displays the second content synthesized or inserted in the preset area. It is possible to automatically create a third content that is an image for one completed VR content. As described above, according to the present invention, as VR contents are automatically created, even the general public can produce VR contents without difficulty, thereby providing convenience to users.
도 2는 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 장치의 블록도이다.2 is a block diagram of an apparatus for applying an object of VR content implemented according to an embodiment of the present invention.
도 2를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치는 제1 컨텐츠 생성부(201), 이미지 입력부(203), 제2 컨텐츠 변환부(205) 및 제3 컨텐츠 생성부(207)를 포함할 수 있다.Referring to FIG. 2 , a computing device including one or more processors and one or more memories for storing instructions executable by the processor includes a first
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 복수 개의 이미지(211)를 획득할 수 있다. 상기 제1 컨텐츠 생성부(201)는 카메라 모듈을 통해 상기 복수 개의 이미지(211)를 획득하는 경우, 상기 획득한 복수 개의 이미지를 변환하여 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠로 생성할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)는 상기 획득한 복수 개의 이미지를 중복하거나 이어 붙이는 스티칭(stitching) 기법을 통해 생성한 360도의 전방향의 앵글을 지원하는 입체 이미지인 상기 VR 컨텐츠용 이미지를 생성할 수 있다. According to an embodiment, the first
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 생성된 VR 컨텐츠용 이미지인 제1 컨텐츠는 상기 카메라를 통해 획득한 이미지뿐만 아니라, 상기 메모리에 기저장된 복수 개의 이미지(211)를 기반으로 생성될 수 있다. 일 예로, 상기 제1 컨텐츠 생성부(201)는 적어도 하나의 카메라 모듈을 통해 획득한 제1 이미지와 제2 이미지를 이어 붙여, VR 컨텐츠용 이미지인 제1 컨텐츠를 생성할 수 있다. 다른 예를 들어, 상기 제1 컨텐츠 생성부(201)는 상기 메모리에 기저장된 제3 이미지와 제4 이미지를 스티칭 기법을 통해 이어 붙여 상기 제1 컨텐츠를 생성할 수 있다. According to an embodiment, the first content that is an image for VR content generated by the
일 실시 예에 따르면, 상기 제1 컨텐츠 생성부(201)에 의해 상기 제1 컨텐츠의 생성이 완료되는 경우, 상기 이미지 입력부(203)는 상기 제1 컨텐츠가 생성된 상태에서 상기 제1 컨텐츠 상에 오브젝트 이미지(213)를 표시하기 위한 제1 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 수신한 경우, 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출할 수 있으며, 상기 오브젝트 이미지(213)의 호출이 완료된 상태에서 제2 사용자 입력을 수신할 수 있다. 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 호출된 오브젝트 이미지(213)의 크기 및 삽입 영역을 결정할 수 있다.According to an embodiment, when the generation of the first content by the first
일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 컴퓨팅 장치에 포함된 디스플레이 또는 터치스크린을 통해 상기 제1 사용자 입력을 수신할 수 있으며, 상기 컴퓨팅 장치와 연결된 별도의 장치로부터 상기 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은 상기 메모리에 기저장된 오브젝트 이미지(213)를 호출하거나, 상기 컴퓨팅 장치와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치에 저장되어 있는 오브젝트 이미지(213)를 호출하기 위한 입력일 수 있다. 상기 오브젝트 이미지(213)는 상기 제1 컨텐츠 상에 VR 컨텐츠용 이미지인 제1 컨텐츠로 표시되기 위해, 상기 VR 컨텐츠용 이미지로 변환되기 전의 2D 이미지 및 3D 이미지 중 적어도 하나일 수 있다.According to an embodiment, the
다른 실시 예에 따르면, 상기 오브젝트 이미지(213)는 제1 사용자 입력에 의해 호출되는 2D 이미지 또는 3D 이미지가 아닌 텍스트 입력에 기반하여 입력되는 텍스트를 포함할 수 있다. 상기 이미지 입력부(203)는 텍스트 입력을 기반으로 입력되는 텍스트를 상기 제1 컨텐츠 상에 표시할 수 있다. 즉, 상기 이미지 입력부(203)는 제1 사용자 입력과 텍스트 입력을 구분할 수 있으며, 상기 수신한 텍스트 입력을 기반으로 입력되는 텍스트를 오브젝트 이미지(213)로 인식할 수 있다.According to another embodiment, the
일 실시 예에 따르면, 상기 이미지 입력부(203)는 상기 제1 사용자 입력을 통해 상기 오브젝트 이미지(213)를 호출하는 경우, 상기 호출된 오브젝트 이미지(213)를 상기 제1 컨텐츠 상에 표시할 수 있다. 상기 이미지 입력부(203)는 상기 오브젝트 이미지(213)가 상기 제1 컨텐츠 상에 표시되고 있는 상태에서, 상기 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나를 결정하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 제2 사용자 입력을 기반으로 제1 컨텐츠 상에 표시되고 있는 상기 오브젝트 이미지(213)의 크기를 최소 크기로 변경할 수 있다. 다른 예를 들어, 상기 이미지 입력부(203)는 상기 제2 사용자 입력을 수신하는 경우, 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 좌측 일 영역에 삽입되도록 결정할 수 있다. According to an embodiment, when the
일 실시 예에 따르면, 상기 이미지 입력부(203)에 의해 상기 제1 컨텐츠 상에서 표시 중인 오브젝트 이미지(213)의 크기 및 삽입 영역 중 적어도 하나가 결정되는 경우, 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 상기 제1 컨텐츠의 곡면 형상을 반영하여 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환할 수 있다.According to an embodiment, when at least one of the size and the insertion area of the
일 실시 예에 따르면, 상기 제2 컨텐츠 변환부(205)는 상기 오브젝트 이미지(213)를 제1 컨텐츠에 구부러짐 현상 없이 합성하기 위해, 상기 제1 컨텐츠의 곡면 형상을 상기 오브젝트 이미지(213)에 반영하여 상기 제2 컨텐츠로 변환할 수 있다. 상기 제2 컨텐츠 변환부(205)는 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 상기 제2 컨텐츠로 변환할 수 있다. 상기 기설정된 속성 정보는 상기 제1 컨텐츠의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 정보일 수 있으며, 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 적어도 하나의 곡면 형상을 결정하는 정보일 수 있다.According to an embodiment, the second
일 실시 예에 따르면, 제2 컨텐츠 변환부(205)는 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지(213)를 제2 컨텐츠로 자동 변환할 수 있다. 상기 제2 컨텐츠는, 상기 오브젝트 이미지(213)가 상기 기설정된 속성 정보를 기반으로 변환된 것으로, 상기 제1 컨텐츠와 동일한 곡면 형상을 가질 수 있다. 즉, 제2 컨텐츠 변환부(205)는 2D 이미지, 3D 이미지 및 텍스트 중 적어도 하나를 포함하는 오브젝트 이미지(213)를 VR 컨텐츠용 이미지인 제2 컨텐츠로 변환하는 구성일 수 있다.According to an embodiment, the second
일 실시 예에 따르면, 제2 컨텐츠 변환부(205)에 의해 상기 오브젝트 이미지(213)가 제2 컨텐츠로 변환된 경우, 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 제1 컨텐츠 상에 표시하여, 제3 컨텐츠(215)를 생성할 수 있다.According to an embodiment, when the
일 실시 예에 따르면, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠 상의 기설정된 영역 중 어느 한곳에 표시할 수 있다. 상기 기설정된 영역은, 상기 이미지 입력부(203)가 상기 제2 사용자 입력을 기반으로 결정한 상기 오브젝트 이미지(213)의 삽입 영역일 수 있다. 또한, 상기 기설정된 영역은 상기 제1 컨텐츠의 배경 영역 중 어느 한 곳일 수 있다. 예를 들어, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 배경 영역인 좌측 상단 영역에 자동으로 합성 또는 삽입하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)를 생성할 수 있다. 즉, 상기 제3 컨텐츠 생성부(207)는 상기 제2 컨텐츠를 상기 제1 컨텐츠의 기설정된 영역에 자동으로 표시하여, 상기 제2 컨텐츠를 포함하고 있는 제1 컨텐츠를 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠(215)로 자동 생성할 수 있다. According to an embodiment, the third
도 3은 본 발명의 일 실시예에 따른 잘못된 VR 컨텐츠의 예를 설명하기 위한 도면이다.3 is a diagram for explaining an example of erroneous VR content according to an embodiment of the present invention.
도 3(a) 및 (b)를 참조하면, 보편적인 VR 컨텐츠 생성 장치(300)는 디스플레이를 통해 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)를 표시할 수 있다. 일 실시 예에 따르면, 상기 프로세서는 상기 적용 장치(300)에 포함된 적어도 하나의 카메라를 통해 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 중복하거나 이어붙여 하나의 VR 컨텐츠 이미지인 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)로 변환할 수 있다.Referring to FIGS. 3A and 3B , the universal VR
일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이를 통해 상기 제1 컨텐츠를 표시하는 동안, 상기 제1 컨텐츠 상에 제2 컨텐츠를 합성 또는 삽입하여 제3 컨텐츠를 생성할 수 있다. 그러나, 상기 제1 컨텐츠(도 3(a)의 301 또는 도 3(b)의 305)의 곡면 형상을 반영하지 않은 채, 오브젝트 이미지를 제2 컨텐츠로 변환하는 경우, 구부러짐 현상이 발생할 수 있다. 이에 따라, 보편적인 VR 컨텐츠 생성 장치(300)는, 구부러짐 현상이 발생된 제2 컨텐츠에 의해 상기 제3 컨텐츠의 심미성 및 완성도가 저하되는 문제점을 내재하고 있다. 반면에, 본 발명에 기반한 VR 컨텐츠의 오브젝트 적용 장치는 제2 컨텐츠의 구부러짐 현상을 방지함과 동시에 VR 컨텐츠 제작을 자동으로 수행함으로써, VR 컨텐츠의 완성도를 향상시키는 효과, VR 컨텐츠의 심미성을 향상시키는 효과 및 VR 컨텐츠 제작의 편의성을 제공하는 효과를 가질 수 있다.According to an embodiment, while the first content is displayed through the display, the processor may generate the third content by synthesizing or inserting the second content on the first content. However, when the object image is converted to the second content without reflecting the curved shape of the first content ( 301 in FIG. 3A or 305 in FIG. 3B ), a bending phenomenon may occur. Accordingly, the universal VR
도 4는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 도면이다.4 is a view for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.
도 4(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4A , an
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 입력되는 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive a text input through a display or a touch screen included in the
일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이를 통해 표시중인 상기 제1 컨텐츠(401) 상에 텍스트를 표시할 수 있다. 상기 프로세서는 상기 텍스트 입력을 표시하는 동안, 제2 사용자 입력을 수신하는 경우, 상기 제2 사용자 입력을 기반으로 상기 텍스트의 크기 및 입력 영역 중 적어도 하나를 결정할 수 있다. According to an embodiment, the processor may display text on the
일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여 상기 제1 컨텐츠(401) 상에 표시된 텍스트를 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(401)의 곡면 형상을 기반으로, 상기 텍스트를 상기 3D 또는 2D 형태로 구성된 VR 컨텐츠 이미지인 제2 컨텐츠(403)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(401)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 텍스트를 상기 제2 컨텐츠(403)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 제2 컨텐츠(403)로 변환될 텍스트의 곡면 형상을 결정할 수 있다. According to an embodiment, the processor may convert the text displayed on the
일 실시 예에 따르면, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로, 상기 텍스트를 상기 제2 컨텐츠(403)로 변환함에 따라, 상기 제2 컨텐츠(403) 곡면 형상은 상기 제1 컨텐츠(401)와 동일한 곡면 형상을 가질 수 있다.According to an embodiment, as the processor converts the text into the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401) 상의 기설정된 영역에 상기 제2 컨텐츠(403)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(401)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 텍스트의 삽입 영역일 수 있다. According to an embodiment, the processor may insert or synthesize the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(401)의 기설정된 영역에 상기 제2 컨텐츠(403)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(403)를 구부러짐 현상 없이, 제1 컨텐츠(401)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다.According to an embodiment, the processor may display the
도 4(b)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(401)를 표시할 수 있다.Referring to FIG. 4(b) , an
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 디스플레이 또는 터치스크린을 통해 제1 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 제1 사용자 입력을 수신할 수 있다.According to an embodiment, the processor may receive a first user input through a display or a touch screen included in the
일 실시 예에 따르면, 상기 프로세서는 상기 수신한 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 2D 이미지 또는 3D 이미지(예: 캐릭터)를 표시할 수 있다. 상기 제1 사용자 입력을 기반으로 표시되는 상기 2D 이미지 또는 상기 3D 이미지는 오브젝트 이미지로, VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환되기 전의 이미지일 수 있다. According to an embodiment, the processor may display a 2D image or a 3D image (eg, a character) on the
일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 수신한 제2 사용자 입력을 기반으로, 상기 제1 컨텐츠(405) 상에 표시 중인 오브젝트 이미지(예: 캐릭터)의 크기 및 삽입 영역 중 적어도 하나를 결정할 수 있다.According to an embodiment, the processor may receive the second user input. The processor may determine at least one of a size and an insertion area of an object image (eg, a character) being displayed on the
일 실시 예에 따르면, 상기 프로세서는 상기 제2 사용자 입력이 완료된 것에 대응하여, 상기 제1 컨텐츠(405) 상에 표시중인 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(405)의 곡면 형상을 기반으로, 상기 오브젝트 이미지를 VR 컨텐츠 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 보다 자세하게는, 상기 프로세서는 상기 제1 컨텐츠(405)의 곡률, F(focus) 값 및 화각 중 적어도 하나를 포함하는 기설정된 속성 정보를 통해 상기 오브젝트 이미지를 상기 VR 컨텐츠용 이미지인 제2 컨텐츠(407)로 변환할 수 있다. 즉, 상기 프로세서는 상기 기설정된 속성 정보를 기반으로 상기 제2 컨텐츠(407)로 변환될 오브젝트 이미지의 곡면 형상을 결정할 수 있다. According to an embodiment, in response to the completion of the second user input, the processor may convert the object image displayed on the
일 실시 예에 따르면, 상기 프로세서가 상기 기설정된 속성 정보를 기반으로, 상기 오브젝트 이미지를 상기 제2 컨텐츠(407)로 변환함에 따라, 상기 제2 컨텐츠(407)의 곡면 형상은 상기 제1 컨텐츠(405)와 동일한 곡면 형상을 가질 수 있다. According to an embodiment, as the processor converts the object image into the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405) 상의 기설정된 영역에 상기 제2 컨텐츠(407)를 삽입 또는 합성할 수 있다. 상기 기설정된 영역은 상기 제1 컨텐츠(405)의 배경 영역일 수 있으며, 상기 제2 사용자 입력으로 결정된 오브젝트 이미지의 삽입 영역일 수 있다. According to an embodiment, the processor may insert or synthesize the
일 실시 예에 따르면, 상기 프로세서는 상기 제1 컨텐츠(405)의 기설정된 영역에 상기 제2 컨텐츠(407)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠로 생성할 수 있다. 즉, 상기 프로세서는 상기 제2 컨텐츠(407)를 구부러짐 현상 없이, 제1 컨텐츠(405)의 기설정된 영역 상에 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 생성할 수 있다. 상기와 같이, 본 발명은 텍스트 및 오브젝트 이미지를 VR 컨텐츠용 이미지로 변환할 수 있어, VR 컨텐츠를 다양한 작업 환경에 제공하는 효과를 가질 수 있다.According to an embodiment, the processor may display the
도 5는 본 발명의 일 실시예에 따른 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 설명하기 위한 다른 도면이다.5 is another diagram for explaining third content generated through the object application method of VR content according to an embodiment of the present invention.
도 5를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 디스플레이를 통해 제1 컨텐츠(501)를 표시할 수 있다.Referring to FIG. 5 , an
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(400)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(501)로 변환할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(501)를 상기 디스플레이를 통해 표시하는 동안, 텍스트 입력 및 제1 사용자 입력 중 적어도 하나를 수신할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)에 포함된 디스플레이 또는 터치스크린을 통해 텍스트 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 주변 장치(예: 키보드 및 마우스)를 통해 상기 텍스트 입력을 수신할 수 있다.According to an embodiment, the processor may receive a text input through a display or a touch screen included in the
일 실시 예에 따르면, 상기 프로세서는 상기 수신한 텍스트 입력을 기반으로, 상기 디스플레이 상에 텍스트(503)를 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치를 통해 입력되는 텍스트 입력을 기반으로, 상기 전자 장치(500)의 디스플레이 상에 텍스트(503)를 표시할 수 있다.According to an embodiment, the processor may display the
일 실시 예에 따르면, 상기 프로세서는 제1 사용자 입력을 수신할 수 있다. 상기 프로세서는 상기 제1 사용자 입력을 수신한 것에 대응하여, 상기 전자 장치(500)의 메모리에 기저장된 오브젝트 이미지를 상기 디스플레이를 통해 표시할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 유선 네트워크 및/또는 무선 네트워크를 통해 연결된 다른 전자 장치로부터 상기 오브젝트 이미지를 호출하여 상기 전자 장치(500)의 디스플레이 상에 표시할 수 있다.According to an embodiment, the processor may receive a first user input. In response to receiving the first user input, the processor may display an object image previously stored in the memory of the
일 실시 예에 따르면, 상기 프로세서는 상기 디스플레이 또는 상기 터치스크린을 통해 제3 사용자 입력을 수신할 수 있다. 다른 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(500)와 연결된 다른 전자 장치로부터 제3 사용자 입력을 수신할 수 있다. 상기 제3 사용자 입력은 상기 텍스트 입력 또는 상기 제1 사용자 입력을 기반으로, 상기 제1 컨텐츠(501) 상에 입력된 텍스트 또는 오브젝트 이미지를 편집하기 위하여 작업 상자(505)를 호출하는 입력일 수 있다. 상기 프로세서는 상기 제3 사용자 입력을 수신한 것에 대응하여 상기 제1 컨텐츠(501)의 일 영역에 상기 작업 상자(505)를 표시할 수 있다. According to an embodiment, the processor may receive a third user input through the display or the touch screen. According to another embodiment, the processor may receive a third user input from another electronic device connected to the
일 실시 예에 따르면, 상기 작업 상자(505)는 상기 텍스트(503) 또는 오브젝트 이미지의 시각 효과를 변경하기 위한 기능을 포함할 수 있다. 예를 들어, 상기 작업 상자(505)는 명암 조절, 크기 조절, 글꼴 변경, 효과 적용 및 위치 변경과 같은 기능을 포함할 수 있다. 상기 작업 상자(505)의 기능은 일부 삭제되거나 추가될 수 있으며, 상기 개시된 기능으로 한정되지 않는다. 상기와 같이, 본 발명은 별도의 작업 상자(505)를 통해 오브젝트 이미지에 다양한 시각 효과를 적용할 수 있어, 완성된 VR 컨텐츠의 심미성 및 완성도를 향상시키는 효과를 가질 수 있다.According to an embodiment, the
도 6은 본 발명의 일 실시예에 따른 구현되는 VR 컨텐츠의 오브젝트 적용 방법을 통해 생성된 제3 컨텐츠를 다른 전자 장치와 공유하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of sharing a third content generated through an object application method of VR content implemented according to an embodiment of the present invention with another electronic device.
도 6을 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(400)(이하, "전자 장치"라 칭함)는 통신 모듈(미도시)를 포함할 수 있다.Referring to FIG. 6 , the
일 실시 예에 따르면, 상기 프로세서는 상기 통신 모듈을 통해 다른 전자 장치(610)와 통신적으로 연결될 수 있다. 상기 다른 전자 장치(610)는 스마트 폰, 데스크 탑, 테블릿 및 웨어러블 장치일 수 있으며, 상기 전자 장치(600)로부터 VR 컨텐츠용 이미지를 송수신할 수 있으면, 이에 한정되지 않는다.According to an embodiment, the processor may be communicatively connected to another electronic device 610 through the communication module. The other electronic device 610 may be a smart phone, a desktop device, a tablet, or a wearable device, and is not limited thereto as long as it can transmit/receive an image for VR content from the
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(600)의 디스플레이를 통해 표시중인 제1 컨텐츠(601) 및 제2 컨텐츠(603)를 포함하는 제3 컨텐츠를 상기 통신 모듈을 통해 상기 다른 전자 장치(610)에 전송할 수 있다. According to an embodiment, the processor transmits third content including the
일 실시 예에 따르면, 상기 전자 장치(600)로부터 상기 제3 컨텐츠를 수신한 다른 전자 장치(610)는 상기 제3 컨텐츠와 동일한 제6 컨텐츠를 표시할 수 있다. 상기 제6 컨텐츠는 상기 제1 컨텐츠(601)와 동일한 제4 컨텐츠(611) 및 상기 제2 컨텐츠(603)와 동일한 제5 컨텐츠(613)를 포함하는 컨텐츠일 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)가 통신적으로 연결되는 경우, VR 컨텐츠용 이미지를 공유할 수 있다.According to an embodiment, the other electronic device 610 that has received the third content from the
일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠에 포함된 일부 구성(예: 제2 컨텐츠(603))이 변경되는 경우, 상기 다른 전자 장치(610)에 상기 변경된 구성에 대한 정보(이하, "변경 정보"로 칭함)를 실시간으로 전송할 수 있다. 상기 변경 정보는 변경되는 구성과 관련된 정보일 수 있다. According to an embodiment, when a part of the configuration (eg, the second content 603) included in the third content is changed, the processor provides information on the changed configuration to the other electronic device 610 (hereinafter, referred to as "change information") may be transmitted in real time. The change information may be information related to a changed configuration.
예를 들어, 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경된 경우, 상기 변경 정보는 상기 제2 컨텐츠(603)의 크기가 "10"으로 변경되었음을 알리는 정보를 포함할 수 있다. 상기 다른 전자 장치(610)는 상기 변경 정보를 수신하는 경우, 상기 제2 컨텐츠(603)와 대응하는 제5 컨텐츠(613)의 크기를 "10"으로 변경할 수 있다. 즉, 상기 전자 장치(600)와 상기 다른 전자 장치(610)는 하나의 동일한 VR 컨텐츠용 이미지를 공유함에 따라, 상기 변경 정보를 기반으로 상기 VR 컨텐츠용 이미지에 포함된 구성들 중 적어도 하나를 동일하게 변경할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 복수 개의 다른 전자 장치와 공유할 수 있어, VR 컨텐츠의 확산 속도를 향상시키는 효과를 가질 수 있다.For example, when the size of the
도 7은 본 발명의 일 실시예에 따른 FOV(field of view)를 기반으로, 제2 컨텐츠와 연동된 링크에 연결되는 방법을 설명하기 위한 도면이다.7 is a view for explaining a method of connecting to a link linked to a second content based on a field of view (FOV) according to an embodiment of the present invention.
도 7(a)를 참조하면, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치(700)(이하, "전자 장치"라 칭함)는 제1 컨텐츠(701) 및 제2 컨텐츠(703)를 포함하는 제3 컨텐츠를 디스플레이를 통해 표시할 수 있다.Referring to FIG. 7( a ), an
일 실시 예에 따르면, 상기 프로세서는 상기 전자 장치(700)에 포함된 적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득할 수 있다. 상기 프로세서는 상기 획득한 복수 개의 이미지를 중복 또는 이어 붙이는 스티칭(stitching) 기법을 통해 하나의 VR 컨텐츠용 이미지인 제1 컨텐츠(701)로 생성할 수 있다. 상기 프로세서는 상기 제1 컨텐츠(701)의 기설정된 영역에 제2 컨텐츠(703)를 표시하여, 하나의 완성된 VR 컨텐츠용 이미지인 제3 컨텐츠를 출력할 수 있다.According to an embodiment, the processor may acquire a plurality of images through at least one camera module included in the
일 실시 예에 따르면, 상기 제2 컨텐츠(703)는 상기 제2 컨텐츠(703)와 관련된 링크(link) 정보를 포함할 수 있다. 예를 들어, 도 (a)를 참조하면, 상기 제2 컨텐츠(703)는 "보물 322호"라는 형태의 VR 컨텐츠용 이미지일 수 있다. 상기 제2 컨텐츠(703)는 상기 보물 322호와 관련된 정보를 포함하는 링크 정보를 포함할 수 있다. 즉, 상기 링크 정보는 본 발명의 설계 과정에 변경될 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 영역 중 일 영역이 상기 디스플레이에 표시되는 경우, 상기 일 영역이 상기 디스플레이를 통해 지정된 시간 동안 표시되는지를 인식할 수 있다. 즉, 상기 프로세서는 상기 지정된 시간을 기반으로, 사용자의 관심 영역인 ROI(region of interest)을 분석할 수 있다.According to an embodiment, when one of the areas of the third content is displayed on the display, the processor may recognize whether the one area is displayed through the display for a specified time. That is, the processor may analyze a region of interest (ROI), which is the user's region of interest, based on the specified time.
일 실시 예에 따르면, 상기 프로세서는 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)를 표시할 수 있다. 상기 제2 컨텐츠(703)는 상기 제3 컨텐츠에 포함된 장소, 건물, 사람 및 물품과 같은 구성물의 인근에 위치할 수 있다. 예를 들어, 상기 프로세서는 상기 제3 컨텐츠에 포함된 구성물인 건물 인근에 "보물 322호"라는 3D 이미지 형태의 VR 컨텐츠용 이미지인 제2 컨텐츠(703)를 표시할 수 있다.According to an embodiment, the processor may display the
일 실시 예에 따르면, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 지정된 시간동안 표시되는지를 측정할 수 있다. 상기 프로세서는 상기 디스플레이를 통해 상기 제2 컨텐츠(703)를 포함하는 제3 컨텐츠의 일 영역이 상기 지정된 시간 이상으로 표시되는 경우, 상기 제3 컨텐츠의 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다.According to an embodiment, when the
일 실시 예에 따르면, 상기 제3 컨텐츠의 일 영역이 상기 사용자의 관심 영역인 것을 판단한 프로세서는, 상기 제2 컨텐츠(703)가 링크 정보를 포함하고 있는지를 확인할 수 있다. 상기 제2 컨텐츠(703)가 상기 링크 정보를 포함하는 경우, 도(b)와 같이 상기 링크 정보를 기반으로 상기 제2 컨텐츠(703)와 관련된 화면(705)을 출력할 수 있다. According to an embodiment, the processor that determines that the one area of the third content is the user's interest area may check whether the
예를 들어, 상기 프로세서는, 상기 제3 컨텐츠의 일 영역이 지정된 시간인 10초 이상 표시되는 경우, 상기 일 영역을 사용자의 관심 영역(ROI)인 것으로 판단할 수 있다. 상기 프로세서는 상기 일 영역이 사용자의 관심 영역을 판단한 경우, 상기 사용자의 관심 영역에"보물 322호"라는 3D 이미지 형태인 제2 컨텐츠(703)가 위치하는지를 확인할 수 있다. 상기 프로세서는 상기 일 영역에 상기 제2 컨텐츠(703)가 위치하는 경우, 상기 제2 컨텐츠(703)에 연동된 링크 정보가 있는지를 확인할 수 있다. 상기 프로세서는 상기 제2 컨텐츠(703)에 연동된 링크 정보가 존재하는 경우, 상기 링크 정보가 포함하고 있는 링크에 접속하여 상기 디스플레이를 통해 상기 "보물 322호"의 정보를 개시하고 있는 화면(705)을 출력할 수 있다. 상기와 같이, 본 발명은 VR 컨텐츠를 제공함과 동시에 보다 많은 유효 정보를 제공할 수 있기 때문에, 향상된 교육 효과를 제공할 수 있다. 또한, 확인된 사용자의 관심 영역(ROI) 정보는 다양한 데이터 연구 분야에 활용할 수 있는 효과를 가질 수 있다.For example, when the one region of the third content is displayed for 10 seconds or longer, which is a specified time, the processor may determine that the one region is the user's region of interest (ROI). When the one region determines the user's ROI, the processor may determine whether the
도 8은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 7에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.8 illustrates an example of an internal configuration of a computing device according to an embodiment of the present invention, and in the following description, descriptions of unnecessary embodiments that overlap with those of FIGS. 1 to 7 will be omitted. do it with
도 8에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.8, the
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the
주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 may couple various input/output peripherals to the
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the
이러한 도 8의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 8에 도시된 일부 컴포넌트가 생략되거나, 도 8에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 8에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 8 is only an example of the
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. The application to which the present invention is applied may be installed in the user terminal through a file provided by the file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file in response to a request from the user terminal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be permanently or temporarily embody in The software may be distributed over networked computing devices, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible for those skilled in the art from the above description. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the following claims.
Claims (10)
적어도 하나의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 VR 컨텐츠의 오브젝트 적용 방법.
In the object application method of VR content implemented by a computing device including one or more processors and one or more memories for storing instructions executable by the processor,
a first content creation step of generating a first content by converting the plurality of acquired images into one VR content image when acquiring a plurality of images through at least one camera module;
When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input step of calling the object image and determining a size and an insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image of which the size and the insertion area are determined into second content, and reflecting the curved shape of the first content, which is VR content, into second content ; and
and a third content generation step of generating the third content by displaying the second content on the first content.
상기 사용자 편집 단계는,
상기 제1 컨텐츠의 기설정된 영역에서 상기 제2 컨텐츠를 자동으로 합성하여 표시하기 위하여, 상기 제2 사용자 입력을 기반으로 상기 오브젝트 이미지를 편집하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The user editing step is
In order to automatically synthesize and display the second content in a preset area of the first content, the object image is edited based on the second user input.
상기 기설정된 영역은,
상기 제1 컨텐츠의 배경 영역을 포함하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
3. The method of claim 2,
The preset area is
The object application method of VR content, characterized in that it includes a background area of the first content.
제2 컨텐츠 변환 단계는,
기설정된 속성 정보를 기반으로, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 상기 제2 컨텐츠로 변환하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The second content conversion step is,
The object application method of VR content, characterized in that, based on preset attribute information, converting the object image having the size and the insertion area determined into the second content.
상기 기설정된 속성 정보는,
상기 제1 컨텐츠의 곡률, F 값 및 화각을 기반으로 결정되는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
5. The method of claim 4,
The preset attribute information is
The object application method of VR content, characterized in that it is determined based on the curvature, F value, and angle of view of the first content.
상기 제1 컨텐츠 생성 단계는,
스티칭(stitching) 기법을 통해 상기 획득한 복수 개의 이미지를 이어 붙여, 상기 하나의 VR 컨텐츠용 이미지로 생성하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The first content creation step is,
An object application method of VR content, characterized in that by attaching the plurality of images obtained through a stitching technique to generate the single image for VR content.
상기 오브젝트 이미지는,
3D 이미지, 2D 이미지 및 텍스트 중 적어도 하나를 포함하는 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The object image is
An object application method of VR content, comprising at least one of a 3D image, a 2D image, and text.
상기 제3 컨텐츠는,
통신 모듈을 통해 다른 전자 장치에 전송 가능한 것을 특징으로 하는 VR 컨텐츠의 오브젝트 적용 방법.
According to claim 1,
The third content is
An object application method of VR content, characterized in that it can be transmitted to another electronic device through a communication module.
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성부;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력부;
상기 이미지 입력부의 동작의 완료되는 경우, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환부; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성부;를 포함하는 VR 컨텐츠에 대한 오브젝트 적용 장치.
In the object application device for VR content implemented as a computing device including one or more processors and one or more memories for storing instructions executable by the processor,
a first content generating unit that, when acquiring a plurality of images through a plurality of camera modules, converts the plurality of acquired images into one image and generates a first content;
When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input unit configured to call the object image and determine a size and insertion area of the object image according to a user input and the second user input;
When the operation of the image input unit is completed, the object image having the size and the insertion area determined is converted into second content, and the second content is converted into second content by reflecting the curved shape of the first content, which is VR content conversion unit; and
and a third content generator configured to generate third content by displaying the second content on the first content.
상기 컴퓨터-판독가능 기록매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은;
복수 개의 카메라 모듈을 통해 복수 개의 이미지를 획득 시, 상기 획득한 복수 개의 이미지를 하나의 VR 컨텐츠용 이미지로 변환하여 제1 컨텐츠로 생성하는 제1 컨텐츠 생성 단계;
상기 제1 컨텐츠가 생성된 상태에서, 오브젝트 이미지를 상기 제1 컨텐츠에 추가하기 위한 제1 사용자 입력 및 상기 오브젝트 이미지의 크기 및 삽입 영역에 대한 제2 사용자 입력을 수신하는 경우, 상기 수신한 제1 사용자 입력 및 상기 제2 사용자 입력에 따라서 상기 오브젝트 이미지의 호출과 상기 오브젝트 이미지의 크기 및 삽입 영역을 결정하는 이미지 입력 단계;
상기 이미지 입력 단계의 완료 시, 상기 크기 및 상기 삽입 영역이 결정된 오브젝트 이미지를 제2 컨텐츠로 변환하되, VR 컨텐츠인 상기 제1 컨텐츠의 곡면 형상을 반영하여 제2 컨텐츠로 변환하는 제2 컨텐츠 변환 단계; 및
상기 제2 컨텐츠를 상기 제1 컨텐츠 상에 표시하여, 제3 컨텐츠를 생성하는 제3 컨텐츠 생성 단계;를 포함하는 것을 특징으로 하는 컴퓨터-판독가능 기록매체.
A computer-readable recording medium comprising:
The computer-readable recording medium stores instructions for causing a computing device to perform the following steps;
a first content creation step of generating a first content by converting the plurality of acquired images into one VR content image when acquiring a plurality of images through a plurality of camera modules;
When receiving a first user input for adding an object image to the first content and a second user input for a size and insertion area of the object image in a state in which the first content is generated, the received first content an image input step of calling the object image and determining a size and an insertion area of the object image according to a user input and the second user input;
Upon completion of the image input step, a second content conversion step of converting the object image of which the size and the insertion area are determined into second content, and reflecting the curved shape of the first content, which is VR content, into second content ; and
and a third content generating step of generating third content by displaying the second content on the first content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200149248A KR102541262B1 (en) | 2020-11-10 | 2020-11-10 | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200149248A KR102541262B1 (en) | 2020-11-10 | 2020-11-10 | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220063419A true KR20220063419A (en) | 2022-05-17 |
KR102541262B1 KR102541262B1 (en) | 2023-06-07 |
Family
ID=81799649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200149248A KR102541262B1 (en) | 2020-11-10 | 2020-11-10 | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102541262B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200035696A (en) * | 2018-09-27 | 2020-04-06 | 주식회사 더픽트 | System and method for editing virtual reality image and video |
-
2020
- 2020-11-10 KR KR1020200149248A patent/KR102541262B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200035696A (en) * | 2018-09-27 | 2020-04-06 | 주식회사 더픽트 | System and method for editing virtual reality image and video |
Also Published As
Publication number | Publication date |
---|---|
KR102541262B1 (en) | 2023-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200617B2 (en) | Efficient rendering of 3D models using model placement metadata | |
US9818228B2 (en) | Mixed reality social interaction | |
Hilfert et al. | Low-cost virtual reality environment for engineering and construction | |
KR20220035380A (en) | System and method for augmented reality scenes | |
KR102263133B1 (en) | Device for providing 3d virtual exhibition space production service | |
CN117197403A (en) | Mixed reality system and method for generating virtual content using the same | |
JP2021524094A (en) | Application virtual scene recognition and interaction key matching method, and arithmetic unit | |
JP7128188B2 (en) | 3D MODEL CONSTRUCTION METHOD, APPARATUS AND SYSTEM | |
JP6920057B2 (en) | Image processing equipment, image processing method, computer program | |
US10620807B2 (en) | Association of objects in a three-dimensional model with time-related metadata | |
Vajak et al. | Combining photogrammetry, 3D modeling and real time information gathering for highly immersive VR experience | |
CN110286906B (en) | User interface display method and device, storage medium and mobile terminal | |
Borycki | Programming for Mixed Reality with Windows 10, Unity, Vuforia, and UrhoSharp | |
KR102541262B1 (en) | METHOD, APPARATUS AND COMPUTER-READABLE MEDIUM OF Applying an object to VR content | |
JP2016122443A (en) | Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program | |
CN115861577A (en) | Method, device and equipment for editing posture of virtual field scene and storage medium | |
JP7279113B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM | |
KR20170006219A (en) | Method for three dimensions modeling service and Apparatus therefor | |
CN114913277A (en) | Method, device, equipment and medium for three-dimensional interactive display of object | |
JP6357412B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
CN114138250A (en) | Method, device and equipment for generating steps of system case and storage medium | |
JP2017084215A (en) | Information processing system, control method thereof, and program | |
KR20210046967A (en) | Method, apparatus and computer readable recording medium of rroviding authoring platform for authoring augmented reality contents | |
US20180225883A1 (en) | Non-transitory computer-readable storage medium, display control method, and display control apparatus | |
KR102483078B1 (en) | Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |