KR20150078873A - Method of making and providing content in 3d and apparatus therefor - Google Patents

Method of making and providing content in 3d and apparatus therefor Download PDF

Info

Publication number
KR20150078873A
KR20150078873A KR1020130168671A KR20130168671A KR20150078873A KR 20150078873 A KR20150078873 A KR 20150078873A KR 1020130168671 A KR1020130168671 A KR 1020130168671A KR 20130168671 A KR20130168671 A KR 20130168671A KR 20150078873 A KR20150078873 A KR 20150078873A
Authority
KR
South Korea
Prior art keywords
image
user terminal
dimensional content
guide
user
Prior art date
Application number
KR1020130168671A
Other languages
Korean (ko)
Other versions
KR102176217B1 (en
Inventor
김광중
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020130168671A priority Critical patent/KR102176217B1/en
Publication of KR20150078873A publication Critical patent/KR20150078873A/en
Application granted granted Critical
Publication of KR102176217B1 publication Critical patent/KR102176217B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method for generating a three-dimensional content, the invention comprising the steps of: capturing a first image of an object; displaying a guide, which is for capturing a second image of the object based on the captured first image, on a user terminal; executing the displayed guide; and capturing a second image of the object in the case where the displayed guide corresponds to the executing result wherein the guide may determine a position of the user terminal for capturing the second image of the object.

Description

3차원 컨텐츠를 생성 및 제공하는 방법 및 장치{METHOD OF MAKING AND PROVIDING CONTENT IN 3D AND APPARATUS THEREFOR}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for generating and providing three-

본 발명은 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating and providing three-dimensional content.

일반적으로, 3차원 컨텐츠는 2차원 컨텐츠에 깊이 정보를 부가하고, 부가된 깊이 정보를 이용하여 관찰자가 3차원의 생동감 및 현실감을 느낄 수 있도록 하는 기술이 결합된 컨텐츠이다. In general, 3D content is a content combined with a technique of adding depth information to two-dimensional content and enabling a viewer to feel three-dimensional vividness and realism using the added depth information.

3차원 컨텐츠를 생성하는 방법은 사람의 눈에 각기 좌우 방향에서 본 것과 동일한 컨텐츠를 제시하여, 사람의 두 눈에 시차를 주고, 이것을 합성하여 하나의 입체 컨텐츠로 보이게 하는 것이다. 이 때, 좌우 양방향의 컨텐츠를 분리하여 좌우 각각의 눈에 보이게 하는 방법으로 편광 안경, 색 필터 안경 또는 스크린 등이 이용된다. The method of generating three-dimensional content is to present the same contents as seen from the left and right directions to the eyes of a person, to give a parallax to two eyes of a person, and to synthesize them to be viewed as one stereoscopic content. At this time, polarizing glasses, color filter glasses, screens, or the like are used as a method of separating left and right contents in both directions and making them visible to the left and right eyes.

객체의 복수의 이미지를 촬영하고, 촬영한 복수의 이미지를 이용하여 객체에 대한 3차원 컨텐츠를 생성하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. A plurality of images of an object are captured, and three-dimensional content for an object is generated using a plurality of captured images. It is to be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 3차원 컨텐츠를 생성하는 방법은 객체의 제 1 이미지를 촬영하는 단계, 상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 단계, 상기 표시된 가이드를 수행하는 단계, 및 상기 표시된 가이드와 상기 수행 결과가 대응하는 경우 상기 객체의 제 2 이미지를 촬영하는 단계를 포함하는 것을 특징으로 하되, 상기 가이드는 상기 객체의 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정할 수 있다. According to a first aspect of the present invention, there is provided a method for generating three-dimensional content, comprising the steps of: photographing a first image of an object; Displaying a guide for capturing a second image on a user terminal, performing the displayed guide, and capturing a second image of the object if the displayed guide and the performance result correspond Wherein the guide is capable of determining a position of the user terminal for capturing a second image of the object.

한편, 본 발명의 제 2 측면에 따른 3차원 컨텐츠를 제공하는 방법은 3차원 컨텐츠를 사용자 단말 위에 표시하는 단계, 상기 사용자 단말의 사용자의 시선을 인식하는 단계, 상기 인식된 시선의 변화를 감지하는 단계 및 상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 단계를 포함하는 것을 특징으로 하되, 상기 3차원 컨텐츠는 대응되는 객체에 대하여 촬영된 제 1 이미지 및 상기 제 1 이미지를 기준으로 상기 사용자 단말 위에 표시된 가이드를 수행하여 위치가 결정된 상기 사용자 단말에 의해 촬영된 제 2 이미지를 이용하여 생성될 수 있다.  According to a second aspect of the present invention, there is provided a method of providing three-dimensional content, comprising: displaying three-dimensional content on a user terminal; recognizing a user's gaze of the user terminal; And rotating the displayed three-dimensional content in response to a change in the line of sight, wherein the three-dimensional content includes a first image captured with respect to a corresponding object and a second image captured with respect to the first image, And may be generated using a second image captured by the user terminal whose location has been determined by performing the guide displayed on the user terminal.

본 발명의 제 3 측면에 따른 사용자 단말은 객체의 제 1 이미지를 촬영하는 이미지 촬영부 및 상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 인터페이스부를 포함하는 것을 특징으로 하되, 상기 이미지 촬영부는 상기 표시된 가이드를 이용하여 상기 객체의 제 2 이미지를 촬영하고, 상기 가이드는 상기 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정할 수 있다. A user terminal according to a third aspect of the present invention includes an image capturing unit for capturing a first image of an object and an interface for displaying on the user terminal a guide for capturing a second image of the object based on the captured first image, Wherein the image photographing unit photographs a second image of the object using the displayed guide, and the guide can determine a position of the user terminal to photograph the second image.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described task solution is merely exemplary and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and the detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말은 객체의 복수의 이미지를 촬영하고, 촬영한 복수의 이미지를 이용하여 객체에 대한 3차원 컨텐츠를 생성할 수 있다. According to one of the above-mentioned objects of the present invention, a user terminal can capture a plurality of images of an object and generate three-dimensional contents for the object using the captured images.

도 1은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.
1 is a diagram illustrating a method for generating three-dimensional content according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of a user terminal shown in FIG. 1 according to an embodiment of the present invention.
3 is a diagram illustrating a method for providing three-dimensional content according to an embodiment of the present invention.
4 is an operational flow diagram illustrating a method for generating three-dimensional content, in accordance with an embodiment of the present invention.
5 is an operational flow diagram illustrating a method for providing three-dimensional content, in accordance with an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In this specification, the term " part " includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be implemented using two or more hardware, or two or more units may be implemented by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by the terminal or the device may be performed in the server connected to the terminal or the device instead. Similarly, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 도면이다. 1 is a diagram illustrating a method for generating three-dimensional content according to an embodiment of the present invention.

도 1을 참조하면, 사용자 단말(100)은 객체(10)의 제 1 이미지를 촬영할 수 있다. 여기서, 제 1 이미지는 객체(10)의 특정 영역을 촬영한 이미지로서, 사용자 단말(100)이 최초로 촬영한 이미지에 대응하는 것일 수 있다. Referring to FIG. 1, a user terminal 100 may capture a first image of an object 10. Here, the first image may be an image of a specific region of the object 10, and may correspond to an image first captured by the user terminal 100.

사용자 단말(100)은 촬영된 객체(10)의 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위해서, 사용자 단말(100)의 촬영 위치를 결정하고 사용자에게 촬영 위치를 안내하는 역할로서, 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100) 위치를 안내하는 안내 문구 및/또는 방향 기호 등을 포함할 수 있다. The user terminal 100 may display on the user terminal 100 a guide for taking a second image of the object 10 based on the first image of the captured object 10. [ At this time, the guide is used to determine the photographing position of the user terminal 100 and to guide the photographing position to the user, for photographing the second image of the object 10, And / or directional symbols that guide the location of the user terminal 100 for the user.

예를 들어, 객체(10)의 제 2 이미지의 촬영 위치가 객체(10)의 제 1 이미지로부터 우측방향으로 30도 회전해야하는 위치일 경우, 사용자 단말(100)은 객체(10)의 제 2 이미지를 촬영하기 위한 가이드로서, ' => 30°회전' 문구를 사용자 단말(100) 위에 표시할 수 있다. For example, if the shooting position of the second image of the object 10 should be rotated 30 degrees from the first image of the object 10 to the right, As a guide for photographing the user terminal 100, the phrase " = > 30 DEG rotation "

사용자 단말(100)은 사용자 단말(100) 위에 표시된 가이드에 기초하여, 가이드가 안내하는 객체(10)의 제 2 이미지의 촬영 위치에서 객체(10)의 제 2 이미지를 촬영할 수 있다. The user terminal 100 may take a second image of the object 10 at the location of the second image of the object 10 guided by the guide based on the guide displayed on the user terminal 100. [

구체적으로, 사용자 단말(100)은 촬영된 제 1 이미지를 기준으로 촬영을 하되, 가이드에서 제공된 객체(10)의 제 2 이미지의 촬영 위치와 사용자 단말(100)의 위치가 일치하는지 여부를 판단하고, 일치할 경우, 해당 촬영 위치에서 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 때, 사용자 단말(100)은 사용자 단말(100)의 자이로 센서를 통해 사용자 단말(100)의 위치를 감지할 수 있다. 사용자 단말(100)은 자이로 센서가 탑재되어 사용자 단말(100)의 움직임을 감지할 수 있다. 여기서, 자이로 센서는 각속도를 감지하는 센서로서, 곡선 방향으로 이동하는 사용자 단말(100)의 움직임을 감지할 수 있다. Specifically, the user terminal 100 photographs based on the captured first image, determines whether the position of the user terminal 100 is coincident with the photographing position of the second image of the object 10 provided in the guide , The second image of the object 10 can be photographed at the corresponding photographing position. At this time, the user terminal 100 can sense the position of the user terminal 100 through the gyro sensor of the user terminal 100. The user terminal 100 can detect the movement of the user terminal 100 by mounting the gyro sensor. Here, the gyro sensor is a sensor for sensing the angular velocity, and can detect the movement of the user terminal 100 moving in the curved direction.

사용자 단말(100)은 객체(10)를 중심으로 하는 구면 위의 제 1 이미지의 촬영 위치에 대하여, 구면 위의 기설정된 범위 내의 위치에서 상하좌우 방향으로 복수의 제 2 이미지를 촬영할 수 있다. 여기서, 구면 위의 기설정된 범위는 객체(10)를 중심으로 제 1 이미지의 촬영 위치와 제 2 이미지의 촬영 위치가 이루는 각도에 대응하는 것일 수 있다. 이 때, 각도는 3차원 컨텐츠를 생성할 수 있는 촬영 각도일 수 있다. The user terminal 100 can photograph a plurality of second images in the up, down, left, and right directions at a position within a predetermined range on the spherical surface, with respect to the photographing position of the first image on the spherical surface centered on the object 10. Here, the predetermined range on the spherical surface may correspond to an angle formed by the photographing position of the first image and the photographing position of the second image centered on the object 10. At this time, the angle may be a shooting angle at which three-dimensional content can be generated.

사용자 단말(100)은 객체(10)의 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있고, 사용자 단말(100)은 생성된 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. The user terminal 100 may generate the three-dimensional content using the first image of the object 10 and the plurality of second images, and the user terminal 100 may generate the generated three-dimensional content on the user terminal 100 Can be displayed.

사용자 단말(100)은 무선 통신이 가능한 모바일 단말을 포함할 수 있고, 본 발명의 다양한 실시예들에 따르면, 사용자 단말(100)은 다양한 형태의 디바이스일 수 있다. 예를 들어, 사용자 단말(100)은 네트워크를 통해 원격지의 서버에 접속할 수 있는 휴대용 단말일 수 있다. 여기서, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다. 다만, 사용자 단말(100)은 도 1의 도시된 형태 또는 앞서 예시된 것들로 한정 해석되는 것은 아니다. The user terminal 100 may comprise a mobile terminal capable of wireless communication, and according to various embodiments of the present invention, the user terminal 100 may be various types of devices. For example, the user terminal 100 may be a portable terminal that can access a remote server via a network. Here, as an example of a portable terminal, a portable communication device that is guaranteed to be portable and mobility may be a personal communication system (PCS), a global system for mobile communications (GSM), a personal digital cellular (PDC), a personal handyphone system (PHS) (Personal Digital Assistant), IMT (International Mobile Telecommunication) -2000, CDMA (Code Division Multiple Access) -2000, W-CDMA (W-CDMA), Wibro (Wireless Broadband Internet) , A tablet PC, and the like, may be included. However, the user terminal 100 is not limited to the illustrated form of FIG. 1 or that illustrated above.

이하에서는 도 1의 사용자 단말(100)의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the user terminal 100 of FIG. 1 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(100)의 구성도이다. FIG. 2 is a configuration diagram of the user terminal 100 shown in FIG. 1 according to an embodiment of the present invention.

도 2를 참조하면, 사용자 단말(100)은 이미지 촬영부(210), 인터페이스부(220), 컨텐츠 생성부(230), 표시부(240), 탐지부(250), 및 DB(260)를 포함할 수 있다. 다만, 도 2에 도시된 사용자 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 사용자 단말(100)은 이용자로부터 어떤 명령 내지 정보를 입력 받기 위한 유저 인터페이스가 더 포함될 수 있다. 이 경우, 유저 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다. 2, the user terminal 100 includes an image capture unit 210, an interface unit 220, a content generation unit 230, a display unit 240, a detection unit 250, and a DB 260 can do. However, the user terminal 100 shown in FIG. 2 is only one embodiment of the present invention, and various modifications are possible based on the components shown in FIG. For example, the user terminal 100 may further include a user interface for receiving a command or information from the user. In this case, the user interface may generally be an input device such as a keyboard, a mouse, or the like, but may be a graphical user interface (GUI) represented in an image display device.

이미지 촬영부(210)는 객체(10)의 특정 영역에 대응하는 제 1 이미지를 촬영할 수 있다. 여기서, 제 1 이미지는 최초 촬영 시점에 대응하는 객체(10)에 대한 복수의 이미지 중 어느 하나에 대응될 수 있다. The image capturing unit 210 may capture a first image corresponding to a specific area of the object 10. [ Here, the first image may correspond to any one of a plurality of images for the object 10 corresponding to the first photographing time point.

이미지 촬영부(210)는 사용자 단말(100) 위에 표시된 가이드를 이용하여, 객체(10)의 제 2 이미지를 촬영할 수 있다. 여기서, 제 2 이미지는 제 1 이미지를 촬영한 위치로부터 기설정된 범위(예를 들어, 제 1 이미지의 촬영 위치와 제 2 이미지의 촬영 위치간의 거리 간격) 내의 위치에서 촬영된 것일 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위해서, 사용자 단말(100)의 촬영 위치를 결정하고 사용자에게 촬영 위치를 안내하는 역할을 할 수 있다. The image capturing unit 210 may capture the second image of the object 10 using the guide displayed on the user terminal 100. [ Here, the second image may have been photographed at a position within a predetermined range (for example, a distance between the photographing position of the first image and the photographing position of the second image) from the position where the first image was photographed. In this case, the guide may determine the photographing position of the user terminal 100 and guide the user to the photographing position, in order to photograph the second image of the object 10.

구체적으로, 이미지 촬영부(210)는 촬영된 제 1 이미지를 기준으로, 사용자 단말(100)의 촬영 위치가 표시된 가이드를 이용하여 객체(10)의 제 2 이미지를 촬영할 수 있다. 또한, 이미지 촬영부(210)는 촬영된 제 1 이미지를 기준으로 촬영을 하되, 가이드에서 제공된 사용자 단말(100)의 촬영 위치와 사용자 단말(100)의 위치가 일치하는지 여부를 판단하고, 일치할 경우, 사용자 단말(100)의 촬영 위치에 대응하는 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 때, 이미지 촬영부(210)는 사용자 단말(100)의 자이로 센서를 통해 사용자 단말(100)의 위치를 감지할 수 있다. Specifically, the image photographing unit 210 can photograph the second image of the object 10 using the guide on which the photographing position of the user terminal 100 is displayed, based on the photographed first image. In addition, the image capturing unit 210 captures images based on the captured first image, determines whether the photographing position of the user terminal 100 provided in the guide matches the position of the user terminal 100, The second image of the object 10 corresponding to the photographing position of the user terminal 100 can be photographed. At this time, the image capturing unit 210 may sense the position of the user terminal 100 through the gyro sensor of the user terminal 100.

이미지 촬영부(210)는 객체(10)를 중심으로 제 1 이미지로부터 기설정된 범위 내에서 제 2 이미지를 촬영할 수 있다. 구체적으로, 이미지 촬영부(210)는 객체(10)를 중심으로 하는 구면 위에 제 1 이미지를 촬영한 위치로부터 구면 위의 기설정된 범위에 대응하는 사용자 단말(100)의 촬영 위치에서 제 2 이미지를 촬영할 수 있다. The image capturing unit 210 can capture a second image within a predetermined range from the first image with the object 10 as the center. Specifically, the image capturing unit 210 captures the second image from the position at which the first image is captured on the spherical surface centered on the object 10, at the capturing position of the user terminal 100 corresponding to the preset range on the spherical surface You can shoot.

여기서, 구면 위의 기설정된 범위는 객체(10)를 중심으로 제 1 이미지 및 제 2 이미지가 이루는 각도에 대응하는 것일 수 있고, 이 때, 각도는 제 1 이미지의 촬영 위치로부터 정방향으로 기설정된 각도(예를 들어, 정방향으로 30도)에 있는 제 2 이미지의 촬영 위치에 대응하는 각도로서, 3차원 컨텐츠를 생성할 수 있는 촬영 각도일 수 있다. Here, the predetermined range on the spherical surface may correspond to the angle formed by the first image and the second image about the object 10, wherein the angle is a predetermined angle from the shooting position of the first image (E.g., 30 degrees in the normal direction), and may be an imaging angle capable of generating three-dimensional content.

이미지 촬영부(210)는 객체(10)를 중심으로 하는 구면 위의 제 1 이미지의 촬영 위치에 대하여, 구면 위의 기설정된 범위 내의 위치에서 상하좌우 방향으로 복수의 제 2 이미지를 촬영할 수 있다. 여기서, 촬영된 제 1 이미지 및 복수의 제 2 이미지는 DB(250)에 저장될 수 있다. The image capturing unit 210 can capture a plurality of second images in the up, down, left, and right directions at positions within a predetermined range on the spherical surface, with respect to the capturing position of the first image on the spherical surface centered on the object 10. Here, the photographed first image and the plurality of second images may be stored in the DB 250.

인터페이스부(220)는 촬영된 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지의 촬영 위치를 설명하기 위한 촬영 방향 또는 촬영 각도를 안내 기호로서 사용자 단말(100) 위에 표시될 수 있다. 예를 들어, 인터페이스부(220)는 제 1 이미지로부터 우측방향으로 30도 회전하여 촬영하라는 의미로 ' => 30°회전' 문구를 사용자 단말(100) 위에 표시할 수 있다. The interface unit 220 may display a guide for capturing a second image of the object 10 on the user terminal 100 based on the captured first image. At this time, the guide may be displayed on the user terminal 100 as a guide symbol for the photographing direction or the photographing angle for explaining the photographing position of the second image of the object 10. For example, the interface unit 220 may display '=> rotate 30 °' on the user terminal 100 in order to rotate the image from the first image by 30 degrees in the right direction.

본 발명의 다른 실시예로, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 촬영 방향 또는 촬영 각도를 결정하기 위하여, 해당 촬영 방향 또는 촬영 각도를 결정한 경우를 미리 예측하여, 예측된 객체(10)의 이미지를 블러(blur)처리하여 사용자 단말(100) 위에 표시할 수 있다. 이 경우, 예측된 객체(10)의 이미지의 테두리는 점선으로 표시될 수 있다.In another embodiment of the present invention, the guide may be used to predict the case in which the photographing direction or photographing angle is determined to determine the photographing direction or photographing angle of the user terminal 100 for photographing the second image of the object 10 The blurred image of the predicted object 10 may be displayed on the user terminal 100. In this case, the border of the image of the predicted object 10 may be indicated by a dotted line.

본 발명의 또 다른 실시예로, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 촬영 방향 또는 촬영 각도를 안내하는 안내음성을 사용자에게 제공할 수 있다. In another embodiment of the present invention, the guide can provide the user with a guidance voice that guides the shooting direction or shooting angle of the user terminal 100 for shooting the second image of the object 10. [

컨텐츠 생성부(230)는 객체(10)의 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있다. 또한, 컨텐츠 생성부(230)는 촬영된 객체(10)의 제 1 이미지를 기준으로 각기 다른 방향 즉, 객체(10)의 상하방향, 좌우방향, 전후방향에서 촬영된 복수의 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있다. 이 때, 컨텐츠 생성부(23)는 일정 방향으로 촬영된 복수의 이미지를 제 1 이미지와 연결하여 객체(10)의 전후, 상하, 좌우 방면에 대응하는 3차원 컨텐츠를 생성할 수 있다. The content generation unit 230 may generate the three-dimensional content using the first image of the object 10 and the plurality of second images. The content generation unit 230 generates a plurality of images by using a plurality of images taken in different directions on the basis of the first image of the photographed object 10, that is, in the vertical direction, the left- Dimensional content can be generated. At this time, the content generation unit 23 may generate a three-dimensional content corresponding to front, back, top, bottom, left and right sides of the object 10 by connecting a plurality of images photographed in a predetermined direction to the first image.

표시부(240)는 컨텐츠 생성부(230)에 의해 생성된 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. The display unit 240 may display the three-dimensional content generated by the content generation unit 230 on the user terminal 100.

또한, 표시부(240)는 사용자 단말(100)의 사용자 시선의 변화에 대응하여 사용자 단말(100) 위에 표시된 3차원 컨텐츠를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 여기서, 시선의 변화는 제 1 방향에 대응하고, 3차원 컨텐츠의 회전 방향은 제 1 방향과 반대인 제 2 방향에 대응하는 것일 수 있다. 이 때, 3차원 컨텐츠의 회전 방향은 사용자 단말(100)의 사용자가 3차원 컨텐츠를 바라보는 방향에 대응될 수 있다. 예를 들어, 표시부(240)는 사용자의 시선이 사용자 단말(100)의 전면부를 향하다가 우측방향으로 바뀔 경우, 3차원 컨텐츠를 좌측 방향으로 회전시키고, 회전시킨 부분에 대응하는 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. In addition, the display unit 240 may rotate the three-dimensional content displayed on the user terminal 100 and display the rotated three-dimensional content on the user terminal 100 in response to a change in the user's gaze of the user terminal 100. [ Here, the change in the line of sight may correspond to the first direction, and the rotation direction of the three-dimensional content may correspond to the second direction opposite to the first direction. At this time, the rotation direction of the three-dimensional content may correspond to the direction in which the user of the user terminal 100 views the three-dimensional content. For example, when the user's line of sight is directed to the front side of the user terminal 100 and then changes to the right direction, the display unit 240 rotates the three-dimensional content in the left direction, It can be displayed on the terminal 100.

표시부(240)는 사용자의 시선의 변화가 감지될 경우, 사용자의 시선 변화에 대한 계산된 각도 변화 및 사용자의 시선 변화 방향에 대응하여 3차원 컨텐츠를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 예를 들어, 표시부(240)는 사용자의 시선 변화에 대응하여 계산된 각도가 '30도'이고, 시선 변화 방향이 '오른쪽'일 경우, 3차원 컨텐츠를 '왼쪽 방향'으로 '30도' 회전시켜 사용자 단말(100) 위에 표시할 수 있다. When the change of the user's gaze is detected, the display unit 240 rotates the three-dimensional content corresponding to the calculated angle change of the user's gaze change and the direction of the user's gaze change, and displays the rotated three-dimensional content on the user terminal 100 . For example, when the calculated angle corresponding to the user's visual line change is '30 degrees' and the visual line change direction is 'right', the display unit 240 displays the three-dimensional content in the 'left direction' And displayed on the user terminal 100.

탐지부(250)는 사용자 단말(100)의 사용자 시선을 인식하고, 인식된 시선의 변화를 감지할 수 있다. 또한, 탐지부(250)는 3차원 컨텐츠를 바라보는 사용자 시선의 전과 후를 비교함으로써 시선의 변화를 감지할 수 있다. 구체적으로, 탐지부(250)는 3차원 컨텐츠를 중심으로, 사용자의 시선 변화에 대한 각도 변화를 계산하고, 전후의 각도 변화가 있을 경우, 사용자의 시선이 변화되었음을 판단할 수 있다. The detection unit 250 recognizes the user's gaze of the user terminal 100 and can detect a change in the recognized gaze. In addition, the detection unit 250 can detect a change in the line of sight by comparing before and after the user's line of sight looking at the three-dimensional content. Specifically, the detection unit 250 may calculate an angle change of the user's gaze change around the three-dimensional content, and may determine that the gaze of the user has changed if there is a change in the angle between before and after.

예를 들어, 탐지부(250)는 3차원 컨텐츠를 바라보는 사용자의 시선이 사용자 단말(100)의 정면에서 오른쪽으로 옮겨질 경우, 3차원 컨텐츠를 중심으로 사용자 단말(100)의 정면을 바라보고 있던 시선에서 오른쪽으로 옮겨진 시선까지의 각도를 계산하고, 계산된 각도가 변화가 있을 경우, 사용자의 시선의 변화가 있었음을 감지할 수 있다. For example, when the user's gaze of the user viewing the three-dimensional content is shifted to the right from the front of the user terminal 100, the detection unit 250 looks at the front of the user terminal 100 around the three- The angle from the existing line to the line moved to the right is calculated, and when the calculated angle is changed, it is possible to detect that the user's line of sight has changed.

DB(260)는 사용자 단말(100)로부터 수신한 데이터를 저장할 수 있다. 이 때, DB(260)는 사용자 단말(100) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터, 사용자 단말(100)와 사용자 단말(100) 외부의 구성요소들간에 입력 및 출력되는 데이터를 저장할 수 있다. The DB 260 may store data received from the user terminal 100. In this case, the DB 260 stores data input and output between the respective components in the user terminal 100, and data input and output between the user terminal 100 and the components outside the user terminal 100 .

예를 들어, DB(260)는 이미지 촬영부(210)에서 촬영된 객체(10)의 복수의 이미지를 저장할 수 있다. 또한, DB(260)는 탐지부(250)에서 계산된 사용자의 시선 변화에 대한 각도 변화를 저장할 수 있다. For example, the DB 260 may store a plurality of images of the object 10 photographed by the image photographing unit 210. [ In addition, the DB 260 can store the angle change of the user's gaze change calculated by the detection unit 250. [

이러한 DB(260)의 일 예에는 사용자 단말(100) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다. One example of such a DB 260 includes a hard disk drive, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, a memory card, and the like which are present inside or outside the user terminal 100.

당업자라면, 제 이미지 촬영부(210), 인터페이스부(220), 컨텐츠 생성부(230), 표시부(240), 탐지부(250), 및 DB(260) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Those skilled in the art will recognize that the image capturing unit 210, the interface unit 220, the content generating unit 230, the display unit 240, the detection unit 250, and the DB 260 may be separately implemented, It will be appreciated that the present invention may be embodied in an integrated fashion.

도 3은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 도면이다. 3 is a diagram illustrating a method for providing three-dimensional content according to an embodiment of the present invention.

도 3을 참조하면, 사용자 단말(100)은 사용자 단말(100)에 장착된 이미지 센서를 통해 사용자 단말(100)의 사용자의 시선을 인식할 수 있고, 사용자의 시선의 변화를 감지할 수 있다. 구체적으로, 사용자 단말(100)은 3차원 컨텐츠(11)를 중심으로 사용자의 시선 변화 전후의 각도 변화를 계산하고, 계산된 각도 변화를 통해 사용자의 시선의 변화를 감지할 수 있다. Referring to FIG. 3, the user terminal 100 can recognize the user's gaze of the user terminal 100 through the image sensor mounted on the user terminal 100, and can detect a change in the user's gaze. Specifically, the user terminal 100 calculates an angle change before and after the user's gaze change around the three-dimensional content 11, and can detect a change in the gaze of the user through the calculated angle change.

예를 들어, 사용자 단말(100)은 이미지 센서를 통해 사용자의 시선이 왼쪽(12)에서 오른쪽(13)으로 변화했음을 감지할 수 있다. 구체적으로, 사용자 단말(100)은 3차원 컨텐츠(11)를 중심으로, 사용자의 시선 변화(즉, 왼쪽(12)에서 오른쪽(13)으로 변화)에 대한 각도 변화를 계산할 수 있다. For example, the user terminal 100 may sense that the user's line of sight has changed from the left 12 to the right 13 via the image sensor. Specifically, the user terminal 100 can calculate the angle change with respect to the user's gaze change (that is, from the left (12) to the right (13)) centered on the three-dimensional content (11).

사용자 단말(100)은 사용자 단말(100)의 사용자의 시선 변화에 대응하여 3차원 컨텐츠(11)를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 구체적으로, 사용자 단말(100)은 사용자의 시선 변화를 감지할 경우, 사용자의 시선 변화에 대한 계산된 각도 변화 및 사용자의 시선 변화 방향에 대응하여 3차원 컨텐츠(11)를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. The user terminal 100 may rotate the three-dimensional content 11 and display the three-dimensional content 11 on the user terminal 100 in response to a change in the user's gaze of the user terminal 100. [ Specifically, when the user terminal 100 senses a change in the user's gaze, the user terminal 100 rotates the three-dimensional content 11 corresponding to the calculated angle change of the user's gaze change and the user's gaze change direction, ).

예를 들어, 사용자 단말(100)은 사용자의 시선이 왼쪽(12)에서 오른쪽(13)으로 변화될 경우, 3차원 컨텐츠(11)를 오른쪽에서 왼쪽으로 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 이 때, 사용자 단말(100)은 사용자의 시선 변화(왼쪽(12)에서 오른쪽(13))에 따라, 객체(3차원 컨텐츠(11)에 대응하는 객체)가 보이는 부분에 대응하여 3차원 컨텐츠(11)를 회전시킴으로써, 사용자가 해당 객체를 실제로 바라보는 듯한 효과를 제공할 수 있다. For example, the user terminal 100 can rotate the 3D content 11 from right to left and display it on the user terminal 100 when the user's line of sight changes from the left 12 to the right 13 have. At this time, the user terminal 100 displays the three-dimensional content (corresponding to the portion corresponding to the object corresponding to the three-dimensional content 11) in accordance with the change in the line of sight of the user 11), it is possible to provide the effect that the user actually looks at the object.

본 발명의 다른 실시예에서는 사용자의 시선만 이동하는 경우뿐만 아니라, 사용자의 머리가 이동하는 경우를 고려하여 객체(11)의 회전 각도 등이 결정될 수 있다.In another embodiment of the present invention, not only the direction of the user's gaze but also the angle of rotation of the object 11 can be determined in consideration of the movement of the user's head.

도 4는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 동작 흐름도이다. 도 4에 도시된 실시예에 따른 3차원 컨텐츠를 생성하는 방법은 도 1 내지 도 3에 도시된 실시예에 따른 사용자 단말(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 3의 사용자 단말(100)에 관하여 기술된 내용은 도 4에 도시된 실시예에 따른 3차원 컨텐츠를 생성하는 방법에도 적용될 수 있다. 4 is an operational flow diagram illustrating a method for generating three-dimensional content, in accordance with an embodiment of the present invention. The method for generating three-dimensional content according to the embodiment shown in FIG. 4 includes steps that are processed in a time-series manner in the user terminal 100 according to the embodiment shown in FIGS. Accordingly, the contents described with respect to the user terminal 100 of FIGS. 1 to 3 may be applied to a method of generating three-dimensional contents according to the embodiment shown in FIG.

도 4를 참조하면, 단계 S401에서 사용자 단말(100)은 객체(10)의 제 1 이미지를 촬영할 수 있다. Referring to FIG. 4, in step S401, the user terminal 100 may photograph a first image of the object 10. FIG.

단계 S403에서 사용자 단말(100)은 단계 S401에서 촬영된 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 위치를 결정하는 것일 수 있다. In step S403, the user terminal 100 may display, on the user terminal 100, a guide for capturing a second image of the object 10 based on the first image captured in step S401. At this time, the guide may be to determine the location of the user terminal 100 to capture a second image of the object 10.

여기서, 제 2 이미지는 제 1 이미지를 촬영한 위치에 대하여 기설정된 범위 내의 위치에서 촬영되는 것일 수 있다. 구체적으로, 제 2 이미지는 객체(10)를 중심으로 하는 구면 위의 제 1 이미지를 촬영한 위치에 대하여 구면 위의 기설정된 범위 내의 위치에서 촬영되는 것일 수 있다. Here, the second image may be photographed at a position within a predetermined range with respect to the position at which the first image is photographed. Specifically, the second image may be taken at a position within a predetermined range on the spherical surface with respect to the position at which the first image on the spherical surface centered on the object 10 is photographed.

단계 S405에서 사용자 단말(100)은 단계 S403에서 표시된 가이드를 수행할 수 있다. 이 때, 사용자 단말(100)은 사용자 단말(100)의 자이로 센서를 이용하여 가이드를 수행할 수 있다. In step S405, the user terminal 100 may perform the guide displayed in step S403. At this time, the user terminal 100 can perform guidance using the gyro sensor of the user terminal 100. [

단계 S407에서 사용자 단말(100)은 단계 S403에서 표시된 가이드와 단계 S405에서 수행한 결과가 대응하는 경우 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 경우, 사용자 단말(100)은 제 1 이미지 및 복수의 제 2 이미지를 이용하여 객체(10)에 대한 3차원 컨텐츠를 생성할 수 있다. In step S407, the user terminal 100 may capture the second image of the object 10 when the result displayed in step S405 corresponds to the guide displayed in step S403. In this case, the user terminal 100 may generate three-dimensional content for the object 10 using the first image and the plurality of second images.

상술한 설명에서, 단계 S401 내지 S407은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S401 to S407 may be further divided into further steps or combined into fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.

도 5는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다. 5 is an operational flow diagram illustrating a method for providing three-dimensional content, in accordance with an embodiment of the present invention.

도 5에 도시된 실시예에 따른 3차원 컨텐츠를 제공하는 방법은 도 1 내지 도 4에 도시된 실시예에 따른 사용자 단말(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4의 사용자 단말(100)에 관하여 기술된 내용은 도 5에 도시된 실시예에 따른 3차원 컨텐츠를 제공하는 방법에도 적용될 수 있다. The method for providing three-dimensional content according to the embodiment shown in FIG. 5 includes steps that are processed in a time-series manner in the user terminal 100 according to the embodiment shown in FIGS. Accordingly, the contents described with respect to the user terminal 100 of FIGS. 1 to 4 may be applied to a method of providing three-dimensional contents according to the embodiment shown in FIG.

도 5를 참조하면, 단계 S501에서 사용자 단말(100)은 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 3차원 컨텐츠는 대응되는 객체(10)에 대하여 촬영된 제 1 이미지 및 제 1 이미지를 기준으로 사용자 단말(100) 위에 표시된 가이드를 수행하여 위치가 결정된 사용자 단말(100)에 의해 촬영된 제 2 이미지를 이용하여 생성된 것일 수 있다. Referring to FIG. 5, in step S501, the user terminal 100 may display 3D content on the user terminal 100. FIG. At this time, the three-dimensional content is displayed on the user terminal 100 by performing the guide displayed on the user terminal 100 on the basis of the first image and the first image captured with respect to the corresponding object 10, And may be generated using the second image.

단계 S503에서 사용자 단말(100)은 사용자 단말(100)의 사용자의 시선을 인식할 수 있다. In step S503, the user terminal 100 can recognize the user's gaze of the user terminal 100. [

단계 S505에서 사용자 단말(100)은 단계 S503에서 인식된 시선의 변화를 감지할 수 있다. 이 때, 사용자 단말(100)은 3차원 컨텐츠를 중심으로 사용자의 시선 변화 전후의 각도 변화를 계산할 수 있다. In step S505, the user terminal 100 may detect a change in the line of sight recognized in step S503. At this time, the user terminal 100 can calculate the angle change before and after the change of the user's gaze around the three-dimensional content.

단계 S507에서 사용자 단말(100)은 단계 S505에서 감지된 시선의 변화에 대응하여 사용자 단말(100) 위에 표시된 3차원 컨텐츠를 회전시킬 수 있다. 여기서, 시선의 변화는 제 1 방향에 대응하고, 3차원 컨텐츠의 회전 방향은 제 1 방향과 반대인 제 2 방향에 대응하는 것일 수 있다. In step S507, the user terminal 100 may rotate the three-dimensional content displayed on the user terminal 100 in response to the change of the line of sight sensed in step S505. Here, the change in the line of sight may correspond to the first direction, and the rotation direction of the three-dimensional content may correspond to the second direction opposite to the first direction.

구체적으로, 사용자 단말(100)은 단계 S505에서 계산된 각도 변화에 대응하여 3차원 컨텐츠를 회전시킬 수 있다. Specifically, the user terminal 100 may rotate the three-dimensional content in response to the angle change calculated in step S505.

상술한 설명에서, 단계 S501 내지 S507은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S501 to S507 may be further divided into additional steps, or combined in fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

100: 사용자 단말
10: 객체
100: user terminal
10: Objects

Claims (14)

3차원 컨텐츠를 생성하는 방법에 있어서,
객체의 제 1 이미지를 촬영하는 단계;
상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 단계;
상기 표시된 가이드를 수행하는 단계; 및
상기 표시된 가이드와 상기 수행 결과가 대응하는 경우 상기 객체의 제 2 이미지를 촬영하는 단계를 포함하고,
상기 가이드는 상기 객체의 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정하는 것인, 컨텐츠 생성 방법.
A method for generating three-dimensional content,
Capturing a first image of the object;
Displaying a guide for capturing a second image of the object on the user terminal based on the captured first image;
Performing the indicated guide; And
And taking a second image of the object if the displayed guide and the result of the operation correspond,
Wherein the guide determines a location of the user terminal for capturing a second image of the object.
제 1 항에 있어서,
상기 제 1 이미지 및 복수의 제 2 이미지를 이용하여 상기 객체에 대한 3차원 컨텐츠를 생성하는 단계를 더 포함하는 컨텐츠 생성 방법.
The method according to claim 1,
And generating three-dimensional content for the object using the first image and the plurality of second images.
제 1 항에 있어서,
상기 가이드 수행 단계는 상기 사용자 단말의 자이로 센서를 이용하여 수행되는 것인, 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the guiding step is performed using a gyro sensor of the user terminal.
제 1 항에 있어서,
상기 제 2 이미지는 상기 제 1 이미지를 촬영한 위치에 대하여 기설정된 범위 내의 위치에서 촬영되는 것인, 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the second image is photographed at a position within a predetermined range with respect to a position at which the first image is photographed.
제 4 항에 있어서,
상기 제 2 이미지는 상기 객체를 중심으로 하는 구면 위의 상기 제 1 이미지를 촬영한 위치에 대하여 상기 구면 위의 기설정된 범위 내의 위치에서 촬영되는 것인, 컨텐츠 생성 방법.
5. The method of claim 4,
Wherein the second image is photographed at a position within a predetermined range on the spherical surface with respect to a position where the first image is photographed on a spherical surface centered on the object.
제 5 항에 있어서,
상기 구면 위의 기설정된 범위는 상기 객체를 중심으로 상기 제 1 이미지 및 상기 제 2 이미지가 이루는 각도에 대응하는 것인, 컨텐츠 생성 방법.
6. The method of claim 5,
Wherein the predetermined range on the spherical surface corresponds to an angle between the first image and the second image centered on the object.
제 6 항에 있어서,
상기 각도는 30도이고, 상기 제 2 이미지는 상기 제 1 이미지의 상하좌우 방향에서 촬영되는 것인, 컨텐츠 생성 방법.
The method according to claim 6,
Wherein the angle is 30 degrees and the second image is photographed in up, down, left, and right directions of the first image.
3차원 컨텐츠를 제공하는 방법에 있어서,
3차원 컨텐츠를 사용자 단말 위에 표시하는 단계;
상기 사용자 단말의 사용자의 시선을 인식하는 단계;
상기 인식된 시선의 변화를 감지하는 단계; 및
상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 단계를 포함하고,
상기 3차원 컨텐츠는 대응되는 객체에 대하여 촬영된 제 1 이미지 및 상기 제 1 이미지를 기준으로 상기 사용자 단말 위에 표시된 가이드를 수행하여 위치가 결정된 상기 사용자 단말에 의해 촬영된 제 2 이미지를 이용하여 생성된 것인, 컨텐츠 제공 방법.
A method for providing three-dimensional content,
Displaying three-dimensional content on a user terminal;
Recognizing a user's gaze of the user terminal;
Sensing a change in the recognized line of sight; And
And rotating the displayed three-dimensional content corresponding to the change of the gaze,
Wherein the 3D content is generated using a first image captured for a corresponding object and a second image captured by the user terminal positioned by performing a guide displayed on the user terminal based on the first image, / RTI >
제 8 항에 있어서,
상기 시선의 변화는 제 1 방향에 대응하고, 상기 3차원 컨텐츠의 회전 방향은 상기 제 1 방향과 반대인 제 2 방향에 대응하는 것인, 컨텐츠 제공 방법.
9. The method of claim 8,
Wherein the change of the line of sight corresponds to a first direction, and the rotation direction of the three-dimensional content corresponds to a second direction opposite to the first direction.
제 8 항에 있어서,
상기 시선 변화를 감지하는 단계는 상기 3차원 컨텐츠를 중심으로 상기 사용자의 시선 변화 전후의 각도 변화를 계산하는 것인, 컨텐츠 제공 방법.
9. The method of claim 8,
Wherein the step of detecting the line of sight changes the angle of the user before and after the change of the line of sight around the three-dimensional content.
제 10 항에 있어서,
상기 3차원 컨텐츠는 상기 계산된 각도 변화에 대응하여 회전되는 것인, 컨텐츠 제공 방법.
11. The method of claim 10,
Wherein the three-dimensional content is rotated corresponding to the calculated angle change.
사용자 단말에 있어서,
객체의 제 1 이미지를 촬영하는 이미지 촬영부; 및
상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 인터페이스부;
상기 이미지 촬영부는 상기 표시된 가이드를 이용하여 상기 객체의 제 2 이미지를 촬영하고,
상기 가이드는 상기 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정하는 것인, 사용자 단말.
In a user terminal,
An image photographing unit photographing a first image of the object; And
An interface for displaying a guide for capturing a second image of the object on the user terminal based on the captured first image;
The image capturing section captures a second image of the object using the displayed guide,
Wherein the guide determines a location of the user terminal for capturing the second image.
제 12 항에 있어서,
상기 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성하는 컨텐츠 생성부;
상기 생성된 3차원 컨텐츠를 상기 사용자 단말 위에 표시하는 표시부; 및
상기 사용자 단말의 사용자의 시선을 인식하고, 상기 인식된 시선의 변화를 감지하는 탐지부를 더 포함하고,
상기 표시부는 상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 것인, 사용자 단말.
13. The method of claim 12,
A content generation unit for generating three-dimensional content using the first image and the plurality of second images;
A display unit for displaying the generated three-dimensional content on the user terminal; And
Further comprising a detection unit for recognizing a user's gaze of the user terminal and detecting a change in the recognized gaze,
Wherein the display unit rotates the displayed three-dimensional content corresponding to the change of the line of sight.
사용자 단말에서 실행되어 3차원 컨텐츠의 생성 및 제공 방법을 수행하는 어플리케이션을 제공하는 방법에 있어서,
상기 사용자 단말은 청구항 제 1 항 내지 청구항 제 11 항 중 어느 한 항에 기재된 방법을 실시하는 것을 특징으로 하는 어플리케이션 제공 방법.
A method of providing an application that is executed in a user terminal and performs a method of generating and providing three-dimensional content,
Wherein the user terminal performs the method according to any one of claims 1 to 11.
KR1020130168671A 2013-12-31 2013-12-31 Method of making and providing content in 3d and apparatus therefor KR102176217B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130168671A KR102176217B1 (en) 2013-12-31 2013-12-31 Method of making and providing content in 3d and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130168671A KR102176217B1 (en) 2013-12-31 2013-12-31 Method of making and providing content in 3d and apparatus therefor

Publications (2)

Publication Number Publication Date
KR20150078873A true KR20150078873A (en) 2015-07-08
KR102176217B1 KR102176217B1 (en) 2020-11-09

Family

ID=53791326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130168671A KR102176217B1 (en) 2013-12-31 2013-12-31 Method of making and providing content in 3d and apparatus therefor

Country Status (1)

Country Link
KR (1) KR102176217B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3163401A1 (en) * 2015-07-21 2017-05-03 LG Electronics Inc. Mobile terminal and control method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070039641A (en) * 2005-10-10 2007-04-13 주식회사 팬택 Method and apparatus for generating three dimension image using one camera
KR20120023247A (en) * 2010-09-01 2012-03-13 주식회사 팬택 Portable apparatus and method for displaying 3d object
KR20120088431A (en) * 2011-01-31 2012-08-08 삼성전자주식회사 Photographing apparatus for photographing a panorama image and method thereof
KR20130134103A (en) * 2012-05-30 2013-12-10 삼성전자주식회사 Device and method for providing image in terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070039641A (en) * 2005-10-10 2007-04-13 주식회사 팬택 Method and apparatus for generating three dimension image using one camera
KR20120023247A (en) * 2010-09-01 2012-03-13 주식회사 팬택 Portable apparatus and method for displaying 3d object
KR20120088431A (en) * 2011-01-31 2012-08-08 삼성전자주식회사 Photographing apparatus for photographing a panorama image and method thereof
KR20130134103A (en) * 2012-05-30 2013-12-10 삼성전자주식회사 Device and method for providing image in terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3163401A1 (en) * 2015-07-21 2017-05-03 LG Electronics Inc. Mobile terminal and control method thereof
US10021297B2 (en) 2015-07-21 2018-07-10 Lg Electronics Inc. Mobile terminal and control method thereof

Also Published As

Publication number Publication date
KR102176217B1 (en) 2020-11-09

Similar Documents

Publication Publication Date Title
KR102038639B1 (en) Touch screen hover detection in augmented reality and / or virtual reality
JP6351870B1 (en) Omni-directional shooting of mobile devices
EP3241093B1 (en) Electronic system with gesture calibration mechanism and method of operation thereof
KR20200146040A (en) Self-supervised training of depth estimation system
US8388146B2 (en) Anamorphic projection device
US11880956B2 (en) Image processing method and apparatus, and computer storage medium
EP2933605A1 (en) A device orientation correction method for panorama images
US10565577B2 (en) Guided positional tracking
KR20210113333A (en) Methods, devices, devices and storage media for controlling multiple virtual characters
US20170163958A1 (en) Method and device for image rendering processing
CN106062821A (en) Sensor-based camera motion detection for unconstrained slam
KR102182162B1 (en) Head mounted display and method for controlling the same
KR20180005528A (en) Display apparatus and method for image processing
KR102450236B1 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
US20180012073A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
KR101148508B1 (en) A method and device for display of mobile device, and mobile device using the same
EP3316117A1 (en) Controlling content displayed in a display
KR20140142441A (en) Shooting Method for Three-Dimensional Modeling And Electrical Device Thereof
US20140043445A1 (en) Method and system for capturing a stereoscopic image
US9454300B2 (en) Device, control method, and storage medium storing program
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
US20170302908A1 (en) Method and apparatus for user interaction for virtual measurement using a depth camera system
US20180150957A1 (en) Multi-spectrum segmentation for computer vision
KR102100667B1 (en) Apparatus and method for generating an image in a portable terminal
US20120002004A1 (en) Immersive Navigation and Rendering of Dynamically Reassembled Panoramas

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant