KR20150078873A - Method of making and providing content in 3d and apparatus therefor - Google Patents
Method of making and providing content in 3d and apparatus therefor Download PDFInfo
- Publication number
- KR20150078873A KR20150078873A KR1020130168671A KR20130168671A KR20150078873A KR 20150078873 A KR20150078873 A KR 20150078873A KR 1020130168671 A KR1020130168671 A KR 1020130168671A KR 20130168671 A KR20130168671 A KR 20130168671A KR 20150078873 A KR20150078873 A KR 20150078873A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user terminal
- dimensional content
- guide
- user
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2625—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 3차원 컨텐츠를 생성 및 제공하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating and providing three-dimensional content.
일반적으로, 3차원 컨텐츠는 2차원 컨텐츠에 깊이 정보를 부가하고, 부가된 깊이 정보를 이용하여 관찰자가 3차원의 생동감 및 현실감을 느낄 수 있도록 하는 기술이 결합된 컨텐츠이다. In general, 3D content is a content combined with a technique of adding depth information to two-dimensional content and enabling a viewer to feel three-dimensional vividness and realism using the added depth information.
3차원 컨텐츠를 생성하는 방법은 사람의 눈에 각기 좌우 방향에서 본 것과 동일한 컨텐츠를 제시하여, 사람의 두 눈에 시차를 주고, 이것을 합성하여 하나의 입체 컨텐츠로 보이게 하는 것이다. 이 때, 좌우 양방향의 컨텐츠를 분리하여 좌우 각각의 눈에 보이게 하는 방법으로 편광 안경, 색 필터 안경 또는 스크린 등이 이용된다. The method of generating three-dimensional content is to present the same contents as seen from the left and right directions to the eyes of a person, to give a parallax to two eyes of a person, and to synthesize them to be viewed as one stereoscopic content. At this time, polarizing glasses, color filter glasses, screens, or the like are used as a method of separating left and right contents in both directions and making them visible to the left and right eyes.
객체의 복수의 이미지를 촬영하고, 촬영한 복수의 이미지를 이용하여 객체에 대한 3차원 컨텐츠를 생성하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. A plurality of images of an object are captured, and three-dimensional content for an object is generated using a plurality of captured images. It is to be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 3차원 컨텐츠를 생성하는 방법은 객체의 제 1 이미지를 촬영하는 단계, 상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 단계, 상기 표시된 가이드를 수행하는 단계, 및 상기 표시된 가이드와 상기 수행 결과가 대응하는 경우 상기 객체의 제 2 이미지를 촬영하는 단계를 포함하는 것을 특징으로 하되, 상기 가이드는 상기 객체의 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정할 수 있다. According to a first aspect of the present invention, there is provided a method for generating three-dimensional content, comprising the steps of: photographing a first image of an object; Displaying a guide for capturing a second image on a user terminal, performing the displayed guide, and capturing a second image of the object if the displayed guide and the performance result correspond Wherein the guide is capable of determining a position of the user terminal for capturing a second image of the object.
한편, 본 발명의 제 2 측면에 따른 3차원 컨텐츠를 제공하는 방법은 3차원 컨텐츠를 사용자 단말 위에 표시하는 단계, 상기 사용자 단말의 사용자의 시선을 인식하는 단계, 상기 인식된 시선의 변화를 감지하는 단계 및 상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 단계를 포함하는 것을 특징으로 하되, 상기 3차원 컨텐츠는 대응되는 객체에 대하여 촬영된 제 1 이미지 및 상기 제 1 이미지를 기준으로 상기 사용자 단말 위에 표시된 가이드를 수행하여 위치가 결정된 상기 사용자 단말에 의해 촬영된 제 2 이미지를 이용하여 생성될 수 있다. According to a second aspect of the present invention, there is provided a method of providing three-dimensional content, comprising: displaying three-dimensional content on a user terminal; recognizing a user's gaze of the user terminal; And rotating the displayed three-dimensional content in response to a change in the line of sight, wherein the three-dimensional content includes a first image captured with respect to a corresponding object and a second image captured with respect to the first image, And may be generated using a second image captured by the user terminal whose location has been determined by performing the guide displayed on the user terminal.
본 발명의 제 3 측면에 따른 사용자 단말은 객체의 제 1 이미지를 촬영하는 이미지 촬영부 및 상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 인터페이스부를 포함하는 것을 특징으로 하되, 상기 이미지 촬영부는 상기 표시된 가이드를 이용하여 상기 객체의 제 2 이미지를 촬영하고, 상기 가이드는 상기 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정할 수 있다. A user terminal according to a third aspect of the present invention includes an image capturing unit for capturing a first image of an object and an interface for displaying on the user terminal a guide for capturing a second image of the object based on the captured first image, Wherein the image photographing unit photographs a second image of the object using the displayed guide, and the guide can determine a position of the user terminal to photograph the second image.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described task solution is merely exemplary and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and the detailed description of the invention.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말은 객체의 복수의 이미지를 촬영하고, 촬영한 복수의 이미지를 이용하여 객체에 대한 3차원 컨텐츠를 생성할 수 있다. According to one of the above-mentioned objects of the present invention, a user terminal can capture a plurality of images of an object and generate three-dimensional contents for the object using the captured images.
도 1은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말의 구성도이다.
도 3은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다.1 is a diagram illustrating a method for generating three-dimensional content according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of a user terminal shown in FIG. 1 according to an embodiment of the present invention.
3 is a diagram illustrating a method for providing three-dimensional content according to an embodiment of the present invention.
4 is an operational flow diagram illustrating a method for generating three-dimensional content, in accordance with an embodiment of the present invention.
5 is an operational flow diagram illustrating a method for providing three-dimensional content, in accordance with an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In this specification, the term " part " includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be implemented using two or more hardware, or two or more units may be implemented by one hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by the terminal or the device may be performed in the server connected to the terminal or the device instead. Similarly, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 도면이다. 1 is a diagram illustrating a method for generating three-dimensional content according to an embodiment of the present invention.
도 1을 참조하면, 사용자 단말(100)은 객체(10)의 제 1 이미지를 촬영할 수 있다. 여기서, 제 1 이미지는 객체(10)의 특정 영역을 촬영한 이미지로서, 사용자 단말(100)이 최초로 촬영한 이미지에 대응하는 것일 수 있다. Referring to FIG. 1, a
사용자 단말(100)은 촬영된 객체(10)의 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위해서, 사용자 단말(100)의 촬영 위치를 결정하고 사용자에게 촬영 위치를 안내하는 역할로서, 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100) 위치를 안내하는 안내 문구 및/또는 방향 기호 등을 포함할 수 있다. The
예를 들어, 객체(10)의 제 2 이미지의 촬영 위치가 객체(10)의 제 1 이미지로부터 우측방향으로 30도 회전해야하는 위치일 경우, 사용자 단말(100)은 객체(10)의 제 2 이미지를 촬영하기 위한 가이드로서, ' => 30°회전' 문구를 사용자 단말(100) 위에 표시할 수 있다. For example, if the shooting position of the second image of the
사용자 단말(100)은 사용자 단말(100) 위에 표시된 가이드에 기초하여, 가이드가 안내하는 객체(10)의 제 2 이미지의 촬영 위치에서 객체(10)의 제 2 이미지를 촬영할 수 있다. The
구체적으로, 사용자 단말(100)은 촬영된 제 1 이미지를 기준으로 촬영을 하되, 가이드에서 제공된 객체(10)의 제 2 이미지의 촬영 위치와 사용자 단말(100)의 위치가 일치하는지 여부를 판단하고, 일치할 경우, 해당 촬영 위치에서 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 때, 사용자 단말(100)은 사용자 단말(100)의 자이로 센서를 통해 사용자 단말(100)의 위치를 감지할 수 있다. 사용자 단말(100)은 자이로 센서가 탑재되어 사용자 단말(100)의 움직임을 감지할 수 있다. 여기서, 자이로 센서는 각속도를 감지하는 센서로서, 곡선 방향으로 이동하는 사용자 단말(100)의 움직임을 감지할 수 있다. Specifically, the
사용자 단말(100)은 객체(10)를 중심으로 하는 구면 위의 제 1 이미지의 촬영 위치에 대하여, 구면 위의 기설정된 범위 내의 위치에서 상하좌우 방향으로 복수의 제 2 이미지를 촬영할 수 있다. 여기서, 구면 위의 기설정된 범위는 객체(10)를 중심으로 제 1 이미지의 촬영 위치와 제 2 이미지의 촬영 위치가 이루는 각도에 대응하는 것일 수 있다. 이 때, 각도는 3차원 컨텐츠를 생성할 수 있는 촬영 각도일 수 있다. The
사용자 단말(100)은 객체(10)의 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있고, 사용자 단말(100)은 생성된 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. The
사용자 단말(100)은 무선 통신이 가능한 모바일 단말을 포함할 수 있고, 본 발명의 다양한 실시예들에 따르면, 사용자 단말(100)은 다양한 형태의 디바이스일 수 있다. 예를 들어, 사용자 단말(100)은 네트워크를 통해 원격지의 서버에 접속할 수 있는 휴대용 단말일 수 있다. 여기서, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다. 다만, 사용자 단말(100)은 도 1의 도시된 형태 또는 앞서 예시된 것들로 한정 해석되는 것은 아니다. The
이하에서는 도 1의 사용자 단말(100)의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(100)의 구성도이다. FIG. 2 is a configuration diagram of the
도 2를 참조하면, 사용자 단말(100)은 이미지 촬영부(210), 인터페이스부(220), 컨텐츠 생성부(230), 표시부(240), 탐지부(250), 및 DB(260)를 포함할 수 있다. 다만, 도 2에 도시된 사용자 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 사용자 단말(100)은 이용자로부터 어떤 명령 내지 정보를 입력 받기 위한 유저 인터페이스가 더 포함될 수 있다. 이 경우, 유저 인터페이스는 일반적으로 키보드, 마우스 등과 같은 입력 장치가 될 수도 있으나, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User interface)가 될 수도 있다. 2, the
이미지 촬영부(210)는 객체(10)의 특정 영역에 대응하는 제 1 이미지를 촬영할 수 있다. 여기서, 제 1 이미지는 최초 촬영 시점에 대응하는 객체(10)에 대한 복수의 이미지 중 어느 하나에 대응될 수 있다. The
이미지 촬영부(210)는 사용자 단말(100) 위에 표시된 가이드를 이용하여, 객체(10)의 제 2 이미지를 촬영할 수 있다. 여기서, 제 2 이미지는 제 1 이미지를 촬영한 위치로부터 기설정된 범위(예를 들어, 제 1 이미지의 촬영 위치와 제 2 이미지의 촬영 위치간의 거리 간격) 내의 위치에서 촬영된 것일 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위해서, 사용자 단말(100)의 촬영 위치를 결정하고 사용자에게 촬영 위치를 안내하는 역할을 할 수 있다. The
구체적으로, 이미지 촬영부(210)는 촬영된 제 1 이미지를 기준으로, 사용자 단말(100)의 촬영 위치가 표시된 가이드를 이용하여 객체(10)의 제 2 이미지를 촬영할 수 있다. 또한, 이미지 촬영부(210)는 촬영된 제 1 이미지를 기준으로 촬영을 하되, 가이드에서 제공된 사용자 단말(100)의 촬영 위치와 사용자 단말(100)의 위치가 일치하는지 여부를 판단하고, 일치할 경우, 사용자 단말(100)의 촬영 위치에 대응하는 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 때, 이미지 촬영부(210)는 사용자 단말(100)의 자이로 센서를 통해 사용자 단말(100)의 위치를 감지할 수 있다. Specifically, the
이미지 촬영부(210)는 객체(10)를 중심으로 제 1 이미지로부터 기설정된 범위 내에서 제 2 이미지를 촬영할 수 있다. 구체적으로, 이미지 촬영부(210)는 객체(10)를 중심으로 하는 구면 위에 제 1 이미지를 촬영한 위치로부터 구면 위의 기설정된 범위에 대응하는 사용자 단말(100)의 촬영 위치에서 제 2 이미지를 촬영할 수 있다. The
여기서, 구면 위의 기설정된 범위는 객체(10)를 중심으로 제 1 이미지 및 제 2 이미지가 이루는 각도에 대응하는 것일 수 있고, 이 때, 각도는 제 1 이미지의 촬영 위치로부터 정방향으로 기설정된 각도(예를 들어, 정방향으로 30도)에 있는 제 2 이미지의 촬영 위치에 대응하는 각도로서, 3차원 컨텐츠를 생성할 수 있는 촬영 각도일 수 있다. Here, the predetermined range on the spherical surface may correspond to the angle formed by the first image and the second image about the
이미지 촬영부(210)는 객체(10)를 중심으로 하는 구면 위의 제 1 이미지의 촬영 위치에 대하여, 구면 위의 기설정된 범위 내의 위치에서 상하좌우 방향으로 복수의 제 2 이미지를 촬영할 수 있다. 여기서, 촬영된 제 1 이미지 및 복수의 제 2 이미지는 DB(250)에 저장될 수 있다. The
인터페이스부(220)는 촬영된 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지의 촬영 위치를 설명하기 위한 촬영 방향 또는 촬영 각도를 안내 기호로서 사용자 단말(100) 위에 표시될 수 있다. 예를 들어, 인터페이스부(220)는 제 1 이미지로부터 우측방향으로 30도 회전하여 촬영하라는 의미로 ' => 30°회전' 문구를 사용자 단말(100) 위에 표시할 수 있다. The
본 발명의 다른 실시예로, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 촬영 방향 또는 촬영 각도를 결정하기 위하여, 해당 촬영 방향 또는 촬영 각도를 결정한 경우를 미리 예측하여, 예측된 객체(10)의 이미지를 블러(blur)처리하여 사용자 단말(100) 위에 표시할 수 있다. 이 경우, 예측된 객체(10)의 이미지의 테두리는 점선으로 표시될 수 있다.In another embodiment of the present invention, the guide may be used to predict the case in which the photographing direction or photographing angle is determined to determine the photographing direction or photographing angle of the
본 발명의 또 다른 실시예로, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 촬영 방향 또는 촬영 각도를 안내하는 안내음성을 사용자에게 제공할 수 있다. In another embodiment of the present invention, the guide can provide the user with a guidance voice that guides the shooting direction or shooting angle of the
컨텐츠 생성부(230)는 객체(10)의 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있다. 또한, 컨텐츠 생성부(230)는 촬영된 객체(10)의 제 1 이미지를 기준으로 각기 다른 방향 즉, 객체(10)의 상하방향, 좌우방향, 전후방향에서 촬영된 복수의 이미지를 이용하여 3차원 컨텐츠를 생성할 수 있다. 이 때, 컨텐츠 생성부(23)는 일정 방향으로 촬영된 복수의 이미지를 제 1 이미지와 연결하여 객체(10)의 전후, 상하, 좌우 방면에 대응하는 3차원 컨텐츠를 생성할 수 있다. The
표시부(240)는 컨텐츠 생성부(230)에 의해 생성된 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. The
또한, 표시부(240)는 사용자 단말(100)의 사용자 시선의 변화에 대응하여 사용자 단말(100) 위에 표시된 3차원 컨텐츠를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 여기서, 시선의 변화는 제 1 방향에 대응하고, 3차원 컨텐츠의 회전 방향은 제 1 방향과 반대인 제 2 방향에 대응하는 것일 수 있다. 이 때, 3차원 컨텐츠의 회전 방향은 사용자 단말(100)의 사용자가 3차원 컨텐츠를 바라보는 방향에 대응될 수 있다. 예를 들어, 표시부(240)는 사용자의 시선이 사용자 단말(100)의 전면부를 향하다가 우측방향으로 바뀔 경우, 3차원 컨텐츠를 좌측 방향으로 회전시키고, 회전시킨 부분에 대응하는 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. In addition, the
표시부(240)는 사용자의 시선의 변화가 감지될 경우, 사용자의 시선 변화에 대한 계산된 각도 변화 및 사용자의 시선 변화 방향에 대응하여 3차원 컨텐츠를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 예를 들어, 표시부(240)는 사용자의 시선 변화에 대응하여 계산된 각도가 '30도'이고, 시선 변화 방향이 '오른쪽'일 경우, 3차원 컨텐츠를 '왼쪽 방향'으로 '30도' 회전시켜 사용자 단말(100) 위에 표시할 수 있다. When the change of the user's gaze is detected, the
탐지부(250)는 사용자 단말(100)의 사용자 시선을 인식하고, 인식된 시선의 변화를 감지할 수 있다. 또한, 탐지부(250)는 3차원 컨텐츠를 바라보는 사용자 시선의 전과 후를 비교함으로써 시선의 변화를 감지할 수 있다. 구체적으로, 탐지부(250)는 3차원 컨텐츠를 중심으로, 사용자의 시선 변화에 대한 각도 변화를 계산하고, 전후의 각도 변화가 있을 경우, 사용자의 시선이 변화되었음을 판단할 수 있다. The
예를 들어, 탐지부(250)는 3차원 컨텐츠를 바라보는 사용자의 시선이 사용자 단말(100)의 정면에서 오른쪽으로 옮겨질 경우, 3차원 컨텐츠를 중심으로 사용자 단말(100)의 정면을 바라보고 있던 시선에서 오른쪽으로 옮겨진 시선까지의 각도를 계산하고, 계산된 각도가 변화가 있을 경우, 사용자의 시선의 변화가 있었음을 감지할 수 있다. For example, when the user's gaze of the user viewing the three-dimensional content is shifted to the right from the front of the
DB(260)는 사용자 단말(100)로부터 수신한 데이터를 저장할 수 있다. 이 때, DB(260)는 사용자 단말(100) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터, 사용자 단말(100)와 사용자 단말(100) 외부의 구성요소들간에 입력 및 출력되는 데이터를 저장할 수 있다. The
예를 들어, DB(260)는 이미지 촬영부(210)에서 촬영된 객체(10)의 복수의 이미지를 저장할 수 있다. 또한, DB(260)는 탐지부(250)에서 계산된 사용자의 시선 변화에 대한 각도 변화를 저장할 수 있다. For example, the
이러한 DB(260)의 일 예에는 사용자 단말(100) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다. One example of such a
당업자라면, 제 이미지 촬영부(210), 인터페이스부(220), 컨텐츠 생성부(230), 표시부(240), 탐지부(250), 및 DB(260) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Those skilled in the art will recognize that the
도 3은 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 도면이다. 3 is a diagram illustrating a method for providing three-dimensional content according to an embodiment of the present invention.
도 3을 참조하면, 사용자 단말(100)은 사용자 단말(100)에 장착된 이미지 센서를 통해 사용자 단말(100)의 사용자의 시선을 인식할 수 있고, 사용자의 시선의 변화를 감지할 수 있다. 구체적으로, 사용자 단말(100)은 3차원 컨텐츠(11)를 중심으로 사용자의 시선 변화 전후의 각도 변화를 계산하고, 계산된 각도 변화를 통해 사용자의 시선의 변화를 감지할 수 있다. Referring to FIG. 3, the
예를 들어, 사용자 단말(100)은 이미지 센서를 통해 사용자의 시선이 왼쪽(12)에서 오른쪽(13)으로 변화했음을 감지할 수 있다. 구체적으로, 사용자 단말(100)은 3차원 컨텐츠(11)를 중심으로, 사용자의 시선 변화(즉, 왼쪽(12)에서 오른쪽(13)으로 변화)에 대한 각도 변화를 계산할 수 있다. For example, the
사용자 단말(100)은 사용자 단말(100)의 사용자의 시선 변화에 대응하여 3차원 컨텐츠(11)를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 구체적으로, 사용자 단말(100)은 사용자의 시선 변화를 감지할 경우, 사용자의 시선 변화에 대한 계산된 각도 변화 및 사용자의 시선 변화 방향에 대응하여 3차원 컨텐츠(11)를 회전시켜 사용자 단말(100) 위에 표시할 수 있다. The
예를 들어, 사용자 단말(100)은 사용자의 시선이 왼쪽(12)에서 오른쪽(13)으로 변화될 경우, 3차원 컨텐츠(11)를 오른쪽에서 왼쪽으로 회전시켜 사용자 단말(100) 위에 표시할 수 있다. 이 때, 사용자 단말(100)은 사용자의 시선 변화(왼쪽(12)에서 오른쪽(13))에 따라, 객체(3차원 컨텐츠(11)에 대응하는 객체)가 보이는 부분에 대응하여 3차원 컨텐츠(11)를 회전시킴으로써, 사용자가 해당 객체를 실제로 바라보는 듯한 효과를 제공할 수 있다. For example, the
본 발명의 다른 실시예에서는 사용자의 시선만 이동하는 경우뿐만 아니라, 사용자의 머리가 이동하는 경우를 고려하여 객체(11)의 회전 각도 등이 결정될 수 있다.In another embodiment of the present invention, not only the direction of the user's gaze but also the angle of rotation of the
도 4는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 생성하는 방법을 나타낸 동작 흐름도이다. 도 4에 도시된 실시예에 따른 3차원 컨텐츠를 생성하는 방법은 도 1 내지 도 3에 도시된 실시예에 따른 사용자 단말(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 3의 사용자 단말(100)에 관하여 기술된 내용은 도 4에 도시된 실시예에 따른 3차원 컨텐츠를 생성하는 방법에도 적용될 수 있다. 4 is an operational flow diagram illustrating a method for generating three-dimensional content, in accordance with an embodiment of the present invention. The method for generating three-dimensional content according to the embodiment shown in FIG. 4 includes steps that are processed in a time-series manner in the
도 4를 참조하면, 단계 S401에서 사용자 단말(100)은 객체(10)의 제 1 이미지를 촬영할 수 있다. Referring to FIG. 4, in step S401, the
단계 S403에서 사용자 단말(100)은 단계 S401에서 촬영된 제 1 이미지를 기준으로 객체(10)의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 가이드는 객체(10)의 제 2 이미지를 촬영하기 위한 사용자 단말(100)의 위치를 결정하는 것일 수 있다. In step S403, the
여기서, 제 2 이미지는 제 1 이미지를 촬영한 위치에 대하여 기설정된 범위 내의 위치에서 촬영되는 것일 수 있다. 구체적으로, 제 2 이미지는 객체(10)를 중심으로 하는 구면 위의 제 1 이미지를 촬영한 위치에 대하여 구면 위의 기설정된 범위 내의 위치에서 촬영되는 것일 수 있다. Here, the second image may be photographed at a position within a predetermined range with respect to the position at which the first image is photographed. Specifically, the second image may be taken at a position within a predetermined range on the spherical surface with respect to the position at which the first image on the spherical surface centered on the
단계 S405에서 사용자 단말(100)은 단계 S403에서 표시된 가이드를 수행할 수 있다. 이 때, 사용자 단말(100)은 사용자 단말(100)의 자이로 센서를 이용하여 가이드를 수행할 수 있다. In step S405, the
단계 S407에서 사용자 단말(100)은 단계 S403에서 표시된 가이드와 단계 S405에서 수행한 결과가 대응하는 경우 객체(10)의 제 2 이미지를 촬영할 수 있다. 이 경우, 사용자 단말(100)은 제 1 이미지 및 복수의 제 2 이미지를 이용하여 객체(10)에 대한 3차원 컨텐츠를 생성할 수 있다. In step S407, the
상술한 설명에서, 단계 S401 내지 S407은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S401 to S407 may be further divided into further steps or combined into fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.
도 5는 본 발명의 일 실시예에 따른, 3차원 컨텐츠를 제공하는 방법을 나타낸 동작 흐름도이다. 5 is an operational flow diagram illustrating a method for providing three-dimensional content, in accordance with an embodiment of the present invention.
도 5에 도시된 실시예에 따른 3차원 컨텐츠를 제공하는 방법은 도 1 내지 도 4에 도시된 실시예에 따른 사용자 단말(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4의 사용자 단말(100)에 관하여 기술된 내용은 도 5에 도시된 실시예에 따른 3차원 컨텐츠를 제공하는 방법에도 적용될 수 있다. The method for providing three-dimensional content according to the embodiment shown in FIG. 5 includes steps that are processed in a time-series manner in the
도 5를 참조하면, 단계 S501에서 사용자 단말(100)은 3차원 컨텐츠를 사용자 단말(100) 위에 표시할 수 있다. 이 때, 3차원 컨텐츠는 대응되는 객체(10)에 대하여 촬영된 제 1 이미지 및 제 1 이미지를 기준으로 사용자 단말(100) 위에 표시된 가이드를 수행하여 위치가 결정된 사용자 단말(100)에 의해 촬영된 제 2 이미지를 이용하여 생성된 것일 수 있다. Referring to FIG. 5, in step S501, the
단계 S503에서 사용자 단말(100)은 사용자 단말(100)의 사용자의 시선을 인식할 수 있다. In step S503, the
단계 S505에서 사용자 단말(100)은 단계 S503에서 인식된 시선의 변화를 감지할 수 있다. 이 때, 사용자 단말(100)은 3차원 컨텐츠를 중심으로 사용자의 시선 변화 전후의 각도 변화를 계산할 수 있다. In step S505, the
단계 S507에서 사용자 단말(100)은 단계 S505에서 감지된 시선의 변화에 대응하여 사용자 단말(100) 위에 표시된 3차원 컨텐츠를 회전시킬 수 있다. 여기서, 시선의 변화는 제 1 방향에 대응하고, 3차원 컨텐츠의 회전 방향은 제 1 방향과 반대인 제 2 방향에 대응하는 것일 수 있다. In step S507, the
구체적으로, 사용자 단말(100)은 단계 S505에서 계산된 각도 변화에 대응하여 3차원 컨텐츠를 회전시킬 수 있다. Specifically, the
상술한 설명에서, 단계 S501 내지 S507은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S501 to S507 may be further divided into additional steps, or combined in fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .
100: 사용자 단말
10: 객체100: user terminal
10: Objects
Claims (14)
객체의 제 1 이미지를 촬영하는 단계;
상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 단계;
상기 표시된 가이드를 수행하는 단계; 및
상기 표시된 가이드와 상기 수행 결과가 대응하는 경우 상기 객체의 제 2 이미지를 촬영하는 단계를 포함하고,
상기 가이드는 상기 객체의 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정하는 것인, 컨텐츠 생성 방법.
A method for generating three-dimensional content,
Capturing a first image of the object;
Displaying a guide for capturing a second image of the object on the user terminal based on the captured first image;
Performing the indicated guide; And
And taking a second image of the object if the displayed guide and the result of the operation correspond,
Wherein the guide determines a location of the user terminal for capturing a second image of the object.
상기 제 1 이미지 및 복수의 제 2 이미지를 이용하여 상기 객체에 대한 3차원 컨텐츠를 생성하는 단계를 더 포함하는 컨텐츠 생성 방법.
The method according to claim 1,
And generating three-dimensional content for the object using the first image and the plurality of second images.
상기 가이드 수행 단계는 상기 사용자 단말의 자이로 센서를 이용하여 수행되는 것인, 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the guiding step is performed using a gyro sensor of the user terminal.
상기 제 2 이미지는 상기 제 1 이미지를 촬영한 위치에 대하여 기설정된 범위 내의 위치에서 촬영되는 것인, 컨텐츠 생성 방법.
The method according to claim 1,
Wherein the second image is photographed at a position within a predetermined range with respect to a position at which the first image is photographed.
상기 제 2 이미지는 상기 객체를 중심으로 하는 구면 위의 상기 제 1 이미지를 촬영한 위치에 대하여 상기 구면 위의 기설정된 범위 내의 위치에서 촬영되는 것인, 컨텐츠 생성 방법.
5. The method of claim 4,
Wherein the second image is photographed at a position within a predetermined range on the spherical surface with respect to a position where the first image is photographed on a spherical surface centered on the object.
상기 구면 위의 기설정된 범위는 상기 객체를 중심으로 상기 제 1 이미지 및 상기 제 2 이미지가 이루는 각도에 대응하는 것인, 컨텐츠 생성 방법.
6. The method of claim 5,
Wherein the predetermined range on the spherical surface corresponds to an angle between the first image and the second image centered on the object.
상기 각도는 30도이고, 상기 제 2 이미지는 상기 제 1 이미지의 상하좌우 방향에서 촬영되는 것인, 컨텐츠 생성 방법.
The method according to claim 6,
Wherein the angle is 30 degrees and the second image is photographed in up, down, left, and right directions of the first image.
3차원 컨텐츠를 사용자 단말 위에 표시하는 단계;
상기 사용자 단말의 사용자의 시선을 인식하는 단계;
상기 인식된 시선의 변화를 감지하는 단계; 및
상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 단계를 포함하고,
상기 3차원 컨텐츠는 대응되는 객체에 대하여 촬영된 제 1 이미지 및 상기 제 1 이미지를 기준으로 상기 사용자 단말 위에 표시된 가이드를 수행하여 위치가 결정된 상기 사용자 단말에 의해 촬영된 제 2 이미지를 이용하여 생성된 것인, 컨텐츠 제공 방법.
A method for providing three-dimensional content,
Displaying three-dimensional content on a user terminal;
Recognizing a user's gaze of the user terminal;
Sensing a change in the recognized line of sight; And
And rotating the displayed three-dimensional content corresponding to the change of the gaze,
Wherein the 3D content is generated using a first image captured for a corresponding object and a second image captured by the user terminal positioned by performing a guide displayed on the user terminal based on the first image, / RTI >
상기 시선의 변화는 제 1 방향에 대응하고, 상기 3차원 컨텐츠의 회전 방향은 상기 제 1 방향과 반대인 제 2 방향에 대응하는 것인, 컨텐츠 제공 방법.
9. The method of claim 8,
Wherein the change of the line of sight corresponds to a first direction, and the rotation direction of the three-dimensional content corresponds to a second direction opposite to the first direction.
상기 시선 변화를 감지하는 단계는 상기 3차원 컨텐츠를 중심으로 상기 사용자의 시선 변화 전후의 각도 변화를 계산하는 것인, 컨텐츠 제공 방법.
9. The method of claim 8,
Wherein the step of detecting the line of sight changes the angle of the user before and after the change of the line of sight around the three-dimensional content.
상기 3차원 컨텐츠는 상기 계산된 각도 변화에 대응하여 회전되는 것인, 컨텐츠 제공 방법.
11. The method of claim 10,
Wherein the three-dimensional content is rotated corresponding to the calculated angle change.
객체의 제 1 이미지를 촬영하는 이미지 촬영부; 및
상기 촬영된 제 1 이미지를 기준으로 상기 객체의 제 2 이미지를 촬영하기 위한 가이드를 사용자 단말 위에 표시하는 인터페이스부;
상기 이미지 촬영부는 상기 표시된 가이드를 이용하여 상기 객체의 제 2 이미지를 촬영하고,
상기 가이드는 상기 제 2 이미지를 촬영하기 위한 상기 사용자 단말의 위치를 결정하는 것인, 사용자 단말.
In a user terminal,
An image photographing unit photographing a first image of the object; And
An interface for displaying a guide for capturing a second image of the object on the user terminal based on the captured first image;
The image capturing section captures a second image of the object using the displayed guide,
Wherein the guide determines a location of the user terminal for capturing the second image.
상기 제 1 이미지 및 복수의 제 2 이미지를 이용하여 3차원 컨텐츠를 생성하는 컨텐츠 생성부;
상기 생성된 3차원 컨텐츠를 상기 사용자 단말 위에 표시하는 표시부; 및
상기 사용자 단말의 사용자의 시선을 인식하고, 상기 인식된 시선의 변화를 감지하는 탐지부를 더 포함하고,
상기 표시부는 상기 시선의 변화에 대응하여 상기 표시된 3차원 컨텐츠를 회전시키는 것인, 사용자 단말.
13. The method of claim 12,
A content generation unit for generating three-dimensional content using the first image and the plurality of second images;
A display unit for displaying the generated three-dimensional content on the user terminal; And
Further comprising a detection unit for recognizing a user's gaze of the user terminal and detecting a change in the recognized gaze,
Wherein the display unit rotates the displayed three-dimensional content corresponding to the change of the line of sight.
상기 사용자 단말은 청구항 제 1 항 내지 청구항 제 11 항 중 어느 한 항에 기재된 방법을 실시하는 것을 특징으로 하는 어플리케이션 제공 방법.
A method of providing an application that is executed in a user terminal and performs a method of generating and providing three-dimensional content,
Wherein the user terminal performs the method according to any one of claims 1 to 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130168671A KR102176217B1 (en) | 2013-12-31 | 2013-12-31 | Method of making and providing content in 3d and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130168671A KR102176217B1 (en) | 2013-12-31 | 2013-12-31 | Method of making and providing content in 3d and apparatus therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150078873A true KR20150078873A (en) | 2015-07-08 |
KR102176217B1 KR102176217B1 (en) | 2020-11-09 |
Family
ID=53791326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130168671A KR102176217B1 (en) | 2013-12-31 | 2013-12-31 | Method of making and providing content in 3d and apparatus therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102176217B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3163401A1 (en) * | 2015-07-21 | 2017-05-03 | LG Electronics Inc. | Mobile terminal and control method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070039641A (en) * | 2005-10-10 | 2007-04-13 | 주식회사 팬택 | Method and apparatus for generating three dimension image using one camera |
KR20120023247A (en) * | 2010-09-01 | 2012-03-13 | 주식회사 팬택 | Portable apparatus and method for displaying 3d object |
KR20120088431A (en) * | 2011-01-31 | 2012-08-08 | 삼성전자주식회사 | Photographing apparatus for photographing a panorama image and method thereof |
KR20130134103A (en) * | 2012-05-30 | 2013-12-10 | 삼성전자주식회사 | Device and method for providing image in terminal |
-
2013
- 2013-12-31 KR KR1020130168671A patent/KR102176217B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070039641A (en) * | 2005-10-10 | 2007-04-13 | 주식회사 팬택 | Method and apparatus for generating three dimension image using one camera |
KR20120023247A (en) * | 2010-09-01 | 2012-03-13 | 주식회사 팬택 | Portable apparatus and method for displaying 3d object |
KR20120088431A (en) * | 2011-01-31 | 2012-08-08 | 삼성전자주식회사 | Photographing apparatus for photographing a panorama image and method thereof |
KR20130134103A (en) * | 2012-05-30 | 2013-12-10 | 삼성전자주식회사 | Device and method for providing image in terminal |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3163401A1 (en) * | 2015-07-21 | 2017-05-03 | LG Electronics Inc. | Mobile terminal and control method thereof |
US10021297B2 (en) | 2015-07-21 | 2018-07-10 | Lg Electronics Inc. | Mobile terminal and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102176217B1 (en) | 2020-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102038639B1 (en) | Touch screen hover detection in augmented reality and / or virtual reality | |
JP6351870B1 (en) | Omni-directional shooting of mobile devices | |
EP3241093B1 (en) | Electronic system with gesture calibration mechanism and method of operation thereof | |
KR20200146040A (en) | Self-supervised training of depth estimation system | |
US8388146B2 (en) | Anamorphic projection device | |
US11880956B2 (en) | Image processing method and apparatus, and computer storage medium | |
EP2933605A1 (en) | A device orientation correction method for panorama images | |
US10565577B2 (en) | Guided positional tracking | |
KR20210113333A (en) | Methods, devices, devices and storage media for controlling multiple virtual characters | |
US20170163958A1 (en) | Method and device for image rendering processing | |
CN106062821A (en) | Sensor-based camera motion detection for unconstrained slam | |
KR102182162B1 (en) | Head mounted display and method for controlling the same | |
KR20180005528A (en) | Display apparatus and method for image processing | |
KR102450236B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
US20180012073A1 (en) | Method, electronic device, and recording medium for notifying of surrounding situation information | |
KR101148508B1 (en) | A method and device for display of mobile device, and mobile device using the same | |
EP3316117A1 (en) | Controlling content displayed in a display | |
KR20140142441A (en) | Shooting Method for Three-Dimensional Modeling And Electrical Device Thereof | |
US20140043445A1 (en) | Method and system for capturing a stereoscopic image | |
US9454300B2 (en) | Device, control method, and storage medium storing program | |
CN113870213A (en) | Image display method, image display device, storage medium, and electronic apparatus | |
US20170302908A1 (en) | Method and apparatus for user interaction for virtual measurement using a depth camera system | |
US20180150957A1 (en) | Multi-spectrum segmentation for computer vision | |
KR102100667B1 (en) | Apparatus and method for generating an image in a portable terminal | |
US20120002004A1 (en) | Immersive Navigation and Rendering of Dynamically Reassembled Panoramas |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |