KR20180004643A - Terminal and control method thereof - Google Patents
Terminal and control method thereof Download PDFInfo
- Publication number
- KR20180004643A KR20180004643A KR1020160166063A KR20160166063A KR20180004643A KR 20180004643 A KR20180004643 A KR 20180004643A KR 1020160166063 A KR1020160166063 A KR 1020160166063A KR 20160166063 A KR20160166063 A KR 20160166063A KR 20180004643 A KR20180004643 A KR 20180004643A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- information
- augmented reality
- terminal
- additional
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 단말 및 그의 제어 방법에 관한 것으로, 특히 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하고, 상기 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시하는 단말 및 그의 제어 방법에 관한 것이다.In particular, the present invention relates to a terminal and a control method thereof, and more particularly to a terminal and a control method thereof, in which a 2D panoramic image is taken, an object is recognized in the panoramic image, Real time additional information related to the additional object when the additional 3D object is selected in the augmented reality image, and a control method thereof.
일반적으로, 이동 단말기(Mobile Terminal)는, GPS(Global Positioning System) 기능 및 통화 기능(또는, 호(call) 기능)을 수행하여, 그 수행 결과를 사용자에게 제공하는 장치이다.2. Description of the Related Art Generally, a mobile terminal is a device that performs a Global Positioning System (GPS) function and a call function (or a call function) and provides a result of the operation to a user.
이러한 이동 단말기는 세대를 거듭할수록 더 많은 정보를 더 짧은 시간에 송수신할 수 있고, 다양한 기능이 부가되고 있으나, 이러한 기능에 맞춘 사용자 중심의 편의성을 위한 UI(User Interface) 개발이 부족한 상태이다.These mobile terminals are able to transmit and receive more information in a shorter time and have various functions, but there is a lack of UI (User Interface) for user-oriented convenience in accordance with these functions.
본 발명의 목적은 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하는 단말 및 그의 제어 방법을 제공하는 데 있다.An object of the present invention is to provide a terminal that captures a 2D panoramic image, recognizes an object in the captured panoramic image, and inserts an additional 3D object in association with the recognized object to generate an augmented reality image, Method.
본 발명의 다른 목적은 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시하는 단말 및 그의 제어 방법을 제공하는 데 있다.Another object of the present invention is to provide a terminal and a control method thereof for displaying real-time additional information related to the additional object when an additional object of 3D form inserted into the augmented reality image is selected.
본 발명의 실시예에 따른 단말의 제어 방법은 단말의 제어 방법에 있어서, 카메라에 의해, 2차원 형태의 영상을 촬영하는 단계; 표시부에 의해, 상기 촬영된 영상을 표시하는 단계; 제어부에 의해, 상기 촬영된 2차원 형태의 영상 내에, 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하는 단계; 및 상기 표시부에 의해, 상기 생성된 증강 현실 영상을 표시하는 단계를 포함하며, 상기 추가 객체는, 3차원 형태로 구성하며, 상기 촬영된 영상 내에 포함된 객체와 관련한 실시간 부가 정보, 관련 동영상 및 쿠폰 정보를 제공하기 위한 객체일 수 있다.A method of controlling a terminal according to an exemplary embodiment of the present invention includes: capturing a two-dimensional image by a camera; Displaying the photographed image by a display unit; Generating augmented reality image by inserting a three-dimensional additional object into the photographed two-dimensional image by the control unit; And displaying the generated augmented reality image by the display unit, wherein the additional object is configured in a three-dimensional form, and the real-time supplementary information related to the object included in the photographed image, Or may be an object for providing information.
본 발명은 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성함으로써, 특정 객체와 관련한 부가 정보 제공을 용이하게 할 수 있는 효과가 있다.The present invention relates to a method for capturing a 2D panoramic image, recognizing an object in the captured panoramic image, and inserting an additional 3D object in association with the recognized object to generate an augmented reality image, It is possible to facilitate information provision.
또한, 본 발병은 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시함으로써, 사용자 편의를 위한 사용자 인터페이스를 제공하고, 현재 화면에서 사용자가 관심을 보이는 객체와 관련한 추가 정보를 제공함에 따른 사용자의 편의성을 향상시킬 수 있는 효과가 있다.In addition, when the 3D object of the 3D form embedded in the augmented reality image is selected, real-time additional information related to the additional object is displayed, thereby providing a user interface for user's convenience. There is an effect that the convenience of the user by providing additional information related to a visible object can be improved.
도 1은 본 발명의 실시예에 따른 안내 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 전시 상품의 예를 나타낸 도이다.
도 4는 본 발명의 실시예에 따른 POP의 예를 나타낸 도이다.
도 5는 본 발명의 실시예에 따른 전단의 예를 나타낸 도이다.
도 6은 본 발명의 실시예에 따른 배너 광고의 예를 나타낸 도이다.
도 7은 본 발명의 실시예에 따른 포스터 광고의 예를 나타낸 도이다.
도 8은 본 발명의 실시예에 따른 간판의 예를 나타낸 도이다.
도 9는 본 발명의 제 1 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.
도 10 내지 도 13은 본 발명의 제 1 실시예에 따른 단말의 화면을 나타낸 도이다.
도 14는 본 발명의 제 2 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.
도 15 내지 도 21은 본 발명의 제 2 실시예에 따른 단말의 화면을 나타낸 도이다.1 is a block diagram showing the configuration of a guide apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a UE according to an embodiment of the present invention.
3 is a diagram illustrating an example of an exhibition product according to an embodiment of the present invention.
4 is a diagram illustrating an example of POP according to an embodiment of the present invention.
5 is a view showing an example of a front end according to an embodiment of the present invention.
6 is a diagram illustrating an example of a banner advertisement according to an embodiment of the present invention.
7 is a diagram illustrating an example of a poster advertisement according to an embodiment of the present invention.
8 is a view showing an example of a signboard according to an embodiment of the present invention.
9 is a flowchart illustrating a method of controlling a terminal according to a first embodiment of the present invention.
10 to 13 are diagrams illustrating screens of a terminal according to a first embodiment of the present invention.
Fig. 14 6 is a flowchart illustrating a method of controlling a terminal according to a second embodiment of the present invention.
15 to 21 are diagrams illustrating screens of a terminal according to a second embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 단말(100)이 적용된 안내 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing a configuration of a
도 1에 도시한 바와 같이, 안내 장치(10)는 단말(100) 및 서버(200)로 구성된다. 도 1에 도시된 안내 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 안내 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 안내 장치(10)가 구현될 수도 있다.As shown in Fig. 1, the
상기 단말(100)은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal) 등과 같은 다양한 단말기에 적용될 수 있다.The
도 2에 도시된 바와 같이, 상기 단말(100)은 통신부(110), 카메라(120), 저장부(130), 표시부(140), 음성 출력부(150) 및 제어부(160)로 구성된다. 도 2에 도시된 단말(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 단말(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 단말(100)이 구현될 수도 있다.2, the
상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 상기 서버(200) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The
또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the
또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버(200) 등과 무선 신호를 송수신한다.In addition, the
또한, 상기 통신부(110)는 상기 제어부(160)의 제어에 의해 상기 단말(100)에서 생성된 증강 현실 영상, 추가 정보 등을 상기 서버(200)에 전송한다.The
또한, 상기 통신부(110)는 상기 제어부(160)의 제어에 의해 상기 서버(200)로부터 전송되는 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등을 수신한다. 여기서, 상기 추가 정보는 실시간 부가 정보(또는 상세 정보), 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 포함한다. 이때, 상기 관련 동영상(또는 홍보용 동영상)은 특정 상품 및/또는 서비스와 관련한 영상, 상품의 사용법과 관련한 동영상(예를 들어 화장품의 사용법에 대한 동영상, 의류 착용 예시에 대한 동영상, 장난감 조립 방법에 대한 동영상, 공구 사용법에 대한 동영상, 조리 방법에 대한 동영상 등 포함) 등을 포함하며, 문자 및/또는 음성 메시지를 포함할 수도 있다.The
상기 카메라(120)는 영상 통화 모드, 촬영 모드, 영상 회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 상기 처리된 화상 프레임은 상기 제어부(160)의 제어에 의해 상기 표시부(140)에 표시될 수 있다. 일 예로, 상기 카메라(120)는 객체(또는 피사체)(사용자 영상 또는 화상 회의자)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.The
또한, 상기 카메라(120)는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품(또는 전시 상품), POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함하는 영상(또는 2차원 영상/파노라마 영상)을 촬영한다. 여기서, 상기 매장은 백화점, 쇼핑몰, 아울렛, 음식점, 병원, 빌딩(또는 건축물) 등을 포함한다. 이때, 상기 카메라(120)는 2차원 형태의 파노라마 영상을 촬영하기 위한 360도 카메라일 수도 있다.In addition, the
여기서, 도 3에 도시된 바와 같이, 상기 전시 상품(Display products)은 고객에게 상품 판매를 위해 전시한 전시용 비판매 상품을 나타낸다(예를 들어 마네킹에 입힌 옷, 전시대에 돋보이게 진열해 둔 가방 등 포함).As shown in FIG. 3, the display products indicate non-sale items for exhibition displayed for the sale of goods to the customer (for example, clothes put on mannequins, bags that are displayed on display shelves, etc.) ).
또한, 도 4에 도시된 바와 같이, 상기 POP(Point of Purchase)는 매장을 찾아온 고객에게 즉석에서 상품 및/또는 서비스에 대한 정보를 제공하는 광고를 나타낸다.Also, as shown in FIG. 4, the POP (Point of Purchase) represents an advertisement providing information on goods and / or services on the spot to the customer who visited the store.
또한, 도 5에 도시된 바와 같이, 상기 전단(leaflet)(또는 전단 광고/전단지/전단지 광고)은 광고나 선전을 목적으로 배포하는 간단한 인쇄물의 형태를 나타낸다.Also, as shown in FIG. 5, the leaflet (or the advertisement of the leaflet / flyer / leaflet) represents a form of a simple printed matter distributed for advertising or publicity purpose.
또한, 도 6에 도시된 바와 같이, 상기 배너 광고(banner advertisement)는 매장의 특정 위치에 설치되어 특정 상품 및/또는 서비스에 대한 정보를 제공하는 광고를 나타낸다.Also, as shown in FIG. 6, the banner advertisement is an advertisement provided at a specific location in a store to provide information on a specific product and / or service.
또한, 도 7에 도시된 바와 같이, 상기 포스터 광고(billing)는 광고 선전용으로 제작하여 붙이는 종이를 나타내며, 시각에 호소하는 것이기 때문에 주목을 끌수 있도록 문자, 도형, 문장 등을 고려하여 제작한다.Also, as shown in FIG. 7, the poster billing refers to a paper made and adhered to an advertisement, and it is produced in consideration of characters, figures, and sentences so as to attract attention because it appeals to the time.
또한, 도 8에 도시된 바와 같이, 상기 간판(signboard)은 매장과 관련한 회사명, 상점명, 상품명, 서비스명 등을 표시하는 판을 나타낸다.As shown in FIG. 8, the signboard indicates a plate indicating a company name, a store name, a product name, a service name, and the like with respect to a store.
또한, 상기 카메라(120)에서 처리된 화상 프레임은 상기 저장부(130)에 저장되거나 상기 통신부(110)를 통해 외부 단말기(예를 들어 다른 단말, 상기 서버(200) 등 포함)로 전송될 수 있다.The image frame processed by the
상기 저장부(130)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The
또한, 상기 저장부(130)는 상기 단말(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the
즉, 상기 저장부(130)는 상기 단말(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 단말(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는 단말(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 단말(100)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(130)에 저장되고, 단말(100)에 설치되어, 제어부(160)에 의하여 상기 단말(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the
또한, 상기 저장부(130)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 단말(100)은 인터넷(internet)상에서 저장부(130)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.The
또한, 상기 저장부(130)는 상기 통신부(110)를 통해 수신된 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등을 저장한다.The
상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 저장부(120)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(140)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(140)는 터치 스크린 일 수 있다.The
또한, 상기 표시부(140)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.The
또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 카메라(120)를 통해 촬영된 영상을 표시한다.In addition, the
또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 생성되는 증강 현실 영상을 표시한다.In addition, the
또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 통신부(110)를 통해 수신된 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등을 표시한다.The
상기 음성 출력부(150)는 상기 제어부(160)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(150)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The
또한, 상기 음성 출력부(150)는 상기 제어부(160)에 의해 생성된 안내 음성을 출력한다.Also, the
또한, 상기 음성 출력부(150)는 상기 제어부(160)에 의해 상기 통신부(110)를 통해 수신된 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등에 대응하는 음성 정보를 출력한다.The
상기 제어부(160)는 상기 단말(100)의 전반적인 제어 기능을 실행한다.The
또한, 제어부(160)는 저장부(130)에 저장된 프로그램 및 데이터를 이용하여 단말(100)의 전반적인 제어 기능을 실행한다. 제어부(160)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 저장부(130)에 액세스하여, 저장부(130)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 저장부(130)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.The
또한, 상기 제어부(160)는 상기 서버(200)와의 연동에 의해, 해당 단말(100)의 사용자에 대한 상기 서버(200)로의 회원 가입 절차를 수행한다.In addition, the
또한, 회원 가입 절차 수행 시, 상기 제어부(160)는 본인 인증 수단(예를 들어 이동 전화, 신용카드, 아이핀, 이메일 등 포함)을 통한 인증 기능을 완료해야 상기 서버(200)에 대한 회원 가입 절차를 정상적으로 완료할 수 있다.In addition, when performing the membership registration procedure, the
또한, 회원 가입 절차에 의해, 상기 제어부(160)는 생년월일, 남/여 정보, 전화번호, 이메일, 비밀번호, 이름, 주소 등의 사용자 정보를 상기 통신부(110)를 통해 상기 서버(200)에 제공한다.In addition, the
또한, 상기 단말(100)에 미리 설치된 앱이 실행되는 경우, 상기 제어부(160)는 앱 실행 결과 화면을 상기 표시부(140)에 표시한다. 여기서, 상기 앱 실행 결과 화면은 회원 정보를 입력받거나 전송하기 위한 회원 정보 항목(또는 메뉴/버튼), 이미지 또는 3D 파노라마 영상을 제공하기 위한 영상 정보 항목, 앱의 기능을 설정하기 위한 설정 항목, 단말(100)을 통해 구매한 상품이나 서비스에 대한 구매 이력 정보 등을 관리하기 위한 마이 페이지 항목 등을 포함한다. 이때, 상기 단말(100)은 백그라운드 상태로 해당 앱과 관련한 서버(200)와 통신한다.In addition, when an application installed in advance in the terminal 100 is executed, the
또한, 상기 표시부(140)에 표시되는 앱 실행 결과 화면 중에서 회원 정보 항목이 선택되는 경우, 상기 제어부(160)는 상기 선택된 회원 정보 항목에 대응하는 회원 정보를 입력받기(또는 수신하기) 위한 회원 정보 화면을 상기 표시부(140)에 표시한다.In addition, when a member information item is selected from the application execution result screen displayed on the
또한, 상기 제어부(160)는 사용자 입력(또는 사용자 터치)에 따른 회원 정보를 수신한다. 여기서, 상기 회원 정보는 이름, 주소, 사용 언어, 배송지 정보, 쇼핑 객체 종류(예를 들어 아바타 종류, 이모티콘 종류 등 포함) 등을 포함한다.Also, the
또한, 상기 제어부(160)는 상기 수신된 회원 정보, 상기 단말(100)의 식별 정보 등을 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 여기서, 구매 단말(100)의 식별 정보는 MDN(Mobile Directory Number), 모바일 IP, 모바일 MAC, Sim(subscriber identity module: 가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the
또한, 상기 제어부(160)는 상기 촬영된 영상 내에서 하나 이상의 객체를 인식한다. 여기서 상기 객체는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품, POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함한다.In addition, the
또한, 상기 제어부(160)는 상기 촬영된 영상 내에, 상기 인식된 객체와 관련한 추가 객체(예를 들어 3차원 형태의 객체)를 삽입(또는 추가/포함)하여 증강 현실 영상을 생성한다. 여기서, 상기 추가 객체는 3차원 형태로 구성하며, 상기 인식된 객체와 관련한 실시간 부가 정보(또는 상세 정보), 관련 동영상, 쿠폰 등을 제공하기 위한 객체일 수 있다.In addition, the
즉, 상기 제어부(160)는 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 확인한다.That is, the
또한, 상기 제어부(160)는 2차원 형태의 상기 촬영된 영상 내에, 상기 확인된 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성한다. 여기서, 상기 증강 현실 영상은 2차원 형태의 상기 촬영된 영상과, 3차원 형태의 상기 인식된 객체와 관련한 추가 객체로 구성할 수 있다.In addition, the
이때, 상기 인식된 객체 및/또는 상기 영상에 삽입되는 추가 객체는 해당 객체 및/또는 추가 객체의 확인이 용이하도록 미리 설정된 주기로 해당 객체 및/또는 추가 객체에 대해서 불빛(또는 특정 색상)이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 변화하는 효과, 불빛의 깜빡임 효과, 네온 사인 효과, 불빛의 색상이 미리 설정된 주기로 서로 다른 색상으로 변하는 효과 등이 적용된 상태일 수 있다.At this time, the light (or the specific color) of the recognized object and / or the additional object inserted in the image is changed to a maximum state (or a specific color) for the corresponding object and / , The effect of repeatedly changing from the extinction state to the maximum state, the flickering effect of the light, the neon sign effect, and the effect of changing the colors of the light to different colors at predetermined cycles may be applied.
이와 같이, 상기 제어부(160)는 상기 카메라(120)를 통해 촬영되는 2차원 형태의 영상에 사용자의 관심 및/또는 흥미를 유발하고, 추가 정보를 제공하기 위해서 해당 2차원 형태의 영상 내에 3차원 형태의 추가 객체를 삽입(또는 추가)하여 새로운 증강 현실 영상을 생성할 수 있다.In this way, the
또한, 이와 같이, 증강 현실 영상 생성 시, 해당 객체, 추가 객체 등에 대해서 다양한 효과를 적용하여, 증강 현실 영상 내에서의 식별이 용이하도록 구성할 수 있다.In addition, when generating the augmented reality image, various effects can be applied to the object, the additional object, and the like to facilitate identification in the augmented reality image.
또한, 상기 제어부(160)는 특정 증강 현실 영상을 상기 표시부(140)에 표시한다. 여기서, 상기 표시부(140)에 표시되는 증강 현실 영상은 단말(100)의 사용자에 의해 요청된 키워드(또는 검색어)에 대응하며, 상기 저장부(130)에 미리 저장된 증강 현실 영상이거나, 실시간으로 상기 서버(200)에서 전송되어 상기 통신부(110)를 통해 수신한 증강 현실 영상일 수 있다.Also, the
또한, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 증강 현실 영상 내의 특정 영역에 상기 선택된 3차원 형태의 추가 객체와 관련한 추가 정보를 상기 표시부(140)에 표시한다. 이때, 상기 추가 정보(또는 상기 3차원 형태의 추가 객체와 관련한 추가 정보)는 상기 통신부(110)를 통해 상기 서버(200)로부터 실시간으로 전송되는 정보일 수 있다.When an additional object of a specific three-dimensional shape is selected in the augmented reality image displayed on the
즉, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 선택된 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등을 포함하는 해당 추가 객체와 관련한 추가 정보를 확인한다.That is, when a specific three-dimensional additional object in the augmented reality image displayed on the
또한, 상기 제어부(160)는 상기 표시부(140)의 증강 현실 영상 내의 특정 영역(또는 팝업 형태)에 상기 확인된 추가 정보(예를 들어 상기 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등 포함)를 표시한다.In addition, the
이때, 상기 제어부(160)는 상기 표시부(140)의 증강 현실 영상 내의 다른 특정 영역에 상기 확인된 추가 정보를 말 풍선 형태 등으로 표시할 수도 있다.At this time, the
또한, 상기 제어부(160)는 해당 선택된 추가 객체(또는 해당 추가 객체에 대응하는 객체)에 인접하게 해당 추가 객체와 관련한 추가 정보를 표시한다. 이때, 상기 표시부(140)에 표시되는 해당 선택된 추가 객체(예를 들어 상품과 관련한 추가 객체), 해당 추가 객체에 대응하는 객체(예를 들어 해당 추가 객체에 대응하는 상품) 및 상기 추가 객체와 관련한 추가 정보(예를 들어 상기 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등 포함)는 해당 객체, 상기 객체에 대응하는 추가 객체, 상기 추가 객체와 관련한 부가 정보 등의 확인이 용이하도록 미리 설정된 주기로 해당 객체 및/또는 추가 객체에 대해서 불빛(또는 특정 색상)이 최대 상태(또는 점등 상태)에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태(또는 점등 상태)로 반복적으로 변화하는 효과, 불빛의 깜빡임 효과, 네온 사인 효과, 불빛의 색상이 미리 설정된 주기로 서로 다른 색상으로 변하는 효과 등이 적용된 상태일 수 있다. 또한, 이러한 효과는 미리 설정된 시간 동안 유지될 수도 있다.In addition, the
또한, 상기 제어부(160)는 해당 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택(또는 터치/클릭)되는 경우 이외에 미리 설정된 이벤트가 감지되는 경우에도, 해당 이벤트에 대응하여 해당 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등을 포함하는 해당 추가 객체와 관련한 추가 정보를 상기 표시부(140)에 표시할 수도 있다.In addition, in addition to selection (or touch / click) of additional three-dimensional objects in the augmented reality image displayed on the
이때, 상기 미리 설정된 이벤트는, 상기 3차원 형태의 추가 객체를 선택(또는 터치/클릭)한 상태가 유지되는 경우, 상기 추가 객체에 대한 상기 단말(100)의 사용자에 의한 터치 제스처가 감지되는 경우 등을 포함한다. 여기서, 상기 단말(100)의 사용자에 의한 터치 제스터는 탭, 터치&홀드, 더블 탭, 드래그, 플릭, 드래그 앤드 드롭, 핀치, 스와이프 등을 포함한다.At this time, the preset event is a state in which a touch gesture by the user of the terminal 100 for the additional object is sensed when the three-dimensional additional object is selected (or touched / clicked) And the like. The touch gesture by the user of the terminal 100 includes a tap, a touch & hold, a double tap, a drag, a flick, a drag and drop, a pinch, and a swipe.
"탭(tap)"은 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 화면(예를 들어 객체, 지명, 부가 정보 등 포함)을 터치한 후 움직이지 않은 채 화면에서 즉시 들어올리는 동작을 나타낸다.Quot; tap "means an operation in which a user touches a screen (including an object, a place name, additional information, and the like) using a finger or a touch tool .
"터치&홀드(touch & hold)"는 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)을 이용하여 화면(예를 들어 객체, 지명, 부가 정보 등 포함)을 터치한 후, 임계 시간(예컨대, 2초) 이상 터치 입력을 유지하는 동작을 나타낸다. 즉, 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간(예컨대, 2초) 이상인 경우를 의미한다. 터치 입력이 탭인지 터치&홀드인지를 사용자에게 인식시키도록 하기 위하여 터치 입력이 임계 시간 이상 유지되면 시각적 또는 청각적 또는 촉각적으로 피드백 신호를 제공할 수도 있다. 상기 임계 시간은 구현 예에 따라서 변경될 수 있다."Touch & hold" means that a user touches a screen (e.g., an object, a place name, additional information, etc.) using a finger or a touch tool 2 seconds) or more. That is, the time difference between the touch-in point and the touch-out point is equal to or greater than a threshold time (for example, 2 seconds). In order to allow the user to recognize whether the touch input is a tap or a touch & hold, the feedback signal may be provided visually, audibly or tactually when the touch input is maintained for a predetermined time or more. The threshold time may vary depending on the implementation.
"더블 탭(double tap)"은 사용자가 손가락이나 터치 도구(stylus)를 이용하여 화면(예를 들어 객체, 지명, 부가 정보 등 포함)을 두 번 터치하는 동작을 나타낸다."Double tap" represents an operation in which a user touches a screen (including an object, a place name, additional information, and the like) twice with a finger or a stylus.
"드래그(drag)"는 사용자가 손가락이나 터치 도구를 화면(예를 들어 객체, 지명, 부가 정보 등 포함)에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. 드래그 동작으로 인하여 오브젝트가 이동되거나 후술할 패닝 동작이 수행된다.A "drag" is a method in which a user touches a finger or a touch tool on a screen (e.g., an object, a place name, a side information, etc.) and then moves the finger or the touch tool to another position Operation. The object is moved due to the drag operation or a panning operation to be described later is performed.
"플릭(flick)"은 사용자가 손가락이나 터치 도구를 화면(예를 들어 객체, 지명, 부가 정보 등 포함)에 터치한 후 사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 드래그하는 동작을 나타낸다. 손가락이나 터치 도구의 이동 속도가 임계 속도(예컨대, 100 pixel/s) 이상인지에 기초하여 드래그(또는 패닝)와 플릭을 구별할 수 있다.A "flick" means that a user touches a finger or a touch tool to a screen (e.g., an object, a place name, additional information, etc.) ). ≪ / RTI > It is possible to distinguish the drag (or panning) from the flick based on whether the moving speed of the finger or the touch tool is equal to or greater than a critical speed (for example, 100 pixel / s).
"드래그 앤드 드롭(drag & drop)"은 사용자가 손가락이나 터치 도구를 이용해 오브젝트(예를 들어 객체, 지명, 부가 정보 등 포함)를 화면 내 소정 위치에 드래그한 후 놓는 동작을 의미한다."Drag & drop" means an operation in which a user drags an object (including an object, a place name, additional information, and the like) to a predetermined position using a finger or a touch tool and then releases the object.
"핀치(pinch)"는 사용자가 두 손가락을 화면(예를 들어 객체, 지명, 부가 정보 등 포함) 위에 터치한 상태에서 서로 다른 방향으로 움직이는 동작을 나타낸다.A "pinch" indicates an operation in which a user moves two fingers in different directions while touching them on a screen (e.g., including an object, a name, and additional information).
"스와이프(swipe)"는 손가락이나 터치 도구로 화면 위의 오브젝트(예를 들어 객체, 지명, 부가 정보 등 포함)를 터치한 상태에서 수평 또는 수직 방향으로 일정 거리를 움직이는 동작이다. 사선 방향의 움직임은 스와이프 이벤트로 인식되지 않을 수 있다.A "swipe" is an operation of moving a certain distance in a horizontal or vertical direction while touching an object (for example, an object, a place name, additional information, etc.) on the screen with a finger or a touch tool. Motion in the diagonal direction may not be recognized as a swipe event.
또한, 상기 이벤트에 대응하는 기능이 종료되는 경우, 상기 제어부(160)는 상기 이벤트 감지 전의 영상(또는 상기 증강 현실 영상)으로 복귀한다.In addition, when the function corresponding to the event is terminated, the
즉, 상기 3차원 형태의 추가 객체를 선택한 상태가 해제되는 경우, 상기 제어부(160)는 상기 이벤트 감지 전의 영상(또는 상기 증강 현실 영상)을 상기 표시부(140)에 표시한다.That is, when the 3D object is selected, the
또한, 상기 단말(100)의 사용자에 의한 터치 제스처 감지 이후 상기 미리 설정된 시간이 경과한 경우, 상기 제어부(160)는 상기 이벤트 감지 전의 영상(또는 상기 증강 현실 영상)을 상기 표시부(140)에 표시한다.If the predetermined time has elapsed since the touch gesture detection by the user of the terminal 100, the
상기 서버(200)는 상기 단말(100) 등과 통신한다.The
또한, 상기 서버(200)는 상기 단말(100)과의 연동에 의해, 상기 단말(100)의 사용자에 대한 회원 가입 절차를 수행한다.In addition, the
또한, 상기 서버(200)는 상기 단말(100)에서 수행되는 증강 현실 영상 생성 기능을 수행할 수도 있다.Also, the
본 발명의 실시예에 따라 생성되는 증강 현실 영상은 상기 증강 현실 영상에 포함된 객체, 추가 객체, 지점(또는 좌표/해당 객체 및/또는 추가 객체에 대응하는 좌표) 등에 위한 위치 정보를 포함(또는 연동/매칭)한다.The augmented reality image generated according to the embodiment of the present invention includes positional information for an object, an additional object, a point (or a coordinate corresponding to the corresponding object and / or the additional object) included in the augmented reality image Interworking / matching).
즉, 상기 증강 현실 영상뿐만 아니라, 추후 임의의 단말(예를 들어 상기 단말(100)의 위치 정보 등 포함)에 대응하는 증강 현실 영상을 검색(또는 확인)할 수 있도록 해당 증강 현실 영상에 포함된 객체, 추가 객체, 지점 등에 대한 위치 정보를 포함하도록 구성한다.That is, in order to search (or check) the augmented reality image corresponding to an arbitrary terminal (for example, including the position information of the terminal 100) in the future as well as the augmented reality image, Objects, additional objects, points, and the like.
이에 따라, 상기 임의의 단말에서 위치 정보에 대응하는 증강 현실 영상을 요청하는 경우, 상기 서버(200)는 미리 저장된 하나 이상의 객체, 추가 객체, 지점 등의 위치 정보를 포함하는 복수의 증강 현실 영상 정보 중에서 상기 임의의 단말로부터 요청된 특정 위치 정보에 대응하는 증강 현실 영상 정보를 확인하고, 상기 확인된 증강 현실 영상 정보를 해당 단말에 제공할 수 있다.Accordingly, when requesting an augmented reality image corresponding to the position information from the arbitrary terminal, the
예를 들어, 상기 서버(200)는 복수의 매장 및/또는 상품의 위치 정보와 연동된 증강 현실 영상 정보 중에서, 상기 임의의 단말의 위치 정보인 서울특별시 강남구 역삼로 123-45에 대응하는 객체 및 관련 추가 객체가 포함된 증강 현실 영상 정보를 확인할 수 있다.For example, the
또한, 상기 복수의 매장 및/또는 상품의 위치 정보와 연동된 증강 현실 영상 정보 중에서, 상기 임의의 단말의 위치 정보인 서울특별시 강남구 역삼로 123-45에 대응하는 객체 및 관련 추가 객체가 없는 경우, 상기 서버(200)는 상기 임의의 단말의 위치 정보와 유사한(예를 들어 서울특별시 강남구 역삼로 123-44 또는 123-46 등 포함) 객체 및/또는 상품이 포함된 증강 현실 영상 정보를 확인할 수도 있다.If there is no object corresponding to the location information of the arbitrary terminal and the additional object corresponding to 123-45 Gangnam-gu, Gangnam-gu, Seoul, from the augmented reality image information interlocked with the location information of the plurality of stores and / The
또한, 상기 복수의 증강 현실 영상 정보가 미리 설정된 간격으로 구성된 GPS 정보와 매칭된 경우, 상기 서버(200)는 상기 임의의 단말의 위치 정보와 상기 미리 설정된 간격으로 구성된 GPS 정보를 근거로 상기 임의의 단말의 위치 정보에 대응하는(또는 유사한/관련한) 하나의 증강 현실 영상 정보를 확인할 수도 있다.When the plurality of augmented reality image information is matched with the GPS information configured at predetermined intervals, the
이외에도, 상기 서버(200)에 미리 저장된 복수의 증강 현실 영상 정보 중에서 특정 위치 정보에 대응하는 증강 현실 영상 정보를 확인하는 방법은 지도 검색 서비스에서 활용되는 기술들을 적용할 수도 있다.In addition, the method of confirming the augmented reality image information corresponding to the specific position information among the plurality of augmented reality image information stored in advance in the
이와 같이, 본 발명에 의해 생성되는 증강 현실 영상 정보는 위치 정보와 연동된 상태로, 임의의 단말로부터 전송되는 특정 위치 정보에 대해서, 상기 서버(200)에 미리 저장된 복수의 증강 현실 영상 정보 중에서 상기 특정 위치 정보에 대응하는 증강 현실 영상 정보를 확인하고, 상기 확인된 증강 현실 영상 정보를 상기 특정 위치 정보를 전송한 해당 단말에 제공할 수 있다.As described above, the augmented reality image information generated by the present invention is associated with the position information, and for a specific position information transmitted from an arbitrary terminal, among a plurality of augmented reality image information stored in advance in the
또한, 상기 서버(200)는 상기 단말(100)로부터 전송되는 키워드(또는 검색어), 단말(100)의 식별 정보 등을 수신한다.Also, the
또한, 상기 서버(200)는 복수의 증강 현실 영상 중에서 상기 키워드에 대응하는 증강 현실 영상을 확인한다.Also, the
또한, 상기 서버(200)는 상기 확인된 상기 키워드에 대응하는 증강 현실 영상을 상기 단말(100)에 전송한다.In addition, the
또한, 상기 단말(100)에 제공된 증강 현실 영상 내에 포함된 추가 객체가 선택되는 경우, 상기 서버(200)는 상기 단말(100)로부터 전송되는 해당 추가 객체에 대한 정보를 근거로 상기 추가 객체와 관련한 추가 정보를 상기 단말(100)에 제공한다. 이때, 상기 추가 정보(또는 상기 3차원 형태의 추가 객체와 관련한 추가 정보)는 해당 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 포함한다.When the additional object included in the augmented reality image provided to the terminal 100 is selected, the
이와 같이, 상기 단말(100)의 현재 화면에 표시되는 증강 현실 영상 내에서 추가 객체(또는 미리 설정된 효과가 적용된 추가 객체)가 선택되는 경우, 상기 서버(200)는 상기 단말(100)의 요청에 의해 상기 단말(100)에서 선택된 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등의 추가 정보를 상기 단말(100)에 실시간으로 제공할 수 있다.When the additional object (or the additional object to which the predetermined effect is applied) is selected in the augmented reality image displayed on the current screen of the terminal 100, the
또한, 이와 같이, 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성할 수 있다.In this manner, a 2D panoramic image can be captured, an object can be recognized in the panoramic image, and an additional 3D object in association with the recognized object can be inserted to generate an augmented reality image.
또한, 이와 같이, 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시할 수 있다.Also, in the case where the 3D object added in the augmented reality image is selected, real-time additional information related to the additional object can be displayed.
이하에서는, 본 발명에 따른 단말의 제어 방법을 도 1 내지 도 21을 참조하여 상세히 설명한다.Hereinafter, a method of controlling a terminal according to the present invention will be described in detail with reference to FIGS. 1 to 21. FIG.
도 9는 본 발명의 제 1 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.9 is a flowchart illustrating a method of controlling a terminal according to a first embodiment of the present invention.
먼저, 카메라(120)는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품, POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함하는 영상(또는 2차원 영상/파노라마 영상)을 촬영한다. 여기서, 상기 매장은 백화점, 쇼핑몰, 아울렛, 음식점, 병원, 빌딩(또는 건축물) 등을 포함한다. 이때, 상기 카메라(120)는 2차원 형태의 파노라마 영상을 촬영하기 위한 360도 카메라일 수도 있다.First, the
또한, 표시부(140)는 제어부(160)의 제어에 의해, 상기 카메라(120)를 통해 촬영된 영상을 표시한다.The
일 예로, 상기 카메라(120)는 대형 쇼핑몰 내의 전시 상품인 모자와 안경을 포함하는 제 11 영상을 촬영한다. 또한, 도 10에 도시된 바와 같이, 상기 표시부(140)는 상기 촬영된 제 11 영상(1000)을 표시한다.For example, the
다른 일 예로, 상기 카메라(120)는 오프라인 상의 복수의 매장을 포함하는 제 12 영상을 촬영한다. 또한, 도 11에 도시된 바와 같이, 상기 표시부(140)는 상기 촬영된 제 12 영상(1100)을 표시한다(S910).In another example, the
이후, 상기 제어부(160)는 상기 촬영된 영상 내에서 객체를 인식한다. 여기서 상기 객체는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품, POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함한다.Then, the
일 예로, 상기 제어부(160)는 상기 촬영된 제 11 영상에 포함된 모자 및 안경을 각각 인식한다.For example, the
다른 일 예로, 상기 제어부(160)는 상기 촬영된 제 12 영상에 포함된 복수의 매장(예를 들어 ABC 호텔, DEF 호텔 등 포함)을 각각 인식한다(S920).In other words, the
이후, 상기 제어부(160)는 상기 촬영된 영상 내에, 상기 인식된 객체와 관련한 추가 객체(예를 들어 3차원 형태의 객체)를 삽입(또는 추가)하여 증강 현실 영상을 생성한다. 여기서, 상기 추가 객체는 3차원 형태로 구성하며, 상기 인식된 객체와 관련한 실시간 부가 정보(또는 상세 정보), 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 제공하기 위한 객체일 수 있다.Then, the
즉, 상기 제어부(160)는 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 확인한다.That is, the
또한, 상기 제어부(160)는 2차원 형태의 상기 촬영된 영상 내에서의 상기 인식된 객체에 인접하게, 상기 확인된 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성한다. 여기서, 상기 증강 현실 영상은 2차원 형태의 상기 촬영된 영상과, 3차원 형태의 상기 인식된 객체와 관련한 추가 객체로 구성할 수 있다.In addition, the
이때, 상기 인식된 객체 및/또는 상기 영상에 삽입되는 추가 객체는 해당 객체 및/또는 추가 객체의 확인이 용이하도록 미리 설정된 주기로 해당 객체 및/또는 추가 객체에 대해서 불빛(또는 특정 색상)이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 변화하는 효과, 불빛의 깜빡임 효과, 네온 사인 효과, 불빛의 색상이 미리 설정된 주기로 서로 다른 색상으로 변하는 효과 등이 적용된 상태일 수 있다.At this time, the light (or the specific color) of the recognized object and / or the additional object inserted in the image is changed to a maximum state (or a specific color) for the corresponding object and / , The effect of repeatedly changing from the extinction state to the maximum state, the flickering effect of the light, the neon sign effect, and the effect of changing the colors of the light to different colors at predetermined cycles may be applied.
일 예로, 상기 제어부(160)는 상기 촬영된 제 11 영상 내에 포함된 모자(1210)와 관련한 실시간 부가 정보(또는 제품 상세 정보), 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 제 21 추가 객체(1220)를 확인하고, 상기 촬영된 제 11 영상 내에 포함된 안경(1230)과 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 제 22 추가 객체(1240)를 확인한다. 또한, 도 12에 도시된 바와 같이, 상기 제어부(160)는 상기 확인된 제 21 추가 객체(1220) 및 제 22 추가 객체(1240)를 상기 제 11 영상(1000) 내에 삽입하여 제 1 증강 현실 영상(1250)을 생성한다. 이때, 상기 제 1 증강 현실 영상은 2차원 형태의 제 11 영상 및 3차원 형태의 제 21 추가 객체와 제 22 추가 객체로 형성된 상태일 수 있다. 또한, 상기 제 1 증강 현실 영상 내에서의 모자는 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 12 상에서는 상기 제 1 증강 현실 영상 내에서의 모자에 대해서 패턴을 적용한 상태로 표시)일 수 있다.For example, the
다른 일 예로, 상기 제어부(160)는 상기 촬영된 제 12 영상 내에 포함된 ABC 호텔(1310)과 관련한 실시간 예약 현황 정보(또는 실시간 부가 정보), 관련 동영상(또는 홍보 영상), 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 제 31 추가 객체(1320)를 확인하고, 상기 촬영된 제 12 영상 내에 포함된 DEF 호텔(1330)과 관련한 실시간 예약 현황 정보(또는 실시간 부가 정보), 관련 동영상(또는 홍보 영상) 등을 나타내기 위한 제 32 추가 객체(1340)를 확인한다. 또한, 도 13에 도시된 바와 같이, 상기 제어부(160)는 상기 확인된 제 31 추가 객체(1320) 및 제 32 추가 객체(1340)를 상기 제 12 영상(1100) 내에 삽입하여 제 2 증강 현실 영상(1350)을 생성한다. 이때, 상기 제 2 증강 현실 영상은 2차원 형태의 제 12 영상 및 3차원 형태의 제 31 추가 객체와 제 32 추가 객체로 형성된 상태일 수 있다. 또한, 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔은 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 13 상에서는 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔에 대해서 패턴을 적용한 상태로 표시)일 수 있다(S930).The
도 14는 본 발명의 제 2 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.Fig. 14 6 is a flowchart illustrating a method of controlling a terminal according to a second embodiment of the present invention.
먼저, 표시부(140)는 제어부(160)의 제어에 의해 특정 증강 현실 영상을 표시한다. 이때, 상기 증강 현실 영상은 단말(100)의 사용자에 의해 요청된 키워드(또는 검색어)에 대응하며, 상기 단말(100)에 미리 저장된 상태이거나, 실시간으로 임의의 서버(200)로부터 전송된 상태일 수도 있다.First, the
일 예로, 도 15에 도시된 바와 같이, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해, 저장부(130)에 미리 저장된 제 1 증강 현실 영상(1250)을 표시한다. 여기서, 상기 제 1 증강 현실 영상은 2차원 형태의 모자와 안경에 대한 영상과, 상기 모자와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 21 추가 객체와, 상기 안경과 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 22 추가 객체를 포함한 상태일 수 있다. 또한, 상기 제 1 증강 현실 영상 내에서의 모자는 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 12 상에서는 상기 제 1 증강 현실 영상 내에서의 모자에 대해서 패턴을 적용한 상태로 표시)일 수 있다.15, the
다른 일 예로, 통신부(110)는 상기 제어부(160)의 제어에 의해 특정 키워드인 지명(예를 들어 역삼역 사거리)과 관련하여 상기 서버(200)로부터 실시간으로 전송되는 제 2 증강 현실 영상을 수신한다. 또한, 도 16에 도시된 바와 같이, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해, 상기 통신부(110)를 통해 수신된 제 2 증강 현실 영상(1350)을 표시한다. 여기서, 상기 제 2 증강 현실 영상은 2차원 형태의 오프라인 상의 복수의 매장(예를 들어 ABC 호텔, DEF 호텔 등 포함)을 포함하는 영상과, 상기 ABC 호텔과 관련한 예약 현황 정보, ABC 호텔과 관련한 동영상(또는 ABC 호텔 홍보 영상), 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 31 추가 객체와, 상기 DEF 호텔과 관련한 예약 현황 정보, DEF 호텔과 관련한 동영상(또는 DEF 호텔 홍보 영상), 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 32 추가 객체를 포함한 상태일 수 있다. 또한, 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔은 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 13 상에서는 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔에 대해서 패턴을 적용한 상태로 표시)일 수 있다(S1410).In another example, under control of the
이후, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 증강 현실 영상 내의 특정 영역에 상기 선택된 3차원 형태의 추가 객체와 관련한 추가 정보를 상기 표시부(140)에 표시한다. 이때, 상기 추가 정보(또는 상기 3차원 형태의 추가 객체와 관련한 추가 정보)는 상기 통신부(110)를 통해 상기 서버(200)로부터 실시간으로 전송되는 정보일 수 있다.If the additional three-dimensional object in the augmented reality image displayed on the
즉, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 선택된 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 포함하는 해당 추가 객체와 관련한 추가 정보를 확인한다.That is, when a specific three-dimensional additional object in the augmented reality image displayed on the
또한, 상기 제어부(160)는 상기 표시부(140)의 증강 현실 영상 내의 특정 영역(또는 팝업 형태)에 상기 확인된 추가 정보(예를 들어 상기 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 정보 등 포함)를 표시한다.In addition, the
일 예로, 상기 도 15에 도시된 제 1 증강 현실 영상 내의 모자와 관련한 제 21 추가 객체에 포함된 실시간 부가 정보 객체(또는 실시간 부가 정보)(1221)가 선택될 때, 상기 제어부(160)는 상기 모자와 관련한 실시간 부가 정보에 대한 제 1 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 1 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 모자와 관련한 실시간 부가 정보(예를 들어 모자에 대한 제품 상세 정보 등 포함)를 상기 통신부(110)를 통해 수신한다. 이후, 도 17에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 상기 모자와 관련한 실시간 부가 정보(예를 들어 모자에 대한 제품 상세 정보 등 포함)(1710)를 상기 제 1 증강 현실 영상 내의 제 1 영역에 표시한다.For example, when the real-time additional information object (or real-time additional information) 1221 included in the twenty-first additional object related to the hat in the first augmented reality image shown in FIG. 15 is selected, And transmits a first request signal for real time additional information related to the cap to the
다른 일 예로, 상기 도 15에 도시된 제 1 증강 현실 영상 내의 모자와 관련한 제 21 추가 객체에 포함된 관련 동영상 객체(1222)가 선택될 때, 상기 제어부(160)는 상기 모자와 관련한 관련 동영상에 대한 제 2 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 2 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 모자와 관련한 관련 동영상(예를 들어 해당 모자와 관련한 동영상)을 상기 통신부(110)를 통해 수신한다. 이후, 도 18에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 모자와 관련한 관련 동영상(예를 들어 해당 모자와 관련한 동영상)(1810)을 상기 제 1 증강 현실 영상 내의 제 2 영역에 표시한다.15, when the related moving
또 다른 일 예로, 상기 도 15에 도시된 제 1 증강 현실 영상 내의 모자와 관련한 제 21 추가 객체에 포함된 쿠폰(1223)이 선택될 때, 도 19에 도시된 바와 같이, 상기 제어부(160)는 상기 모자와 관련한 쿠폰에 대응하는 쿠폰 정보(1910)를 상기 제 1 증강 현실 영상 내의 제 3 영역에 표시한다.As another example, when the
또 다른 일 예로, 상기 도 16에 도시된 제 2 증강 현실 영상 내의 ABC 호텔과 관련한 제 31 추가 객체에 포함된 예약 현황 정보(1321)가 선택될 때, 상기 제어부(160)는 상기 ABC 호텔과 관련한 실시간 예약 현황 정보에 대한 제 3 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 3 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 ABC 호텔과 관련한 실시간 예약 현황 정보(예를 들어 상기 ABC 호텔의 예약 현황 정보인 총 룸 수: 300개, 예약 가능 룸 수: 150개)를 상기 통신부(110)를 통해 수신한다. 이후, 도 20에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 ABC 호텔과 관련한 실시간 예약 현황 정보(예를 들어 상기 ABC 호텔의 예약 현황 정보인 총 룸 수: 300개, 예약 가능 룸 수: 150개)(2010)를 상기 제 2 증강 현실 영상 내의 제 4 영역에 표시한다.In another example, when the
또 다른 일 예로, 상기 도 16에 도시된 제 2 증강 현실 영상 내의 ABC 호텔과 관련한 제 31 추가 객체에 포함된 관련한 동영상이 선택될 때, 상기 제어부(160)는 상기 ABC 호텔과 관련한 관련 동영상에 대한 제 4 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 4 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 ABC 호텔과 관련한 실시간 ABC 호텔에 대한 홍보 영상(또는 ABC 호텔 홍보 영상)을 상기 통신부(110)를 통해 수신한다. 이후, 도 21에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 상기 ABC 호텔과 관련한 실시간 ABC 호텔에 대한 홍보 영상(또는 ABC 호텔 홍보 영상)(2110)을 상기 제 2 증강 현실 영상 내의 제 5 영역에 표시한다(S1420).16, when the related moving image included in the 31st additional object related to the ABC hotel in the second augmented reality image shown in FIG. 16 is selected, the
본 발명의 실시예는 앞서 설명된 바와 같이, 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하여, 특정 객체와 관련한 부가 정보 제공을 용이하게 할 수 있다.As described above, in the embodiment of the present invention, the panoramic image of the 2D form is photographed, the object is recognized in the photographed panoramic image, and the additional object in 3D form related to the recognized object is inserted, So that it is possible to easily provide additional information related to the specific object.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시하여, 사용자 편의를 위한 사용자 인터페이스를 제공하고, 현재 화면에서 사용자가 관심을 보이는 객체와 관련한 추가 정보를 제공함에 따른 사용자의 편의성을 향상시킬 수 있는 효과가 있다.In addition, in the embodiment of the present invention, as described above, when a 3D object in the 3D form inserted in the augmented reality image is selected, real-time additional information related to the additional object is displayed to provide a user interface for user convenience And it is possible to improve the user's convenience in providing the additional information related to the object of interest to the user on the current screen.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
본 발명은 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하고, 상기 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시함으로써, 사용자 편의를 위한 사용자 인터페이스를 제공하고, 현재 화면에서 사용자가 관심을 보이는 객체와 관련한 추가 정보를 제공함에 따른 사용자의 편의성을 향상시킬 수 있는 것으로, 단말 분야, 파노라마 영상 분야, 쇼핑 정보 제공 분야, 마케팅 분야, 서버 분야 등에서 광범위하게 이용될 수 있다.The present invention relates to a method of generating an augmented reality image by capturing a 2D panoramic image, recognizing an object in the panoramic image, inserting an additional object in 3D form related to the recognized object, When the inserted 3D object is selected, real-time additional information related to the additional object is displayed, thereby providing a user interface for user's convenience and providing additional information related to the object of interest on the current screen And can be widely used in a terminal field, a panoramic field field, a shopping information field, a marketing field, a server field, and the like.
10: 안내 장치
100: 단말
200: 서버
110: 통신부
120: 카메라
130: 저장부
140: 표시부
150: 음성 출력부
160: 제어부10: guide device 100: terminal
200: server 110:
120: camera 130: storage unit
140: display unit 150: audio output unit
160:
Claims (1)
카메라에 의해, 2차원 형태의 영상을 촬영하는 단계;
표시부에 의해, 상기 촬영된 영상을 표시하는 단계;
제어부에 의해, 상기 촬영된 2차원 형태의 영상 내에, 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하는 단계; 및
상기 표시부에 의해, 상기 생성된 증강 현실 영상을 표시하는 단계를 포함하며,
상기 추가 객체는,
3차원 형태로 구성하며, 상기 촬영된 영상 내에 포함된 객체와 관련한 실시간 부가 정보, 관련 동영상 및 쿠폰 정보를 제공하기 위한 객체인 것을 특징으로 하는 단말의 제어 방법.A method for controlling a terminal,
A step of photographing a two-dimensional image by a camera;
Displaying the photographed image by a display unit;
Generating augmented reality image by inserting a three-dimensional additional object into the photographed two-dimensional image by the control unit; And
And displaying the generated augmented reality image by the display unit,
The additional object may further comprise:
Wherein the object is an object for providing real-time additional information related to an object included in the photographed image, a related moving image, and coupon information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160166063A KR20180004643A (en) | 2016-12-07 | 2016-12-07 | Terminal and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160166063A KR20180004643A (en) | 2016-12-07 | 2016-12-07 | Terminal and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160084187A Division KR101809673B1 (en) | 2016-01-14 | 2016-07-04 | Terminal and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180004643A true KR20180004643A (en) | 2018-01-12 |
Family
ID=61001123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160166063A KR20180004643A (en) | 2016-12-07 | 2016-12-07 | Terminal and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180004643A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109462730A (en) * | 2018-10-25 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | Method and apparatus based on video acquisition panorama sketch |
-
2016
- 2016-12-07 KR KR1020160166063A patent/KR20180004643A/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109462730A (en) * | 2018-10-25 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | Method and apparatus based on video acquisition panorama sketch |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10945094B2 (en) | Social media systems and methods and mobile devices therefor | |
She et al. | Convergence of interactive displays with smart mobile devices for effective advertising: A survey | |
KR101715828B1 (en) | Terminal and control method thereof | |
KR101815158B1 (en) | Apparatus for producing mixed reality content and method thereof | |
JP2015515669A (en) | Augmented reality communication and information methods | |
EP2987318B1 (en) | System and method for the distribution of audio and projected visual content | |
US9607094B2 (en) | Information communication method and information communication apparatus | |
KR101809673B1 (en) | Terminal and control method thereof | |
TWM505017U (en) | Location-based information providing system | |
KR20180022528A (en) | Terminal and control method thereof | |
KR20180004643A (en) | Terminal and control method thereof | |
KR101907885B1 (en) | Terminal and control method thereof | |
KR101705812B1 (en) | Apparatus for producing mixed reality content and method thereof | |
KR20200008359A (en) | System for providing mixed reality contents and method thereof | |
KR101722053B1 (en) | Information apparatus for switching repeatedly to purposes interest image and method thereof | |
JP7210884B2 (en) | Information processing device, display system and program | |
KR20170112975A (en) | Apparatus for providing path information according to event and method thereof | |
KR101779502B1 (en) | Apparatus for providing path information according to event and method thereof | |
KR20170081862A (en) | System for advertisement using online-offline | |
KR20170110045A (en) | Information apparatus for switching repeatedly to purposes interest image and method thereof | |
CN112396443A (en) | Information delivery method and device, client, electronic equipment and storage medium | |
KR20160136740A (en) | Smart electronic advertisement board system and control method thereof | |
KR20190043001A (en) | Terminal and control method thereof | |
KR101489299B1 (en) | Method, server, and computer-readable recording media for displaying information on offer and acceptance | |
AU2012205152C1 (en) | A platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent |