KR20180004643A - Terminal and control method thereof - Google Patents

Terminal and control method thereof Download PDF

Info

Publication number
KR20180004643A
KR20180004643A KR1020160166063A KR20160166063A KR20180004643A KR 20180004643 A KR20180004643 A KR 20180004643A KR 1020160166063 A KR1020160166063 A KR 1020160166063A KR 20160166063 A KR20160166063 A KR 20160166063A KR 20180004643 A KR20180004643 A KR 20180004643A
Authority
KR
South Korea
Prior art keywords
image
information
augmented reality
terminal
additional
Prior art date
Application number
KR1020160166063A
Other languages
Korean (ko)
Inventor
김영덕
Original Assignee
주식회사 팝스라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팝스라인 filed Critical 주식회사 팝스라인
Priority to KR1020160166063A priority Critical patent/KR20180004643A/en
Publication of KR20180004643A publication Critical patent/KR20180004643A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention discloses a terminal and a control method thereof. That is, according to the present invention, a panoramic image of 2D type is photographed. An object is recognized in the photographed panoramic image. An additional object of 3D type related to the recognized object is inserted to generate an augmented reality image. Additional real-time information related to the additional object is displayed when the additional object of 3D type inserted in the augmented reality image is selected. Therefore, it is possible to provide a user interface for user convenience and to improve the convenience of a user by providing additional information related to an object which interests the user on a current screen.

Description

단말 및 그의 제어 방법{Terminal and control method thereof}[0001] The present invention relates to a terminal and a control method thereof,

본 발명은 단말 및 그의 제어 방법에 관한 것으로, 특히 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하고, 상기 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시하는 단말 및 그의 제어 방법에 관한 것이다.In particular, the present invention relates to a terminal and a control method thereof, and more particularly to a terminal and a control method thereof, in which a 2D panoramic image is taken, an object is recognized in the panoramic image, Real time additional information related to the additional object when the additional 3D object is selected in the augmented reality image, and a control method thereof.

일반적으로, 이동 단말기(Mobile Terminal)는, GPS(Global Positioning System) 기능 및 통화 기능(또는, 호(call) 기능)을 수행하여, 그 수행 결과를 사용자에게 제공하는 장치이다.2. Description of the Related Art Generally, a mobile terminal is a device that performs a Global Positioning System (GPS) function and a call function (or a call function) and provides a result of the operation to a user.

이러한 이동 단말기는 세대를 거듭할수록 더 많은 정보를 더 짧은 시간에 송수신할 수 있고, 다양한 기능이 부가되고 있으나, 이러한 기능에 맞춘 사용자 중심의 편의성을 위한 UI(User Interface) 개발이 부족한 상태이다.These mobile terminals are able to transmit and receive more information in a shorter time and have various functions, but there is a lack of UI (User Interface) for user-oriented convenience in accordance with these functions.

한국공개특허 제10-2013-0084274호 [명칭: 3차원 가상현실 인터넷 쇼핑몰]Korean Patent Laid-Open No. 10-2013-0084274 [entitled " 3D virtual reality Internet shopping mall]

본 발명의 목적은 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하는 단말 및 그의 제어 방법을 제공하는 데 있다.An object of the present invention is to provide a terminal that captures a 2D panoramic image, recognizes an object in the captured panoramic image, and inserts an additional 3D object in association with the recognized object to generate an augmented reality image, Method.

본 발명의 다른 목적은 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시하는 단말 및 그의 제어 방법을 제공하는 데 있다.Another object of the present invention is to provide a terminal and a control method thereof for displaying real-time additional information related to the additional object when an additional object of 3D form inserted into the augmented reality image is selected.

본 발명의 실시예에 따른 단말의 제어 방법은 단말의 제어 방법에 있어서, 카메라에 의해, 2차원 형태의 영상을 촬영하는 단계; 표시부에 의해, 상기 촬영된 영상을 표시하는 단계; 제어부에 의해, 상기 촬영된 2차원 형태의 영상 내에, 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하는 단계; 및 상기 표시부에 의해, 상기 생성된 증강 현실 영상을 표시하는 단계를 포함하며, 상기 추가 객체는, 3차원 형태로 구성하며, 상기 촬영된 영상 내에 포함된 객체와 관련한 실시간 부가 정보, 관련 동영상 및 쿠폰 정보를 제공하기 위한 객체일 수 있다.A method of controlling a terminal according to an exemplary embodiment of the present invention includes: capturing a two-dimensional image by a camera; Displaying the photographed image by a display unit; Generating augmented reality image by inserting a three-dimensional additional object into the photographed two-dimensional image by the control unit; And displaying the generated augmented reality image by the display unit, wherein the additional object is configured in a three-dimensional form, and the real-time supplementary information related to the object included in the photographed image, Or may be an object for providing information.

본 발명은 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성함으로써, 특정 객체와 관련한 부가 정보 제공을 용이하게 할 수 있는 효과가 있다.The present invention relates to a method for capturing a 2D panoramic image, recognizing an object in the captured panoramic image, and inserting an additional 3D object in association with the recognized object to generate an augmented reality image, It is possible to facilitate information provision.

또한, 본 발병은 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시함으로써, 사용자 편의를 위한 사용자 인터페이스를 제공하고, 현재 화면에서 사용자가 관심을 보이는 객체와 관련한 추가 정보를 제공함에 따른 사용자의 편의성을 향상시킬 수 있는 효과가 있다.In addition, when the 3D object of the 3D form embedded in the augmented reality image is selected, real-time additional information related to the additional object is displayed, thereby providing a user interface for user's convenience. There is an effect that the convenience of the user by providing additional information related to a visible object can be improved.

도 1은 본 발명의 실시예에 따른 안내 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 전시 상품의 예를 나타낸 도이다.
도 4는 본 발명의 실시예에 따른 POP의 예를 나타낸 도이다.
도 5는 본 발명의 실시예에 따른 전단의 예를 나타낸 도이다.
도 6은 본 발명의 실시예에 따른 배너 광고의 예를 나타낸 도이다.
도 7은 본 발명의 실시예에 따른 포스터 광고의 예를 나타낸 도이다.
도 8은 본 발명의 실시예에 따른 간판의 예를 나타낸 도이다.
도 9는 본 발명의 제 1 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.
도 10 내지 도 13은 본 발명의 제 1 실시예에 따른 단말의 화면을 나타낸 도이다.
도 14는 본 발명의 제 2 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.
도 15 내지 도 21은 본 발명의 제 2 실시예에 따른 단말의 화면을 나타낸 도이다.
1 is a block diagram showing the configuration of a guide apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a UE according to an embodiment of the present invention.
3 is a diagram illustrating an example of an exhibition product according to an embodiment of the present invention.
4 is a diagram illustrating an example of POP according to an embodiment of the present invention.
5 is a view showing an example of a front end according to an embodiment of the present invention.
6 is a diagram illustrating an example of a banner advertisement according to an embodiment of the present invention.
7 is a diagram illustrating an example of a poster advertisement according to an embodiment of the present invention.
8 is a view showing an example of a signboard according to an embodiment of the present invention.
9 is a flowchart illustrating a method of controlling a terminal according to a first embodiment of the present invention.
10 to 13 are diagrams illustrating screens of a terminal according to a first embodiment of the present invention.
Fig. 14 6 is a flowchart illustrating a method of controlling a terminal according to a second embodiment of the present invention.
15 to 21 are diagrams illustrating screens of a terminal according to a second embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 단말(100)이 적용된 안내 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing a configuration of a guide device 10 to which a terminal 100 according to an embodiment of the present invention is applied.

도 1에 도시한 바와 같이, 안내 장치(10)는 단말(100) 및 서버(200)로 구성된다. 도 1에 도시된 안내 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 안내 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 안내 장치(10)가 구현될 수도 있다.As shown in Fig. 1, the guide device 10 is composed of a terminal 100 and a server 200. Fig. Not all of the components of the guide device 10 shown in Fig. 1 are essential components, and the guide device 10 may be implemented by more components than the components shown in Fig. 1, The guiding device 10 may be realized.

상기 단말(100)은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal) 등과 같은 다양한 단말기에 적용될 수 있다.The terminal 100 may be a smart phone, a portable terminal, a mobile terminal, a personal digital assistant (PDA), a portable multimedia player (PMP) terminal, a telematics terminal, A portable terminal, a navigation terminal, a personal computer, a notebook computer, a slate PC, a tablet PC, an ultrabook, a wearable device (for example, a watch type A smart TV, a digital broadcasting terminal, an AVN (Audio Video Navigation) terminal, a digital broadcasting terminal, a digital video broadcasting terminal, An audio / video (A / V) system, a flexible terminal, and the like.

도 2에 도시된 바와 같이, 상기 단말(100)은 통신부(110), 카메라(120), 저장부(130), 표시부(140), 음성 출력부(150) 및 제어부(160)로 구성된다. 도 2에 도시된 단말(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 단말(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 단말(100)이 구현될 수도 있다.2, the terminal 100 includes a communication unit 110, a camera 120, a storage unit 130, a display unit 140, an audio output unit 150, and a controller 160. Not all the components of the terminal 100 shown in Fig. 2 are essential components, and the terminal 100 may be implemented by more components than the components shown in Fig. 2, The terminal 100 may be implemented.

상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 상기 서버(200) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The communication unit 110 communicates with at least one terminal of an external arbitrary component through a wired / wireless communication network. At this time, the external arbitrary terminal may include the server 200 and the like. Here, the wireless Internet technology includes a wireless LAN (WLAN), a digital living network alliance (DLNA), a wireless broadband (Wibro), a world interoperability for a microwave (WiMAX), a high speed downlink packet access ), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) And the communication unit 110 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above. In addition, the near field communication technology includes Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, Near Field Communication (NFC) , Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, and Wi-Fi Direct. The wired communication technology may include a power line communication (PLC), a USB communication, an Ethernet, a serial communication, an optical / coaxial cable, and the like.

또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the communication unit 110 can transmit information with an arbitrary terminal through a universal serial bus (USB).

또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버(200) 등과 무선 신호를 송수신한다.In addition, the communication unit 110 may be a mobile communication system such as a mobile communication system, a mobile communication system, a mobile communication system, a mobile communication system, a mobile communication system, (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (E.g., Long Term Evolution-Advanced), and the like, on the mobile communication network.

또한, 상기 통신부(110)는 상기 제어부(160)의 제어에 의해 상기 단말(100)에서 생성된 증강 현실 영상, 추가 정보 등을 상기 서버(200)에 전송한다.The communication unit 110 transmits the augmented reality image, additional information, and the like generated by the terminal 100 to the server 200 under the control of the controller 160. [

또한, 상기 통신부(110)는 상기 제어부(160)의 제어에 의해 상기 서버(200)로부터 전송되는 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등을 수신한다. 여기서, 상기 추가 정보는 실시간 부가 정보(또는 상세 정보), 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 포함한다. 이때, 상기 관련 동영상(또는 홍보용 동영상)은 특정 상품 및/또는 서비스와 관련한 영상, 상품의 사용법과 관련한 동영상(예를 들어 화장품의 사용법에 대한 동영상, 의류 착용 예시에 대한 동영상, 장난감 조립 방법에 대한 동영상, 공구 사용법에 대한 동영상, 조리 방법에 대한 동영상 등 포함) 등을 포함하며, 문자 및/또는 음성 메시지를 포함할 수도 있다.The communication unit 110 may control the current position of the terminal 100 transmitted from the server 200 or the keyword transmitted to the terminal 200 by the controller 200 under the control of the controller 160 Or a search word), additional information, and the like. Here, the additional information includes real-time additional information (or detailed information), related videos, coupons (or coupon information), and the like. At this time, the related video (or the promotional video) may be a video related to a specific product and / or service, a video related to the use of the product (e.g., a video about how to use cosmetics, A moving picture about how to use a tool, a moving picture about a cooking method, etc.), and may include characters and / or voice messages.

상기 카메라(120)는 영상 통화 모드, 촬영 모드, 영상 회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 상기 처리된 화상 프레임은 상기 제어부(160)의 제어에 의해 상기 표시부(140)에 표시될 수 있다. 일 예로, 상기 카메라(120)는 객체(또는 피사체)(사용자 영상 또는 화상 회의자)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.The camera 120 processes image frames such as still images or moving images obtained by an image sensor (a camera module or a camera) in a video communication mode, a shooting mode, a video conference mode, and the like. That is, the image data obtained by the image sensor according to the CODEC is encoded / decoded according to each standard. The processed image frame may be displayed on the display unit 140 under the control of the controller 160. [ For example, the camera 120 photographs an object (or a subject) (a user image or a video conference), and outputs a video signal corresponding to the photographed image (object image).

또한, 상기 카메라(120)는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품(또는 전시 상품), POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함하는 영상(또는 2차원 영상/파노라마 영상)을 촬영한다. 여기서, 상기 매장은 백화점, 쇼핑몰, 아울렛, 음식점, 병원, 빌딩(또는 건축물) 등을 포함한다. 이때, 상기 카메라(120)는 2차원 형태의 파노라마 영상을 촬영하기 위한 360도 카메라일 수도 있다.In addition, the camera 120 may store images (or two-dimensional images) including one or more stores on the off-line, merchandise (or display merchandise), POPs, flyers, banner advertisements, / Panoramic image). Here, the store includes a department store, a shopping mall, an outlet, a restaurant, a hospital, a building (or a building), and the like. At this time, the camera 120 may be a 360-degree camera for photographing a two-dimensional panoramic image.

여기서, 도 3에 도시된 바와 같이, 상기 전시 상품(Display products)은 고객에게 상품 판매를 위해 전시한 전시용 비판매 상품을 나타낸다(예를 들어 마네킹에 입힌 옷, 전시대에 돋보이게 진열해 둔 가방 등 포함).As shown in FIG. 3, the display products indicate non-sale items for exhibition displayed for the sale of goods to the customer (for example, clothes put on mannequins, bags that are displayed on display shelves, etc.) ).

또한, 도 4에 도시된 바와 같이, 상기 POP(Point of Purchase)는 매장을 찾아온 고객에게 즉석에서 상품 및/또는 서비스에 대한 정보를 제공하는 광고를 나타낸다.Also, as shown in FIG. 4, the POP (Point of Purchase) represents an advertisement providing information on goods and / or services on the spot to the customer who visited the store.

또한, 도 5에 도시된 바와 같이, 상기 전단(leaflet)(또는 전단 광고/전단지/전단지 광고)은 광고나 선전을 목적으로 배포하는 간단한 인쇄물의 형태를 나타낸다.Also, as shown in FIG. 5, the leaflet (or the advertisement of the leaflet / flyer / leaflet) represents a form of a simple printed matter distributed for advertising or publicity purpose.

또한, 도 6에 도시된 바와 같이, 상기 배너 광고(banner advertisement)는 매장의 특정 위치에 설치되어 특정 상품 및/또는 서비스에 대한 정보를 제공하는 광고를 나타낸다.Also, as shown in FIG. 6, the banner advertisement is an advertisement provided at a specific location in a store to provide information on a specific product and / or service.

또한, 도 7에 도시된 바와 같이, 상기 포스터 광고(billing)는 광고 선전용으로 제작하여 붙이는 종이를 나타내며, 시각에 호소하는 것이기 때문에 주목을 끌수 있도록 문자, 도형, 문장 등을 고려하여 제작한다.Also, as shown in FIG. 7, the poster billing refers to a paper made and adhered to an advertisement, and it is produced in consideration of characters, figures, and sentences so as to attract attention because it appeals to the time.

또한, 도 8에 도시된 바와 같이, 상기 간판(signboard)은 매장과 관련한 회사명, 상점명, 상품명, 서비스명 등을 표시하는 판을 나타낸다.As shown in FIG. 8, the signboard indicates a plate indicating a company name, a store name, a product name, a service name, and the like with respect to a store.

또한, 상기 카메라(120)에서 처리된 화상 프레임은 상기 저장부(130)에 저장되거나 상기 통신부(110)를 통해 외부 단말기(예를 들어 다른 단말, 상기 서버(200) 등 포함)로 전송될 수 있다.The image frame processed by the camera 120 may be stored in the storage unit 130 or transmitted to an external terminal (for example, another terminal, the server 200, etc.) through the communication unit 110 have.

상기 저장부(130)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 130 stores various user interfaces (UI), a graphical user interface (GUI), and the like.

또한, 상기 저장부(130)는 상기 단말(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 130 stores data and programs necessary for the terminal 100 to operate.

즉, 상기 저장부(130)는 상기 단말(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 단말(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는 단말(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 단말(100)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(130)에 저장되고, 단말(100)에 설치되어, 제어부(160)에 의하여 상기 단말(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the storage unit 130 may store a plurality of application programs or applications that are driven by the terminal 100, data for operation of the terminal 100, and commands. At least some of these applications may be downloaded from an external server via wireless communication. At least some of these application programs may exist on the terminal 100 from the time of departure for the basic functions (e.g., call incoming, outgoing, message reception, origination) of the terminal 100. The application program may be stored in the storage unit 130 and may be installed in the terminal 100 and may be operated by the controller 160 to perform operations (or functions) of the terminal 100.

또한, 상기 저장부(130)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 단말(100)은 인터넷(internet)상에서 저장부(130)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.The storage unit 130 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD A random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a magnetic random access memory And a PROM (Programmable Read-Only Memory). Also, the terminal 100 may operate a web storage that performs a storage function of the storage unit 130 on the Internet, or may operate in association with the web storage.

또한, 상기 저장부(130)는 상기 통신부(110)를 통해 수신된 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등을 저장한다.The storage unit 130 may store the current position of the terminal 100 received through the communication unit 110 or the augmentation corresponding to the keyword transmitted to the terminal 200 to the terminal 200 A real image, and additional information.

상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 저장부(120)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(140)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(140)는 터치 스크린 일 수 있다.The display unit 140 can display various contents such as various menu screens using the user interface and / or graphical user interface stored in the storage unit 120 under the control of the controller 160. [ Here, the content displayed on the display unit 140 includes various text or image data (including various information data) and a menu screen including data such as an icon, a list menu, and a combo box. Also, the display unit 140 may be a touch screen.

또한, 상기 표시부(140)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.The display unit 140 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) And may include at least one of a flexible display, a 3D display, an e-ink display, and an LED (Light Emitting Diode).

또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 카메라(120)를 통해 촬영된 영상을 표시한다.In addition, the display unit 140 displays an image photographed through the camera 120 under the control of the controller 160. [

또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 생성되는 증강 현실 영상을 표시한다.In addition, the display unit 140 displays the augmented reality image generated by the control unit 160.

또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 통신부(110)를 통해 수신된 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등을 표시한다.The display unit 140 may display the current position of the terminal 100 received through the communication unit 110 or the keyword transmitted to the terminal 200 by the controller 200 under the control of the controller 160 (Or a search word), additional information, and the like.

상기 음성 출력부(150)는 상기 제어부(160)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(150)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output unit 150 outputs audio information included in the signal processed by the controller 160. [ Here, the audio output unit 150 may include a receiver, a speaker, a buzzer, and the like.

또한, 상기 음성 출력부(150)는 상기 제어부(160)에 의해 생성된 안내 음성을 출력한다.Also, the voice output unit 150 outputs the guidance voice generated by the control unit 160.

또한, 상기 음성 출력부(150)는 상기 제어부(160)에 의해 상기 통신부(110)를 통해 수신된 상기 단말(100)의 현재 위치 또는 상기 단말(100)에 상기 서버(200)에 전송한 키워드(또는 검색어)에 대응하는 증강 현실 영상, 추가 정보 등에 대응하는 음성 정보를 출력한다.The voice output unit 150 may output the current position of the terminal 100 received through the communication unit 110 or the keyword transmitted to the terminal 200 by the controller 160 (Or a search word), audio information corresponding to additional information, and the like.

상기 제어부(160)는 상기 단말(100)의 전반적인 제어 기능을 실행한다.The control unit 160 executes the overall control function of the terminal 100. [

또한, 제어부(160)는 저장부(130)에 저장된 프로그램 및 데이터를 이용하여 단말(100)의 전반적인 제어 기능을 실행한다. 제어부(160)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 저장부(130)에 액세스하여, 저장부(130)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 저장부(130)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.The control unit 160 executes the overall control functions of the terminal 100 using the programs and data stored in the storage unit 130. [ The control unit 160 may include a RAM, a ROM, a CPU, a GPU, and a bus, and the RAM, the ROM, the CPU, and the GPU may be connected to each other via a bus. The CPU accesses the storage unit 130 and performs booting using the O / S stored in the storage unit 130. The CPU 130 performs various operations using various programs, contents, and data stored in the storage unit 130 Can be performed.

또한, 상기 제어부(160)는 상기 서버(200)와의 연동에 의해, 해당 단말(100)의 사용자에 대한 상기 서버(200)로의 회원 가입 절차를 수행한다.In addition, the control unit 160 performs a membership registration procedure with the server 200 for the user of the terminal 100 by interlocking with the server 200.

또한, 회원 가입 절차 수행 시, 상기 제어부(160)는 본인 인증 수단(예를 들어 이동 전화, 신용카드, 아이핀, 이메일 등 포함)을 통한 인증 기능을 완료해야 상기 서버(200)에 대한 회원 가입 절차를 정상적으로 완료할 수 있다.In addition, when performing the membership registration procedure, the controller 160 must complete the authentication function through the authentication means (for example, a mobile phone, a credit card, an i-pin, Can normally be completed.

또한, 회원 가입 절차에 의해, 상기 제어부(160)는 생년월일, 남/여 정보, 전화번호, 이메일, 비밀번호, 이름, 주소 등의 사용자 정보를 상기 통신부(110)를 통해 상기 서버(200)에 제공한다.In addition, the control unit 160 provides the server 200 with user information such as date of birth, male / female information, telephone number, e-mail, password, name and address through the communication unit 110 do.

또한, 상기 단말(100)에 미리 설치된 앱이 실행되는 경우, 상기 제어부(160)는 앱 실행 결과 화면을 상기 표시부(140)에 표시한다. 여기서, 상기 앱 실행 결과 화면은 회원 정보를 입력받거나 전송하기 위한 회원 정보 항목(또는 메뉴/버튼), 이미지 또는 3D 파노라마 영상을 제공하기 위한 영상 정보 항목, 앱의 기능을 설정하기 위한 설정 항목, 단말(100)을 통해 구매한 상품이나 서비스에 대한 구매 이력 정보 등을 관리하기 위한 마이 페이지 항목 등을 포함한다. 이때, 상기 단말(100)은 백그라운드 상태로 해당 앱과 관련한 서버(200)와 통신한다.In addition, when an application installed in advance in the terminal 100 is executed, the controller 160 displays an application execution result screen on the display unit 140. [ Here, the application execution result screen may include a member information item (or menu / button) for inputting or transmitting member information, an image information item for providing an image or a 3D panorama image, a setting item for setting a function of the application, And a My Page item for managing purchase history information on a product or service purchased through the Internet 100. At this time, the terminal 100 communicates with the server 200 related to the corresponding application in the background state.

또한, 상기 표시부(140)에 표시되는 앱 실행 결과 화면 중에서 회원 정보 항목이 선택되는 경우, 상기 제어부(160)는 상기 선택된 회원 정보 항목에 대응하는 회원 정보를 입력받기(또는 수신하기) 위한 회원 정보 화면을 상기 표시부(140)에 표시한다.In addition, when a member information item is selected from the application execution result screen displayed on the display unit 140, the control unit 160 may display the member information for receiving (or receiving) the member information corresponding to the selected member information item And displays the screen on the display unit 140.

또한, 상기 제어부(160)는 사용자 입력(또는 사용자 터치)에 따른 회원 정보를 수신한다. 여기서, 상기 회원 정보는 이름, 주소, 사용 언어, 배송지 정보, 쇼핑 객체 종류(예를 들어 아바타 종류, 이모티콘 종류 등 포함) 등을 포함한다.Also, the controller 160 receives member information according to user input (or user touch). Here, the member information includes a name, an address, a language used, a destination information, a shopping object type (for example, an avatar type, an emoticon type, etc.).

또한, 상기 제어부(160)는 상기 수신된 회원 정보, 상기 단말(100)의 식별 정보 등을 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 여기서, 구매 단말(100)의 식별 정보는 MDN(Mobile Directory Number), 모바일 IP, 모바일 MAC, Sim(subscriber identity module: 가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.In addition, the controller 160 transmits the received membership information, identification information of the terminal 100, and the like to the server 200 through the communication unit 110. The identification information of the purchasing terminal 100 includes an MDN (Mobile Directory Number), a mobile IP, a mobile MAC, a SIM (subscriber identity module) card unique information, a serial number, and the like.

또한, 상기 제어부(160)는 상기 촬영된 영상 내에서 하나 이상의 객체를 인식한다. 여기서 상기 객체는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품, POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함한다.In addition, the control unit 160 recognizes one or more objects in the photographed image. Here, the object includes at least one store in the offline state, a product in the store, a POP, a flyer, a banner advertisement, a bulletin board advertisement, a poster advertisement, a signboard, a price tag and the like.

또한, 상기 제어부(160)는 상기 촬영된 영상 내에, 상기 인식된 객체와 관련한 추가 객체(예를 들어 3차원 형태의 객체)를 삽입(또는 추가/포함)하여 증강 현실 영상을 생성한다. 여기서, 상기 추가 객체는 3차원 형태로 구성하며, 상기 인식된 객체와 관련한 실시간 부가 정보(또는 상세 정보), 관련 동영상, 쿠폰 등을 제공하기 위한 객체일 수 있다.In addition, the control unit 160 inserts (or adds / adds) additional objects (for example, three-dimensional objects) related to the recognized object in the captured image to generate an augmented reality image. Here, the additional object may be a three-dimensional object, and may be an object for providing real-time additional information (or detailed information) related to the recognized object, a related moving image, a coupon, and the like.

즉, 상기 제어부(160)는 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 확인한다.That is, the control unit 160 identifies a three-dimensional additional object related to the recognized object.

또한, 상기 제어부(160)는 2차원 형태의 상기 촬영된 영상 내에, 상기 확인된 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성한다. 여기서, 상기 증강 현실 영상은 2차원 형태의 상기 촬영된 영상과, 3차원 형태의 상기 인식된 객체와 관련한 추가 객체로 구성할 수 있다.In addition, the controller 160 inserts a three-dimensional additional object related to the recognized object in the two-dimensional captured image to generate an augmented reality image. Here, the augmented reality image may be composed of the captured image in a two-dimensional form and additional objects related to the recognized object in a three-dimensional form.

이때, 상기 인식된 객체 및/또는 상기 영상에 삽입되는 추가 객체는 해당 객체 및/또는 추가 객체의 확인이 용이하도록 미리 설정된 주기로 해당 객체 및/또는 추가 객체에 대해서 불빛(또는 특정 색상)이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 변화하는 효과, 불빛의 깜빡임 효과, 네온 사인 효과, 불빛의 색상이 미리 설정된 주기로 서로 다른 색상으로 변하는 효과 등이 적용된 상태일 수 있다.At this time, the light (or the specific color) of the recognized object and / or the additional object inserted in the image is changed to a maximum state (or a specific color) for the corresponding object and / , The effect of repeatedly changing from the extinction state to the maximum state, the flickering effect of the light, the neon sign effect, and the effect of changing the colors of the light to different colors at predetermined cycles may be applied.

이와 같이, 상기 제어부(160)는 상기 카메라(120)를 통해 촬영되는 2차원 형태의 영상에 사용자의 관심 및/또는 흥미를 유발하고, 추가 정보를 제공하기 위해서 해당 2차원 형태의 영상 내에 3차원 형태의 추가 객체를 삽입(또는 추가)하여 새로운 증강 현실 영상을 생성할 수 있다.In this way, the controller 160 generates interest and / or interest of the user in the two-dimensional image captured through the camera 120, and generates three-dimensional (Or adding) additional objects in the form of a new augmented reality image.

또한, 이와 같이, 증강 현실 영상 생성 시, 해당 객체, 추가 객체 등에 대해서 다양한 효과를 적용하여, 증강 현실 영상 내에서의 식별이 용이하도록 구성할 수 있다.In addition, when generating the augmented reality image, various effects can be applied to the object, the additional object, and the like to facilitate identification in the augmented reality image.

또한, 상기 제어부(160)는 특정 증강 현실 영상을 상기 표시부(140)에 표시한다. 여기서, 상기 표시부(140)에 표시되는 증강 현실 영상은 단말(100)의 사용자에 의해 요청된 키워드(또는 검색어)에 대응하며, 상기 저장부(130)에 미리 저장된 증강 현실 영상이거나, 실시간으로 상기 서버(200)에서 전송되어 상기 통신부(110)를 통해 수신한 증강 현실 영상일 수 있다.Also, the controller 160 displays a specific augmented reality image on the display unit 140. [ The augmented reality image displayed on the display unit 140 corresponds to a keyword (or a search word) requested by the user of the terminal 100 and may be an augmented reality image previously stored in the storage unit 130, And may be an augmented reality image transmitted from the server 200 and received through the communication unit 110. [

또한, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 증강 현실 영상 내의 특정 영역에 상기 선택된 3차원 형태의 추가 객체와 관련한 추가 정보를 상기 표시부(140)에 표시한다. 이때, 상기 추가 정보(또는 상기 3차원 형태의 추가 객체와 관련한 추가 정보)는 상기 통신부(110)를 통해 상기 서버(200)로부터 실시간으로 전송되는 정보일 수 있다.When an additional object of a specific three-dimensional shape is selected in the augmented reality image displayed on the display unit 140, the control unit 160 controls the display unit 140 to display the selected three- And displays the additional information on the display unit 140. In this case, the additional information (or additional information related to the additional object in the three-dimensional form) may be information transmitted in real time from the server 200 through the communication unit 110.

즉, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 선택된 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등을 포함하는 해당 추가 객체와 관련한 추가 정보를 확인한다.That is, when a specific three-dimensional additional object in the augmented reality image displayed on the display unit 140 is selected, the control unit 160 may include real-time supplementary information related to the selected additional object, Identify additional information about the additional object.

또한, 상기 제어부(160)는 상기 표시부(140)의 증강 현실 영상 내의 특정 영역(또는 팝업 형태)에 상기 확인된 추가 정보(예를 들어 상기 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등 포함)를 표시한다.In addition, the control unit 160 may include the identified additional information (for example, real-time additional information related to the additional object, a related video, a coupon, etc.) in a specific region (or a pop-up form) in the augmented reality image of the display unit 140 ).

이때, 상기 제어부(160)는 상기 표시부(140)의 증강 현실 영상 내의 다른 특정 영역에 상기 확인된 추가 정보를 말 풍선 형태 등으로 표시할 수도 있다.At this time, the controller 160 may display the identified additional information in another specific area of the augmented reality image of the display unit 140 in a balloon shape or the like.

또한, 상기 제어부(160)는 해당 선택된 추가 객체(또는 해당 추가 객체에 대응하는 객체)에 인접하게 해당 추가 객체와 관련한 추가 정보를 표시한다. 이때, 상기 표시부(140)에 표시되는 해당 선택된 추가 객체(예를 들어 상품과 관련한 추가 객체), 해당 추가 객체에 대응하는 객체(예를 들어 해당 추가 객체에 대응하는 상품) 및 상기 추가 객체와 관련한 추가 정보(예를 들어 상기 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등 포함)는 해당 객체, 상기 객체에 대응하는 추가 객체, 상기 추가 객체와 관련한 부가 정보 등의 확인이 용이하도록 미리 설정된 주기로 해당 객체 및/또는 추가 객체에 대해서 불빛(또는 특정 색상)이 최대 상태(또는 점등 상태)에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태(또는 점등 상태)로 반복적으로 변화하는 효과, 불빛의 깜빡임 효과, 네온 사인 효과, 불빛의 색상이 미리 설정된 주기로 서로 다른 색상으로 변하는 효과 등이 적용된 상태일 수 있다. 또한, 이러한 효과는 미리 설정된 시간 동안 유지될 수도 있다.In addition, the controller 160 displays additional information related to the selected additional object (or an object corresponding to the additional object) adjacent to the selected additional object. At this time, the selected additional object (for example, additional object related to the product) displayed on the display unit 140, the object corresponding to the additional object (for example, a product corresponding to the additional object) The additional information (for example, the real-time additional information related to the additional object, the related moving image, the coupon, etc.) may be stored at a predetermined period so as to facilitate identification of the object, the additional object corresponding to the object, (Or a specific color) gradually extinguishes from the maximum state (or the lighted state) to the maximum state (or the lighted state) gradually from the lighted state to the object and / or the additional object, , A neon sign effect, and an effect that the colors of light are changed into different colors at predetermined cycles. Also, this effect may be maintained for a predetermined time.

또한, 상기 제어부(160)는 해당 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택(또는 터치/클릭)되는 경우 이외에 미리 설정된 이벤트가 감지되는 경우에도, 해당 이벤트에 대응하여 해당 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 등을 포함하는 해당 추가 객체와 관련한 추가 정보를 상기 표시부(140)에 표시할 수도 있다.In addition, in addition to selection (or touch / click) of additional three-dimensional objects in the augmented reality image displayed on the display unit 140, The additional information related to the additional object including the real-time additional information, the related moving image, the coupon, etc., corresponding to the additional object may be displayed on the display unit 140. [

이때, 상기 미리 설정된 이벤트는, 상기 3차원 형태의 추가 객체를 선택(또는 터치/클릭)한 상태가 유지되는 경우, 상기 추가 객체에 대한 상기 단말(100)의 사용자에 의한 터치 제스처가 감지되는 경우 등을 포함한다. 여기서, 상기 단말(100)의 사용자에 의한 터치 제스터는 탭, 터치&홀드, 더블 탭, 드래그, 플릭, 드래그 앤드 드롭, 핀치, 스와이프 등을 포함한다.At this time, the preset event is a state in which a touch gesture by the user of the terminal 100 for the additional object is sensed when the three-dimensional additional object is selected (or touched / clicked) And the like. The touch gesture by the user of the terminal 100 includes a tap, a touch & hold, a double tap, a drag, a flick, a drag and drop, a pinch, and a swipe.

"탭(tap)"은 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 화면(예를 들어 객체, 지명, 부가 정보 등 포함)을 터치한 후 움직이지 않은 채 화면에서 즉시 들어올리는 동작을 나타낸다.Quot; tap "means an operation in which a user touches a screen (including an object, a place name, additional information, and the like) using a finger or a touch tool .

"터치&홀드(touch & hold)"는 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)을 이용하여 화면(예를 들어 객체, 지명, 부가 정보 등 포함)을 터치한 후, 임계 시간(예컨대, 2초) 이상 터치 입력을 유지하는 동작을 나타낸다. 즉, 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간(예컨대, 2초) 이상인 경우를 의미한다. 터치 입력이 탭인지 터치&홀드인지를 사용자에게 인식시키도록 하기 위하여 터치 입력이 임계 시간 이상 유지되면 시각적 또는 청각적 또는 촉각적으로 피드백 신호를 제공할 수도 있다. 상기 임계 시간은 구현 예에 따라서 변경될 수 있다."Touch & hold" means that a user touches a screen (e.g., an object, a place name, additional information, etc.) using a finger or a touch tool 2 seconds) or more. That is, the time difference between the touch-in point and the touch-out point is equal to or greater than a threshold time (for example, 2 seconds). In order to allow the user to recognize whether the touch input is a tap or a touch & hold, the feedback signal may be provided visually, audibly or tactually when the touch input is maintained for a predetermined time or more. The threshold time may vary depending on the implementation.

"더블 탭(double tap)"은 사용자가 손가락이나 터치 도구(stylus)를 이용하여 화면(예를 들어 객체, 지명, 부가 정보 등 포함)을 두 번 터치하는 동작을 나타낸다."Double tap" represents an operation in which a user touches a screen (including an object, a place name, additional information, and the like) twice with a finger or a stylus.

"드래그(drag)"는 사용자가 손가락이나 터치 도구를 화면(예를 들어 객체, 지명, 부가 정보 등 포함)에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. 드래그 동작으로 인하여 오브젝트가 이동되거나 후술할 패닝 동작이 수행된다.A "drag" is a method in which a user touches a finger or a touch tool on a screen (e.g., an object, a place name, a side information, etc.) and then moves the finger or the touch tool to another position Operation. The object is moved due to the drag operation or a panning operation to be described later is performed.

"플릭(flick)"은 사용자가 손가락이나 터치 도구를 화면(예를 들어 객체, 지명, 부가 정보 등 포함)에 터치한 후 사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 드래그하는 동작을 나타낸다. 손가락이나 터치 도구의 이동 속도가 임계 속도(예컨대, 100 pixel/s) 이상인지에 기초하여 드래그(또는 패닝)와 플릭을 구별할 수 있다.A "flick" means that a user touches a finger or a touch tool to a screen (e.g., an object, a place name, additional information, etc.) ). ≪ / RTI > It is possible to distinguish the drag (or panning) from the flick based on whether the moving speed of the finger or the touch tool is equal to or greater than a critical speed (for example, 100 pixel / s).

"드래그 앤드 드롭(drag & drop)"은 사용자가 손가락이나 터치 도구를 이용해 오브젝트(예를 들어 객체, 지명, 부가 정보 등 포함)를 화면 내 소정 위치에 드래그한 후 놓는 동작을 의미한다."Drag & drop" means an operation in which a user drags an object (including an object, a place name, additional information, and the like) to a predetermined position using a finger or a touch tool and then releases the object.

"핀치(pinch)"는 사용자가 두 손가락을 화면(예를 들어 객체, 지명, 부가 정보 등 포함) 위에 터치한 상태에서 서로 다른 방향으로 움직이는 동작을 나타낸다.A "pinch" indicates an operation in which a user moves two fingers in different directions while touching them on a screen (e.g., including an object, a name, and additional information).

"스와이프(swipe)"는 손가락이나 터치 도구로 화면 위의 오브젝트(예를 들어 객체, 지명, 부가 정보 등 포함)를 터치한 상태에서 수평 또는 수직 방향으로 일정 거리를 움직이는 동작이다. 사선 방향의 움직임은 스와이프 이벤트로 인식되지 않을 수 있다.A "swipe" is an operation of moving a certain distance in a horizontal or vertical direction while touching an object (for example, an object, a place name, additional information, etc.) on the screen with a finger or a touch tool. Motion in the diagonal direction may not be recognized as a swipe event.

또한, 상기 이벤트에 대응하는 기능이 종료되는 경우, 상기 제어부(160)는 상기 이벤트 감지 전의 영상(또는 상기 증강 현실 영상)으로 복귀한다.In addition, when the function corresponding to the event is terminated, the controller 160 returns to the image before the event detection (or the augmented reality image).

즉, 상기 3차원 형태의 추가 객체를 선택한 상태가 해제되는 경우, 상기 제어부(160)는 상기 이벤트 감지 전의 영상(또는 상기 증강 현실 영상)을 상기 표시부(140)에 표시한다.That is, when the 3D object is selected, the control unit 160 displays the image (or the augmented reality image) before the event is displayed on the display unit 140.

또한, 상기 단말(100)의 사용자에 의한 터치 제스처 감지 이후 상기 미리 설정된 시간이 경과한 경우, 상기 제어부(160)는 상기 이벤트 감지 전의 영상(또는 상기 증강 현실 영상)을 상기 표시부(140)에 표시한다.If the predetermined time has elapsed since the touch gesture detection by the user of the terminal 100, the control unit 160 displays the image (or the augmented reality image) before the event is displayed on the display unit 140 do.

상기 서버(200)는 상기 단말(100) 등과 통신한다.The server 200 communicates with the terminal 100 and the like.

또한, 상기 서버(200)는 상기 단말(100)과의 연동에 의해, 상기 단말(100)의 사용자에 대한 회원 가입 절차를 수행한다.In addition, the server 200 performs a membership registration procedure for a user of the terminal 100 by interworking with the terminal 100.

또한, 상기 서버(200)는 상기 단말(100)에서 수행되는 증강 현실 영상 생성 기능을 수행할 수도 있다.Also, the server 200 may perform an augmented reality image generation function performed in the AT 100. [

본 발명의 실시예에 따라 생성되는 증강 현실 영상은 상기 증강 현실 영상에 포함된 객체, 추가 객체, 지점(또는 좌표/해당 객체 및/또는 추가 객체에 대응하는 좌표) 등에 위한 위치 정보를 포함(또는 연동/매칭)한다.The augmented reality image generated according to the embodiment of the present invention includes positional information for an object, an additional object, a point (or a coordinate corresponding to the corresponding object and / or the additional object) included in the augmented reality image Interworking / matching).

즉, 상기 증강 현실 영상뿐만 아니라, 추후 임의의 단말(예를 들어 상기 단말(100)의 위치 정보 등 포함)에 대응하는 증강 현실 영상을 검색(또는 확인)할 수 있도록 해당 증강 현실 영상에 포함된 객체, 추가 객체, 지점 등에 대한 위치 정보를 포함하도록 구성한다.That is, in order to search (or check) the augmented reality image corresponding to an arbitrary terminal (for example, including the position information of the terminal 100) in the future as well as the augmented reality image, Objects, additional objects, points, and the like.

이에 따라, 상기 임의의 단말에서 위치 정보에 대응하는 증강 현실 영상을 요청하는 경우, 상기 서버(200)는 미리 저장된 하나 이상의 객체, 추가 객체, 지점 등의 위치 정보를 포함하는 복수의 증강 현실 영상 정보 중에서 상기 임의의 단말로부터 요청된 특정 위치 정보에 대응하는 증강 현실 영상 정보를 확인하고, 상기 확인된 증강 현실 영상 정보를 해당 단말에 제공할 수 있다.Accordingly, when requesting an augmented reality image corresponding to the position information from the arbitrary terminal, the server 200 generates a plurality of augmented reality image information including positional information of one or more previously stored objects, additional objects, It is possible to confirm the augmented reality image information corresponding to the specific location information requested from the arbitrary terminal among the augmented reality image information and provide the augmented reality image information to the corresponding terminal.

예를 들어, 상기 서버(200)는 복수의 매장 및/또는 상품의 위치 정보와 연동된 증강 현실 영상 정보 중에서, 상기 임의의 단말의 위치 정보인 서울특별시 강남구 역삼로 123-45에 대응하는 객체 및 관련 추가 객체가 포함된 증강 현실 영상 정보를 확인할 수 있다.For example, the server 200 may acquire, from the augmented reality image information associated with the location information of a plurality of stores and / or products, an object corresponding to the location information of the arbitrary terminal, which corresponds to 123-45 Gangnam- It is possible to confirm the augmented reality image information including the related additional object.

또한, 상기 복수의 매장 및/또는 상품의 위치 정보와 연동된 증강 현실 영상 정보 중에서, 상기 임의의 단말의 위치 정보인 서울특별시 강남구 역삼로 123-45에 대응하는 객체 및 관련 추가 객체가 없는 경우, 상기 서버(200)는 상기 임의의 단말의 위치 정보와 유사한(예를 들어 서울특별시 강남구 역삼로 123-44 또는 123-46 등 포함) 객체 및/또는 상품이 포함된 증강 현실 영상 정보를 확인할 수도 있다.If there is no object corresponding to the location information of the arbitrary terminal and the additional object corresponding to 123-45 Gangnam-gu, Gangnam-gu, Seoul, from the augmented reality image information interlocked with the location information of the plurality of stores and / The server 200 may confirm the augmented reality image information including the object and / or the commodities similar to the position information of the arbitrary terminal (for example, 123-44 or 123-46 in Gangnam-gu, Gangnam-gu, Seoul) .

또한, 상기 복수의 증강 현실 영상 정보가 미리 설정된 간격으로 구성된 GPS 정보와 매칭된 경우, 상기 서버(200)는 상기 임의의 단말의 위치 정보와 상기 미리 설정된 간격으로 구성된 GPS 정보를 근거로 상기 임의의 단말의 위치 정보에 대응하는(또는 유사한/관련한) 하나의 증강 현실 영상 정보를 확인할 수도 있다.When the plurality of augmented reality image information is matched with the GPS information configured at predetermined intervals, the server 200 generates the arbitrary augmented reality image information based on the position information of the arbitrary terminal and the GPS information configured at the predetermined interval (Or similar / related) one of the augmented reality image information corresponding to the position information of the terminal.

이외에도, 상기 서버(200)에 미리 저장된 복수의 증강 현실 영상 정보 중에서 특정 위치 정보에 대응하는 증강 현실 영상 정보를 확인하는 방법은 지도 검색 서비스에서 활용되는 기술들을 적용할 수도 있다.In addition, the method of confirming the augmented reality image information corresponding to the specific position information among the plurality of augmented reality image information stored in advance in the server 200 may apply the techniques utilized in the map search service.

이와 같이, 본 발명에 의해 생성되는 증강 현실 영상 정보는 위치 정보와 연동된 상태로, 임의의 단말로부터 전송되는 특정 위치 정보에 대해서, 상기 서버(200)에 미리 저장된 복수의 증강 현실 영상 정보 중에서 상기 특정 위치 정보에 대응하는 증강 현실 영상 정보를 확인하고, 상기 확인된 증강 현실 영상 정보를 상기 특정 위치 정보를 전송한 해당 단말에 제공할 수 있다.As described above, the augmented reality image information generated by the present invention is associated with the position information, and for a specific position information transmitted from an arbitrary terminal, among a plurality of augmented reality image information stored in advance in the server 200, It is possible to confirm the augmented reality image information corresponding to the specific location information and to provide the identified augmented reality image information to the corresponding terminal that has transmitted the specific location information.

또한, 상기 서버(200)는 상기 단말(100)로부터 전송되는 키워드(또는 검색어), 단말(100)의 식별 정보 등을 수신한다.Also, the server 200 receives a keyword (or a search word) transmitted from the terminal 100, identification information of the terminal 100, and the like.

또한, 상기 서버(200)는 복수의 증강 현실 영상 중에서 상기 키워드에 대응하는 증강 현실 영상을 확인한다.Also, the server 200 identifies an augmented reality image corresponding to the keyword from a plurality of augmented reality images.

또한, 상기 서버(200)는 상기 확인된 상기 키워드에 대응하는 증강 현실 영상을 상기 단말(100)에 전송한다.In addition, the server 200 transmits the augmented reality image corresponding to the identified keyword to the terminal 100.

또한, 상기 단말(100)에 제공된 증강 현실 영상 내에 포함된 추가 객체가 선택되는 경우, 상기 서버(200)는 상기 단말(100)로부터 전송되는 해당 추가 객체에 대한 정보를 근거로 상기 추가 객체와 관련한 추가 정보를 상기 단말(100)에 제공한다. 이때, 상기 추가 정보(또는 상기 3차원 형태의 추가 객체와 관련한 추가 정보)는 해당 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 포함한다.When the additional object included in the augmented reality image provided to the terminal 100 is selected, the server 200 determines whether the additional object included in the augmented reality image is included in the augmented reality image, And provides the terminal 100 with additional information. At this time, the additional information (or additional information related to the additional object in the three-dimensional form) includes real-time additional information related to the additional object, related moving image, coupon (or coupon information), and the like.

이와 같이, 상기 단말(100)의 현재 화면에 표시되는 증강 현실 영상 내에서 추가 객체(또는 미리 설정된 효과가 적용된 추가 객체)가 선택되는 경우, 상기 서버(200)는 상기 단말(100)의 요청에 의해 상기 단말(100)에서 선택된 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등의 추가 정보를 상기 단말(100)에 실시간으로 제공할 수 있다.When the additional object (or the additional object to which the predetermined effect is applied) is selected in the augmented reality image displayed on the current screen of the terminal 100, the server 200 transmits a request to the terminal 100 Related information related to the additional object selected by the terminal 100, related video, coupon (or coupon information), and the like to the terminal 100 in real time.

또한, 이와 같이, 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성할 수 있다.In this manner, a 2D panoramic image can be captured, an object can be recognized in the panoramic image, and an additional 3D object in association with the recognized object can be inserted to generate an augmented reality image.

또한, 이와 같이, 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시할 수 있다.Also, in the case where the 3D object added in the augmented reality image is selected, real-time additional information related to the additional object can be displayed.

이하에서는, 본 발명에 따른 단말의 제어 방법을 도 1 내지 도 21을 참조하여 상세히 설명한다.Hereinafter, a method of controlling a terminal according to the present invention will be described in detail with reference to FIGS. 1 to 21. FIG.

도 9는 본 발명의 제 1 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.9 is a flowchart illustrating a method of controlling a terminal according to a first embodiment of the present invention.

먼저, 카메라(120)는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품, POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함하는 영상(또는 2차원 영상/파노라마 영상)을 촬영한다. 여기서, 상기 매장은 백화점, 쇼핑몰, 아울렛, 음식점, 병원, 빌딩(또는 건축물) 등을 포함한다. 이때, 상기 카메라(120)는 2차원 형태의 파노라마 영상을 촬영하기 위한 360도 카메라일 수도 있다.First, the camera 120 captures an image (or a two-dimensional image / panoramic image) including one or more stores on the offline line, products in the store, POP, flyer, banner advertisement, bulletin board advertisement, poster advertisement, signboard, do. Here, the store includes a department store, a shopping mall, an outlet, a restaurant, a hospital, a building (or a building), and the like. At this time, the camera 120 may be a 360-degree camera for photographing a two-dimensional panoramic image.

또한, 표시부(140)는 제어부(160)의 제어에 의해, 상기 카메라(120)를 통해 촬영된 영상을 표시한다.The display unit 140 displays an image photographed through the camera 120 under the control of the control unit 160. [

일 예로, 상기 카메라(120)는 대형 쇼핑몰 내의 전시 상품인 모자와 안경을 포함하는 제 11 영상을 촬영한다. 또한, 도 10에 도시된 바와 같이, 상기 표시부(140)는 상기 촬영된 제 11 영상(1000)을 표시한다.For example, the camera 120 photographs an eleventh image including a hat and glasses as an exhibition product in a large shopping mall. Also, as shown in FIG. 10, the display unit 140 displays the photographed eleventh image 1000.

다른 일 예로, 상기 카메라(120)는 오프라인 상의 복수의 매장을 포함하는 제 12 영상을 촬영한다. 또한, 도 11에 도시된 바와 같이, 상기 표시부(140)는 상기 촬영된 제 12 영상(1100)을 표시한다(S910).In another example, the camera 120 photographs a twelfth image including a plurality of boutiques on the off-line. Also, as shown in FIG. 11, the display unit 140 displays the photographed 12th image 1100 (S910).

이후, 상기 제어부(160)는 상기 촬영된 영상 내에서 객체를 인식한다. 여기서 상기 객체는 오프라인 상의 하나 이상의 매장, 해당 매장 내의 상품, POP, 전단, 배너광고, 게시판광고, 포스터 광고, 간판, 가격표 등을 포함한다.Then, the control unit 160 recognizes the object in the photographed image. Here, the object includes at least one store in the offline state, a product in the store, a POP, a flyer, a banner advertisement, a bulletin board advertisement, a poster advertisement, a signboard, a price tag and the like.

일 예로, 상기 제어부(160)는 상기 촬영된 제 11 영상에 포함된 모자 및 안경을 각각 인식한다.For example, the control unit 160 recognizes the hat and glasses included in the photographed eleventh image, respectively.

다른 일 예로, 상기 제어부(160)는 상기 촬영된 제 12 영상에 포함된 복수의 매장(예를 들어 ABC 호텔, DEF 호텔 등 포함)을 각각 인식한다(S920).In other words, the control unit 160 recognizes a plurality of stores (for example, ABC hotel, DEF hotel, etc.) included in the photographed 12th image (S920).

이후, 상기 제어부(160)는 상기 촬영된 영상 내에, 상기 인식된 객체와 관련한 추가 객체(예를 들어 3차원 형태의 객체)를 삽입(또는 추가)하여 증강 현실 영상을 생성한다. 여기서, 상기 추가 객체는 3차원 형태로 구성하며, 상기 인식된 객체와 관련한 실시간 부가 정보(또는 상세 정보), 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 제공하기 위한 객체일 수 있다.Then, the control unit 160 inserts (or adds) additional objects (for example, three-dimensional objects) related to the recognized object in the captured image to generate an augmented reality image. Here, the additional object may be a three-dimensional object, and may be an object for providing real-time additional information (or detailed information) related to the recognized object, a related moving image, a coupon (or coupon information)

즉, 상기 제어부(160)는 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 확인한다.That is, the control unit 160 identifies a three-dimensional additional object related to the recognized object.

또한, 상기 제어부(160)는 2차원 형태의 상기 촬영된 영상 내에서의 상기 인식된 객체에 인접하게, 상기 확인된 상기 인식된 객체와 관련한 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성한다. 여기서, 상기 증강 현실 영상은 2차원 형태의 상기 촬영된 영상과, 3차원 형태의 상기 인식된 객체와 관련한 추가 객체로 구성할 수 있다.In addition, the control unit 160 generates an augmented reality image by inserting a three-dimensional additional object related to the recognized recognized object adjacent to the recognized object in the captured two-dimensional image do. Here, the augmented reality image may be composed of the captured image in a two-dimensional form and additional objects related to the recognized object in a three-dimensional form.

이때, 상기 인식된 객체 및/또는 상기 영상에 삽입되는 추가 객체는 해당 객체 및/또는 추가 객체의 확인이 용이하도록 미리 설정된 주기로 해당 객체 및/또는 추가 객체에 대해서 불빛(또는 특정 색상)이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 변화하는 효과, 불빛의 깜빡임 효과, 네온 사인 효과, 불빛의 색상이 미리 설정된 주기로 서로 다른 색상으로 변하는 효과 등이 적용된 상태일 수 있다.At this time, the light (or the specific color) of the recognized object and / or the additional object inserted in the image is changed to a maximum state (or a specific color) for the corresponding object and / , The effect of repeatedly changing from the extinction state to the maximum state, the flickering effect of the light, the neon sign effect, and the effect of changing the colors of the light to different colors at predetermined cycles may be applied.

일 예로, 상기 제어부(160)는 상기 촬영된 제 11 영상 내에 포함된 모자(1210)와 관련한 실시간 부가 정보(또는 제품 상세 정보), 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 제 21 추가 객체(1220)를 확인하고, 상기 촬영된 제 11 영상 내에 포함된 안경(1230)과 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 제 22 추가 객체(1240)를 확인한다. 또한, 도 12에 도시된 바와 같이, 상기 제어부(160)는 상기 확인된 제 21 추가 객체(1220) 및 제 22 추가 객체(1240)를 상기 제 11 영상(1000) 내에 삽입하여 제 1 증강 현실 영상(1250)을 생성한다. 이때, 상기 제 1 증강 현실 영상은 2차원 형태의 제 11 영상 및 3차원 형태의 제 21 추가 객체와 제 22 추가 객체로 형성된 상태일 수 있다. 또한, 상기 제 1 증강 현실 영상 내에서의 모자는 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 12 상에서는 상기 제 1 증강 현실 영상 내에서의 모자에 대해서 패턴을 적용한 상태로 표시)일 수 있다.For example, the control unit 160 may display the real time additional information (or product detailed information) related to the hat 1210 included in the photographed eleventh image, the related video, the coupon (or coupon information) A twenty-second additional object 1240 for identifying the additional object 1220 and displaying real-time additional information related to the glasses 1230 included in the photographed eleventh image, related videos, coupons (or coupon information) Check. 12, the controller 160 inserts the identified twenty-first additional object 1220 and the twenty-second additional object 1240 into the eleventh image 1000, (1250). In this case, the first augmented reality image may be formed of an eleventh image of a two-dimensional shape and a twenty-first additional object and a twenty-second additional object of a three-dimensional shape. In addition, the hat in the first augmented reality image is a state in which the light gradually extinguishes at a preset period and the effect of repeatedly changing the light from the extinction state to the maximum state is applied (in FIG. 12, And displayed in a state in which the pattern is applied to the hat in the augmented reality image).

다른 일 예로, 상기 제어부(160)는 상기 촬영된 제 12 영상 내에 포함된 ABC 호텔(1310)과 관련한 실시간 예약 현황 정보(또는 실시간 부가 정보), 관련 동영상(또는 홍보 영상), 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 제 31 추가 객체(1320)를 확인하고, 상기 촬영된 제 12 영상 내에 포함된 DEF 호텔(1330)과 관련한 실시간 예약 현황 정보(또는 실시간 부가 정보), 관련 동영상(또는 홍보 영상) 등을 나타내기 위한 제 32 추가 객체(1340)를 확인한다. 또한, 도 13에 도시된 바와 같이, 상기 제어부(160)는 상기 확인된 제 31 추가 객체(1320) 및 제 32 추가 객체(1340)를 상기 제 12 영상(1100) 내에 삽입하여 제 2 증강 현실 영상(1350)을 생성한다. 이때, 상기 제 2 증강 현실 영상은 2차원 형태의 제 12 영상 및 3차원 형태의 제 31 추가 객체와 제 32 추가 객체로 형성된 상태일 수 있다. 또한, 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔은 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 13 상에서는 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔에 대해서 패턴을 적용한 상태로 표시)일 수 있다(S930).The control unit 160 may receive the real-time reservation status information (or the real-time supplementary information) related to the ABC hotel 1310 included in the photographed twelfth image, the related video (or promotional video), the coupon The real time reservation status information (or real time additional information) related to the DEF hotel 1330 included in the photographed 12th video, the related video (or the publicity video ), And so on. ≪ / RTI > 13, the controller 160 inserts the identified 31st additional object 1320 and 32nd additional object 1340 into the 12th video 1100, (1350). In this case, the second augmented reality image may be formed of a twelfth image of two-dimensional shape and a thirty-first additional object and a thirty-second additional object of three-dimensional shape. Also, in the second augmented reality image, the ABC hotel and the DEF hotel are gradually extinguished at a preset period of time at a maximum state and are repeatedly changed to a maximum state gradually from the unlit state to the maximum state (A pattern is applied to the ABC hotel and the DEF hotel in the second augmented reality image) (S930).

도 14는 본 발명의 제 2 실시예에 따른 단말의 제어 방법을 나타낸 흐름도이다.Fig. 14 6 is a flowchart illustrating a method of controlling a terminal according to a second embodiment of the present invention.

먼저, 표시부(140)는 제어부(160)의 제어에 의해 특정 증강 현실 영상을 표시한다. 이때, 상기 증강 현실 영상은 단말(100)의 사용자에 의해 요청된 키워드(또는 검색어)에 대응하며, 상기 단말(100)에 미리 저장된 상태이거나, 실시간으로 임의의 서버(200)로부터 전송된 상태일 수도 있다.First, the display unit 140 displays a specific augmented reality image under the control of the control unit 160. [ At this time, the augmented reality image corresponds to a keyword (or a search word) requested by a user of the AT 100, and may be stored in the AT 100 in advance, or may be stored in a state It is possible.

일 예로, 도 15에 도시된 바와 같이, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해, 저장부(130)에 미리 저장된 제 1 증강 현실 영상(1250)을 표시한다. 여기서, 상기 제 1 증강 현실 영상은 2차원 형태의 모자와 안경에 대한 영상과, 상기 모자와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 21 추가 객체와, 상기 안경과 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 22 추가 객체를 포함한 상태일 수 있다. 또한, 상기 제 1 증강 현실 영상 내에서의 모자는 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 12 상에서는 상기 제 1 증강 현실 영상 내에서의 모자에 대해서 패턴을 적용한 상태로 표시)일 수 있다.15, the display unit 140 displays the first augmented reality image 1250 stored in advance in the storage unit 130 under the control of the control unit 160. As shown in FIG. Here, the first augmented reality image includes a 21-th addition in a three-dimensional form for displaying a two-dimensional hat and glasses image, real-time additional information related to the hat, a related animation, a coupon (or coupon information) And a twenty-second additional object in a three-dimensional form for indicating real-time additional information related to the eyeglasses, a related moving image, a coupon (or coupon information), and the like. In addition, the hat in the first augmented reality image is a state in which the light gradually extinguishes at a preset period and the effect of repeatedly changing the light from the extinction state to the maximum state is applied (in FIG. 12, And displayed in a state in which the pattern is applied to the hat in the augmented reality image).

다른 일 예로, 통신부(110)는 상기 제어부(160)의 제어에 의해 특정 키워드인 지명(예를 들어 역삼역 사거리)과 관련하여 상기 서버(200)로부터 실시간으로 전송되는 제 2 증강 현실 영상을 수신한다. 또한, 도 16에 도시된 바와 같이, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해, 상기 통신부(110)를 통해 수신된 제 2 증강 현실 영상(1350)을 표시한다. 여기서, 상기 제 2 증강 현실 영상은 2차원 형태의 오프라인 상의 복수의 매장(예를 들어 ABC 호텔, DEF 호텔 등 포함)을 포함하는 영상과, 상기 ABC 호텔과 관련한 예약 현황 정보, ABC 호텔과 관련한 동영상(또는 ABC 호텔 홍보 영상), 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 31 추가 객체와, 상기 DEF 호텔과 관련한 예약 현황 정보, DEF 호텔과 관련한 동영상(또는 DEF 호텔 홍보 영상), 쿠폰(또는 쿠폰 정보) 등을 나타내기 위한 3차원 형태의 제 32 추가 객체를 포함한 상태일 수 있다. 또한, 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔은 미리 설정된 주기로 불빛이 최대 상태에서 점차 소등되고 다시 소등 상태에서 점차 최대 상태로 반복적으로 불빛이 변화하는 효과가 적용된 상태(상기 도 13 상에서는 상기 제 2 증강 현실 영상 내에서의 ABC 호텔과 DEF 호텔에 대해서 패턴을 적용한 상태로 표시)일 수 있다(S1410).In another example, under control of the controller 160, the communication unit 110 receives a second augmented reality image transmitted in real time from the server 200 in association with a specific keyword (for example, Yeoksam station distance) . 16, the display unit 140 displays the second augmented reality image 1350 received through the communication unit 110 under the control of the controller 160. [ Here, the second augmented reality image includes a video including a plurality of stores in a two-dimensional offline form (for example, an ABC hotel, a DEF hotel, etc.), a reservation status information related to the ABC hotel, (Or a DEF hotel publicity image) related to the DEF hotel, and a 31st additional object in the form of a three-dimensional figure for displaying the DEF hotel (or the ABC hotel promotion image), coupon (or coupon information) , A coupon (or coupon information), and the like. Also, in the second augmented reality image, the ABC hotel and the DEF hotel are gradually extinguished at a preset period of time at a maximum state and are repeatedly changed to a maximum state gradually from the unlit state to the maximum state (A pattern is applied to the ABC hotel and the DEF hotel in the second augmented reality image) (S1410).

이후, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 증강 현실 영상 내의 특정 영역에 상기 선택된 3차원 형태의 추가 객체와 관련한 추가 정보를 상기 표시부(140)에 표시한다. 이때, 상기 추가 정보(또는 상기 3차원 형태의 추가 객체와 관련한 추가 정보)는 상기 통신부(110)를 통해 상기 서버(200)로부터 실시간으로 전송되는 정보일 수 있다.If the additional three-dimensional object in the augmented reality image displayed on the display unit 140 is selected, the controller 160 adds a specific three-dimensional object to the specific area in the augmented reality image And displays the additional information on the display unit 140. In this case, the additional information (or additional information related to the additional object in the three-dimensional form) may be information transmitted in real time from the server 200 through the communication unit 110.

즉, 상기 표시부(140)에 표시되는 증강 현실 영상 내의 특정 3차원 형태의 추가 객체가 선택되는 경우, 상기 제어부(160)는 상기 선택된 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰(또는 쿠폰 정보) 등을 포함하는 해당 추가 객체와 관련한 추가 정보를 확인한다.That is, when a specific three-dimensional additional object in the augmented reality image displayed on the display unit 140 is selected, the controller 160 adds real-time supplementary information, related videos, coupons (or coupon information ), And so on.

또한, 상기 제어부(160)는 상기 표시부(140)의 증강 현실 영상 내의 특정 영역(또는 팝업 형태)에 상기 확인된 추가 정보(예를 들어 상기 추가 객체와 관련한 실시간 부가 정보, 관련 동영상, 쿠폰 정보 등 포함)를 표시한다.In addition, the control unit 160 may add the identified additional information (e.g., real-time additional information related to the additional object, related video, coupon information, etc.) to a specific region (or a pop- ).

일 예로, 상기 도 15에 도시된 제 1 증강 현실 영상 내의 모자와 관련한 제 21 추가 객체에 포함된 실시간 부가 정보 객체(또는 실시간 부가 정보)(1221)가 선택될 때, 상기 제어부(160)는 상기 모자와 관련한 실시간 부가 정보에 대한 제 1 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 1 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 모자와 관련한 실시간 부가 정보(예를 들어 모자에 대한 제품 상세 정보 등 포함)를 상기 통신부(110)를 통해 수신한다. 이후, 도 17에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 상기 모자와 관련한 실시간 부가 정보(예를 들어 모자에 대한 제품 상세 정보 등 포함)(1710)를 상기 제 1 증강 현실 영상 내의 제 1 영역에 표시한다.For example, when the real-time additional information object (or real-time additional information) 1221 included in the twenty-first additional object related to the hat in the first augmented reality image shown in FIG. 15 is selected, And transmits a first request signal for real time additional information related to the cap to the server 200 through the communication unit 110. [ Then, the controller 160 transmits real-time additional information (for example, product detailed information on a hat, etc.) related to the hat, which is transmitted from the server 200, to the communication unit 110 in response to the first request signal. Lt; / RTI > Then, as shown in FIG. 17, the controller 160 transmits real-time additional information (for example, product detailed information on a hat and the like) 1710 related to the received hat to the first augmented reality image Is displayed in the first area.

다른 일 예로, 상기 도 15에 도시된 제 1 증강 현실 영상 내의 모자와 관련한 제 21 추가 객체에 포함된 관련 동영상 객체(1222)가 선택될 때, 상기 제어부(160)는 상기 모자와 관련한 관련 동영상에 대한 제 2 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 2 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 모자와 관련한 관련 동영상(예를 들어 해당 모자와 관련한 동영상)을 상기 통신부(110)를 통해 수신한다. 이후, 도 18에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 모자와 관련한 관련 동영상(예를 들어 해당 모자와 관련한 동영상)(1810)을 상기 제 1 증강 현실 영상 내의 제 2 영역에 표시한다.15, when the related moving image object 1222 included in the twenty-first additional object related to the hat in the first augmented reality image shown in FIG. 15 is selected, the control unit 160 controls the related moving image related to the hat And transmits the second request signal to the server 200 via the communication unit 110. Thereafter, the controller 160 receives a related video (e.g., a video related to the cap) related to the cap transmitted from the server 200 via the communication unit 110 in response to the second request signal . 18, the controller 160 displays a related video (e.g., a video related to the hat) 1810 related to the received hat in a second area of the first augmented reality image do.

또 다른 일 예로, 상기 도 15에 도시된 제 1 증강 현실 영상 내의 모자와 관련한 제 21 추가 객체에 포함된 쿠폰(1223)이 선택될 때, 도 19에 도시된 바와 같이, 상기 제어부(160)는 상기 모자와 관련한 쿠폰에 대응하는 쿠폰 정보(1910)를 상기 제 1 증강 현실 영상 내의 제 3 영역에 표시한다.As another example, when the coupon 1223 included in the twenty-first additional object related to the hat in the first augmented reality image shown in FIG. 15 is selected, as shown in FIG. 19, the control unit 160 And coupon information 1910 corresponding to the coupon associated with the hat is displayed in the third area in the first augmented reality image.

또 다른 일 예로, 상기 도 16에 도시된 제 2 증강 현실 영상 내의 ABC 호텔과 관련한 제 31 추가 객체에 포함된 예약 현황 정보(1321)가 선택될 때, 상기 제어부(160)는 상기 ABC 호텔과 관련한 실시간 예약 현황 정보에 대한 제 3 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 3 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 ABC 호텔과 관련한 실시간 예약 현황 정보(예를 들어 상기 ABC 호텔의 예약 현황 정보인 총 룸 수: 300개, 예약 가능 룸 수: 150개)를 상기 통신부(110)를 통해 수신한다. 이후, 도 20에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 ABC 호텔과 관련한 실시간 예약 현황 정보(예를 들어 상기 ABC 호텔의 예약 현황 정보인 총 룸 수: 300개, 예약 가능 룸 수: 150개)(2010)를 상기 제 2 증강 현실 영상 내의 제 4 영역에 표시한다.In another example, when the reservation status information 1321 included in the 31st additional object related to the ABC hotel in the second augmented reality image shown in FIG. 16 is selected, the control unit 160 determines And transmits a third request signal for the real-time reservation status information to the server 200 through the communication unit 110. [ In response to the third request signal, the controller 160 transmits real-time reservation status information related to the ABC hotel transmitted from the server 200 (for example, the total number of rooms: 300, which is reservation status information of the ABC hotel) And the number of rooms available for reservation: 150) through the communication unit 110. Then, as shown in FIG. 20, the controller 160 stores real-time reservation status information related to the received ABC hotel (for example, 300 total rooms, reservation status information of the ABC hotel, : 150) 2010 are displayed in the fourth area in the second augmented reality image.

또 다른 일 예로, 상기 도 16에 도시된 제 2 증강 현실 영상 내의 ABC 호텔과 관련한 제 31 추가 객체에 포함된 관련한 동영상이 선택될 때, 상기 제어부(160)는 상기 ABC 호텔과 관련한 관련 동영상에 대한 제 4 요청 신호를 상기 통신부(110)를 통해 상기 서버(200)에 전송한다. 이후, 상기 제어부(160)는 상기 제 4 요청 신호에 응답하여 상기 서버(200)로부터 전송되는 상기 ABC 호텔과 관련한 실시간 ABC 호텔에 대한 홍보 영상(또는 ABC 호텔 홍보 영상)을 상기 통신부(110)를 통해 수신한다. 이후, 도 21에 도시된 바와 같이, 상기 제어부(160)는 상기 수신된 상기 ABC 호텔과 관련한 실시간 ABC 호텔에 대한 홍보 영상(또는 ABC 호텔 홍보 영상)(2110)을 상기 제 2 증강 현실 영상 내의 제 5 영역에 표시한다(S1420).16, when the related moving image included in the 31st additional object related to the ABC hotel in the second augmented reality image shown in FIG. 16 is selected, the control unit 160 controls the moving image related to the ABC hotel And transmits the fourth request signal to the server 200 through the communication unit 110. [ Thereafter, the controller 160 transmits a publicity image (or an ABC hotel publicity image) of a real-time ABC hotel related to the ABC hotel transmitted from the server 200 in response to the fourth request signal to the communication unit 110 Lt; / RTI > 21, the control unit 160 transmits a publicity image (or an ABC hotel publicity image) 2110 for a real-time ABC hotel related to the received ABC hotel, 5 area (S1420).

본 발명의 실시예는 앞서 설명된 바와 같이, 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하여, 특정 객체와 관련한 부가 정보 제공을 용이하게 할 수 있다.As described above, in the embodiment of the present invention, the panoramic image of the 2D form is photographed, the object is recognized in the photographed panoramic image, and the additional object in 3D form related to the recognized object is inserted, So that it is possible to easily provide additional information related to the specific object.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시하여, 사용자 편의를 위한 사용자 인터페이스를 제공하고, 현재 화면에서 사용자가 관심을 보이는 객체와 관련한 추가 정보를 제공함에 따른 사용자의 편의성을 향상시킬 수 있는 효과가 있다.In addition, in the embodiment of the present invention, as described above, when a 3D object in the 3D form inserted in the augmented reality image is selected, real-time additional information related to the additional object is displayed to provide a user interface for user convenience And it is possible to improve the user's convenience in providing the additional information related to the object of interest to the user on the current screen.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명은 2D 형태의 파노라마 영상을 촬영하고, 상기 촬영된 파노라마 영상 내에서 객체를 인식하고, 상기 인식된 객체와 관련한 3D 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하고, 상기 증강 현실 영상 내에 삽입된 3D 형태의 추가 객체가 선택되는 경우, 해당 추가 객체와 관련한 실시간 부가 정보를 표시함으로써, 사용자 편의를 위한 사용자 인터페이스를 제공하고, 현재 화면에서 사용자가 관심을 보이는 객체와 관련한 추가 정보를 제공함에 따른 사용자의 편의성을 향상시킬 수 있는 것으로, 단말 분야, 파노라마 영상 분야, 쇼핑 정보 제공 분야, 마케팅 분야, 서버 분야 등에서 광범위하게 이용될 수 있다.The present invention relates to a method of generating an augmented reality image by capturing a 2D panoramic image, recognizing an object in the panoramic image, inserting an additional object in 3D form related to the recognized object, When the inserted 3D object is selected, real-time additional information related to the additional object is displayed, thereby providing a user interface for user's convenience and providing additional information related to the object of interest on the current screen And can be widely used in a terminal field, a panoramic field field, a shopping information field, a marketing field, a server field, and the like.

10: 안내 장치 100: 단말
200: 서버 110: 통신부
120: 카메라 130: 저장부
140: 표시부 150: 음성 출력부
160: 제어부
10: guide device 100: terminal
200: server 110:
120: camera 130: storage unit
140: display unit 150: audio output unit
160:

Claims (1)

단말의 제어 방법에 있어서,
카메라에 의해, 2차원 형태의 영상을 촬영하는 단계;
표시부에 의해, 상기 촬영된 영상을 표시하는 단계;
제어부에 의해, 상기 촬영된 2차원 형태의 영상 내에, 3차원 형태의 추가 객체를 삽입하여 증강 현실 영상을 생성하는 단계; 및
상기 표시부에 의해, 상기 생성된 증강 현실 영상을 표시하는 단계를 포함하며,
상기 추가 객체는,
3차원 형태로 구성하며, 상기 촬영된 영상 내에 포함된 객체와 관련한 실시간 부가 정보, 관련 동영상 및 쿠폰 정보를 제공하기 위한 객체인 것을 특징으로 하는 단말의 제어 방법.
A method for controlling a terminal,
A step of photographing a two-dimensional image by a camera;
Displaying the photographed image by a display unit;
Generating augmented reality image by inserting a three-dimensional additional object into the photographed two-dimensional image by the control unit; And
And displaying the generated augmented reality image by the display unit,
The additional object may further comprise:
Wherein the object is an object for providing real-time additional information related to an object included in the photographed image, a related moving image, and coupon information.
KR1020160166063A 2016-12-07 2016-12-07 Terminal and control method thereof KR20180004643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160166063A KR20180004643A (en) 2016-12-07 2016-12-07 Terminal and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160166063A KR20180004643A (en) 2016-12-07 2016-12-07 Terminal and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160084187A Division KR101809673B1 (en) 2016-01-14 2016-07-04 Terminal and control method thereof

Publications (1)

Publication Number Publication Date
KR20180004643A true KR20180004643A (en) 2018-01-12

Family

ID=61001123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160166063A KR20180004643A (en) 2016-12-07 2016-12-07 Terminal and control method thereof

Country Status (1)

Country Link
KR (1) KR20180004643A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109462730A (en) * 2018-10-25 2019-03-12 百度在线网络技术(北京)有限公司 Method and apparatus based on video acquisition panorama sketch

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109462730A (en) * 2018-10-25 2019-03-12 百度在线网络技术(北京)有限公司 Method and apparatus based on video acquisition panorama sketch

Similar Documents

Publication Publication Date Title
US10945094B2 (en) Social media systems and methods and mobile devices therefor
She et al. Convergence of interactive displays with smart mobile devices for effective advertising: A survey
KR101715828B1 (en) Terminal and control method thereof
KR101815158B1 (en) Apparatus for producing mixed reality content and method thereof
JP2015515669A (en) Augmented reality communication and information methods
EP2987318B1 (en) System and method for the distribution of audio and projected visual content
US9607094B2 (en) Information communication method and information communication apparatus
KR101809673B1 (en) Terminal and control method thereof
TWM505017U (en) Location-based information providing system
KR20180022528A (en) Terminal and control method thereof
KR20180004643A (en) Terminal and control method thereof
KR101907885B1 (en) Terminal and control method thereof
KR101705812B1 (en) Apparatus for producing mixed reality content and method thereof
KR20200008359A (en) System for providing mixed reality contents and method thereof
KR101722053B1 (en) Information apparatus for switching repeatedly to purposes interest image and method thereof
JP7210884B2 (en) Information processing device, display system and program
KR20170112975A (en) Apparatus for providing path information according to event and method thereof
KR101779502B1 (en) Apparatus for providing path information according to event and method thereof
KR20170081862A (en) System for advertisement using online-offline
KR20170110045A (en) Information apparatus for switching repeatedly to purposes interest image and method thereof
CN112396443A (en) Information delivery method and device, client, electronic equipment and storage medium
KR20160136740A (en) Smart electronic advertisement board system and control method thereof
KR20190043001A (en) Terminal and control method thereof
KR101489299B1 (en) Method, server, and computer-readable recording media for displaying information on offer and acceptance
AU2012205152C1 (en) A platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text

Legal Events

Date Code Title Description
A107 Divisional application of patent