KR20110133714A - Mobile terminal and image display method - Google Patents

Mobile terminal and image display method Download PDF

Info

Publication number
KR20110133714A
KR20110133714A KR1020100053256A KR20100053256A KR20110133714A KR 20110133714 A KR20110133714 A KR 20110133714A KR 1020100053256 A KR1020100053256 A KR 1020100053256A KR 20100053256 A KR20100053256 A KR 20100053256A KR 20110133714 A KR20110133714 A KR 20110133714A
Authority
KR
South Korea
Prior art keywords
image
images
terminal
mobile terminal
location information
Prior art date
Application number
KR1020100053256A
Other languages
Korean (ko)
Other versions
KR101667584B1 (en
Inventor
김법중
준 오
신현빈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100053256A priority Critical patent/KR101667584B1/en
Publication of KR20110133714A publication Critical patent/KR20110133714A/en
Application granted granted Critical
Publication of KR101667584B1 publication Critical patent/KR101667584B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42348Location-based services which utilize the location information of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Abstract

PURPOSE: A portable terminal and image display method thereof are provided to enable a user to effectively receive location information by displaying a location video. CONSTITUTION: A sensing unit(140) acquires the direction information of a terminal. A control unit(180) acquires a second video matched with a first video using the location information of the terminal and the acquired direction information. The control unit compares the first video with the second video. A display unit(151) displays the comparing result according to the control of the control unit. The display unit displays the first video and the second video.

Description

이동 단말기 및 영상 디스플레이 방법{MOBILE TERMINAL AND IMAGE DISPLAY METHOD}Mobile terminal and video display method {MOBILE TERMINAL AND IMAGE DISPLAY METHOD}

본 발명은 특정 장소와 관련된 영상 디스플레이 방법 및 그 이동 단말기에 관한 것이다.The present invention relates to an image display method associated with a specific place and a mobile terminal thereof.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. The terminal can move And can be divided into a mobile / portable terminal and a stationary terminal depending on whether the mobile terminal is a mobile terminal or a mobile terminal. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and increase the function of such a terminal, it may be considered to improve the structural part and / or the software part of the terminal.

카메라 기능을 갖춘 단말기는 외부로부터 해당 영상을 수신할 수 있다. A terminal having a camera function may receive a corresponding image from the outside.

하지만, 종래의 단말기는 촬영 시점에서의 해당 장소의 영상을 볼 수 있을 뿐 해당 장소의 다른 시간대의 다른 영상을 파악할 수 없는 문제점이 존재한다.However, there is a problem that the conventional terminal can not only see the image of the corresponding place at the time of capturing, but also cannot grasp another image of another time zone of the corresponding place.

본 발명의 목적은 특정 장소를 방문시 해당 특정 장소에 대한 영상을 다른 시간대 또는 다른 계절의 영상을 통하여 해당 특정 장소를 파악할 수 있는 영상 디스플레이 방법 및 그 이동 단말기를 제공하는 것이다.It is an object of the present invention to provide a video display method and a mobile terminal capable of identifying a specific place through a video of another time zone or a different season when a specific place is visited.

또한 본 발명의 다른 목적은 특정 장소에 대한 영상을 해당 단말기로부터 또는 네트워크를 통하여 파악할 수 있으며 해당 영상들을 다양한 방식으로 디스플레이할 수 있는 방법 및 그 이동 단말기를 제공하는 것이다.In addition, another object of the present invention is to provide a method and a mobile terminal capable of acquiring an image of a specific place from a corresponding terminal or through a network and displaying the corresponding images in various ways.

상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 이동 단말기는 단말기의 외부로부터 제 1 영상을 입력받는 카메라 모듈, 단말기 위치 정보를 획득하는 위치 정보 모듈, 단말기의 방향 정보를 획득하는 센싱부, 상기 획득된 단말기 위치 정보 및 방향 정보를 이용하여 상기 입력된 제 1 영상에 매칭하는 제 2 영상을 획득하고, 상기 제 1 및 제 2 영상을 규정된 기준에 따라 비교하는 제어부, 및 상기 제어부의 제어에 따라 상기 비교 결과를 반영하여 상기 제 1 및 제 2 영상 중 적어도 하나를 디스플레이하는 디스플레이부를 포함한다.A mobile terminal according to an embodiment of the present invention for realizing the above object is a camera module for receiving a first image from the outside of the terminal, a location information module for obtaining terminal location information, a sensing unit for obtaining direction information of the terminal, A control unit which acquires a second image matching the input first image by using the obtained terminal position information and direction information, and compares the first and second images according to a prescribed criterion; The display unit may include a display unit configured to display at least one of the first and second images by reflecting the comparison result.

상기 단말기는 상기 획득된 단말기 위치 정보 및 방향 정보를 포함하는 영상 요청 신호를 송신하고, 상기 송신 결과 상기 입력된 제 1 영상에 매칭하는 제 2 영상을 수신하는 무선 통신부를 더 포함하며, 상기 제어부는 상기 제 2 영상을 수신함에 따라 획득한다.The terminal further includes a wireless communication unit for transmitting an image request signal including the obtained terminal position information and direction information, and receives a second image matching the first image as a result of the transmission, wherein the control unit Acquired according to the reception of the second image.

상기 단말기는 복수의 영상을 저장되는 메모리를 더 포함하며, 상기 제어부는 상기 메모리에 저장된 복수의 영상으로부터 상기 제 1 영상에 매칭하는 제 2 영상을 검색한다.The terminal further includes a memory for storing a plurality of images, and the controller searches for a second image matching the first image from the plurality of images stored in the memory.

상기한 과제를 실현하기 위한 본 발명과 관련된 영상 디스플레이 방법은 단말기의 외부로부터 제 1 영상을 입력받는 단계, 상기 단말기의 위치 정보를 획득하는 단계, 상기 단말기의 방향 정보를 획득하는 단계, 획득된 상기 위치 정보 및 방향 정보를 이용하여 상기 제 1 영상과 매칭하는 복수의 제 2 영상을 획득하는 단계, 상기 제 1 영상과 상기 제 2 영상을 규정된 기준에 따라 비교하는 단계, 및 상기 제 1 영상 및 상기 비교 결과를 반영하여 상기 제 2 영상들을 디스플레이하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of displaying an image, the method comprising: receiving a first image from an outside of a terminal, acquiring position information of the terminal, acquiring direction information of the terminal, Acquiring a plurality of second images matching the first image by using position information and direction information, comparing the first image and the second image according to a prescribed criterion, and the first image and And displaying the second images by reflecting the comparison result.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 이동 단말기는 여행시 한 장소에 오래 머무를 수 없을 때, 다른 시간대 또는 다른 계절의 영상을 용이하게 파악할 수 있다. 그에 따라서 다른 시간대 또는 다른 계절에서의 해당 장소의 모습을 가보지 않아도 파악할 수 있는 효과가 있다.The mobile terminal according to at least one embodiment of the present invention configured as described above can easily grasp images of different time zones or different seasons when it is impossible to stay in one place for a long time when traveling. Therefore, it is possible to grasp the appearance of the place in different time zones or different seasons.

또한 상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 이동 단말기 및 디스플레이 방법은 해당 장소의 현재 영상과 로딩된 영상들을 비교하여 유사 정도에 따라 상이하게 디스플레이함으로써 사용자가 현재 영상과 유사한 영상들을 보다 용이하게 파악할 수 있는 효과가 있다.In addition, the mobile terminal and the display method according to at least one embodiment of the present invention configured as described above compares the current image and the loaded images of the corresponding place and displays them differently according to the degree of similarity. There is an effect that can be identified more easily.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram).
도 2a은 본 발명의 일 실시예에 관련된 이동 단말기의 전면 사시도.
도 2b는 본 발명의 일 실시예에 관련된 이동 단말기의 후면 사시도.
도 3은 본 발명과 관련된 영상 디스플레이 방법의 흐름을 개략적으로 나타낸 순서도.
도 4 는 본 발명과 관련하여 단말기의 위치 정보 및 방향 정보를 파악하는 방법을 개략적으로 도시한 도면.
도 5a 내지 5d 는 본 발명과 관련하여 해당 장소에 대한 제 1 영상과 제 2 영상을 상이한 기준에 따라 도시한 도면.
도 6a 및 6b 는 본 발명과 관련하여 제 1 영상과 제 2 영상의 유사 정도에 따라 제 1 영상 또는 제 2 영상을 디스플레이하는 도면.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
Figure 2a is a front perspective view of a mobile terminal according to an embodiment of the present invention.
2b is a rear perspective view of a mobile terminal according to one embodiment of the present invention;
Figure 3 is a flow chart schematically showing the flow of the image display method related to the present invention.
4 is a view schematically illustrating a method of determining location information and direction information of a terminal in accordance with the present invention.
5a to 5d illustrate a first image and a second image of a corresponding place according to different criteria in accordance with the present invention.
6A and 6B are diagrams for displaying a first image or a second image according to a degree of similarity between a first image and a second image in accordance with the present invention;

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal according to the present invention will be described in more detail with reference to the accompanying drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. The mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like.

그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, and an interface. The unit 170, the controller 180, and the power supply unit 190 may be included. The components shown in FIG. 1 are not essential, so that a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and a network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives a wireless signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 100. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module 115 is a module for obtaining a location of a mobile terminal, and a representative example thereof is a GPS (Global Position System) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the use environment.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of a user contact, orientation of the mobile terminal, acceleration / deceleration of the mobile terminal, and the like. To generate a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to the external device may be sensed. The sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is used to generate an output related to visual, auditory or tactile senses, which includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector module ( 155) may be included.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, the mobile terminal displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays photographed and / or received images, a UI, and a GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the implementation form of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 may be configured in addition to an output device. Can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. Proximity sensors have a longer life and higher utilization than touch sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for processing and controlling the controller 180, and temporarily stores input / output data (for example, a phone book, a message, an audio, a still image, a video, etc.). It can also perform a function for. The memory unit 160 may also store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia). In addition, the memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. The mobile terminal 100 may operate in connection with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various command signals input from the cradle by a user may be transferred. It may be a passage that is delivered to the terminal. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code may be stored in the memory 160 and executed by the controller 180.

도 2a는 본 발명과 관련된 이동 단말기 또는 휴대 단말기의 일 예를 전면에서 바라본 사시도이다.2A is a front perspective view of an example of a mobile terminal or a portable terminal according to the present invention.

개시된 휴대 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 2 이상의 바디들이 상대 이동 가능하게 결합되는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용이 가능하다. The disclosed portable terminal 100 has a terminal body in the form of a bar. However, the present invention is not limited thereto and may be applied to various structures such as a slide type, a folder type, a swing type, a swivel type, and two or more bodies are coupled to be relatively movable.

바디는 외관을 이루는 케이스(케이싱, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다.The body includes a casing (casing, housing, cover, etc.) that forms an exterior. In this embodiment, the case may be divided into a front case 101 and a rear case 102. Various electronic components are built in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be further disposed between the front case 101 and the rear case 102.

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injecting synthetic resin or may be formed of a metal material, for example, a metal material such as stainless steel (STS) or titanium (Ti).

단말기 바디, 주로 프론트 케이스(101)에는 디스플레이부(151), 음향출력부(152), 카메라(121), 사용자 입력부(130/131,132), 마이크(122), 인터페이스(170) 등이 배치될 수 있다.The display unit 151, the audio output unit 152, the camera 121, the user input units 130/131 and 132, the microphone 122, and the interface 170 may be disposed in the terminal body, mainly the front case 101. have.

디스플레이부(151)는 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 음향출력부(151)와 카메라(121)가 배치되고, 다른 단부에 인접한 영역에는 사용자 입력부(131)와 마이크(122)가 배치된다. 사용자 입력부(132)와 인터페이스(170) 등은 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 배치될 수 있다.The display unit 151 occupies most of the main surface of the front case 101. A sound output unit 151 and a camera 121 are disposed in an area adjacent to one end of both ends of the display unit 151 and a user input unit 131 and a microphone 122 are disposed in an area adjacent to the other end. The user input unit 132 and the interface 170 may be disposed on side surfaces of the front case 101 and the rear case 102.

사용자 입력부(130)는 휴대 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들(131,132)을 포함할 수 있다. 조작 유닛들(131,132)은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is manipulated to receive a command for controlling the operation of the portable terminal 100 and may include a plurality of operation units 131 and 132. The manipulation units 131 and 132 may also be collectively referred to as manipulating portions, and may be employed in any manner as long as the user operates the tactile manner with a tactile feeling.

제1 또는 제2조작 유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 음향출력부(152)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.Content input by the first or second manipulation units 131 and 132 may be variously set. For example, the first operation unit 131 receives commands such as start, end, scroll, and the like, and the second operation unit 132 controls the size of the sound output from the sound output unit 152 or the size of the sound output from the display unit 151 To the touch recognition mode of the touch screen.

도 2b는 도 2a에 도시된 휴대 단말기의 후면 사시도이다. FIG. 2B is a rear perspective view of the portable terminal shown in FIG. 2A.

도 2b를 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 카메라(121')가 추가로 장착될 수 있다. 카메라(121')는 카메라(121, 도 2a 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 카메라(121)와 서로 다른 화소를 가지는 카메라일 수 있다. Referring to FIG. 2B, a camera 121 ′ may be additionally mounted on the rear of the terminal body, that is, the rear case 102. The camera 121 'may have a photographing direction substantially opposite to the camera 121 (see FIG. 2A), and may be a camera having different pixels from the camera 121.

예를 들어, 카메라(121)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 카메라(121')는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 카메라(121,121')는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.For example, the camera 121 has a low pixel so that the user's face is photographed and transmitted to the counterpart in case of a video call, and the camera 121 'photographs a general subject and does not transmit it immediately. It is desirable to have a high pixel because there are many. The cameras 121 and 121 'may be installed in the terminal body so as to be rotatable or pop-upable.

카메라(121')에 인접하게는 플래쉬(123)와 거울(124)이 추가로 배치된다. 플래쉬(123)는 카메라(121')로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 카메라(121')를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 are further disposed adjacent to the camera 121 '. The flash 123 shines light toward the subject when the subject is photographed by the camera 121 '. The mirror 124 allows the user to see his / her own face or the like when photographing (self-photographing) the user using the camera 121 '.

단말기 바디의 후면에는 음향 출력부(152')가 추가로 배치될 수도 있다. 음향 출력부(152')는 음향 출력부(152, 도 2a 참조)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.The sound output unit 152 'may be further disposed on the rear surface of the terminal body. The sound output unit 152 ′ may implement a stereo function together with the sound output unit 152 (see FIG. 2A), and may be used to implement a speakerphone mode during a call.

단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(116)가 추가로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나(116)는 단말기 바디에서 인출 가능하게 설치될 수 있다.In addition to the antenna for talking and the like, a broadcast signal receiving antenna 116 may be further disposed on the side of the terminal body. The antenna 116, which forms part of the broadcast receiving module 111 (see FIG. 1), can be installed to be able to be drawn out from the terminal body.

단말기 바디에는 휴대 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 직접 탈착될 수 있게 구성될 수 있다.A power supply unit 190 for supplying power to the portable terminal 100 is mounted on the terminal body. The power supply unit 190 may be embedded in the terminal body or may be directly detachable from the outside of the terminal body.

리어 케이스(102)에는 터치를 감지하기 위한 터치 패드(135)가 추가로 장착될 수 있다. 터치 패드(135) 또한 디스플레이부(151)와 마찬가지로 광 투과형으로 구성될 수 있다. 이 경우에, 디스플레이부(151)가 양면에서 시각 정보를 출력하도록 구성된다면, 터치 패드(135)를 통해서도 상기 시각 정보를 인지할 수 있게 된다. 상기 양면에 출력되는 정보는 상기 터치 패드(135)에 의해 모두 제어될 수도 있다. 이와 달리, 터치 패드(135)에는 디스플레이가 추가로 장착되어, 리어 케이스(102)에도 터치 스크린이 배치될 수도 있다.The rear case 102 may be further equipped with a touch pad 135 for sensing a touch. Like the display unit 151, the touch pad 135 may also be configured to have a light transmission type. In this case, if the display unit 151 is configured to output visual information from both sides, the visual information may be recognized through the touch pad 135. The information output on both surfaces may be controlled by the touch pad 135. Alternatively, a display may be additionally mounted on the touch pad 135, and a touch screen may be disposed on the rear case 102 as well.

도 3 은 본 발명과 관련된 영상 디스플레이 방법의 흐름을 개략적으로 나타낸 순서도이다.3 is a flowchart schematically illustrating a flow of an image display method according to the present invention.

먼저 카메라 (121) 를 통하여 이동 단말기 외부로부터 제 1 영상을 수신한다 (S310). 이동 단말기의 위치 정보 모듈 (115) 은 단말기의 위치 정보를 수신한다 (S320). 이동 단말기의 센싱부 (140) 를 통하여 단말기의 방향 정보를 수신한다 (S330). 단말기의 위치 정보 및 방향 정보를 이용하여 제 1 영상과 매칭되는 복수의 제 2 영상을 수신한다 (S340). 단말기의 제어부 (180) 는 수신된 제 1 영상과 제 2 영상을 비교한다 (S350). 비교 결과에 따라서 디스플레이부 (151) 는 제 2 영상들을 디스플레이한다 (S360).First, the first image is received from the outside of the mobile terminal through the camera 121 (S310). The location information module 115 of the mobile terminal receives the location information of the terminal (S320). The direction information of the terminal is received through the sensing unit 140 of the mobile terminal (S330). A plurality of second images matching the first image are received using location information and direction information of the terminal (S340). The controller 180 of the terminal compares the received first image with the second image (S350). According to the comparison result, the display unit 151 displays the second images (S360).

이하에서는, 도 3 에 도시된 흐름에 따라 본 발명을 설명한다.In the following, the present invention is explained according to the flow shown in FIG.

이동 단말기 (100) 의 카메라 (121) 는 단말기 외부로부터 특정 장소에 대한 제 1 영상을 수신한다 (S310).The camera 121 of the mobile terminal 100 receives a first image of a specific place from the outside of the terminal (S310).

이동 단말기(100)는, 카메라 촬영 모드에 진입한 경우에, 카메라(121)를 활성화하여 이를 이용하여 외부 영상, 즉 제 1 영상을 입력받을 수 있다. 또한, 상기 입력되는 영상은, 사용자 설정에 따라 줌인(zoom-in) 또는 줌아웃(zoom-out) 될 수도 있다.When the mobile terminal 100 enters the camera photographing mode, the mobile terminal 100 may activate the camera 121 and receive an external image, that is, the first image, by using the same. In addition, the input image may be zoomed in or zoomed out according to a user setting.

상기 입력되는 영상은 특정 장소에 대한 영상으로 건물, 자동차등 인공물을 포함할 수 있으며 또는 바다, 강, 산과 같은 자연물을 포함할 수도 있다.The input image may be an image of a specific place and may include an artifact such as a building or a car, or may include natural objects such as an ocean, a river, and a mountain.

이동 단말기(100)는 위치 정보 모듈(115)을 이용하여 이동 단말기(100)의 위치 정보를 획득한다(S320).The mobile terminal 100 obtains location information of the mobile terminal 100 using the location information module 115 (S320).

도 4(a) 는 이동 단말기가 위치 정보 모듈 (115) 을 이용하여 위치 정보를 획득하는 것을 개략적으로 도시한 도면이다. 4A is a diagram schematically illustrating that the mobile terminal acquires location information using the location information module 115.

이동 단말기(100)는, GPS(Global Positioning System)을 이용하여 위성 (401) 으로부터 자신의 현재 위치 정보를 획득할 수 있다. 예를 들어, 위치 정보에는, 이동 단말기(100)가 현재 위치한 지점의 경도, 위도, 좌표 값 등이 포함될 수 있다. 또는, 이동 단말기 (100) 는 주변의 기지국 (402) 을 이용해서도 현재 위치 정보를 획득할 수도 있다. The mobile terminal 100 may obtain its current location information from the satellite 401 using a global positioning system (GPS). For example, the location information may include the longitude, latitude, coordinate values, etc. of the point where the mobile terminal 100 is currently located. Alternatively, the mobile terminal 100 may also obtain current location information using the neighboring base station 402.

이러한 위치 정보를 이용하여 이동 단말기 (100) 의 제어부 (180) 는 자신의 현재 위치를 정확하게 파악할 수 있다.Using such location information, the controller 180 of the mobile terminal 100 can accurately determine its current location.

이동 단말기 (100) 는 센싱부 (140) 를 이용하여 이동 단말기 (100) 의 방향 정보를 획득한다.The mobile terminal 100 obtains direction information of the mobile terminal 100 using the sensing unit 140.

도 4(b) 는 이동 단말기가 센싱부 (140) 를 이용하여 방향 정보를 획득하는 것을 개략적으로 도시한 도면이다.4B is a diagram schematically illustrating that the mobile terminal obtains direction information by using the sensing unit 140.

이동 단말기 (100) 의 방향 정보란 현재 이동 단말기(100)가 위치한 지점에서 이동 단말기(100)의 카메라(121)가 향해 있는 방향에 대한 정보이다. 이동 단말기(100)는, 움직임 감지 센서(미도시)를 포함하고, 움직임 감지 센서를 이용하여 카메라(121)가 향해 있는 방향을 감지할 수 있다. 예를 들어, 카메라(121)가 향해 있는 방향은, 동, 서, 남, 북 중 적어도 하나로 표현될 수 있다.The direction information of the mobile terminal 100 is information on the direction toward which the camera 121 of the mobile terminal 100 faces at the point where the mobile terminal 100 is currently located. The mobile terminal 100 may include a motion sensor (not shown), and may sense a direction in which the camera 121 faces by using the motion sensor. For example, the direction in which the camera 121 faces may be expressed by at least one of east, west, south, and north.

도 4(b) 에서 이동 단말기 (100) 가 특정 방향인 북동 방향을 향한다. 이러한 방향 정보를 이용하면 카메라 (121) 를 통해서 보여지는 특정 범위 (410) 가 결정된다. 그에 따라, 카메라의 특정 방향이 커버하는 특정 범위 (410) 에 속하는 나무 (410) 및 건물 (420) 이 카메라 (121) 를 통하여 그에 대한 영상이 획득될 수 있다.In FIG. 4B, the mobile terminal 100 faces the north-east direction in a specific direction. Using this direction information, a specific range 410 viewed through the camera 121 is determined. Accordingly, an image of a tree 410 and a building 420 belonging to a specific range 410 covered by a specific direction of the camera may be acquired through the camera 121.

제어부(180)는, 상기 획득된 위치 정보 중 좌표 정보를 이용하여 이동 단말기(100)가 현재 위치한 지점을 인식할 수 있고, 상기 획득된 방향 정보를 통하여 중 카메라(121)가 향해 있는 방향을 이용하여 현재 위치한 지점에서 이동 단말기(100)의 전방을 인식할 수 있다. 따라서, 제어부(180)는, 카메라 (121) 를 통해서 획득된 영상에 포함된 장소의 위치를 정확하게 파악할 수 있다.The controller 180 may recognize a location at which the mobile terminal 100 is currently located by using coordinate information among the obtained location information, and use a direction toward which the camera 121 faces through the acquired direction information. It can recognize the front of the mobile terminal 100 at the current location. Therefore, the controller 180 can accurately grasp the location of the place included in the image acquired through the camera 121.

다음 단계로, 이동 단말기 (100) 는 제 1 영상과 매칭되는 복수의 제 2 영상을 수신한다 (S340).In a next step, the mobile terminal 100 receives a plurality of second images that match the first image (S340).

제 1 영상에 포함된 장소에 대한 정보를 위치 정보 및 방향 정보를 파악한 이후에 제 1 영상과 매칭되는 제 2 영상들을 다양한 방법으로 획득한다. 제 2 영상은 제 1 영상과 매칭되는 것으로 해당 위치 정보 및 방향 정보를 이용하여 획득될 수 있다.After the location information and the direction information of the place included in the first image are grasped, the second images matching the first image are acquired by various methods. The second image is matched with the first image and may be obtained using corresponding location information and direction information.

먼저, 외부 서버로부터 제 2 영상을 획득하는 방법을 설명한다.First, a method of obtaining a second image from an external server will be described.

이동 단말기 (100) 의 무선 통신부 (110) 는 단말기 (100) 의 위치 정보 및 방향 정보를 포함한 영상 요청 신호를 복수의 외부 서버로 송신한다. 영상 요청 신호를 수신받은 복수의 외부 서버는 위치 정보 및 방향 정보를 이용하여 해당 장소와 유사하거나 일치하는 제 2 영상을 검색한다. 이러한 영상은 정지 영상일 수도 있고 동영상일 수도 있다. The wireless communication unit 110 of the mobile terminal 100 transmits an image request signal including location information and direction information of the terminal 100 to a plurality of external servers. The plurality of external servers receiving the image request signal search for the second image that is similar or identical to the corresponding place by using the location information and the direction information. Such an image may be a still image or a moving image.

외부 서버는 검색된 제 2 영상을 이동 단말기 (100) 로 송신한다. 이동 단말기 (100) 의 무선 통신부 (110) 는 송신된 제 2 영상을 수신한다. 수신된 제 2 영상은 메모리 (160) 에 저장된다.The external server transmits the searched second image to the mobile terminal 100. The wireless communication unit 110 of the mobile terminal 100 receives the transmitted second image. The received second image is stored in the memory 160.

다른 방법으로, 이동 단말기의 메모리 (160) 에 저장된 영상들로부터 제 2 영상을 획득하는 방법을 설명한다.Alternatively, a method of obtaining a second image from images stored in the memory 160 of the mobile terminal will be described.

단계 (S320 및 S330) 로부터 파악된 이동 단말기의 위치 정보 및 방향 정보를 이용하여 제어부 (180) 는 메모리 (160) 에 기저장된 영상들을 검색한다. 제어부 (180) 는 우선적으로 위치 정보를 기준으로 기저장된 영상들을 검색한다. 일정 기준으로 검색된 영상들 중에서 다시 이동 단말기의 방향 정보를 기준으로 해당 장소에 대한 제 1 영상과 일정 수준으로 매칭되는 제 2 영상을 검색하고 획득한다.The controller 180 searches for images previously stored in the memory 160 by using the location information and the direction information of the mobile terminal determined from the steps S320 and S330. The controller 180 first searches for pre-stored images based on the location information. Among the images searched based on a predetermined criterion, a second image matching a first level with a predetermined level is searched and obtained based on the direction information of the mobile terminal.

다음 단계로, 제어부 (180) 는 획득된 제 1 영상과 제 2 영상을 일정 기준에 따라 비교한다 (S350).In a next step, the controller 180 compares the obtained first image and the second image according to a predetermined criterion (S350).

도 5a 내지 도 5d 는 제 1 영상 및 제 2 영상들을 일정한 기준에 따라 도시한 도면이다.5A to 5D are diagrams illustrating first and second images according to a predetermined criterion.

제어부 (180) 는 제 1 영상과 제 2 영상들의 유사 정도를 일정한 기준에 따라 비교한다. The controller 180 compares the degree of similarity between the first image and the second image according to a predetermined criterion.

특정 영상들의 유사 여부를 판단하는 것에는 다양한 기준이 존재한다. 특정 영상이 특정 장소에 대한 것인 경우에는 해당 장소에 속하는 건물이나 산과 같은 영상에 포함된 객체의 일치 여부, 해당 대상을 촬영하는 방향의 일치 여부, 해당 영상들의 촬영 시간, 해당 영상들의 촬영 계절, 해당 영상들의 촬영 연도등 다양하게 구분될 수 있다. There are various criteria for determining whether similar images are similar. When a specific image is for a specific place, whether the objects included in the image such as a building or a mountain belonging to the place match, whether or not the direction in which the object is taken is matched, the recording time of the images, the season of shooting the images, The photographing year of the corresponding images may be variously classified.

사람에 대한 영상인 경우에는 인원수, 생김새 또는 옷차림의 일치 여부, 해당 사람과 장소의 일치 여부등 다양하게 유사성의 판단 기준이 판단될 수 있다.In the case of an image of a person, a criterion of similarity may be determined in various ways, such as the number of people, appearance, or uniformity of clothes, and whether or not the person matches a place.

영상들의 유사 여부는 사용자 또는 제조사의 설정에 따라 다양하게 설정될 수 있으며, 본 발명에 있어서 유사 정도에 대한 기준은 특정한 기준에 국한되지는 않는다.Similarity of the images may be variously set according to a user's or manufacturer's setting, and the criteria for the degree of similarity in the present invention are not limited to specific criteria.

도 5a 는 촬영 시각을 유사 정도의 기준으로 이용하여 제 1 영상 및 제 2 영상을 비교하는 도면이다.FIG. 5A is a diagram of comparing a first image and a second image using a photographing time as a criterion of similarity.

도 5a(a) 는 카메라 (121) 를 통해서 획득된 외부 영상인 제 1 영상을 도시한다. 제 1 영상에 포함된 장소에는 한 그루의 나무와 한 채의 건물이 존재한다. 제 1 영상을 촬영하는 현재 촬영 시각은 12:00 으로 도시된다.5A (a) illustrates a first image, which is an external image obtained through the camera 121. In the place included in the first image, there is one tree and one building. The current shooting time for shooting the first image is shown at 12:00.

도 5a의 (b) 및 (c) 는 획득된 제 2 영상을 도시한다. 도 5a(b) 는 제 1 영상과 동일한 장소에 대해서 촬영시각이 차이가 있는 것으로 16:00 에 촬영된 것으로 도시된다. 도 5a(c) 는 제 1 영상과 동일한 장소에 대해서 촬영 시각이 차이가 있고 20:00 에 촬영되는 것으로 도시된다.(B) and (c) of FIG. 5A show the obtained second image. FIG. 5A (b) shows that the photographing time is different for the same place as the first image, and is photographed at 16:00. FIG. 5A (c) shows that the photographing time is different and photographed at 20:00 for the same place as the first image.

촬영 시각이 유사 정도의 기준인 경우에도 다양한 세부 기준이 설정될 수 있다. 예를 들어, 제 1 영상의 촬영 시각과 근접한 촬영 시각일 수록 유사성이 높은 것으로 설정할 수도 있으며 그 반대일 수도 있다. 촬영 시각이 근접한 촬영 시각일 수록 유사성이 높은 것으로 설정할 경우에는 도 5a(b) 의 제 2 영상이 도 5a(c) 의 제 2 영상보다 유사 정도가 높은 것으로 제어부 (180) 는 판단한다.Even when the photographing time is a similar degree of reference, various detailed criteria may be set. For example, the closer the photographing time is to the photographing time of the first image, the higher the similarity may be set or vice versa. When the photographing time is set closer to the photographing time, the control unit 180 determines that the second image of FIG. 5A (b) has a higher degree of similarity than the second image of FIG. 5A (c).

도 5b 는 유사 정도의 기준으로 촬영 날짜를 포함하는 계절의 차이를 이용하여 제 1 영상 및 제 2 영상을 비교하는 도면이다.FIG. 5B is a diagram comparing a first image and a second image by using a season difference including a photographing date based on a similarity level.

계절에 따라 동일한 장소를 촬영하더라도 해당 장소에 대한 이미지에 있어서 차이가 있다. 예를 들어, 겨울에는 눈이 온 경우 흰색 위주로 촬영될 수 있고 봄에는 녹색 위주로 촬영될 수 있다. 따라서, 해당 장소를 여행하는 여행자가 특정한 계절에서의 장소만을 볼 수 있으므로 다른 계절의 영상을 얻기를 원할 수 있다. 이러한 경우에 영상의 촬영 날짜 및 계절을 유사 정도의 기준으로 설정하는 경우에 계절에 따른 차이를 명확하게 보여주는 효과가 있다.Even if the same place is photographed according to the season, there is a difference in the image of the place. For example, in winter, snow may be photographed mainly in white, and in spring, green may be photographed. Therefore, the traveler who travels to the place may only see the place in a particular season, and thus may want to obtain an image of another season. In this case, when the photographing date and season of the image are set based on the degree of similarity, there is an effect of clearly showing the difference according to the season.

도 5b(a) 는 카메라 (121) 를 통해서 획득된 촬영 현재의 외부 영상인 제 1 영상을 도시한다. 제 1 영상에 촬영된 날짜 및 계절은 5월 10일로 봄에 해당한다.FIG. 5B (a) illustrates a first image that is an external image of a photographing current acquired through the camera 121. FIG. The date and season taken in the first image are May 10, which corresponds to spring.

도 5a의 (b) 및 (c) 는 획득된 제 2 영상을 도시한다. 도 5a(b) 는 제 1 영상과 동일한 장소에 대해서 촬영 날짜 및 계절이 차이가 있는 것으로 11월 2일로써 가을에 촬영된 것으로 도시된다. 도 5a(c) 는 제 1 영상과 동일한 장소에 대해서 촬영 날짜 및 계절이 차이가 있는 것으로 2월 2일로써 겨울에 촬영되는 것으로 도시된다.(B) and (c) of FIG. 5A show the obtained second image. FIG. 5A (b) shows that the photographing dates and seasons are different in the same place as the first image, and the photographs are photographed in autumn as November 2. FIG. 5A (c) shows that the photographing date and season are different for the same place as the first image, and that the photographing is taken in winter as February 2. FIG.

촬영 날짜 및 계절이 유사 정도의 기준인 경우에도 다양한 세부 기준이 설정될 수 있다. 예를 들어, 제 1 영상의 계절과 가장 큰 차이가 있는 계절을 유사성이 가장 낮은 것으로 설정할 수 있으며, 그에 따라 봄인 제 1 영상에 대해서 가을인 제 2 영상이 유사성이 가장 낮은 것으로 제어부 (180) 는 판단한다.Various detailed criteria may be set even when the photographing date and the season are similar criteria. For example, the season having the largest difference from the season of the first image may be set as the lowest similarity, and accordingly, the controller 180 determines that the second image in autumn has the lowest similarity with respect to the spring first image. To judge.

도 5c 는 유사 정도의 기준으로 영상을 찍은 방향 및 구성의 차이를 이용하여 제 1 영상 및 제 2 영상을 비교하는 도면이다.5C is a diagram comparing a first image and a second image by using a difference in a direction and a configuration in which an image is taken based on a similarity level.

유명한 관광지의 경우 같은 장소에서 같은 방향으로 카메라를 촬영하는 경우가 많아서 위치 정보 및 방향 정보가 거의 동일한 경우가 존재할 수도 있다. 하지만, 일반적인 경우에는 위치 정보 및 단말기의 방향 정보까지 정확하게 일치하는 경우가 흔하지는 않다. 이러한 경우에 제 1 영상 및 제 2 영상 간의 방향 및 구성의 차이를 이용하면 해당 장소에 대한 영상들의 유사 정도를 보다 명확하게 파악할 수도 있다.In the case of a famous tourist destination, cameras are often photographed in the same direction at the same place, so that the location information and the direction information may be almost the same. However, in the general case, the location information and the direction information of the terminal are not exactly matched. In this case, by using the difference in the direction and configuration between the first image and the second image, it is possible to more clearly grasp the degree of similarity of the images for the corresponding place.

도 5c(a)는 카메라 (121) 를 통해서 특정 장소를 촬영한 제 1 영상이다. 도 5c 의 (b) 및 (c) 는 획득된 제 2 영상을 도시한다.5C (a) is a first image of photographing a specific place through the camera 121. (B) and (c) of FIG. 5C show the obtained second image.

도 5c(a) 에 도시된 바와 같이, 제 1 영상에 포함된 장소에는 나무 한그루 (510) 와 건물 한채 (512) 가 포함된다. 도 5c(b) 에 도시된 제 2 영상은 동일한 장소에 대해서 다른 방향으로 촬영된 영상이다. 도 5c(b) 의 제 2 영상에는 제 1 영상의 건물 한채 (512) 는 도시되고 있으나 나무가 존재하지 않고 대신에 버스정류장 표시 (522) 및 자동차 (524) 라는 상이한 구성물이 존재한다. 또한, 도 5c(c) 에 도시된 제 2 영상 역시 동일한 장소에 대해서 제 1 영상과는 다른 방향으로 촬영된 영상이다. 도 5c(c) 의 제 2 영상에는 제 1 영상의 나무 (510) 가 보이고 건물 (512) 이 보이며 버스 정류장 표시 (522) 가 보인다.As shown in FIG. 5C (a), the place included in the first image includes a tree 510 and a building 512. The second image illustrated in FIG. 5C (b) is an image captured in different directions with respect to the same place. In the second image of FIG. 5C (b), one building 512 of the first image is shown but there are no trees and instead there are different constructions, a bus stop sign 522 and a car 524. Also, the second image shown in FIG. 5C (c) is also an image captured in a different direction from the first image in the same place. In the second image of FIG. 5C (c), the tree 510 of the first image is visible, the building 512 is visible, and the bus stop sign 522 is visible.

카메라 촬영 방향 및 영상의 구성물 차이를 유사 정도의 기준으로 설정되면, 제어부 (180) 는 도 5c(a) 의 제 1 영상과 가장 유사한 제 2 영상으로 도 5c(c) 의 제 2 영상을 선택한다. When the difference between the camera photographing direction and the composition of the image is set based on the degree of similarity, the controller 180 selects the second image of FIG. 5C (c) as the second image most similar to the first image of FIG. 5C (a). .

도 5d 는 유사 정도의 기준으로 영상의 밝기를 이용하여 제 1 영상 및 제 2 영상을 비교하는 도면이다.5D is a diagram for comparing a first image and a second image using brightness of an image based on a similarity degree.

영상의 밝기는 다양한 요소에 의해서 변화될 수 있다. 예를 들어, 아침에 찍은 영상과 밤에 찍은 영상은 태양광의 차이에 따라서 각 영상의 밝기가 차이가 생길 수 있다. 또한, 영상을 촬영한 카메라의 성능 또는 설정에 따라서 촬영된 영상들의 밝기가 차이가 생길 수 있다. 따라서, 동일한 장소에 대해서 동일한 시간대에 영상을 촬영하더라도 영상의 밝기에서의 차이가 생길 수 있다. 따라서, 해당 장소에 대한 영상의 차이로 밝기의 차이는 유용한 기준이 될 수 있다.The brightness of the image can be changed by various factors. For example, the image taken in the morning and the image taken in the night may have a difference in brightness of each image according to the difference in sunlight. In addition, the brightness of the photographed images may vary depending on the performance or the setting of the camera photographing the image. Therefore, even if the image is taken in the same time zone for the same place, a difference in brightness of the image may occur. Therefore, the difference in brightness due to the difference in the image of the place may be a useful criterion.

도 5d(a) 는 단말기 (100) 의 카메라 (121) 로 촬영된 제 1 영상을 도시한다. 도 5d의 (b) 및 (c) 는 동일한 장소에 대해서 동일한 방향으로 촬영한 제 2 영상들이다. 제 1 영상과 제 2 영상들은 도면에 도시되는 바와 같이 영상의 밝기에서 차이가 존재한다. 이러한 차이는 상기 설명한 바와 같이, 촬영 시간의 차이 또는 카메라의 성능등에 따라서 발생할 수 있다.5D (a) illustrates a first image captured by the camera 121 of the terminal 100. (B) and (c) of FIG. 5D are second images taken in the same direction with respect to the same place. As shown in the drawing, the first image and the second image have a difference in brightness of the image. As described above, such a difference may occur depending on a difference in shooting time or the performance of a camera.

유사 정도의 기준으로 영상의 밝기의 차이를 설정한다면 도 5d(b) 의 제 2 영상이 도 5d(c) 의 제 2 영상보다 제 1 영상과 더 유사한 영상으로 제어부 (180) 는 판단할 수 있다.If the difference in brightness of the image is set based on a similarity level, the controller 180 may determine that the second image of FIG. 5D (b) is more similar to the first image than the second image of FIG. 5D (c). .

마지막 단계로 상기 제 1 영상 및 제 2 영상의 비교 결과에 따라서 제 2 영상들을 디스플레이부 (151) 에 디스플레이한다 (S360).In operation S360, second images are displayed on the display unit 151 according to the comparison result between the first image and the second image.

이전 단계인 (S350) 에서 제어부 (180) 는 제 1 영상과 획득된 제 2 영상들을 여러 규정된 기준들에 따라서 유사 정도를 비교한다. 단계 (S360) 에서는 비교된 결과에 기초하여 제 2 영상들을 디스플레이부 (151) 에 디스플레이한다.In operation S350, the controller 180 compares the similarity between the first image and the acquired second images according to various prescribed criteria. In operation S360, the second images are displayed on the display unit 151 based on the comparison result.

본 발명은 특정 장소에 대해서 그와 유사한 다른 영상들을 이동 단말기를 통해서 파악할 수 있는 기능을 제공한다. 그에 따라 제 1 영상과 매칭되는 복수의 제 2 영상들을 여러 기준에 따라 파악한 후에 유사 정도를 단말기의 사용자에게 보여줄 필요성이 존재한다.The present invention provides a function for identifying other images similar to a specific place through a mobile terminal. Accordingly, there is a need to identify a plurality of second images matched with the first image according to various criteria and then show the degree of similarity to the user of the terminal.

도 6a 는 제 2 영상들을 유사 정도에 따라서 디스플레이부 (151) 에 디스플레이하는 도면이다.6A is a diagram of displaying second images on the display unit 151 according to a degree of similarity.

도 6a(a) 에서 디스플레이부 (151) 내에 복수의 제 2 영상들 (602, 604, 608) 이 디스플레이된다. 제 1 영상과 가장 유사 정도가 높은 순서대로 제 2 영상들의 크기에 차이를 두어 디스플레이된다. 가장 유사 정도가 높은 순서대로 제 2 영상 (604), 제 2 영상 (602), 제 2 영상 (608) 이 크기별로 디스플레이된다. 이를 통하여 사용자는 제 1 영상과 가장 유사한 제 2 영상을 구체적으로 파악할 수 있게된다.In FIG. 6A (a), a plurality of second images 602, 604, and 608 are displayed in the display unit 151. The sizes of the second images are displayed in the order of the highest similarity with the first image. The second image 604, the second image 602, and the second image 608 are displayed by size in the order of highest similarity. As a result, the user may specifically identify a second image most similar to the first image.

도 6a(b) 는 디스플레이부 (151) 내에 복수의 제 2 영상들 (622, 624, 626) 이 디스플레이된다. 제 1 영상과 가장 유사 정도가 높은 순서대로 왼쪽부터 차례대로 디스플레이된다. 또한 유사 정도를 점수로 환산하여 각각의 영상 내에 이를 명확하게 표시할 수 있다. 가장 유사 정도가 높은 제 2 영상 (622) 은 디스플레이부 (151) 의 제일 왼쪽에 위치되며 "유사 정도 85%" 라는 유사 정도를 함께 표시될 수 있다. 6A (b), a plurality of second images 622, 624, and 626 are displayed in the display unit 151. The images are displayed in order from the left in order of highest similarity to the first image. In addition, the degree of similarity can be converted into a score so that it can be clearly displayed in each image. The second image 622 having the highest degree of similarity may be positioned on the leftmost side of the display unit 151 and may be displayed together with a degree of similarity of "85% similarity".

도면에는 도시되지 않았지만, 사용자는 디스플레이된 제 2 영상들을 터치 동작등의 사용자 동작에 의해서 선택하여 제 1 영상과 직접 비교할 수도 있다.Although not shown in the drawing, the user may select the displayed second images by a user operation such as a touch operation and directly compare the first images.

제 2 영상들을 제 1 영상과의 유사 정도에 따라 디스플레이되는 방법은 다양하게 존재할 수 있으며, 본 발명은 상기 설명한 실시예들에 국한되지는 않는다.Various methods of displaying the second images according to the degree of similarity with the first image may exist, and the present invention is not limited to the above-described embodiments.

도 6b 는 제 1 영상과 복수의 제 2 영상들을 동시에 디스플레이하는 도면이다.6B is a diagram of simultaneously displaying a first image and a plurality of second images.

도 6b(a) 는 하나의 제 1 영상과 복수의 제 2 영상들을 동시에 디스플레이할 수 있다. 제 1 영상 (632) 을 디스플레이부 (151) 의 좌 측면에 디스플레이하고 복수의 제 2 영상을 디스플레이부 (151) 의 우 측면에 디스플레이할 수 있다. 영역 (634) 에 디스플레이된 제 2 영상들 (635, 636, 637) 은 도 6a(a) 에서 처럼 유사 정도에 따라서 영상의 크기가 차이가 존재하도록 디스플레이될 수 있다. 하지만, 동일한 크기로 복수의 제 2 영상들을 디스플레이할 수도 있으며, 그 제 2 영상 내에 도 6a(b) 에서와 같이 점수로 환산하여 디스플레이할 수도 있다. 6B (a) may simultaneously display one first image and a plurality of second images. The first image 632 may be displayed on the left side of the display unit 151 and the plurality of second images may be displayed on the right side of the display unit 151. The second images 635, 636, 637 displayed in the region 634 may be displayed such that the size of the image differs according to the degree of similarity as shown in FIG. 6A (a). However, a plurality of second images may be displayed in the same size, and the second image may be converted into a score as shown in FIG. 6A (b) and displayed.

도 6b(b) 는 하나의 제 1 영상과 하나의 제 2 영상을 동시에 디스플레이할 수 있다. 제 1 영상 (642) 을 디스플레이부 (151) 의 좌 측면에 디스플레이하고 하나의 제 2 영상 (644) 을 디스플레이부 (151) 의 우 측면에 디스플레이할 수 있다. 복수의 제 2 영상들 중에서 가장 유사 정도가 높거나 가장 유사 정도가 낮은 제 2 영상을 제어부 (181) 가 선택한 경우에 선택된 제 2 영상만을 디스플레이할 수 있다. 그에 따라서 사용자는 제 1 영상과 제 2 영상을 명확하게 비교 판단하여 디스플레이할 수 있다.6B (b) may simultaneously display one first image and one second image. The first image 642 may be displayed on the left side of the display unit 151, and one second image 644 may be displayed on the right side of the display unit 151. When the controller 181 selects the second image having the highest similarity or the lowest similarity among the plurality of second images, only the selected second image may be displayed. Accordingly, the user may clearly compare and display the first image and the second image.

도 6b(c) 는 하나의 제 1 영상과 하나의 제 2 영상을 동시에 디스플레이하는 다른 방법을 도시한다. 디스플레이부 (151) 에 제 1 영상이 디스플레이된다. 제 1 영상이 디스플레이되는 디스플레이부 (151) 의 일부 영역 (652) 에 하나의 제 2 영상을 디스플레이한다. 디스플레이되는 제 2 영상은 가장 유사 정도가 높거나 가장 유사 정도가 낮은 영상이다. 제 2 영상은 디스플레이되는 제 1 영상에 중첩되어 해당 영역의 제 1 영상을 감출 수 있지만, 반투명하게 디스플레이되어 제 1 영상의 내용을 디스플레이할 수도 있다.6B (c) illustrates another method of simultaneously displaying one first image and one second image. The first image is displayed on the display unit 151. One second image is displayed on the partial region 652 of the display unit 151 on which the first image is displayed. The second image displayed is an image having the highest similarity or the least similarity. The second image may be superimposed on the displayed first image to conceal the first image of the corresponding region, but may be semi-transparently displayed to display contents of the first image.

또한, 본 발명의 일실시예에 의하면, 전술한 영상 디스플레이 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.In addition, according to an embodiment of the present invention, the above-described image display method may be implemented as code that can be read by a processor in a medium in which a program is recorded. Examples of processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.

상기와 같이 설명된 이동 단말기 및 영상 디스플레이 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described mobile terminal and the image display method are not limited to the configuration and method of the above-described embodiments, but the embodiments may be selectively or partially all of the embodiments so that various modifications can be made. It may be configured in combination.

100 이동 단말기 110 무선 통신부
121 카메라 140 센싱부
160 메모리 180 제어부
100 mobile terminal 110 wireless communication unit
121 Camera 140 Sensing
160 memory 180 controller

Claims (6)

단말기의 외부로부터 제 1 영상을 입력받는 카메라 모듈;
단말기 위치 정보를 획득하는 위치 정보 모듈;
단말기의 방향 정보를 획득하는 센싱부;
상기 획득된 단말기 위치 정보 및 방향 정보를 이용하여 상기 입력된 제 1 영상에 매칭하는 제 2 영상을 획득하고, 상기 제 1 및 제 2 영상을 규정된 기준에 따라 비교하는 제어부; 및
상기 제어부의 제어에 따라 상기 비교 결과를 반영하여 상기 제 1 및 제 2 영상 중 적어도 하나를 디스플레이하는 디스플레이부를 포함하는, 이동 단말기.
A camera module for receiving a first image from an outside of the terminal;
A location information module for obtaining terminal location information;
A sensing unit obtaining direction information of the terminal;
A controller which acquires a second image matching the input first image by using the obtained terminal position information and direction information, and compares the first and second images according to a prescribed criterion; And
And a display configured to display at least one of the first and second images by reflecting the comparison result under the control of the controller.
제 1 항에 있어서,
상기 획득된 단말기 위치 정보 및 방향 정보를 포함하는 영상 요청 신호를 송신하고, 상기 송신 결과 상기 입력된 제 1 영상에 매칭하는 제 2 영상을 수신하는 무선 통신부를 더 포함하고,
상기 제어부는 상기 제 2 영상을 수신함에 따라 획득하는, 이동 단말기.
The method of claim 1,
And a wireless communication unit which transmits an image request signal including the obtained terminal location information and direction information, and receives a second image matching the input first image as a result of the transmission.
The control unit obtains in response to receiving the second image.
제 1 항에 있어서,
복수의 영상을 저장하는 메모리를 더 포함하며,
상기 제어부는 상기 메모리에 저장된 복수의 영상으로부터 상기 제 1 영상에 매칭하는 제 2 영상을 검색하는, 이동 단말기.
The method of claim 1,
Further comprising a memory for storing a plurality of images,
The control unit searches for a second image matching the first image from a plurality of images stored in the memory.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 규정된 기준은 상기 제 1 및 제 2 영상의 촬영 계절, 날짜 및 시간, 상기 제 1 및 제 2 영상의 영상 구성물의 차이, 및 상기 제 1 및 제 2 영상의 영상 밝기의 차이 중 적어도 하나를 포함하는, 이동 단말기.
The method according to any one of claims 1 to 3,
The prescribed criterion may include at least one of a shooting season, a date and a time of the first and second images, a difference in image components of the first and second images, and a difference in image brightness of the first and second images. Including, mobile terminal.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 제 2 영상이 복수인 경우,
상기 제어부는 상기 비교 결과에 따른 유사 정도에 따라서 상기 복수의 제 2 영상들 각각을 구분하여 디스플레이하도록 상기 디스플레이부를 제어하는, 이동 단말기.
The method according to any one of claims 1 to 3,
When the second image is plural,
The control unit controls the display unit to display each of the plurality of second images according to the degree of similarity according to the comparison result.
단말기의 외부로부터 제 1 영상을 입력받는 단계;
상기 단말기의 위치 정보를 획득하는 단계;
상기 단말기의 방향 정보를 획득하는 단계;
획득된 상기 위치 정보 및 방향 정보를 이용하여 상기 제 1 영상과 매칭하는 복수의 제 2 영상을 획득하는 단계;
상기 제 1 영상과 상기 제 2 영상을 규정된 기준에 따라 비교하는 단계; 및
상기 제 1 영상 및 상기 비교 결과를 반영하여 상기 제 2 영상들을 디스플레이하는 단계를 포함하는, 영상 디스플레이 방법.
Receiving a first image from an outside of the terminal;
Obtaining location information of the terminal;
Obtaining direction information of the terminal;
Obtaining a plurality of second images matching the first image by using the acquired position information and direction information;
Comparing the first image and the second image according to a prescribed criterion; And
And displaying the second images by reflecting the first image and the comparison result.
KR1020100053256A 2010-06-07 2010-06-07 Mobile terminal and image display method KR101667584B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100053256A KR101667584B1 (en) 2010-06-07 2010-06-07 Mobile terminal and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100053256A KR101667584B1 (en) 2010-06-07 2010-06-07 Mobile terminal and image display method

Publications (2)

Publication Number Publication Date
KR20110133714A true KR20110133714A (en) 2011-12-14
KR101667584B1 KR101667584B1 (en) 2016-10-19

Family

ID=45501233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100053256A KR101667584B1 (en) 2010-06-07 2010-06-07 Mobile terminal and image display method

Country Status (1)

Country Link
KR (1) KR101667584B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140037440A (en) * 2012-09-18 2014-03-27 주식회사 엘지유플러스 Music play method using feature information of picture and the terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050074551A (en) * 2002-11-06 2005-07-18 캐논 가부시끼가이샤 Communication device, image storage device, image pickup device, and control method thereof
KR20060083102A (en) * 2005-01-14 2006-07-20 (주)시소모바일 Image file management system having location information and method thereof, mobile terminal apparatus
KR20060127586A (en) * 2005-06-08 2006-12-13 에스케이 텔레콤주식회사 Image pattern recognition system and method using present position of mobile terminal
KR20090132485A (en) * 2009-02-05 2009-12-30 김한준 Method for geographical information system and mobile terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050074551A (en) * 2002-11-06 2005-07-18 캐논 가부시끼가이샤 Communication device, image storage device, image pickup device, and control method thereof
KR20060083102A (en) * 2005-01-14 2006-07-20 (주)시소모바일 Image file management system having location information and method thereof, mobile terminal apparatus
KR20060127586A (en) * 2005-06-08 2006-12-13 에스케이 텔레콤주식회사 Image pattern recognition system and method using present position of mobile terminal
KR20090132485A (en) * 2009-02-05 2009-12-30 김한준 Method for geographical information system and mobile terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140037440A (en) * 2012-09-18 2014-03-27 주식회사 엘지유플러스 Music play method using feature information of picture and the terminal

Also Published As

Publication number Publication date
KR101667584B1 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
KR102018378B1 (en) Electronic Device And Method Of Controlling The Same
KR101658087B1 (en) Mobile terminal and method for displaying data using augmented reality thereof
CN103577066B (en) Electronic installation and the electronic note system using electronic installation
KR101661969B1 (en) Mobile terminal and operation control method thereof
KR102238531B1 (en) Mobile terminal and method for controlling the same
KR20110036462A (en) Mobile terminal and method for editing tag thereof
KR20120051863A (en) Mobile terminal and method for setting metadata thereof
KR20160038510A (en) Mobile terminal and method for controlling the same
KR101698096B1 (en) Method for searching information by using drawing and terminal thereof
EP2998705B1 (en) Mobile terminal and control method for the mobile terminal
KR20130122334A (en) Mobile terminal and control method thereof
KR20140094226A (en) Mobile terminal and control method for the mobile terminal
KR102077677B1 (en) Mobile terminal and method for controlling the same
US10423223B2 (en) Method and device for displaying content
KR20120078396A (en) Mobile terminal and method for searching location information using touch pattern recognition thereof
KR20120014794A (en) Mobile terminal and method for guiding photography thereof
KR20120076137A (en) Mobile terminal and method for controlling screen display thereof
US20150062291A1 (en) Mobile terminal and control method therof
KR101896255B1 (en) Mobile terminal and operation method thereof
KR101899977B1 (en) Mobile terminal and control method thereof
KR101667585B1 (en) Mobile terminal and object information display method thereof
KR101667584B1 (en) Mobile terminal and image display method
KR20150051655A (en) Electronic device and control method thereof
KR101721874B1 (en) Mobile terminal and image display method thereof
KR20120023964A (en) Mobile terminal and control method therof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant