KR20110002922A - Electronic device and method of performing function using same - Google Patents

Electronic device and method of performing function using same Download PDF

Info

Publication number
KR20110002922A
KR20110002922A KR1020090060452A KR20090060452A KR20110002922A KR 20110002922 A KR20110002922 A KR 20110002922A KR 1020090060452 A KR1020090060452 A KR 1020090060452A KR 20090060452 A KR20090060452 A KR 20090060452A KR 20110002922 A KR20110002922 A KR 20110002922A
Authority
KR
South Korea
Prior art keywords
external object
virtual input
input area
electronic device
movement
Prior art date
Application number
KR1020090060452A
Other languages
Korean (ko)
Other versions
KR101549461B1 (en
Inventor
김성운
임성민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090060452A priority Critical patent/KR101549461B1/en
Publication of KR20110002922A publication Critical patent/KR20110002922A/en
Application granted granted Critical
Publication of KR101549461B1 publication Critical patent/KR101549461B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: An electronic device for setting a virtual input area to the outside and an executing method using the same are provided to set up the virtual input area by selecting an object existed outside the electronic device. CONSTITUTION: A controller(180) recognizes the movement of an external object forming a closed line from an image acquired through a camera(121). The controller sets up a surface which is parallel to the closed line as a virtual input area. If the starting point of the external objects is within the specific distance, the controller recognizes the closed line.

Description

전자 기기 및 이를 이용한 기능 수행 방법 {Electronic Device And Method Of Performing Function Using Same}Electronic device and method of performing function using same

본 발명은 전자 기기에 관한 것으로서, 상기 전자 기기의 외부에 가상 입력 영역이 설정되고, 상기 설정된 가상 입력 영역을 통해 상기 전자 기기로 소정의 정보가 입력되는 전자 기기 및 이를 이용한 기능 수행 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device, and relates to an electronic device in which a virtual input area is set outside of the electronic device, and predetermined information is input to the electronic device through the set virtual input area, and a method of performing a function using the same. .

최근 전자 기기는 다양한 기능들을 제공한다. 종래에는 전자 기기마다 특화된 기능들을 제공하는 것이 일반적이었으나, 최근에는 다양한 기능들이 1개의 전자 기기에서 제공됨으로써, 상기 기능들을 편리하게 제어하거나 정보를 쉽게 입력하기 위한 정보 입력 기능의 중요성이 점차 증대되고 있다.Recently, electronic devices provide various functions. Conventionally, it has been common to provide specialized functions for each electronic device, but recently, since various functions are provided in one electronic device, the importance of an information input function for conveniently controlling the functions or easily inputting information has gradually increased. .

예를 들어, DTV 또는 IPTV의 경우, 리모트 콘트롤을 이용하여 정보를 입력하는 것이 일반적이었고, 핸드폰과 같은 이동 단말기의 경우 구비된 키패드 또는 터치스크린을 통해 정보를 입력하는 것이 일반적이었다.For example, in the case of DTV or IPTV, it is common to input information using a remote control, and in the case of a mobile terminal such as a mobile phone, it is common to input information through a keypad or a touch screen provided.

그러나, 종래의 전자 기기에서 제공되는 입력 수단들은, 최근 다양한 기능들이 융합되는 추세에서 상기 다양한 기능들을 편리하게 제어할 수 있는 수단으로 기능하지 못함에 따라, 종래와는 완전히 다른 새로운 입력 수단의 필요성이 대두되고 있다.However, since the input means provided in the conventional electronic device does not function as a means for conveniently controlling the various functions in the recent trend of fusion of various functions, there is a need for a new input means completely different from the conventional one. It is emerging.

본 발명의 과제는, 정보 입력을 위한 가상 입력 영역을 상기 전자 기기의 외부에 설정할 수 있는 전자 기기 및 이를 이용한 기능 수행 방법을 제공하는 것이다.An object of the present invention is to provide an electronic device capable of setting a virtual input area for information input outside of the electronic device and a method of performing a function using the same.

본 발명의 다른 과제는, 상기 가상 입력 영역을 통해 상기 전자 기기의 기능 제어 및 다양한 정보 입력을 가능하게 하는 전자 기기 및 이를 이용한 기능 수행 방법을 제공하는 것이다.Another object of the present invention is to provide an electronic device capable of controlling the function of the electronic device and inputting various information through the virtual input area and a method of performing the function using the same.

본 발명의 제1 양상에 따른 전자 기기는, 외부 영상을 촬상하는 카메라; 및 상기 카메라를 통해 획득된 영상으로부터 실질적으로 폐곡선을 형성하는 외부 객체의 움직임을 인식하고, 상기 폐곡선과 실질적으로 평행한 면을 정보 입력을 위한 가상 입력영역으로 설정하는 제어부를 포함하여 이루어진다.An electronic device according to a first aspect of the present invention includes a camera for photographing an external image; And a controller configured to recognize a movement of an external object that substantially forms a closed curve from the image acquired by the camera, and to set a plane substantially parallel to the closed curve as a virtual input area for inputting information.

본 발명의 제2 양상에 따른 전자 기기는, 외부 영상을 촬상하는 카메라; 및 상기 카메라를 통해 획득된 영상에 포함된 적어도 하나의 외부 객체 중 제1 외부 객체를 선택하고, 상기 제1 외부 객체의 표면을 정보 입력을 위한 가상 입력영역으로 설정하는 제어부를 포함하여 이루어진다.An electronic device according to a second aspect of the present invention includes a camera for photographing an external image; And a controller configured to select a first external object among at least one external object included in the image acquired through the camera, and to set a surface of the first external object as a virtual input area for inputting information.

본 발명의 제3 양상에 따른 전자 기기의 기능 수행 방법은, 외부 영상을 촬상하는 카메라를 구비한 전자 기기에서 기능을 수행하는 방법에 있어서, 상기 카메라를 통해 획득되는 영상으로부터 외부 객체의 실질적으로 폐곡선을 형성하는 움직 임을 인식하는 단계; 및 상기 폐곡선과 실질적으로 평행한 면을 정보 입력을 위한 가상 입력영역으로 설정하는 단계를 포함하여 이루어진다.In a method of performing a function of an electronic device according to a third aspect of the present invention, a method of performing a function in an electronic device having a camera for capturing an external image includes: substantially closing curves of an external object from an image obtained through the camera; Recognizing the movement to form a; And setting a plane substantially parallel to the closed curve as a virtual input area for inputting information.

본 발명의 제4 양상에 따른 전자 기기의 기능 수행 방법은, 외부 영상을 촬상하는 카메라를 구비한 전자 기기에서 기능을 수행하는 방법에 있어서, 상기 카메라를 통해 획득되는 영상에 포함된 적어도 하나의 외부 객체 중 제1 외부 객체에 대한 선택 신호를 수신하는 단계; 및 상기 선택된 제1 외부 객체의 표면을 정보 입력을 위한 가상 입력영역으로 설정하는 단계를 포함하여 이루어진다.In a method of performing a function of an electronic device according to a fourth aspect of the present invention, a method of performing a function in an electronic device having a camera for capturing an external image, the method comprising: at least one external device included in an image acquired through the camera Receiving a selection signal for a first external object of the objects; And setting a surface of the selected first external object as a virtual input area for inputting information.

본 발명에 따른 전자 기기 및 이를 이용한 기능 수행 방법에 의하면, 다음과 같은 효과가 있다.According to the electronic device and a method of performing a function using the same according to the present invention, the following effects are obtained.

본 발명에 의하면, 전자 기기의 외부에 가상 입력 영역을 설정할 수 있다. 사용자는 자신이 원하는 영역을 상기 전자 기기의 외부에 임의로 설정할 수 있다.According to the present invention, a virtual input area can be set outside the electronic device. The user may arbitrarily set an area desired by the user outside of the electronic device.

본 발명에 의하면, 사용자는 전자 기기의 외부에 존재하는 임의의 객체를 선택함으로써, 상기 가상 입력 영역을 설정할 수 있다.According to the present invention, the user can set the virtual input area by selecting any object existing outside the electronic device.

본 발명에 의하면, 상기 전자 기기를 직접 조작하지 않더라도 상기 가상 입력 영역을 통해 상기 전자 기기의 각종 기능을 제어하거나 소정의 정보를 입력할 수 있다.According to the present invention, even without directly operating the electronic device, various functions of the electronic device may be controlled or predetermined information may be input through the virtual input area.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명 에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like numbers refer to like elements throughout. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

이하, 본 발명과 관련된 전자 기기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.EMBODIMENT OF THE INVENTION Hereinafter, the electronic device which concerns on this invention is demonstrated in detail with reference to drawings. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other.

본 명세서에서 설명되는 전자 기기에는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 단말, DTV(Digital Television), IPTV(Internet Protocol Television) 등이 포함될 수 있다.The electronic device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation terminal, and a digital television (DTV). ), And IPTV (Internet Protocol Television).

도 1은 본 발명의 일 실시예와 관련된 전자 기기의 블록 구성도(block diagram)이다. 도 2는 본 발명의 일 실시예에 따른 전자 기기(100)가 DTV 또는 IPTV인 경우를 나타낸 도면이다. 도 3은 본 발명의 다른 실시예에 따른 전자 기기(100)가 이동 단말기인 경우를 나타낸 도면이다. 1 is a block diagram of an electronic device according to an embodiment of the present invention. 2 is a diagram illustrating a case in which the electronic device 100 according to an embodiment of the present invention is a DTV or an IPTV. 3 is a diagram illustrating a case in which the electronic device 100 according to another embodiment of the present invention is a mobile terminal.

상기 전자 기기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.The electronic device 100 may include a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory unit 160, The interface unit 170 may include a controller 180, a power supply unit 190, and the like.

도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기가 구현될 수도 있다.Since the components shown in FIG. 1 are not essential, an electronic device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 전자 기기(100)와 무선 통신 시스템 사이 또는 전자 기기(100)와 전자 기기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between the electronic device 100 and the wireless communication system or between a network in which the electronic device 100 and the electronic device 100 are located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 전자 기기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information, or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to an electronic device. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신할 수 있다. 예를 들어, 상기 방송 수신 모듈(111)은, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 may receive a broadcast signal using various broadcast systems. For example, the broadcast receiving module 111 may include: Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast (DVB-H). Digital broadcast signals can be received using digital broadcasting systems such as Handheld and Integrated Services Digital Broadcast-Terrestrial (ISDB-T). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems that provide broadcast signals as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory unit 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication module 112 transmits and receives a wireless signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 전자 기기(100)에 내장되거나 외장될 수 있다. 무선 인터 넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless internet module 113 refers to a module for wireless internet access, and the wireless internet module 113 may be internal or external to the electronic device 100. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

위치정보 모듈(115)은 전자 기기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈(115)은 범지구적 위성항법시스템(Global Navigation Satellite System, GNSS)를 이용하여 위치정보를 획득할 수 있다. 여기서, 범지구적 위성 항법 시스템(GNSS)은 지구를 공전하여 무선 항법 수신기들의 소정의 타입들이 지표면 또는 지표면 근처의 그들의 위치를 결정할 수 있는 기준 신호들을 보내는 무선 항법위성 시스템들을 설명하기 위해 이용되는 용어이다. 상기 범지구적 위성 항법 시스템(GNSS)에는 미국에서 운영하는 GPS(Global Position System), 유럽에서 운영하는 갈릴레오(Galileo), 러시아에서 운영하는 GLONASS(Global Orbiting Navigational Satelite System), 중국에서 운영하는 COMPASS 및 일본에서 운영하는 QZSS(Quasi-Zenith Satellite System)등이 있다. The location information module 115 is a module for checking or obtaining the location of the electronic device. The location information module 115 may obtain location information using a global navigation satellite system (GNSS). Here, the Global Positioning System (GNSS) is a term used to describe the radionavigation satellite systems in which certain types of radionavigation receivers orbiting the Earth are transmitting reference signals that can determine their position near the surface or ground surface . The Global Positioning System (GNSS) includes Global Positioning System (GPS) in the United States, Galileo in Europe, GLONASS (Global Orbiting Navigational Satelite System) in Russia, COMPASS in China and Japan QZSS (Quasi-Zenith Satellite System), which is operated by the Ministry of Land, Infrastructure and Transport.

GNSS의 대표적인 예를 들면, 상기 위치정보 모듈(115)은 GPS(Global Position System) 모듈일 수 있다. 상기 GPS 모듈은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. 상기 GPS 모듈은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다.As a representative example of the GNSS, the location information module 115 may be a Global Position System (GPS) module. The GPS module calculates information about a distance at which a point (object) is separated from three or more satellites, information about a time at which the distance information is measured, and then applies a triangulation method to the calculated distance information. Three-dimensional position information according to latitude, longitude, and altitude of one point (object) can be calculated. Furthermore, a method of calculating position and time information using three satellites and correcting the error of the calculated position and time information using another satellite is also used. The GPS module continuously calculates the current position in real time, and calculates velocity information using the current position.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 오디오 수신부(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and an audio receiver 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 전자 기기(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory unit 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the configuration aspect of the electronic device 100.

상기 카메라(121)는 2차원(2-dimensional) 카메라와 3차원(3-dimensional) 카메라 중 적어도 하나를 구비할 수 있다. 3D 카메라가 구비되는 경우, 상기 3D 카메라는 획득된 영상의 3차원 깊이(depth)를 좌표값으로 변환하여 상기 제어부(180)로 전달할 수 있다. 3D 카메라의 예를 들면, 스테레오 카메라(stereo camera), TOF 카메라, Structured Light Camera 등이 있다.The camera 121 may include at least one of a two-dimensional camera and a three-dimensional camera. When the 3D camera is provided, the 3D camera may convert the 3D depth of the obtained image into a coordinate value and transmit the coordinate to the controller 180. Examples of 3D cameras include stereo cameras, TOF cameras, Structured Light Cameras, and the like.

상기 오디오 수신부(122)는, 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 상기 오디오 수신부(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The audio receiver 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. The audio receiver 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(130)는 사용자가 전자 기기(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for the user to control the operation of the electronic device 100. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 전자 기기(100)의 개폐 상태, 전자 기기(100)의 위치, 사용자 접촉 유무, 전자 기기(100)의 방위, 전자 기기(100)의 가속/감속 등과 같이 전자 기기(100)의 현재 상태 또는 외부 환경을 감지하여 전자 기기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 전자 기기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(142)를 포함할 수 있다. The sensing unit 140 is an electronic device 100 such as an open / closed state of the electronic device 100, a location of the electronic device 100, a presence or absence of a user contact, an orientation of the electronic device 100, an acceleration / deceleration of the electronic device 100, or the like. A sensing signal for controlling the operation of the electronic device 100 is generated by detecting a current state or an external environment. For example, when the electronic device 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, it may be responsible for sensing functions related to whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to an external device, and the like. The sensing unit 140 may include a proximity sensor 142.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 is used to generate an output related to visual, auditory, or tactile, and may include a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154. have.

디스플레이부(151)는 전자 기기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 전자 기기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 전자 기기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays and outputs information processed by the electronic device 100. For example, when the electronic device 100 is in a call mode, the electronic device 100 displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the electronic device 100 is in a video call mode or a photographing mode, the electronic device 100 displays a photographed and / or received image, a UI, or a GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display 3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 전자 기기(100) 바디의 디스플레이부(151)가 차지하는 영역을 통해 전자 기기(100) 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is a transparent LCD. The rear structure of the display unit 151 may also be configured as a light transmissive structure. With this structure, the user can see an object located behind the body of the electronic device 100 through the area occupied by the display unit 151 of the body of the electronic device 100.

전자 기기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 전자 기기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or more display units 151 may exist according to the implementation form of the electronic device 100. For example, a plurality of display units may be spaced apart or integrally disposed on one surface of the electronic device 100, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter, abbreviated as “touch screen”), the display unit 151 is an output device. It can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이 부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or capacitance generated at a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 전자 기기(100)의 내부 영역 또는 상기 터치 스크린의 근처에 상기 근접 센서(142)가 배치될 수 있다. 상기 근접 센서(142)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서(142)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, the proximity sensor 142 may be disposed in an inner region of the electronic device 100 surrounded by the touch screen or near the touch screen. The proximity sensor 142 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using mechanical force by using an electromagnetic force or infrared rays. The proximity sensor 142 has a longer life and higher utilization than a contact sensor.

상기 근접 센서(142)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor 142 include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.

상기 근접센서(142)는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor 142 detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 전자 기기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory unit 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 152 outputs a sound signal related to a function (for example, a call signal reception sound or a message reception sound) performed in the electronic device 100. The sound output module 152 may include a receiver, a speaker, a buzzer, and the like. In addition, the sound output module 152 may output sound through the earphone jack 116. The user can connect the earphone to the earphone jack 116 to hear the sound output.

알람부(153)는 전자 기기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 전자 기기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이 외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the electronic device 100. Examples of events generated in the electronic device 100 include call signal reception, message reception, key signal input, and touch input. The alarm unit 153 may output a signal for notifying an occurrence of an event by vibration, in addition to a video signal or an audio signal. The video signal or the audio signal may also be output through the display unit 151 or the sound output module 152.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or may be sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may be used for the effects of stimulation by the arrangement of pins vertically moving with respect to the contact skin surface, the effect of the injection force of the air through the injection or inlet or the stimulation through the suction force, and the stimulation that rubs the skin surface. Various tactile effects may be generated, such as effects by stimulation through contact of electrodes, effects by stimulation using electrostatic force, and effects of reproducing a sense of warmth and heat using an endothermic or heat generating element.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 전자 기기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 may not only deliver the haptic effect through direct contact, but also implement the haptic effect through the muscle sense of the user's finger or arm. Two or more haptic modules 154 may be provided according to a configuration aspect of the electronic device 100.

메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for the operation of the controller 180 and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). The memory unit 160 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.

메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 기기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory unit 160 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. The electronic device 100 may operate in association with a web storage that performs a storage function of the memory unit 160 on the Internet.

인터페이스부(170)는 전자 기기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 전자 기기(100) 내부의 각 구성 요소에 전달하거나 전자 기기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path with all external devices connected to the electronic device 100. The interface unit 170 receives data from an external device or receives power and transmits the data to each component in the electronic device 100, or transmits the data inside the electronic device 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 전자 기기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 전자 기기(100)와 연결될 수 있다. The identification module is a chip that stores various types of information for authenticating the use authority of the electronic device 100, and includes a user identification module (UIM), a subscriber identify module (SIM), and a universal user authentication module ( Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Therefore, the identification device may be connected to the electronic device 100 through a port.

상기 인터페이스부(170)는 전자 기기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 전자 기기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 전자 기기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 전자 기기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit 170 may be a passage through which power from the cradle is supplied to the electronic device 100 when the electronic device 100 is connected to an external cradle, or various commands input by the user from the cradle. It may be a passage through which a signal is transmitted to the electronic device 100. Various command signals or power input from the cradle may operate as signals for recognizing that the electronic device 100 is correctly mounted on the cradle.

제어부(180)는 통상적으로 상기 전자 기기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화, 음성 인식 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the electronic device 100. For example, it performs related control and processing for voice call, data communication, video call, voice recognition and the like. The controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing a writing input or a drawing input performed on the touch screen as text and an image, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이 들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the controller 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the memory unit 160 and executed by the control unit 180. [

상기 전자 기기(100)는, 도 2에 도시된 바와 같이, 리모트 콘트롤(200)을 통해 제어될 수도 있다. 상기 리모트 콘트롤(200)과 상기 전자 기기(100)는 적외선 통신 또는 기타 RF 신호에 의한 통신을 수행할 수 있다.As illustrated in FIG. 2, the electronic device 100 may be controlled through the remote control 200. The remote control 200 and the electronic device 100 may perform communication by infrared communication or other RF signals.

또한 상기 리모트 콘트롤(200)은, 3D 포인팅 디바이스(3-Dimensional Pointing Device)의 형태로 구현될 수 있다. 상기 3D 포인팅 디바이스는, 3차원 움직임(motion)을 감지하여 상기 전자 기기(100)로 상기 감지된 3차원 움직임에 관한 정보를 전송할 수 있다. 상기 3차원 움직임은, 상기 전자 기기(100)를 제어하기 위한 명령에 대응될 수 있다. 사용자는 상기 3D 포인팅 디바이스를 공간상에서 움직임으로써 상기 전자 기기(100)에 소정의 명령을 전달할 수 있다. 상기 3D 포인팅 디바이스는, 각종 키 버튼을 구비할 수 있다. 사용자는 상기 키 버튼을 통해 각종 명령을 입력할 수 있다.In addition, the remote control 200 may be implemented in the form of a 3-Dimensional Pointing Device. The 3D pointing device may detect 3D motion and transmit information about the detected 3D motion to the electronic device 100. The three-dimensional movement may correspond to a command for controlling the electronic device 100. The user may transmit a predetermined command to the electronic device 100 by moving the 3D pointing device in space. The 3D pointing device may include various key buttons. The user may input various commands through the key button.

이하 본 발명의 실시예들을 설명하기로 한다. 본 발명의 실시예들은, 도 1 내지 도 3을 참조하여 설명한 상기 전자 기기(100)에서 구현될 수 있다. 이하 설명의 편의를 위하여 상기 전자 기기(100)를 도 2에 도시된 DTV로 가정하여 본 발명의 실시예들을 설명하기로 한다. 전술한 바와 같이, 본 문서에서 개시되는 기술적 사상은, DTV, IPTV, 이동 단말기 등을 포함하는 다양한 전자 기기에 적용될 수 있음을 분명히 밝혀둔다.Hereinafter, embodiments of the present invention will be described. Embodiments of the present invention may be implemented in the electronic device 100 described with reference to FIGS. 1 to 3. Hereinafter, for convenience of description, the embodiments of the present invention will be described assuming that the electronic device 100 is the DTV illustrated in FIG. 2. As described above, it is apparent that the technical idea disclosed in this document may be applied to various electronic devices including DTVs, IPTVs, mobile terminals, and the like.

가상 입력 영역(20)의 설정-외부 객체의 움직임Setting of the virtual input area 20-movement of the external object

도 4는 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 5 내지 도 8은, 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면들이다. 이하 필요한 도면들을 참조하여, 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.4 is a flowchart of a method of performing a function of an electronic device according to a first embodiment of the present invention. 5 to 8 are diagrams for describing a method of performing a function of an electronic device according to a first embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device and an operation of the electronic device 100 to implement the same will be described in detail with reference to the accompanying drawings.

상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드 로 진입한다[S100].The controller 180 enters a virtual input mode related to the function disclosed in this document [S100].

상기 가상 입력 모드는, 후술하는 바와 같이, 상기 전자 기기(100)의 외부에 가상 입력영역을 설정하고, 상기 설정된 가상 입력영역을 통해 상기 전자 기기(100)의 제어 신호를 수신하거나, 각종 정보를 입력받기 위한 입력 모드이다.In the virtual input mode, as described later, a virtual input area is set outside the electronic device 100, and a control signal of the electronic device 100 is received through the set virtual input area or various information is received. Input mode for receiving input.

상기 가상 입력 모드는, 상기 전자 기기(100) 자체에 구비된 입력 수단을 통한 입력 모드를 배제하거나 동시에 이용될 수 있다.The virtual input mode may exclude or simultaneously use an input mode through an input means provided in the electronic device 100 itself.

상기 가상 입력 모드로의 진입은 다양한 형태로 이루어질 수 있다. 예를 들어, 상기 전자 기기(100) 및/또는 상기 리모트 콘트롤(200)에 상기 가상 입력 모드로의 진입을 위한 특정 키가 구비될 수 있다.Entry into the virtual input mode may take various forms. For example, a specific key for entering the virtual input mode may be provided in the electronic device 100 and / or the remote control 200.

또한 예를 들어, 상기 리모트 콘트롤(200)이 3D 포인팅 디바이스로서 공간 상의 움직임을 감지하고 상기 움직임 정보를 상기 전자 기기(100)에 전달하는 경우, 상기 리모트 콘트롤(200)의 공간상 움직임이 상기 가상 입력 모드로의 진입을 위해 설정될 수 있다.Also, for example, when the remote control 200 senses a motion in space as a 3D pointing device and transmits the motion information to the electronic device 100, the spatial motion of the remote control 200 is virtual. It can be set for entry into the input mode.

도 5는 상기 가상 입력 모드로의 진입을 위해 상기 리모트 콘트롤(200)의 특정 움직임이 설정된 예를 도시한다.5 illustrates an example in which a specific movement of the remote control 200 is set to enter the virtual input mode.

도 5를 참조하면, 상기 리모트 콘트롤(200)이 공간상에서 원(circle)을 형성하는 움직임을 감지하는 경우, 상기 가상 입력 모드로의 진입이 이루어지도록 설정될 수 있다.Referring to FIG. 5, when the remote control 200 detects a motion forming a circle in space, the remote control 200 may be set to enter the virtual input mode.

또는 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 통해, 외부 객체의 미리 지정된 움직임 또는 제스쳐를 감지하는 경우, 상기 가상 입력 모 드로 진입할 수 있다.Alternatively, the controller 180 may enter the virtual input mode when detecting a predetermined movement or gesture of an external object through the image acquired through the camera 121.

상기 제어부(180)는, 상기 카메라(121)를 통해 외부 영상을 획득하고[S110], 상기 획득된 영상을 분석하여 외부 객체(10)의 움직임을 인식한다[S120].The controller 180 acquires an external image through the camera 121 [S110], and analyzes the obtained image to recognize a movement of the external object 10 [S120].

예를 들어 도 6을 참조하면, 사용자가 공간 상에서 특정 궤적(11)을 형성하도록 손가락(10)을 이동시키면, 상기 제어부(180)는 상기 카메라(121)를 통해 획득되는 영상을 분석하여 상기 손가락(10)의 움직임을 인식할 수 있다.For example, referring to FIG. 6, when a user moves a finger 10 to form a specific trajectory 11 in space, the controller 180 analyzes an image acquired through the camera 121 and analyzes the finger. The movement of 10 can be recognized.

여기서, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 외부 객체(10)의 움직임이 감지되는 경우, 상기 외부 객체(10)의 움직임에 대해 추적할 포인트(tracking point)를 설정할 수 있다.Here, the controller 180 analyzes an image acquired by the camera 121, and when the movement of the external object 10 is detected, a point to track the movement of the external object 10. point) can be set.

예를 들어 도 6을 참조하면, 사용자가 손가락(10)을 이동시키기 시작하면, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 손가락(10)의 끝을 상기 추적 포인트로 설정할 수 있다.For example, referring to FIG. 6, when the user starts to move the finger 10, the controller 180 analyzes an image acquired through the camera 121 to recognize the end of the finger 10. Can be set as a tracking point.

상기 추적 포인트가 설정되면, 상기 제어부(180)는 상기 추적 포인트의 이동을 중심으로 영상 분석을 함으로써, 영상 분석을 좀 더 효율적으로 수행할 수 있다.When the tracking point is set, the controller 180 can perform image analysis more efficiently by analyzing the image around the movement of the tracking point.

또한 상기 제어부(180)는, 상기 추적 포인트가 설정된 후, 상기 카메라(121)를 통해 획득되는 영상으로부터 다른 외부 객체의 움직임이 감지되더라도 이를 무시하고, 상기 설정된 추적 포인트만을 감시할 수 있다.In addition, after the tracking point is set, the controller 180 may ignore the movement of another external object from the image acquired through the camera 121 and ignore the same and monitor only the set tracking point.

상기 제어부(180)는, 상기 S120 단계를 수행함에 있어서, 상기 외부 객 체(10)의 움직임에 관한 정보를 상기 메모리(160)에 임시 저장하거나 영구 저장할 수 있다.The controller 180 may temporarily or permanently store information regarding the movement of the external object 10 in the memory 160 in performing the step S120.

상기 외부 객체(10)의 움직임에 관한 정보는, 상기 외부 객체(10)가 최초로 움직이기 시작한 지점에 관한 정보, 상기 외부 객체(10)가 최초로 움직이기 시작한 시각에 관한 정보, 상기 외부 객체(10)의 이동 경로에 관한 정보 등을 포함할 수 있다.The information about the movement of the external object 10 may include information about a point at which the external object 10 first started moving, information about a time when the external object 10 first started moving, and the external object 10. Information about a moving path of the "

상기 제어부(180)는, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성하는지를 판단한다[S130].The controller 180 determines whether the movement of the external object 10 substantially forms a closed curve [S130].

상기 폐곡선의 형성에 관한 다양한 기준이 설정될 수 있다. 예를 들어, 상기 제어부(180)는, 상기 외부 객체(10)의 움직임이 특정 궤적을 형성한 후 최초 움직이기 시작한 지점으로부터 미리 설정된 거리 내로 진입하면, 상기 외부 객체(10)의 움지임이 실질적으로 폐곡선을 형성한 것으로 판단할 수 있다.Various criteria regarding the formation of the closed curve may be set. For example, when the movement of the external object 10 enters a predetermined distance from a point where the first movement starts after the movement of the external object 10 forms a specific trajectory, the movement of the external object 10 is substantially reduced. It can be judged that a closed curve is formed.

예를 들어 상기 제어부(180)는, 도 7을 참조하면, 상기 외부 객체(10)의 움직임이 최초 움직이기 시작한 지점(A)으로부터 특정 궤적을 형성한 후, 미리 설정된 거리인 d1 내로 진입하기 전인 지점(B)에서는, 상기 외부 객체(10)의 움직임이 아직 폐곡선을 형성하지 않은 것으로 판단한다.For example, referring to FIG. 7, the controller 180 forms a specific trajectory from the point A at which the movement of the external object 10 first starts to move, and then enters a predetermined distance d1. At point B, it is determined that the movement of the external object 10 has not yet formed a closed curve.

또한 예를 들어 상기 제어부(180)는, 도 7을 참조하면, 상기 외부 객체(10)의 움직임이 상기 지점(B)를 지나 상기 미리 설정된 거리 d1 내로 진입하는 지점(C)에 도달하면, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성한 것으로 판단할 수 있다.Also, for example, referring to FIG. 7, when the movement of the external object 10 reaches a point C passing through the point B and within the preset distance d1, It may be determined that the movement of the external object 10 substantially forms a closed curve.

상기 제어부(180)는, 상기 메모리(160)에 저장된 상기 외부 객체(10)의 움직임에 관한 정보를 이용하여, 상기 S130 단계를 수행할 수 있다.The controller 180 may perform step S130 by using information about the movement of the external object 10 stored in the memory 160.

상기 제어부(180)는, 상기 S130 단계의 판단 결과, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성하지 않은 경우, 상기 S110 단계로 회귀한다.The controller 180 returns to step S110 when the movement of the external object 10 does not substantially form a closed curve as a result of the determination in step S130.

상기 제어부(180)는, 상기 S130 단계의 판단 결과, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성한 경우, 상기 형성된 폐곡선과 실질적으로 평행한 면을 가상 입력 영역으로 설정한다[S140].As a result of the determination in step S130, when the movement of the external object 10 substantially forms a closed curve, the controller 180 sets a plane substantially parallel to the formed closed curve as a virtual input area [S140]. .

예를 들어 도 8을 참조하면, 사용자의 손가락의 움직임이 폐곡선(11)을 형성하면, 상기 제어부(180)는, 상기 폐곡선(11)과 실질적으로 평행한 면을 가상 입력 영역(20)으로 설정할 수 있다.For example, referring to FIG. 8, when the movement of the user's finger forms the closed curve 11, the controller 180 sets a plane substantially parallel to the closed curve 11 as the virtual input area 20. Can be.

상기 가상 입력 영역(20)으로 설정되는 면은, 다양한 방식으로 설정될 수 있다.The surface set as the virtual input area 20 may be set in various ways.

예를 들어, 상기 제어부(180)는, 상기 폐곡선(11)과 실질적으로 평행한 면으로서, 상기 폐곡선(11)을 실질적인 경계로 하는 면을 상기 가상 입력 영역(20)으로 설정할 수 있다.For example, the controller 180 may set a surface substantially parallel to the closed curve 11 and having a substantially boundary of the closed curve 11 as the virtual input area 20.

또한 예를 들어, 상기 제어부(180)는, 상기 폐곡선(11)과 실질적으로 평행한 면으로서, 상기 폐곡선(11)의 내부에 존재하는 면을 상기 가상 입력 영역(20)으로 설정할 수 있다.In addition, for example, the controller 180 may set the plane existing inside the closed curve 11 as the virtual input area 20 as a plane substantially parallel to the closed curve 11.

가상 입력 영역(20)의 설정-외부 객체를 선택(1)Setting of virtual input area 20-select external object (1)

도 9는 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 10은, 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.9 is a flowchart of a method of performing a function of an electronic device according to a second embodiment of the present invention. 10 is a diagram for describing a method of performing a function of an electronic device according to a second embodiment of the present disclosure. Hereinafter, a method of performing a function of an electronic device according to a second embodiment of the present invention and an operation of the electronic device 100 for implementing the same will be described in detail with reference to the accompanying drawings.

상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드로 진입하고[S200], 상기 카메라(121)를 통해 외부 영상을 획득하고[S210], 상기 획득된 영상을 분석하여 제1 외부 객체(10)의 움직임을 인식한다[S220]. The controller 180 enters a virtual input mode related to a function disclosed in this document [S200], acquires an external image through the camera 121 [S210], and analyzes the obtained image to generate a second image. 1 recognizes the movement of the external object 10 [S220].

상기 S200 단계 내지 상기 S220 단계는, 전술한 제1 실시예에서의 상기 S100 단계 내지 상기 S120 단계에 대응된다.The steps S200 to S220 correspond to the steps S100 to S120 in the above-described first embodiment.

상기 제어부(180)는, 상기 S220 단계에서 인식된 상기 제1 외부 객체(10)의 움직임이 상기 제1 외부 객체(10)와는 다른 제2 외부 객체(15)를 선택하는 움직임에 해당하는지를 판단한다[S230].The controller 180 determines whether the movement of the first external object 10 recognized in step S220 corresponds to a movement of selecting a second external object 15 different from the first external object 10. [S230].

도 10은, 사용자가 손가락으로 책상 위에 놓여진 책을 선택하는 모습을 도시한다. 도 10에서, 상기 손가락이 상기 제1 외부 객체(10)에 해당하고, 상기 책(20)이 상기 제2 외부 객체(15)에 해당한다.10 shows a user selecting a book placed on a desk with a finger. In FIG. 10, the finger corresponds to the first external object 10 and the book 20 corresponds to the second external object 15.

예를 들어 도 10을 참조하면, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 상기 손가락(10)의 움직임을 인식하고, 상기 손가락(10)이 상기 책(15)과 접촉하거나, 상기 손가락(10)과 상기 책(15)의 거리가 미리 설정된 거리 이내가 되면, 상기 제2 외부 객체(15)가 선택된 것으로 판단할 수 있다.For example, referring to FIG. 10, the controller 180 analyzes an image acquired by the camera 121 to recognize a movement of the finger 10, and the finger 10 reads the book ( 15, or when the distance between the finger 10 and the book 15 is within a preset distance, it may be determined that the second external object 15 is selected.

상기 제어부(180)는, 3D 카메라를 이용하여 외부 객체들의 깊이(depth)를 통해 객체들 각각을 인식하거나, 2D 카메라 및/또는 3D 카메라를 이용하여 외부 객체들의 색상을 분석하여 외부 객체들 각각을 인식할 수도 있다.The controller 180 recognizes each of the objects through the depth of the external objects using a 3D camera, or analyzes the colors of the external objects using a 2D camera and / or a 3D camera to analyze each of the external objects. You can also recognize it.

상기 제어부(180)는, 상기 선택된 제2 외부 객체(15)의 표면을 가상 입력 영역(20)으로 설정할 수 있다[S240].The controller 180 may set the surface of the selected second external object 15 as the virtual input area 20 [S240].

상기 제2 외부 객체(15)의 표면이 반드시 평평해야 하는 것은 아니다. 상기 제2 외부 객체(15)의 표면은 평평할 수도 있고 곡면일 수도 있다.The surface of the second external object 15 is not necessarily flat. The surface of the second external object 15 may be flat or curved.

가상 입력 영역(20)의 설정-외부 객체를 선택(2)Setting of virtual input area 20-select external object (2)

도 11은 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 12 내지 도 14는, 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.11 is a flowchart of a method of performing a function of an electronic device according to a third embodiment of the present invention. 12 to 14 are diagrams for describing a method of performing a function of an electronic device according to a third embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a third embodiment of the present invention and an operation of the electronic device 100 for implementing the same will be described in detail with reference to the accompanying drawings.

상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드로 진입하고[S300], 상기 카메라(121)를 통해 외부 영상을 획득한다[S310].The controller 180 enters a virtual input mode related to a function disclosed in this document [S300], and acquires an external image through the camera 121 [S310].

상기 S300 단계 및 상기 S310 단계는, 전술한 제1 실시예에서의 상기 S100 단계 및 상기 S110 단계에 대응된다.Steps S300 and S310 correspond to steps S100 and S110 in the above-described first embodiment.

상기 제어부(180)는, 상기 획득된 외부 영상에 포함된 적어도 하나의 외부 객체를 상기 디스플레이부(151)에 표시한다[S320].The controller 180 displays at least one external object included in the obtained external image on the display unit 151 [S320].

도 12는, 상기 획득된 외부 영상이 상기 디스플레이부(151)에 표시된 예를 도시한다. 예를 들어, 도 12에 도시된 외부 영상은, 3개의 외부 객체들(17)을 포함한다. 상기 제어부(180)는, 상기 디스플레이부(151)에 지시자(indicator, 22)를 표시할 수 있다.12 illustrates an example in which the acquired external image is displayed on the display unit 151. For example, the external image shown in FIG. 12 includes three external objects 17. The controller 180 may display an indicator 22 on the display unit 151.

상기 제어부(180)는, 상기 디스플레이부(151)에 표시된 상기 적어도 하나의 외부 객체 중 제1 외부 객체에 대한 선택 신호를 수신한다[S330].The controller 180 receives a selection signal for a first external object of the at least one external object displayed on the display unit 151 [S330].

도 13은, 도 12에 도시된 외부 객체들(17) 중 특정 외부 객체를 선택하는 예를 도시한 도면이다. 예를 들어 도 13을 참조하면, 사용자는 상기 지시자(22)를 제어하여 상기 외부 객체들(17) 중 특정 외부 객체를 선택할 수 있다. 상기 지시자(22)는, 상기 리모트 콘트롤(200)에 의해 제어될 수 있다.FIG. 13 is a diagram illustrating an example of selecting a specific external object among the external objects 17 illustrated in FIG. 12. For example, referring to FIG. 13, a user may select the specific external object among the external objects 17 by controlling the indicator 22. The indicator 22 may be controlled by the remote control 200.

상기 제어부(180)는, 상기 지시자(22)가 현재 지시하는 외부 객체를 다른 외부 객체들과 구별되게 표시할 수 있다. 도 13(a)를 참조하면, 상기 지시자(22)가 지시하고 있는 사람(17a)의 윤곽이 다른 객체들(17b, 17c)보다 굵게 표시될 수 있다. 도 13(b)를 참조하면, 상기 지시자(22)가 지시하고 있는 책(17b)의 윤곽이 다른 객체들(17a, 17c)보다 굵게 표시될 수 있다.The controller 180 may display an external object currently indicated by the indicator 22 to be distinguished from other external objects. Referring to FIG. 13A, the outline of the person 17a indicated by the indicator 22 may be displayed to be thicker than the other objects 17b and 17c. Referring to FIG. 13B, the outline of the book 17b indicated by the indicator 22 may be displayed to be thicker than the other objects 17a and 17c.

사용자는, 도 13에 도시된 바와 같이, 상기 지시자(22)가 특정 외부 객체를 지시하는 상태에서, 상기 리모트 콘트롤(200)에 구비된 확인 버튼을 누름으로써, 상기 지시자(22)가 지시하고 있는 특정 외부 객체를 선택할 수 있다.As shown in FIG. 13, in the state where the indicator 22 indicates a specific external object, the user instructs the indicator 22 by pressing the confirmation button provided in the remote control 200. You can select specific external objects.

한편, 상기 디스플레이부(151)가 터치 스크린인 경우, 사용자는 자신이 원하 는 특정 외부 객체를 손가락으로 터치함으로써, 상기 특정 외부 객체를 선택할 수도 있다.On the other hand, when the display unit 151 is a touch screen, the user may select the specific external object by touching a specific external object desired by the finger.

또한 상기 제어부(180)는, 상기 획득된 외부 영상을 분석하여, 상기 획득된 외부 영상으로부터 인식된 외부 객체들을 아이콘 또는 이미지의 형태로 별도로 제공할 수도 있다. 도 14는 아이콘 형태로 제공된 외부 객체들의 예를 도시한 도면이다.In addition, the controller 180 may analyze the obtained external image and separately provide external objects recognized from the obtained external image in the form of an icon or an image. 14 is a diagram illustrating an example of external objects provided in the form of an icon.

도 14를 참조하면, 도 12 및 도 13에 도시된 상기 외부 객체들(17)이 각각 아이콘들(18)로 상기 디스플레이부(151)에 제공될 수 있다.Referring to FIG. 14, the external objects 17 illustrated in FIGS. 12 and 13 may be provided to the display unit 151 as icons 18, respectively.

사용자는, 도 13의 경우와 마찬가지로, 상기 지시자(22)를 제어하여 상기 아이콘들(18) 중 특정 아이콘을 선택할 수 있다. 상기 제어부(180)는, 사용자가 상기 특정 아이콘을 선택함에 따라, 상기 선택된 특정 아이콘과 대응되는 외부 객체를 선택하게 된다.As in the case of FIG. 13, the user may control the indicator 22 to select a specific icon among the icons 18. As the user selects the specific icon, the controller 180 selects an external object corresponding to the selected specific icon.

상기 제어부(180)는, 상기 선택된 제1 외부 객체의 표면을 상기 가상 입력 영역으로 설정할 수 있다[S340]. 예를 들어, 사용자가 도 12 내지 도 14에 도시된 외부 영상에서 책(17b)을 선택한 경우, 상기 제어부(180)는 상기 책(17b)의 표면을 상기 가상 입력 영역으로 설정하게 된다.The controller 180 may set a surface of the selected first external object as the virtual input area [S340]. For example, when the user selects the book 17b from the external images shown in FIGS. 12 to 14, the controller 180 sets the surface of the book 17b as the virtual input area.

가상 입력 영역(20)의 설정-외부 객체의 선택 및 움직임Setting of the virtual input area 20-selection and movement of external objects

도 15는 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 16 및 도 17은, 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방 법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.15 is a flowchart illustrating a method of performing a function of an electronic device according to a fourth embodiment of the present invention. 16 and 17 are diagrams for describing a method of performing a function of an electronic device according to a fourth embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a fourth embodiment of the present invention and an operation of the electronic device 100 for implementing the same will be described in detail with reference to necessary drawings.

상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드로 진입하고[S400], 상기 카메라(121)를 통해 외부 영상을 획득한다[S410].The controller 180 enters a virtual input mode related to a function disclosed in this document [S400], and acquires an external image through the camera 121 [S410].

상기 S400 단계 및 상기 S410 단계는, 전술한 제1 실시예에서의 상기 S100 단계 및 상기 S110 단계에 대응된다.The steps S400 and S410 correspond to the steps S100 and S110 in the above-described first embodiment.

상기 제어부(180)는, 상기 획득된 영상을 분석하여, 외부의 제1 객체의 움직임을 인식하고[S420], 상기 제1 객체의 움직임에 따라, 상기 제1 객체가 지시하는 제2 객체를 인식한다[S430].The controller 180 analyzes the acquired image to recognize a movement of an external first object [S420], and recognizes a second object indicated by the first object according to the movement of the first object. [S430].

상기 제어부(180)는, 상기 제2 객체의 표면 중 상기 제1 객체의 움직임이 실질적으로 형성하는 폐곡선 내부면을 상기 가상 입력 영역으로 설정할 수 있다[S440].The controller 180 may set the closed curve inner surface of the surface of the second object, which is substantially formed by the movement of the first object, as the virtual input area [S440].

예를 들어 도 16을 참조하면, 사용자가 상기 제1 객체에 해당하는 손가락(24)을 상기 제2 객체에 해당하는 책상(25) 근처로 가져가거나 상기 책상(25)을 건드리면, 상기 제어부(180)는, 상기 손가락(24)의 움직임을 분석하여 상기 손가락(24)이 상기 책상(25)을 지시함을 인식할 수 있다[S420, S430].For example, referring to FIG. 16, when the user moves the finger 24 corresponding to the first object near the desk 25 corresponding to the second object or touches the desk 25, the controller ( 180 may recognize that the finger 24 points to the desk 25 by analyzing the movement of the finger 24 [S420, S430].

사용자는, 도 16에 도시된 바와 같이, 상기 손가락(24)으로 상기 책상(25) 표면에 실질적으로 폐곡선을 형성하는 궤적을 그릴 수 있다. 상기 제어부(180)는, 상기 손가락(24)의 움직임을 감시하여 상기 형성된 폐곡선에 의해 둘러싸여지는 영 역(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다[S440].As illustrated in FIG. 16, the user may draw a trajectory that substantially forms a closed curve on the surface of the desk 25 with the finger 24. The controller 180 may monitor the movement of the finger 24 to set the area 20 surrounded by the formed closed curve as the virtual input area 20 [S440].

또한 예를 들어 도 17을 참조하면, 사용자가 상기 제1 객체에 해당하는 오른손 손가락(24)을 상기 제2 객체에 해당하는 왼손 손바닥(26) 근처로 가져가거나 상기 손바닥(26)을 건드리면, 상기 제어부(180)는, 상기 손가락(24)의 움직임을 분석하여 상기 손가락(24)이 상기 손바닥(26)을 지시함을 인식할 수 있다[S420, S430].For example, referring to FIG. 17, when the user moves the right hand finger 24 corresponding to the first object near the left hand palm 26 corresponding to the second object or touches the palm 26, The controller 180 may analyze the movement of the finger 24 to recognize that the finger 24 points to the palm 26 [S420, S430].

사용자는, 도 17에 도시된 바와 같이, 상기 손가락(24)으로 상기 손바닥(26) 에 실질적으로 폐곡선을 형성하는 궤적을 그릴 수 있다. 상기 제어부(180)는, 상기 손가락(24)의 움직임을 감시하여 상기 형성된 폐곡선에 의해 둘러싸여지는 영역(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다[S440].As illustrated in FIG. 17, the user may draw a trajectory that substantially forms a closed curve on the palm 26 with the finger 24. The controller 180 may monitor the movement of the finger 24 to set the area 20 surrounded by the formed closed curve as the virtual input area 20 [S440].

전술한 제1 내지 제4 실시예에서 설명된 바와 같은 다양한 방식으로 상기 가상 입력 영역(20)이 설정된 후, 상기 전자 기기(100)의 전원이 차단되거나 사용자의 명령에 의해 상기 전자 기기(100)가 오프(off)된 후 다시 온(on)되는 상황이 발생할 수 있다.After the virtual input area 20 is set in various ways as described in the above-described first to fourth embodiments, the power of the electronic device 100 is cut off or by the user's command. May be turned on again after it is turned off.

상기 전자 기기(100)가 재구동됨에 따라, 상기 제어부(180)는 상기 가상 입력 모드를 유지하도록 설정되어 있을 수 있다. 이때, 상기 제어부(180)는, 상기 전자 기기(100)가 오프된 후 재구동됨에 따라, 오프되기 전에 설정되었거나 활성화되었던 상기 가상 입력 영역(20)을 유지할 수 있다.As the electronic device 100 is restarted, the controller 180 may be set to maintain the virtual input mode. In this case, as the electronic device 100 is turned off and then restarted, the controller 180 can maintain the virtual input area 20 set or activated before being turned off.

또는 상기 전자 기기(100)가 재구동됨에 따라, 상기 제어부(180)는 상기 가상 입력 모드를 유지하지만, 새로운 가상 입력 영역을 설정하도록 사용자에게 요청 할 수 있다.Alternatively, as the electronic device 100 is restarted, the controller 180 maintains the virtual input mode, but may request a user to set a new virtual input area.

또한 전술한 제1 내지 제4 실시예에서 설명된 바와 같은 다양한 방식으로 설정되는 상기 가상 입력 영역(20)은, 별도의 데이터베이스에 의해 관리될 수 있다. 상기 별도의 데이터베이스는, 상기 메모리(160) 또는 상기 전자 기기(100)에 탈부착될 수 있는 별도 메모리에 저장될 수 있다.In addition, the virtual input area 20 set in various ways as described in the first to fourth embodiments described above may be managed by a separate database. The separate database may be stored in a separate memory that can be attached to or detached from the memory 160 or the electronic device 100.

예를 들어, 상기 데이터베이스는, 사용자에 의해 설정되었던 상기 가상 입력 영역(20)을 다양한 방식으로 관리할 수 있다. 예를 들어, 사용자별, 시간별, 장소별 등 다양한 관리 기준에 따라 상기 가상 입력 영역(20)이 데이터베이스화되어 관리될 수 있다.For example, the database may manage the virtual input area 20 set by a user in various ways. For example, the virtual input area 20 may be databaseized and managed according to various management criteria such as user, time, and place.

사용자는, 다양한 입력 수단을 통해 상기 전자 기기(100)를 제어하여 상기 데이터베이스를 호출할 수 있다. 사용자는 별도의 설정 과정 없이도 상기 호출된 데이터베이스에서 자신이 원하는 가상 입력 영역(20)을 선택할 수 있다. 예를 들어, 상기 전자 기기(100)가 거실에 놓여진 DTV인 경우, 거실의 환경이 크게 바뀌지 않는 것이 일반적일 것이다. 이러한 경우, 사용자는 상기 데이터베이스에 저장된 복수 개의 가상 입력 영역들 중 특정 가상 입력 영역을 선택하고, 상기 제어부(180)는 현재 거실의 환경에 상기 선택된 가상 입력 영역이 존재하는지 혹은 매칭되는지를 판단할 수 있다.The user may call the database by controlling the electronic device 100 through various input means. The user can select his or her desired virtual input area 20 from the called database without a separate setting process. For example, when the electronic device 100 is a DTV placed in a living room, the environment of the living room will not change significantly. In this case, the user may select a specific virtual input area among a plurality of virtual input areas stored in the database, and the controller 180 may determine whether the selected virtual input area exists or matches in the environment of the current living room. have.

또한 전술한 제1 내지 제4 실시예에서 설명된 바와 같은 다양한 상기 가상 입력 영역(20)의 설정 과정은, 상기 디스플레이부(151)를 통해 제공될 수 있다.In addition, the process of setting the various virtual input areas 20 as described in the first to fourth embodiments described above may be provided through the display unit 151.

예를 들어, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 상기 디스플레이부(151)에 표시하고, 상기 가상 입력 영역(20)을 상기 획득되는 영상에 포함된 다른 객체들과 구분하여 표시할 수 있다.For example, the controller 180 displays an image acquired through the camera 121 on the display unit 151 and other objects included in the virtual input area 20 in the acquired image. It can be displayed separately from.

또한 상기 제어부(180)는, 상기 가상 입력 영역(20)의 설정 이전에 표시되었던 원래의 화면을 유지하면서 상기 가상 입력 영역(20)의 설정 과정을 상기 디스플레이부(151)에 표시할 수 있다.In addition, the controller 180 may display the setting process of the virtual input area 20 on the display unit 151 while maintaining the original screen displayed before the setting of the virtual input area 20.

이때 상기 제어부(180)는, 상기 가상 입력 영역(20)의 설정 과정을 표시하는 영역과 상기 원래의 화면을 표시하는 영역을 겹치게 할 수도 있고, 별도의 영역으로 분리하여 표시할 수도 있다.In this case, the controller 180 may overlap the region displaying the setting process of the virtual input region 20 and the region displaying the original screen, or display the divided region in a separate region.

상기 설정 과정을 표시하는 영역과 상기 원래의 화면을 표시하는 영역이 겹치는 경우, 상기 제어부(180)는, 상기 두 개의 영역 중 어느 하나의 영역을 반투명하게 처리할 수 있다.When an area displaying the setting process and an area displaying the original screen overlap, the controller 180 may process one of the two areas semi-transparently.

상기 제어부(180)는, 상기 카메라(121)가 2D 카메라와 3D 카메라를 모두 구비하는 경우, 상기 2D 카메라를 통해 획득되는 영상을 상기 설정 과정을 표시하는 영역에 표시하고, 상기 3D 카메라를 통해 획득되는 영상을 상기 설정 과정에서 필요한 분석용 영상으로 이용할 수 있다.When the camera 121 includes both a 2D camera and a 3D camera, the controller 180 displays an image acquired through the 2D camera in an area displaying the setting process, and obtains the image through the 3D camera. The image to be used may be used as an image for analysis necessary in the setting process.

가상 입력 영역(20)과 Virtual input area 20 and 디스플레이부(151)의Of the display unit 151 매칭matching

전술한 제1 내지 제4 실시예에서 설정되는 상기 가상 입력 영역(20)은, 상기 전자 기기(100)의 상기 디스플레이부(151)의 화면과, 면대면(surface-to-surface) 매칭 또는 점대점(point-to-point) 매칭이 이루어질 수 있다.The virtual input area 20 set in the first to fourth embodiments described above may be matched with a screen of the display unit 151 of the electronic device 100, or face-to-surface matching or point-to-point. Point-to-point matching can be made.

사용자가 상기 가상 입력 영역(20)을 외부의 터치 디바이스처럼 사용하기 위해서는, 상기 가상 입력 영역(20)의 특정 지점이 상기 디스플레이부(151)의 특정 지점에 대응되어야 할 필요가 있다.In order for a user to use the virtual input area 20 as an external touch device, a specific point of the virtual input area 20 needs to correspond to a specific point of the display unit 151.

도 18 내지 도 26은 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간의 매칭을 설명하기 위한 도면들이다. 도 18 내지 도 24는, 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간에 매칭이 이루어지는 다양한 방식들을 도시한 도면들이다. 도 25 및 도 26은, 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간에 매칭이 필요없는 경우를 설명하기 위한 도면들이다.18 to 26 are diagrams for describing matching between the virtual input area 20 and the display unit 151. 18 to 24 illustrate various methods of matching between the virtual input area 20 and the display unit 151. 25 and 26 are diagrams for describing a case in which no matching is required between the virtual input area 20 and the display unit 151.

이하 도 18 내지 도 26을 참조하여, 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간의 매칭에 관해 설명하기로 한다.Hereinafter, matching between the virtual input area 20 and the display unit 151 will be described with reference to FIGS. 18 to 26.

도 18을 참조하면, 상기 제어부(180)는, 상기 가상 입력 영역(20)이 사각형인 경우, 상기 가상 입력 영역(20)의 각 꼭지점과 상기 디스플레이부(151)을 구성하는 화면의 각 꼭지점을 일대일로 매칭시킬 수 있다.Referring to FIG. 18, when the virtual input area 20 is a quadrangle, the controller 180 selects each vertex of the virtual input area 20 and each vertex of the screen constituting the display unit 151. One-to-one matching

상기 제어부(180)는, 상기 매칭을 위해, 기준점을 이용할 수 있다. 예를 들어 도 18을 참조하면, 상기 제어부(180)는 상기 디스플레이부(151)의 중심(O1)을 기준점으로 하고, 상기 디스플레이부(151)의 중심(O1)을 상기 가상 입력 영역(20)의 중심 또는 임의의 지점(O2)과 매칭시킬 수 있다.The controller 180 may use a reference point for the matching. For example, referring to FIG. 18, the controller 180 uses the center O1 of the display unit 151 as a reference point, and uses the center O1 of the display unit 151 as the virtual input area 20. Can be matched with the center or any point O2.

상기 제어부(180)는, 상기 기준점의 매칭을 이용하여 나머지 지점들 또는 화면 전체의 매칭을 수행할 수 있다.The controller 180 may perform matching of the remaining points or the entire screen by using the matching of the reference points.

상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 크기 및 형태는 상이 할 수 있으므로, 상기 제어부(180)는 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 매칭에 있어서, 스케일링(scaling)을 수행할 수도 있다.Since the size and shape of the virtual input area 20 and the display unit 151 may be different, the controller 180 scales in matching the virtual input area 20 and the display unit 151. You can also perform scaling.

예를 들어, 사용자가 상기 가상 입력 영역(20)에서 손가락을 이동시키면, 이에 대응하여 상기 디스플레이부(151)에 표시되는 지시자가 이동하는 기능이 수행될 수 있다. 이때, 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 크기 및/또는 형태의 차이로 인하여, 상기 손가락의 이동 거리와 상기 지시자의 이동 거리는 다르게 설정될 필요가 있다. 이를 위해 상기 제어부(180)는, 상기 스케일링을 수행할 수 있다.For example, when a user moves a finger in the virtual input area 20, a function of moving an indicator displayed on the display unit 151 may be performed in response to this. In this case, due to the difference in size and / or shape of the virtual input area 20 and the display unit 151, the movement distance of the finger and the movement distance of the indicator need to be set differently. To this end, the controller 180 may perform the scaling.

상기 스케일링은, 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 각각의 크기 및 형태에 의존하여 수행될 수 있다.The scaling may be performed depending on the size and shape of each of the virtual input area 20 and the display unit 151.

예를 들어, 상기 가상 입력 영역(20)이 상기 디스플레이부(151)보다 작은 경우, 상기 가상 입력 영역(20) 내부의 임의의 두 지점 간의 거리는, 상기 디스플레이부(151) 내부에서 대응되는 두 지점 간의 거리보다 작도록 상기 스케일링이 수행될 수 있다.For example, when the virtual input area 20 is smaller than the display unit 151, the distance between any two points within the virtual input area 20 is two points corresponding to the inside of the display unit 151. The scaling may be performed to be smaller than the distance between the two.

또한 예를 들어, 상기 가상 입력 영역(20)이 상기 디스플레이부(151)보다 큰 경우, 상기 가상 입력 영역(20) 내부의 임의의 두 지점 간의 거리는, 상기 디스플레이부(151) 내부에서 대응되는 두 지점 간의 거리보다 크도록 상기 스케일링이 수행될 수 있다.Also, for example, when the virtual input area 20 is larger than the display unit 151, the distance between any two points within the virtual input area 20 may correspond to two corresponding points within the display unit 151. The scaling may be performed to be greater than the distance between the points.

한편 상기 가상 입력 영역(20)의 경계(boundary)가 상기 디스플레이부(151)의 경계와 정확하게 매칭되기 어려운 상황이 발생할 수 있다.On the other hand, a situation in which the boundary of the virtual input area 20 does not exactly match the boundary of the display unit 151 may occur.

예를 들어, 전술한 제1 실시예 또는 제4 실시예에서와 같이, 사용자가 허공에 또는 책상 위에 손가락으로 폐곡선(11)을 그린 경우, 상기 손가락의 이동 경로는 반드시 직선들로만 이루어지지 않을 수 있다. 도 19에 도시된, 사용자의 손가락이 이동하는 궤적(11)은, 직선들로 이루어지지 않는다.For example, as in the first or fourth embodiment described above, when the user draws the closed curve 11 in the air or on the desk with a finger, the movement path of the finger may not necessarily consist of straight lines. . The trajectory 11 to which the user's finger moves, shown in FIG. 19, does not consist of straight lines.

이와 같은 경우, 상기 제어부(180)는, 도 19에 도시된 바와 같이, 상기 폐곡선(11)의 궤적을 감안하여, 상기 가상 입력 영역(20)이 직선들로만 이루어지도록, 상기 가상 입력 영역(20)을 설정할 수 있다. 도 19에 도시된 상기 가상 입력 영역(20)은, 사용자의 손가락이 형성한 상기 폐곡선(11)의 내부에 존재하고, B2-A2, A2-D2, D2-C2 및 C2-B2의 4개의 직선들로 이루어지도록 설정될 수 있다.In this case, as shown in FIG. 19, the controller 180 considers the trajectory of the closed curve 11 so that the virtual input area 20 includes only straight lines. Can be set. The virtual input area 20 shown in FIG. 19 exists inside the closed curve 11 formed by the user's finger, and has four straight lines B2-A2, A2-D2, D2-C2 and C2-B2. It can be set to consist of a.

상기 제어부(180)는, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 대응되도록, 다양한 방식으로 상기 가상 입력 영역(20)을 설정할 수 있다.The controller 180 may set the virtual input area 20 in various ways such that the virtual input area 20 corresponds to the closed curve 11.

예를 들어 상기 제어부(180)는, 도 20에 도시된 바와 같이, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 내접하도록 상기 가상 입력 영역(20)을 설정할 수 있다.For example, as illustrated in FIG. 20, the controller 180 may set the virtual input area 20 to inscribe the virtual input area 20 to the closed curve 11.

또한 예를 들어 상기 제어부(180)는, 도 21에 도시된 바와 같이, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 외접하도록 상기 가상 입력 영역(20)을 설정할 수 있다.For example, as illustrated in FIG. 21, the controller 180 may set the virtual input area 20 to allow the virtual input area 20 to circumscribe the closed curve 11.

또한 예를 들어 상기 제어부(180)는, 도 22에 도시된 바와 같이, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 외접하는 상태와 내접하는 상태의 중간 상태를 갖도록, 상기 가상 입력 영역(20)을 설정할 수 있다.For example, as shown in FIG. 22, the control unit 180 may have the virtual input area such that the virtual input area 20 has an intermediate state between a state of being circumscribed to the closed curve 11 and an inscribed state. 20 can be set.

또한 예를 들어 상기 제어부(180)는, 상기 가상 입력 영역(20)의 크기가 일정한 값을 갖도록, 상기 가상 입력 영역(20)을 설정할 수 있다. 도 23 및 도 24를 비교하면, 사용자가 손가락으로 형성한 폐곡선(11)의 크기는 서로 다르지만, 가상 입력 영역(20)의 크기는 서로 동일하다.For example, the controller 180 may set the virtual input area 20 so that the size of the virtual input area 20 has a constant value. 23 and 24, although the size of the closed curve 11 formed by the user is different from each other, the size of the virtual input area 20 is the same.

도 23 및 도 24의 경우, 상기 가상 입력 영역(20)의 크기는, 서로 다른 값을 갖는 몇 개의 크기들로 미리 설정되어 있을 수 있다. 상기 제어부(180)는, 사용자가 손가락으로 형성한 폐곡선(11)의 크기와 상기 미리 설정된 복수 개의 크기들을 비교하여, 상기 미리 설정된 복수 개의 크기들 중 상기 폐곡선(11)의 크기와 가장 가까운 크기를 상기 가상 입력 영역(20)의 크기로 결정할 수 있다.23 and 24, the size of the virtual input area 20 may be preset to several sizes having different values. The controller 180 compares the size of the closed curve 11 formed by the user with the finger and the plurality of preset sizes to determine the size closest to the size of the closed curve 11 among the plurality of preset sizes. The size of the virtual input area 20 may be determined.

도 25 및 도 26은, 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 매칭이 필요하지 않은 경우의 예들을 도시한다.25 and 26 illustrate examples in which the matching between the virtual input area 20 and the display unit 151 is not necessary.

상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간에 수행되는 면대면 매칭 또는 점대점 매칭은, 절대 좌표를 기반으로 수행될 수 있다. 절대 좌표 기반의 매칭은, 이론적으로 상기 가상 입력 영역(20)의 모든 지점과 상기 디스플레이부(151)의 간의 모든 지점이 서로 1:1로 대응될 수 있다.Face-to-face matching or point-to-point matching between the virtual input area 20 and the display unit 151 may be performed based on absolute coordinates. In absolute coordinate-based matching, in theory, all points of the virtual input area 20 and all points between the display unit 151 may correspond to each other in a 1: 1 relationship.

그러나, 상기 가상 입력 영역(20)을 통한 정보 입력은, 상대 좌표를 기반으로 수행될 수도 있다. 예를 들어, 상대 좌표 기반의 정보 입력에 의하면, 상기 가상 입력 영역(20) 상에서의 특정 외부 객체의 제1 이동 거리와, 상기 디스플레이부(151)에 표시되는 커서(cursor)의 제2 이동 거리가 서로 매칭될 수 있다.However, information input through the virtual input area 20 may be performed based on relative coordinates. For example, according to information input based on relative coordinates, a first moving distance of a specific external object on the virtual input area 20 and a second moving distance of a cursor displayed on the display unit 151. Can match each other.

상기 상대 좌표 기반의 매칭에 의하면, 상기 가상 입력 영역(20)의 크기와 상기 디스플레이부(151)의 크기 또는 해상도가 1:1로 매칭될 필요 없이, 상기 가상 입력 영역(20) 상에서 이루어지는 외부 객체의 특정 이동 거리가, 상기 디스플레이부(151)에서의 특정 픽셀 거리 또는 커서의 특정 이동 거리에 매칭될 수 있다.According to the matching based on the relative coordinates, the size of the virtual input area 20 and the size or resolution of the display unit 151 do not need to match 1: 1, but an external object made on the virtual input area 20. The specific moving distance of may be matched to the specific pixel distance on the display unit 151 or the specific moving distance of the cursor.

예를 들어 도 25를 참조하면, 상기 가상 입력 영역(20)에서 특정 객체가 특정 거리만큼 이동하면, 상기 디스플레이부(151)에 표시된 윈도우(28)가 상기 특정 거리에 대응되는 거리 또는 픽셀수만큼 이동될 수 있다.For example, referring to FIG. 25, when a specific object moves in the virtual input area 20 by a specific distance, the window 28 displayed on the display unit 151 is as much as the distance or the number of pixels corresponding to the specific distance. Can be moved.

한편 상기 가상 입력 영역(20)을 통한 정보 입력이, 특정 궤적만으로만 이루어지도록 설정될 수 있다.Meanwhile, information input through the virtual input area 20 may be set to be performed only by a specific trajectory.

예를 들어, 도 26에 도시된 바와 같이, 상기 가상 입력 영역(20) 내에서 사용자가 손가락으로 특정 궤적을 형성하는 제스쳐를 수행하면, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 통해 상기 제스쳐의 수행을 인식하고, 상기 특정 궤적 또는 상기 제스쳐에 대응되는 특정 기능을 수행하도록 설정될 수 있다.For example, as illustrated in FIG. 26, when the user performs a gesture of forming a specific trajectory with a finger in the virtual input area 20, the controller 180 is obtained through the camera 121. It may be set to recognize the performance of the gesture through the image, and to perform a specific function corresponding to the specific trajectory or the gesture.

이와 같은 경우, 상기 디스플레이부(151)와 상기 가상 입력 영역(20)의 매칭은 필요하지 않을 수 있다. 왜냐하면, 상기 제어부(180)는, 절대 좌표 또는 상대 좌표에 따라 상기 특정 궤적 또는 상기 제스쳐의 크기를 감지할 필요 없이, 상기 특정 궤적 또는 상기 제스쳐의 형태만을 인식하면, 특정 기능을 수행할 수 있기 때문이다.In this case, matching between the display unit 151 and the virtual input area 20 may not be necessary. This is because the controller 180 can perform a specific function if only the specific trajectory or the shape of the gesture is recognized without detecting the specific trajectory or the size of the gesture according to the absolute coordinate or the relative coordinate. to be.

가상 입력 영역(20)의 이동Movement of the virtual input area 20

도 27은 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 28 내지 도 30은, 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.27 is a flowchart of a method of performing a function of an electronic device according to a fifth embodiment of the present invention. 28 to 30 are diagrams for describing a method of performing a function of an electronic device according to a fifth embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a fifth embodiment of the present invention and an operation of the electronic device 100 for implementing the same will be described in detail with reference to necessary drawings.

상기 제어부(180)는, 전술한 제1 실시예 내지 제4 실시예에 따라 설정된 상기 가상 입력 영역(20)의 이동 또는 상기 설정된 가상 입력 영역(20)과 관련된 외부 객체의 이동을 감지할 수 있다[S500]. 상기 제어부(180)는, 상기 가상 입력 모드에서는, 상기 카메라(121)를 통해 외부 영상을 계속 획득할 수 있다. 따라서, 상기 제어부(180)는, 상기 획득되는 외부 영상을 분석하여, 외부에 존재하는 적어도 하나의 객체의 움직임을 항상 감지할 수 있다.The controller 180 may detect movement of the virtual input area 20 or movement of an external object related to the set virtual input area 20 according to the first to fourth embodiments described above. [S500]. The controller 180 may continuously acquire an external image through the camera 121 in the virtual input mode. Therefore, the controller 180 may always detect the movement of at least one object existing outside by analyzing the obtained external image.

도 28은, 전술한 제2 실시예 또는 제3 실시예에 따라 책(15)의 표면이 상기 가상 입력 영역(20)으로 설정된 경우, 사용자 또는 누군가가 상기 책(15)을 상기 가상 입력 영역(20)이 최초 설정된 위치에서 다른 위치로 이동시키는 예를 도시한다.FIG. 28 shows that when the surface of the book 15 is set to the virtual input area 20 according to the above-described second or third embodiment, a user or somebody views the book 15 in the virtual input area ( 20 shows an example of moving from the initially set position to another position.

상기 제어부(180)는, 상기 가상 입력 영역(20) 또는 이와 관련된 외부 객체의 이동을 감지한 경우, 상기 가상 입력 모드가 고정 모드(fixed mode)로 설정되어 있는지, 또는 추적 모드(tracking mode)로 설정되어 있는지를 판단한다[S510].When the controller 180 detects a movement of the virtual input area 20 or an external object related thereto, the controller 180 determines whether the virtual input mode is set to a fixed mode or to a tracking mode. It is determined whether it is set [S510].

상기 고정 모드는, 상기 가상 입력 영역(20) 또는 이와 관련된 외부 객체의 이동이 있는 경우, 상기 이동을 추적하지 않는 모드를 말한다. 그리고 상기 추적 모드는, 상기 이동을 추적하는 모드를 말한다.The fixed mode refers to a mode in which the movement is not tracked when there is a movement of the virtual input area 20 or an external object related thereto. The tracking mode refers to a mode for tracking the movement.

상기 제어부(180)는, 상기 S510 단계의 판단 결과, 상기 가상 입력 모드가 상기 고정 모드로 설정되어 있는 경우, 새로운 가상 입력 영역의 설정을 요청할 수 있다[S520].If the virtual input mode is set to the fixed mode as a result of the determination in step S510, the controller 180 may request setting of a new virtual input area [S520].

도 29는, 상기 고정 모드가 설정되어 있는 경우, 상기 제어부(180)가 새로운 가상 입력 영역의 설정을 요청하는 GUI(graphical user interface, 30)를 상기 디스플레이부(151)에 제공하는 예를 도시한다.FIG. 29 illustrates an example in which the control unit 180 provides the display unit 151 with a graphical user interface (GUI) 30 that requests setting of a new virtual input area when the fixed mode is set. .

도 29를 참조하면, 사용자는 상기 지시자(22)를 제어하여 "영역 설정"(31)을 선택하고, 전술한 제1 내지 제4 실시예에 따라, 상기 가상 입력 영역을 새롭게 설정할 수 있다. 또한 사용자가 "종료"(32)를 선택한 경우, 상기 제어부(180)는, 상기 가상 입력 모드를 종료할 수 있다.Referring to FIG. 29, the user may control the indicator 22 to select “region setting” 31 and newly set the virtual input region according to the first to fourth embodiments. In addition, when the user selects "end" 32, the controller 180 may end the virtual input mode.

한편, 상기 제어부(180)는, 상기 S510 단계의 판단 결과, 상기 가상 입력 모드가 상기 고정 모드로 설정되어 있는 경우, 상기 GUI(30)를 제공하지 않고, 상기 가상 입력 모드를 초기화할 수도 있다. 사용자는 별도의 입력 방식(예를 들어, 특정 제스쳐 또는 메뉴를 통해)으로 상기 가상 입력 모드를 새롭게 설정할 수 있다.On the other hand, the controller 180 may initialize the virtual input mode without providing the GUI 30 when the virtual input mode is set as the fixed mode as a result of the determination in step S510. The user may newly set the virtual input mode by a separate input method (for example, through a specific gesture or a menu).

상기 제어부(180)는, 상기 S510 단계의 판단 결과, 상기 가상 입력 모드가 상기 추적 모드로 설정되어 있는 경우, 상기 이동을 추적하여 상기 가상 입력 영역을 갱신하고 이를 유지할 수 있다[S530].If the virtual input mode is set to the tracking mode, the controller 180 may update the virtual input area by tracking the movement and maintain the virtual input area [S530].

도 30은, 도 28에서 상기 책(15)이 제1 위치(15a)에서 제2 위치(15b)로 이동한 경우, 상기 제어부(180)는 상기 책(15)의 움직임을 감지하여 상기 책(15)의 표 면으로 설정되어 있는 상기 가상 입력 영역(20)을 제1 위치(20a)에서 제2 위치(20b)로 추적할 수 있다.FIG. 30 illustrates that when the book 15 is moved from the first position 15a to the second position 15b in FIG. 28, the controller 180 senses the movement of the book 15 to detect the book ( The virtual input area 20 set as the surface of 15 may be tracked from the first position 20a to the second position 20b.

따라서 상기 추적 모드 하에서, 사용자는 상기 제1 위치(20a)에서 상기 제2 위치(20b)로 이동된 상기 가상 입력 영역(20)을 정보 입력을 위한 가상의 입력 영역으로 계속 이용할 수 있다.Accordingly, under the tracking mode, the user may continue to use the virtual input area 20 moved from the first location 20a to the second location 20b as a virtual input area for information input.

상기 추적 모드 하에서, 상기 가상 입력 영역(20) 또는 이와 관련된 객체가 상기 카메라(121)의 화각에서 사라진 후, 일정 시간 내에 다시 나타난 경우, 상기 제어부(180)는 상기 가상 입력 영역(20)을 유지할 수 있다.Under the tracking mode, when the virtual input area 20 or the related object disappears from the angle of view of the camera 121 and reappears within a predetermined time, the controller 180 maintains the virtual input area 20. Can be.

가상 입력 영역(20)의 이용Use of the virtual input area 20

도 31은 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 32는 도 31의 S610 단계의 세부 흐름도의 예이다. 도 33 내지 도 45는, 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.31 is a flowchart of a method of performing a function of an electronic device according to a sixth embodiment of the present invention. 32 is an example of a detailed flowchart of step S610 of FIG. 31. 33 to 45 are diagrams for describing a method of performing a function of an electronic device according to a sixth embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a sixth embodiment of the present invention and an operation of the electronic device 100 for implementing the same will be described in detail with reference to the accompanying drawings.

상기 제어부(180)는, 상기 가상 입력 영역(20)이 설정된 후, 상기 가상 입력 영역(20)과 관련된 외부 객체가 아닌 상기 제1 외부 객체의 움직임을 인식할 수 있다[S600]. 예를 들어, 상기 설정된 가상 입력 영역(20) 내에서 사용자가 특정 정보를 입력하기 위해 손가락을 움직이는 경우, 상기 제어부(180)는, 상기 손가락의 움 직임을 감지할 수 있다.After the virtual input area 20 is set, the controller 180 can recognize a movement of the first external object rather than an external object related to the virtual input area 20 [S600]. For example, when a user moves a finger to input specific information in the set virtual input area 20, the controller 180 may detect movement of the finger.

상기 제어부(180)는, 상기 제1 외부 객체의 움직임에 대응하여 특정 기능을 실행할 수 있다[S610].The controller 180 may execute a specific function in response to the movement of the first external object [S610].

상기 S610 단계는, 다양한 방식 및 형태로 수행될 수 있다. 도 32 및 필요한 도면들을 참조하여, 상기 S610 단계가 수행되는 방식의 다양한 예들을 설명하기로 한다.The step S610 may be performed in various ways and forms. Referring to FIG. 32 and necessary drawings, various examples of how the step S610 is performed will be described.

상기 제어부(180)는, 상기 감지된 제1 외부 객체의 움직임이 미리 지정된 궤적을 형성하는지를 판단한다[S611].The controller 180 determines whether the detected movement of the first external object forms a predetermined trajectory [S611].

도 33 내지 도 35는, 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하는 예들을 도시한다. 도 33 내지 도 35에 도시된, 제1 궤적(40), 제2 궤적(41) 및 제3 궤적(42)은, 상기 미리 지정된 궤적으로서, 상기 메모리(160)에 저장되어 있을 수 있다.33 to 35 illustrate examples in which the movement of the first external object forms the predetermined trajectory. 33 to 35, the first trajectory 40, the second trajectory 41, and the third trajectory 42 may be stored in the memory 160 as the predetermined trajectory.

상기 제어부(180)는, 미리 설정된 시간을 고려하여, 상기 S611 단계를 수행할 수 있다. 예를 들어, 후술하는 바와 같이, 상기 감지된 제1 외부 객체의 움직임이 다른 기능 수행을 위한 것일 수도 있으므로, 상기 제어부(180)는 상기 미리 설정된 시간 내에 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하는지의 여부를 판단할 수 있다.The controller 180 may perform step S611 in consideration of a preset time. For example, as will be described later, since the detected movement of the first external object may be for performing another function, the controller 180 may determine that the movement of the first external object is predetermined within the preset time. It is possible to determine whether or not to form a trajectory.

따라서, 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하더라도 상기 미리 설정된 시간 내에 이루어지지 않으면, 상기 제어부(180)는 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하지 않는 것으로 판단할 수 있다.Accordingly, even if the movement of the first external object does not occur within the preset time even if the movement of the first external object forms the predetermined trajectory, the controller 180 determines that the movement of the first external object does not form the predetermined trajectory. can do.

상기 제어부(180)는, 상기 S611 단계의 판단 결과, 상기 움직임이 상기 미리 지정된 궤적을 형성하는 경우, 상기 미리 지정된 궤적에 대응되는 기능을 실행할 수 있다[S612].As a result of the determination in step S611, when the movement forms the predetermined trajectory, the controller 180 may execute a function corresponding to the predetermined trajectory [S612].

예를 들어 도 33 내지 도 35에 도시된 상기 제1 궤적(40), 제2 궤적(41) 및 제3 궤적(42)은 각각, 방송 애플리케이션의 실행, 인터넷 접속 및 메인 메뉴 표시에 대응될 수 있다. 상기 제1 내지 제3 궤적들(40, 41, 42)과 이에 각각 대응되는 기능들의 대응 관계는, 상기 메모리(160)에 저장되어 있을 수 있다.For example, the first trajectory 40, the second trajectory 41, and the third trajectory 42 illustrated in FIGS. 33 to 35 may correspond to execution of a broadcast application, Internet access, and main menu display, respectively. have. Corresponding relationships between the first to third trajectories 40, 41, and 42 and the functions corresponding to the first to third trajectories 40, 41, and 42 may be stored in the memory 160.

예를 들어 상기 제어부(180)는, 상기 제1 궤적(40)을 감지하면, 도 33에 도시된 바와 같이, 상기 제1 궤적(40)에 대응되는 방송 애플리케이션을 실행할 수 있다.For example, when the controller 180 detects the first trajectory 40, as illustrated in FIG. 33, the controller 180 may execute a broadcast application corresponding to the first trajectory 40.

또한 예를 들어 상기 제어부(180)는, 상기 제2 궤적(41)을 감지하면, 도 34에 도시된 바와 같이, 상기 제2 궤적(41)에 대응되는 인터넷 접속을 실행할 수 있다. 이때 상기 제어부(180)는, 웹브라우저(web browser)를 구동하고 미리 지정된 웹사이트에 접속할 수 있다.For example, when the controller 180 detects the second trajectory 41, as illustrated in FIG. 34, the controller 180 may execute an internet connection corresponding to the second trajectory 41. In this case, the controller 180 may drive a web browser and access a predetermined website.

또한 예를 들어 상기 제어부(180)는, 상기 제3 궤적(42)을 감지하면, 도 35에 도시된 바와 같이, 상기 제3 궤적(40)에 대응되는 메뉴(44)를 상기 디스플레이부(151)에 표시할 수 있다.For example, when the controller 180 detects the third trajectory 42, as illustrated in FIG. 35, the display unit 151 displays a menu 44 corresponding to the third trajectory 40. ) Can be displayed.

여기서 특정 궤적은, 다양한 기능들에 중복되어 매칭되어 있을 수 있다. 예를 들어, 대기 화면을 표시하는 제1 상태, 방송을 출력하는 제2 상태, 인터넷에 접 속 중인 제3 상태에서, 상기 제어부(180)는, 도 33에 도시된 상기 제1 궤적(40)이 상기 가상 입력 영역(20)을 통해 입력되면, 서로 다른 기능들을 각각 수행할 수 있다.In this case, the specific trajectory may overlap and match various functions. For example, in a first state displaying a standby screen, a second state outputting a broadcast, and a third state connected to the Internet, the controller 180 may control the first trajectory 40 illustrated in FIG. 33. When input through the virtual input area 20, different functions may be performed.

상세한 예를 들면, 상기 대기 화면 상태에서 상기 제1 궤적(40)이 입력되면, 상기 제어부(180)는, 특정 메뉴를 상기 디스플레이부(151)에 표시할 수 있다.For example, when the first trajectory 40 is input in the standby screen state, the controller 180 can display a specific menu on the display unit 151.

또한 상기 방송 출력 상태인 상기 제2 상태에서 상기 제1 궤적(40)이 입력되면, 상기 제어부(180)는, EPG(electronic program guide) 정보를 상기 디스플레이부(151)에 표시할 수 있다.In addition, when the first trajectory 40 is input in the second state, which is the broadcast output state, the controller 180 may display electronic program guide (EPG) information on the display unit 151.

또한 상기 제3 상태에서 상기 제1 궤적(40)이 입력되면, 상기 제어부(180)는, 현재 접속 중인 웹사이트(website)에 미리 저장된 아이디와 패스워드를 이용하여 사용자 인증을 수행할 수 있다.In addition, when the first trajectory 40 is input in the third state, the controller 180 may perform user authentication using an ID and password previously stored in a website currently being accessed.

도 36은, 특정 궤적에 대해, 현재 상태에 따라 대응되는 기능이 달라지는 예를 도시한 도면이다. 도 36에 예로서 도시된 대응 관계는, 사용자에 의해 설정되거나 변경될 수 있다.36 is a diagram illustrating an example in which a corresponding function varies depending on a current state with respect to a specific trajectory. The correspondence relationship shown as an example in FIG. 36 may be set or changed by a user.

상기 제어부(180)는, 상기 S611 단계의 판단 결과, 상기 움직임이 상기 미리 지정된 궤적을 형성하지 않는 경우, 상기 움직임이 미리 지정된 패턴을 형성하는지 판단한다[S613].If the movement does not form the predetermined trajectory as a result of the determination in step S611, the controller 180 determines whether the movement forms a predetermined pattern [S613].

상기 미리 지정된 궤적이 상기 가상 입력 영역(20)의 표면에서 상기 제1 외부 객체가 움직임에 대응된다면, 상기 미리 지정된 패턴은 상기 가상 입력 영역(20)의 표면과 상관없이 상기 제1 외부 객체의 움직임에 대응된다.If the predetermined trajectory corresponds to the movement of the first external object on the surface of the virtual input area 20, the predetermined pattern is a movement of the first external object regardless of the surface of the virtual input area 20. Corresponds to.

상기 미리 지정된 패턴의 예를 들면, 사용자가 터치 스크린을 손가락으로 터치하는 동작처럼, 사용자가 상기 가상 입력 영역(20) 위에서 손가락을 한 번 아래 위로 움직이는 동작, 또는 손가락을 두 번 아래 위로 움직이는 동작 등이 있다.For example, the user may move the finger up and down once on the virtual input area 20, or move the finger up and down twice, such as an operation in which the user touches the touch screen with a finger. There is this.

도 37 및 도 38을 참조하면, 사용자가 상기 가상 입력 영역(20) 위에서 손가락을 상하로 움직이는 동작의 예를 도시한다. 상기 제어부(180)는 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 도 37 및 도 38에 도시된 손가락의 움직임을 감지할 수 있다.37 and 38, an example of an operation in which a user moves a finger up and down on the virtual input area 20 is illustrated. The controller 180 may detect the movement of a finger shown in FIGS. 37 and 38 by analyzing an image acquired by the camera 121.

상기 제어부(180)는, 상기 S613 단계의 판단 결과, 상기 움직임이 상기 미리지정된 패턴을 형성하면, 상기 디스플레이부(151)에 표시된 객체를 선택하거나 실행할 수 있다[S615].The controller 180 may select or execute an object displayed on the display unit 151 when the movement forms the predetermined pattern as a result of the determination in step S613 [S615].

예를 들어 도 37을 참조하면, 복수 개의 아이콘들(50)이 상기 디스플레이부(151)에 표시되고 있다. 사용자는 상기 리모트 콘트롤(200)을 제어하거나 상기 가상 입력 영역(20)에서 손가락을 사용함으로써 상기 지시자(22)를 이동시킬 수 있다.For example, referring to FIG. 37, a plurality of icons 50 are displayed on the display unit 151. The user may move the indicator 22 by controlling the remote control 200 or by using a finger in the virtual input area 20.

도 37에 도시된 바에 따라, 상기 지시자(22)가 특정 아이콘(50c)를 지시하는 상태에서, 사용자가 손가락을 상하로 1회 또는 2회 움직이면 상기 특정 아이콘(50c)이 선택되거나, 상기 특정 아이콘(50c)에 대응되는 기능이 실행될 수 있다.As shown in FIG. 37, when the user moves the finger up or down one or two times while the indicator 22 indicates the specific icon 50c, the specific icon 50c is selected, or the specific icon is selected. The function corresponding to 50c may be executed.

한편 상기 미리 지정된 패턴은, 상기 가상 입력 영역(20) 위에서 이루어질 수도 있고, 상기 가상 입력 영역(20)을 관통하여 이루어질 수도 있다.The predetermined pattern may be formed on the virtual input area 20 or may pass through the virtual input area 20.

도 38은 상기 가상 입력 영역(20) 위에서 상기 미리 지정된 패턴이 형성되는 예를 도시하고, 도 39는 상기 가상 입력 영역(20)을 관통하여 상기 미리 지정된 패턴이 형성되는 예를 도시한다.FIG. 38 illustrates an example in which the predetermined pattern is formed on the virtual input area 20, and FIG. 39 illustrates an example in which the predetermined pattern is formed through the virtual input area 20.

상기 제어부(180)는, 상기 S613 단계의 판단 결과, 상기 움직임이 상기 미리 지정된 패턴을 형성하지 않는 경우, 상기 움직임에 대응하여 상기 디스플레이부(151)에 표시된 지시자를 이동시킬 수 있다[S614].As a result of the determination in step S613, when the movement does not form the predetermined pattern, the controller 180 may move the indicator displayed on the display unit 151 in response to the movement [S614].

예를 들어 도 40을 참조하면, 사용자는 상기 가상 입력 영역(20) 상에서 손가락을 움직임으로써 상기 디스플레이부(151)에 표시된 지시자(22)를 이동시킬 수 있다. 도 40에서, 사용자의 손가락이 지점 M을 지시하는 상태(10a)에서 지점 N을 지시하는 상태(10b)로 이동하면, 상기 지시자(22)는 상기 디스플레이부(151)의 지점 M을 지시하는 상태(22a)에서 지점 N을 지시하는 상태(22b)로 이동될 수 있다.For example, referring to FIG. 40, the user may move the indicator 22 displayed on the display unit 151 by moving a finger on the virtual input area 20. In FIG. 40, when the user's finger moves from the state 10a indicating the point M to the state 10b indicating the point N, the indicator 22 indicates the point M of the display unit 151. It may be moved to the state 22b indicating the point N at 22a.

여기서, 상기 지시자(22)의 이동은, 절대 좌표 기반으로 설정되었는지 또는 상대 좌표 기반으로 설정되었는지에 따라 다른 방식으로 수행될 수 있다.Here, the movement of the indicator 22 may be performed in different ways depending on whether it is set based on absolute coordinates or based on relative coordinates.

예를 들어 상기 절대 좌표 기반에서는, 상기 지시자(22)는, 상기 가상 입력 영역(20)에서 상기 손가락(10)이 위치하는 지점에 대응되는, 상기 디스플레이부(151)의 지점에 위치한다. 따라서, 상기 절대 좌표 기반에서는, 사용자가 상기 가상 입력 영역(20)의 임의의 지점을 손가락(10)으로 지시하면, 상기 지시자(22)는, 상기 손가락(10)이 지시하는 상기 임의의 지점과 대응되는 위치로 이동할 수 있다.For example, on the basis of the absolute coordinate, the indicator 22 is located at the point of the display unit 151, corresponding to the point where the finger 10 is located in the virtual input area 20. Therefore, in the absolute coordinate base, when the user indicates an arbitrary point of the virtual input area 20 with the finger 10, the indicator 22 is connected to the arbitrary point indicated by the finger 10. You can move to the corresponding position.

또한 예를 들어 상기 상대 좌표 기반에서는, 상기 지시자(22)는, 상기 가상 입력 영역(20)에서 상기 손가락(10)의 이동 거리에 대응하여 이동한다. 따라서, 상 기 상대 좌표 기반에서는, 사용자가 상기 가상 입력 영역(20)의 임의의 지점을 손가락(10)으로 지시하더라도, 상기 지시자(22)는 이동하지 않을 수 있다.For example, on the basis of the relative coordinates, the indicator 22 moves in correspondence with the movement distance of the finger 10 in the virtual input area 20. Therefore, on the basis of the relative coordinates, the indicator 22 may not move even if the user indicates an arbitrary point of the virtual input area 20 with the finger 10.

전술한 바와 같이, 상기 가상 입력 영역(10)은 상기 전자 기기(100)의 외부에 존재하는 것이지만, 사용자는 상기 가상 입력 영역(10)을 상기 전자 기기(100)의 일부로서 입력 영역으로 이용할 수 있다.As described above, the virtual input area 10 exists outside the electronic device 100, but a user may use the virtual input area 10 as an input area as a part of the electronic device 100. have.

상기 가상 입력 영역(10)을 이용하여 상기 전자 기기(100)를 제어하는 다른 실시예들을 설명하기로 한다.Other embodiments of controlling the electronic device 100 using the virtual input area 10 will be described.

도 41은 상기 가상 입력 영역(10)을 통해 상기 전자 기기(100)의 음향 출력을 제어하는 예를 도시한 도면이다. 사용자는 상기 가상 입력 영역(10) 내부에서 손가락(10)을 이동시킴으로써 상기 전자 기기(100)에서 출력되는 음향의 볼륨(volume)을 제어할 수 있다.FIG. 41 is a diagram illustrating an example of controlling sound output of the electronic device 100 through the virtual input area 10. The user may control the volume of the sound output from the electronic device 100 by moving the finger 10 in the virtual input area 10.

도 41을 참조하면, 상기 가상 입력 영역(10) 내부에서 이루어지는 외부 객체의 좌우 이동이 음향의 볼륨 조절 기능에 대응되어 있는 경우, 사용자의 손가락이 지점 M을 지시하는 상태(10c)에서 지점 N을 지시하는 상태(10d)로 이동하면, 상기 전자 기기(100)로부터 출력되는 음향의 볼륨이 증가한다.Referring to FIG. 41, when the left and right movement of an external object in the virtual input area 10 corresponds to the volume control function of the sound, the user's finger points to the point N in the state 10c indicating the point M. FIG. Moving to the instructed state 10d, the volume of the sound output from the electronic device 100 increases.

도 42 및 도 43은 상기 가상 입력 영역(10)을 통해 방송 채널을 제어하는 예를 도시한 도면이다. 사용자는 상기 가상 입력 영역(10) 내부에서 손가락(10)을 이동시킴으로써 상기 전자 기기(100)에서 출력중인 방송의 방송 채널을 변경시킬 수 있다.42 and 43 illustrate an example of controlling a broadcast channel through the virtual input area 10. The user may change the broadcast channel of the broadcast being output from the electronic device 100 by moving the finger 10 in the virtual input area 10.

도 42를 참조하면, 상기 가상 입력 영역(10) 내부에서 이루어지는 외부 객체 의 상하 이동이 방송채널 변경 기능에 대응되어 있는 경우, 사용자의 손가락이 지점 J를 지시하는 상태(10e)에서 지점 K를 지시하는 상태(10f)로 이동하면, 현재 출력 중인 방송채널에서 증가된 숫자에 대응되는 방송채널로 변경된다.Referring to FIG. 42, when the vertical movement of the external object in the virtual input area 10 corresponds to the broadcast channel changing function, the user's finger indicates the point K in a state 10e in which the user's finger indicates the point J. FIG. If it moves to the state 10f, it is changed to the broadcast channel corresponding to the increased number from the broadcast channel currently being output.

또한 도 43을 참조하면, 상기 가상 입력 영역(10) 내부에서 이루어지는 외부 객체의 이동 궤적이 숫자에 해당하는 경우, 상기 제어부(180)는 상기 숫자에 대응되는 방송채널을 출력할 수 있다. 도 43에서, 왼쪽 화면에 출력 중인 방송채널은 "06"이다. 여기서 사용자가 상기 가상 입력 영역(10) 내부에서 "9"라는 숫자를 그리면, 상기 제어부(180)는 이를 감지하고, 상기 입력된 "9"에 대응되는 방송채널 "09"로부터 수신되는 방송을 출력한다.Referring to FIG. 43, when the movement trajectory of the external object inside the virtual input area 10 corresponds to a number, the controller 180 may output a broadcast channel corresponding to the number. In FIG. 43, the broadcast channel being output on the left screen is "06". When the user draws a number "9" in the virtual input area 10, the controller 180 detects this and outputs a broadcast received from the broadcast channel "09" corresponding to the input "9". do.

도 44 및 도 45는 상기 가상 입력 영역(10)이 가상 키보드로 이용되는 예를 도시한다. 도 44는 대기 화면 상태에서 상기 가상 입력 영역(10)이 가상 키보드로 이용되는 예를 도시하고, 도 45는 방송 화면과 같은 특정 애플리케이션의 구동 중, 상기 가상 입력 영역(10)이 가상 키보드로 이용되는 예를 도시한다.44 and 45 illustrate an example in which the virtual input area 10 is used as a virtual keyboard. 44 illustrates an example in which the virtual input area 10 is used as a virtual keyboard in a standby screen state, and FIG. 45 illustrates that the virtual input area 10 is used as a virtual keyboard while driving a specific application such as a broadcast screen. An example is shown.

상기 제어부(180)는, 상기 디스플레이부(151)에 가상 키보드(52)를 표시할 수 있다. 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상으로부터 사용자의 양손의 움직임을 감지하고, 상기 감지된 움직임을 반영하는 손 모양의 객체(53)를 상기 디스플레이부(151)에 표시할 수 있다.The controller 180 may display the virtual keyboard 52 on the display unit 151. The controller 180 detects the movement of both hands of the user from the image acquired by the camera 121 and displays a hand-shaped object 53 reflecting the detected movement on the display unit 151. can do.

상기 손 모양의 객체(53)는, 상기 카메라(21)를 통해 입력되는 영상에서 캡쳐된 실제 외부의 객체일 수도 있고, 상기 감지된 움직임을 반영하기 위한 객체로서 상기 메모리(160)에 저장된 객체일 수도 있다.The hand-shaped object 53 may be a real external object captured from an image input through the camera 21 or an object stored in the memory 160 as an object to reflect the detected movement. It may be.

상기 객체(53)의 모양이 반드시 손의 형태를 가져야 하는 것은 물론 아니다. 상기 제어부(180)는, 상기 감지된 움직임을 반영하기 위한 다양한 객체를 제공할 수 있다.Of course, the shape of the object 53 does not necessarily have the shape of a hand. The controller 180 may provide various objects for reflecting the detected motion.

사용자가 상기 가상 입력 영역(20)을 통해 손가락들을 움직이면, 상기 제어부(180)는 상기 손가락들의 움직임에 대응하여 상기 객체(53)를 움직일 수 있다.When the user moves the fingers through the virtual input area 20, the controller 180 may move the object 53 in response to the movement of the fingers.

또한 상기 제어부(180)는, 상기 가상 키보드(52)에 포함되는 복수 개의 키들이 표시되는 위치와, 상기 가상 입력 영역(20)을 매칭할 수 있다. 따라서 사용자가 상기 가상 입력 영역(20)에서 손가락들을 움직임에 따라, 상기 가상 키보드(52)에서 특정 키가 선택되어 정보가 입력될 수 있다.In addition, the controller 180 may match a position where a plurality of keys included in the virtual keyboard 52 are displayed and the virtual input area 20. Accordingly, as the user moves his / her fingers in the virtual input area 20, a specific key may be selected on the virtual keyboard 52 to input information.

도 45의 경우, 상기 가상 키보드(52) 및 상기 객체(53) 중 적어도 하나는 불투명하게 또는 반투명하게 제공될 수 있다.In the case of FIG. 45, at least one of the virtual keyboard 52 and the object 53 may be provided to be opaque or translucent.

전술한 실시예들에서는, 주로 외부 객체의 이동 궤적이 폐곡선을 형성하는 경우, 상기 폐곡선에 대응되도록 상기 가상 입력 영역을 설정하는 것을 위주로 설명하였다.In the above-described embodiments, it has been mainly described that the virtual input area is set to correspond to the closed curve when the movement trajectory of the external object forms the closed curve.

그러나 본 문서에서 개시되는 기술적 사상이 이에 한정되는 것은 아니다. 예를 들어, 외부 객체의 이동 궤적 자체가 폐곡선을 형성해야만 하는 것이 아니라, 상기 외부 객체의 이동 궤적이 폐곡선에 대응될 수 있으면, 상기 가상 입력 영역이 설정될 수 있다.However, the technical idea disclosed in this document is not limited thereto. For example, if the movement trajectory of the external object itself does not have to form a closed curve, but the movement trajectory of the external object can correspond to the closed curve, the virtual input area may be set.

도 46 내지 도 48은, 상기 외부 객체의 이동 궤적이 폐곡선에 대응될 수 있 는 예들을 도시한다.46 to 48 illustrate examples in which the movement trajectory of the external object may correspond to the closed curve.

도 46을 참조하면, 사용자는 책상과 같은 객체 위에서 또는 허공에서 손가락으로 4개의 지점들(P, Q, R, S)을 순차적으로 또는 순서와 관계없이 선택하는 동작을 취할 수 있다.Referring to FIG. 46, a user may take an operation of selecting four points P, Q, R, and S sequentially or in any order with a finger on an object such as a desk or in the air.

상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 통해 상기 사용자의 동작을 감지하고, 상기 4개의 지점들(P, Q, R, S)을 연결하는 폐곡선(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다.The controller 180 detects a motion of the user through an image acquired through the camera 121 and detects the closed curve 20 connecting the four points P, Q, R, and S. The virtual input area 20 may be set.

단, 상기 4개의 지점들(P, Q, R, S)이 미리 설정된 시간 내에 선택되는 경우, 상기 4개의 지점들(P, Q, R, S)을 연결하는 폐곡선이 상기 가상 입력 영역(20)으로 설정되도록 설정되어 있을 수 있다.However, when the four points P, Q, R, and S are selected within a preset time, the closed curve connecting the four points P, Q, R, and S is the virtual input area 20. It may be set to).

또한 도 47을 참조하면, 사용자는 책상과 같은 객체 위에서 또는 허공에서 손가락으로 "X" 형태의 궤적(55, 56)을 그리는 동작을 취할 수 있다.Referring to FIG. 47, the user may take an operation of drawing the "X" -shaped trajectories 55 and 56 with a finger on an object such as a desk or in the air.

상기 제어부(180)는, 상기 사용자의 손가락이 형성하는 두 개의 궤적들(55, 56)을 감지하고, 상기 두 개의 궤적들(55, 56)이 도 47에 도시된 바와 같이 형성하는 폐곡선(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다.The controller 180 detects two trajectories 55 and 56 formed by the user's finger, and the closed curve 20 in which the two trajectories 55 and 56 are formed as shown in FIG. 47. ) May be set as the virtual input area 20.

여기서, 도 46과 마찬가지로, 상기 제어부(180)는 상기 "X" 형태의 궤적들이 형성되는 시간을 고려하여, 상기 가상 입력 영역(20)을 설정할 수 있다.Here, as in FIG. 46, the controller 180 may set the virtual input area 20 in consideration of the time at which the traces of the “X” shape are formed.

또한 도 48을 참조하면, 사용자는 책상과 같은 객체 위에서 또는 허공에서 손가락으로 직선 형태의 궤적(57)을 그리는 동작을 취할 수 있다.In addition, referring to FIG. 48, a user may take an operation of drawing a straight trajectory 57 with a finger on an object such as a desk or in the air.

상기 제어부(180)는, 상기 사용자의 손가락이 형성하는 1개의 직선 형태의 궤적(57)을 감지하고, 상기 궤적(57)의 시작점(E)과 종착점(F)을 상기 디스플레이부(151)의 두 모서리들(E, F)에 각각 매칭시키고, 도 48에 도시된 바와 같이 형성되는 폐곡선(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다.The controller 180 detects one straight line trajectory 57 formed by the user's finger, and displays the start point E and the end point F of the trajectory 57 of the display unit 151. Each of the corners E and F may be matched to each other, and the closed curve 20 formed as shown in FIG. 48 may be set as the virtual input area 20.

상기에서 설명한 본 발명에 의한 전자 기기의 기능 수행 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The method for performing a function of an electronic device according to the present invention described above may be provided by recording on a computer-readable recording medium as a program for executing in a computer.

본 발명에 의한 전자 기기의 기능 수행 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The method of performing a function of an electronic device according to the present invention can be executed through software. When implemented in software, the constituent means of the present invention are code segments that perform the necessary work. The program or code segments may be stored on a processor readable medium or transmitted by a computer data signal coupled with a carrier on a transmission medium or network.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of the computer-readable recording device include ROM, RAM, CD-ROM, DVD ± ROM, DVD-RAM, magnetic tape, floppy disk, hard disk, optical data storage device, and the like. The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings. In addition, the embodiments described in this document may not be limitedly applied, but may be configured by selectively combining all or part of the embodiments so that various modifications may be made.

도 1은 본 발명의 일 실시예와 관련된 전자 기기의 블록 구성도(block diagram)이다.1 is a block diagram of an electronic device according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 전자 기기(100)가 DTV 또는 IPTV인 경우를 나타낸 도면이다.2 is a diagram illustrating a case in which the electronic device 100 according to an embodiment of the present invention is a DTV or an IPTV.

도 3은 본 발명의 다른 실시예에 따른 전자 기기(100)가 이동 단말기인 경우를 나타낸 도면이다. 3 is a diagram illustrating a case in which the electronic device 100 according to another embodiment of the present invention is a mobile terminal.

도 4는 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.4 is a flowchart of a method of performing a function of an electronic device according to a first embodiment of the present invention.

도 5 내지 도 8은, 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면들이다.5 to 8 are diagrams for describing a method of performing a function of an electronic device according to a first embodiment of the present invention.

도 9는 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.9 is a flowchart of a method of performing a function of an electronic device according to a second embodiment of the present invention.

도 10은, 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.10 is a diagram for describing a method of performing a function of an electronic device according to a second embodiment of the present disclosure.

도 11은 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.11 is a flowchart of a method of performing a function of an electronic device according to a third embodiment of the present invention.

도 12 내지 도 14는, 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.12 to 14 are diagrams for describing a method of performing a function of an electronic device according to a third embodiment of the present invention.

도 15는 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도 이다.15 is a flowchart illustrating a method of performing a function of an electronic device according to a fourth embodiment of the present invention.

도 16 및 도 17은, 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.16 and 17 are diagrams for describing a method of performing a function of an electronic device according to a fourth embodiment of the present invention.

도 18 내지 도 26은 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간의 매칭을 설명하기 위한 도면들이다.18 to 26 are diagrams for describing matching between the virtual input area 20 and the display unit 151.

도 27은 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.27 is a flowchart of a method of performing a function of an electronic device according to a fifth embodiment of the present invention.

도 28 내지 도 30은, 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.28 to 30 are diagrams for describing a method of performing a function of an electronic device according to a fifth embodiment of the present invention.

도 31은 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.31 is a flowchart of a method of performing a function of an electronic device according to a sixth embodiment of the present invention.

도 32는 도 31의 S610 단계의 세부 흐름도의 예이다.32 is an example of a detailed flowchart of step S610 of FIG. 31.

도 33 내지 도 45는, 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.33 to 45 are diagrams for describing a method of performing a function of an electronic device according to a sixth embodiment of the present invention.

도 46 내지 도 48은, 상기 외부 객체의 이동 궤적이 폐곡선에 대응될 수 있는 예들을 도시한다.46 to 48 illustrate examples in which the movement trajectory of the external object may correspond to the closed curve.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100: 전자 기기 121: 카메라100: electronic device 121: camera

151: 디스플레이부 160: 메모리151: display unit 160: memory

180: 제어부 20: 가상 입력 영역180: control unit 20: virtual input area

Claims (19)

외부 영상을 촬상하는 카메라; 및A camera for capturing an external image; And 상기 카메라를 통해 획득된 영상으로부터 실질적으로 폐곡선을 형성하는 외부 객체의 움직임을 인식하고, 상기 폐곡선과 실질적으로 평행한 면을 정보 입력을 위한 가상 입력영역으로 설정하는 제어부를A control unit for recognizing a movement of an external object that substantially forms a closed curve from the image acquired by the camera, and setting a plane substantially parallel to the closed curve as a virtual input area for inputting information 포함하는 전자 기기.Electronic device containing. 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 카메라를 통해 획득되는 영상을 분석하여, 상기 외부 객체의 움직임이 출발하는 지점과 도착하는 지점이 미리 지정된 거리 이내이면, 상기 폐곡선을 형성하는 것으로 인식하는 것을 특징으로 하는 전자 기기.And analyzing the image acquired by the camera and recognizing that the closed curve is formed when the starting point and the arriving point of the movement of the external object are within a predetermined distance. 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 카메라를 통해 획득되는 영상을 통해 상기 외부 객체의 움직임이 형성하는 궤적을 분석하여 상기 폐곡선을 설정하는 것을 특징으로 하는 전자 기기.And the closed curve is set by analyzing a trajectory formed by the movement of the external object through the image acquired by the camera. 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 전자 기기에 구비된 디스플레이의 좌표와 상기 가상 입력영역의 좌표를 매칭시키는 것을 특징으로 하는 전자 기기.And matching the coordinates of the display provided in the electronic device with the coordinates of the virtual input area. 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 외부 객체가 상기 가상 입력영역 내에서 움직임에 대응하여, 상기 전자 기기에 구비된 디스플레이에 표시되는 지시자를 이동시키는 것을 특징으로 하는 전자 기기.The external device moves the indicator displayed on the display provided in the electronic device in response to the movement in the virtual input area. 제 1 항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 가상 입력 영역의 설정 후, 상기 가상 입력 영역에서 이루어지는 상기 외부 객체의 제스쳐를 인식하는 경우, 상기 제스쳐에 미리 대응된 기능을 실행하는 것을 특징으로 하는 전자 기기.And recognizing a gesture of the external object made in the virtual input area after setting the virtual input area, executing a function corresponding to the gesture in advance. 외부 영상을 촬상하는 카메라; 및A camera for capturing an external image; And 상기 카메라를 통해 획득된 영상에 포함된 적어도 하나의 외부 객체 중 제1 외부 객체를 선택하고, 상기 제1 외부 객체의 표면을 정보 입력을 위한 가상 입력영역으로 설정하는 제어부를A control unit for selecting a first external object among at least one external object included in the image acquired through the camera and setting a surface of the first external object as a virtual input area for inputting information; 포함하는 전자 기기.Electronic device containing. 제 7 항에 있어서, 상기 제어부는,The method of claim 7, wherein the control unit, 상기 적어도 하나의 외부 객체를 상기 전자 기기에 구비된 디스플레이에 표시하고, 상기 표시된 적어도 하나의 외부 객체 중 상기 제1 외부 객체에 대한 선택 신호를 수신함으로써, 상기 제1 외부 객체를 선택하는 것을 특징으로 하는 전자 기기.And displaying the at least one external object on a display provided in the electronic device, and selecting the first external object by receiving a selection signal for the first external object among the displayed at least one external object. Electronic devices. 제 7 항에 있어서, 상기 제어부는,The method of claim 7, wherein the control unit, 상기 적어도 하나의 외부 객체 중 제2 외부 객체의 미리 지정된 제스쳐(gesture)에 대응하여, 상기 제1 외부 객체를 선택하는 것을 특징으로 하는 전자 기기.And selecting the first external object in response to a predetermined gesture of a second external object of the at least one external object. 제 7 항에 있어서, 상기 제어부는,The method of claim 7, wherein the control unit, 상기 제1 외부 객체의 이동을 추적하여 상기 가상 입력영역을 갱신하는 것을 특징으로 하는 전자 기기.And update the virtual input area by tracking the movement of the first external object. 제 7 항에 있어서, 상기 제어부는,The method of claim 7, wherein the control unit, 상기 적어도 하나의 외부 객체 중 제2 외부 객체가 상기 가상 입력영역 내에서 움직임에 대응하여, 상기 전자 기기에 구비된 디스플레이에 표시되는 지시자를 이동시키는 것을 특징으로 하는 전자 기기.And a second external object of the at least one external object moves an indicator displayed on a display provided in the electronic device in response to a movement in the virtual input area. 제 7 항에 있어서, 상기 제어부는,The method of claim 7, wherein the control unit, 상기 적어도 하나의 외부 객체 중 제2 외부 객체의 제스쳐를 인식하는 경우, 상기 제스쳐에 미리 대응된 기능을 실행하고,When the gesture of the second external object is recognized among the at least one external object, a function corresponding to the gesture is executed in advance, 상기 제2 외부 객체의 제스쳐는, 상기 가상 입력 영역에서 이루어지는 것을 특징으로 하는 전자 기기.The gesture of the second external object is made in the virtual input area. 외부 영상을 촬상하는 카메라를 구비한 전자 기기에서 기능을 수행하는 방법에 있어서,In the method for performing a function in an electronic device having a camera for capturing an external image, 상기 카메라를 통해 획득되는 영상으로부터 외부 객체의 실질적으로 폐곡선을 형성하는 움직임을 인식하는 단계; 및Recognizing a movement forming a substantially closed curve of an external object from an image acquired by the camera; And 상기 폐곡선과 실질적으로 평행한 면을 정보 입력을 위한 가상 입력영역으로 설정하는 단계를Setting a plane substantially parallel to the closed curve as a virtual input area for inputting information; 포함하는 전자 기기의 기능 수행 방법.Method of performing a function of an electronic device comprising. 제 13 항에 있어서,The method of claim 13, 상기 가상 입력영역의 설정 후, 상기 가상 입력영역에서 이루어지는 상기 외부 객체의 움직임에 대응하여, 미리 지정된 기능을 실행하는 단계를After setting the virtual input area, executing a predetermined function in response to the movement of the external object in the virtual input area; 더 포함하는 전자 기기의 기능 수행 방법.Method of performing a function of the electronic device further comprising. 외부 영상을 촬상하는 카메라를 구비한 전자 기기에서 기능을 수행하는 방법에 있어서,In the method for performing a function in an electronic device having a camera for capturing an external image, 상기 카메라를 통해 획득되는 영상에 포함된 적어도 하나의 외부 객체 중 제1 외부 객체에 대한 선택 신호를 수신하는 단계; 및Receiving a selection signal for a first external object among at least one external object included in the image acquired through the camera; And 상기 선택된 제1 외부 객체의 표면을 정보 입력을 위한 가상 입력영역으로 설정하는 단계를Setting a surface of the selected first external object as a virtual input area for inputting information; 포함하는 전자 기기의 기능 수행 방법.Method of performing a function of an electronic device comprising. 제 15 항에 있어서, The method of claim 15, 상기 적어도 하나의 외부 객체를 상기 전자 기기에 구비된 디스플레이에 표시하는 단계를 더 포함하고,Displaying the at least one external object on a display provided in the electronic device; 상기 제1 외부 객체에 대한 선택 신호를 수신하는 단계는, 상기 표시된 적어도 하나의 외부 객체 중 상기 제1 외부 객체에 대한 선택 신호를 수신하는 것을 특징으로 하는 전자 기기의 기능 수행 방법.The receiving of the selection signal for the first external object may include receiving a selection signal for the first external object among the displayed at least one external object. 제 15 항에 있어서, 상기 제1 외부 객체에 대한 선택 신호를 수신하는 단계는,The method of claim 15, wherein receiving a selection signal for the first external object comprises: 상기 적어도 하나의 외부 객체 중 제2 외부 객체의 미리 지정된 제스쳐(gesture)를 인식함으로써, 상기 제1 외부 객체에 대한 선택 신호를 수신하는 것을 특징으로 하는 전자 기기의 기능 수행 방법.And receiving a selection signal for the first external object by recognizing a predetermined gesture of a second external object among the at least one external object. 제 15 항에 있어서,The method of claim 15, 상기 제1 외부 객체의 이동을 추적하여 상기 가상 입력영역을 갱신하는 단계를 더 포함하는 전자 기기의 기능 수행 방법.And updating the virtual input area by tracking the movement of the first external object. 제 15 항에 있어서,The method of claim 15, 상기 가상 입력영역의 설정 후, 상기 가상 입력영역에서 이루어지는, 상기 적어도 하나의 외부 객체 중 제2 외부 객체의 움직임에 대응하여, 미리 지정된 기능을 실행하는 단계를After setting the virtual input area, executing a predetermined function in response to a movement of a second external object of the at least one external object, which is performed in the virtual input area; 더 포함하는 전자 기기의 기능 수행 방법.Method of performing a function of the electronic device further comprising.
KR1020090060452A 2009-07-03 2009-07-03 Electronic Device And Method Of Performing Function Using Same KR101549461B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090060452A KR101549461B1 (en) 2009-07-03 2009-07-03 Electronic Device And Method Of Performing Function Using Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090060452A KR101549461B1 (en) 2009-07-03 2009-07-03 Electronic Device And Method Of Performing Function Using Same

Publications (2)

Publication Number Publication Date
KR20110002922A true KR20110002922A (en) 2011-01-11
KR101549461B1 KR101549461B1 (en) 2015-09-02

Family

ID=43610985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090060452A KR101549461B1 (en) 2009-07-03 2009-07-03 Electronic Device And Method Of Performing Function Using Same

Country Status (1)

Country Link
KR (1) KR101549461B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141351A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Electronic device and method of controlling the same
KR101414356B1 (en) * 2012-08-30 2014-07-01 주식회사 팬택 Portable Device and Information Input Method thereof
US8860805B2 (en) 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same
KR20150076767A (en) * 2013-12-27 2015-07-07 주식회사 케이티 Virtual touch pointing area based touch panel input apparatus for controlling computerized electronic apparatus and method thereof
WO2017003152A1 (en) * 2015-06-29 2017-01-05 Samsung Electronics Co., Ltd. Apparatus and method for controlling object movement
WO2023132629A1 (en) * 2022-01-06 2023-07-13 삼성전자 주식회사 Electronic device including camera, and moving image generating method for photographing moving object

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076495A (en) 2001-08-31 2003-03-14 Hitachi Kokusai Electric Inc Virtual input device
US20090027330A1 (en) 2007-07-26 2009-01-29 Konami Gaming, Incorporated Device for using virtual mouse and gaming machine

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141351A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Electronic device and method of controlling the same
US8860805B2 (en) 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same
KR101414356B1 (en) * 2012-08-30 2014-07-01 주식회사 팬택 Portable Device and Information Input Method thereof
KR20150076767A (en) * 2013-12-27 2015-07-07 주식회사 케이티 Virtual touch pointing area based touch panel input apparatus for controlling computerized electronic apparatus and method thereof
WO2017003152A1 (en) * 2015-06-29 2017-01-05 Samsung Electronics Co., Ltd. Apparatus and method for controlling object movement
CN107710083A (en) * 2015-06-29 2018-02-16 三星电子株式会社 Apparatus and method for control object movement
WO2023132629A1 (en) * 2022-01-06 2023-07-13 삼성전자 주식회사 Electronic device including camera, and moving image generating method for photographing moving object

Also Published As

Publication number Publication date
KR101549461B1 (en) 2015-09-02

Similar Documents

Publication Publication Date Title
US10101874B2 (en) Apparatus and method for controlling user interface to select object within image and image input device
EP2261785B1 (en) Mobile terminal and controlling method thereof
US20130053007A1 (en) Gesture-based input mode selection for mobile devices
KR101733057B1 (en) Electronic device and contents sharing method for electronic device
US8655413B2 (en) Mobile terminal and method of setting items using the same
US20110319130A1 (en) Mobile terminal and method of operation
KR20170003193A (en) Mobile terminal and method for controlling the same
KR101694787B1 (en) Mobile terminal and control method for mobile terminal
KR20150006237A (en) Electronic device and operating method thereof
KR101951473B1 (en) Mobile terminal
US20140282204A1 (en) Key input method and apparatus using random number in virtual keyboard
KR20160071263A (en) Mobile terminal and method for controlling the same
KR101549461B1 (en) Electronic Device And Method Of Performing Function Using Same
KR20110080915A (en) Method, system and mobile terminal for video service providing
KR101669520B1 (en) Electronic device and control method thereof
KR101662249B1 (en) Mobile Terminal And Method Of Inputting Imformation Using The Same
KR20110125725A (en) Electronic device and contents sharing method for electronic device
KR20110132031A (en) Mobile terminal and image processing method for mobile terminal
KR101680810B1 (en) Mobile terminal
KR102088866B1 (en) Mobile terminal
KR101779504B1 (en) Mobile terminal and control method for mobile terminal
KR101302363B1 (en) Electronic device and method for controlling of the same
KR20140062328A (en) Mobile terminal
KR101699298B1 (en) Mobile terminal and control method for mobile terminal
KR101687350B1 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant