KR20110002922A - Electronic device and method of performing function using same - Google Patents
Electronic device and method of performing function using same Download PDFInfo
- Publication number
- KR20110002922A KR20110002922A KR1020090060452A KR20090060452A KR20110002922A KR 20110002922 A KR20110002922 A KR 20110002922A KR 1020090060452 A KR1020090060452 A KR 1020090060452A KR 20090060452 A KR20090060452 A KR 20090060452A KR 20110002922 A KR20110002922 A KR 20110002922A
- Authority
- KR
- South Korea
- Prior art keywords
- external object
- virtual input
- input area
- electronic device
- movement
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000033001 locomotion Effects 0.000 claims abstract description 104
- 230000004044 response Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 73
- 238000010586 diagram Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000010295 mobile communication Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000000638 stimulation Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 240000008168 Ficus benjamina Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 전자 기기에 관한 것으로서, 상기 전자 기기의 외부에 가상 입력 영역이 설정되고, 상기 설정된 가상 입력 영역을 통해 상기 전자 기기로 소정의 정보가 입력되는 전자 기기 및 이를 이용한 기능 수행 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device, and relates to an electronic device in which a virtual input area is set outside of the electronic device, and predetermined information is input to the electronic device through the set virtual input area, and a method of performing a function using the same. .
최근 전자 기기는 다양한 기능들을 제공한다. 종래에는 전자 기기마다 특화된 기능들을 제공하는 것이 일반적이었으나, 최근에는 다양한 기능들이 1개의 전자 기기에서 제공됨으로써, 상기 기능들을 편리하게 제어하거나 정보를 쉽게 입력하기 위한 정보 입력 기능의 중요성이 점차 증대되고 있다.Recently, electronic devices provide various functions. Conventionally, it has been common to provide specialized functions for each electronic device, but recently, since various functions are provided in one electronic device, the importance of an information input function for conveniently controlling the functions or easily inputting information has gradually increased. .
예를 들어, DTV 또는 IPTV의 경우, 리모트 콘트롤을 이용하여 정보를 입력하는 것이 일반적이었고, 핸드폰과 같은 이동 단말기의 경우 구비된 키패드 또는 터치스크린을 통해 정보를 입력하는 것이 일반적이었다.For example, in the case of DTV or IPTV, it is common to input information using a remote control, and in the case of a mobile terminal such as a mobile phone, it is common to input information through a keypad or a touch screen provided.
그러나, 종래의 전자 기기에서 제공되는 입력 수단들은, 최근 다양한 기능들이 융합되는 추세에서 상기 다양한 기능들을 편리하게 제어할 수 있는 수단으로 기능하지 못함에 따라, 종래와는 완전히 다른 새로운 입력 수단의 필요성이 대두되고 있다.However, since the input means provided in the conventional electronic device does not function as a means for conveniently controlling the various functions in the recent trend of fusion of various functions, there is a need for a new input means completely different from the conventional one. It is emerging.
본 발명의 과제는, 정보 입력을 위한 가상 입력 영역을 상기 전자 기기의 외부에 설정할 수 있는 전자 기기 및 이를 이용한 기능 수행 방법을 제공하는 것이다.An object of the present invention is to provide an electronic device capable of setting a virtual input area for information input outside of the electronic device and a method of performing a function using the same.
본 발명의 다른 과제는, 상기 가상 입력 영역을 통해 상기 전자 기기의 기능 제어 및 다양한 정보 입력을 가능하게 하는 전자 기기 및 이를 이용한 기능 수행 방법을 제공하는 것이다.Another object of the present invention is to provide an electronic device capable of controlling the function of the electronic device and inputting various information through the virtual input area and a method of performing the function using the same.
본 발명의 제1 양상에 따른 전자 기기는, 외부 영상을 촬상하는 카메라; 및 상기 카메라를 통해 획득된 영상으로부터 실질적으로 폐곡선을 형성하는 외부 객체의 움직임을 인식하고, 상기 폐곡선과 실질적으로 평행한 면을 정보 입력을 위한 가상 입력영역으로 설정하는 제어부를 포함하여 이루어진다.An electronic device according to a first aspect of the present invention includes a camera for photographing an external image; And a controller configured to recognize a movement of an external object that substantially forms a closed curve from the image acquired by the camera, and to set a plane substantially parallel to the closed curve as a virtual input area for inputting information.
본 발명의 제2 양상에 따른 전자 기기는, 외부 영상을 촬상하는 카메라; 및 상기 카메라를 통해 획득된 영상에 포함된 적어도 하나의 외부 객체 중 제1 외부 객체를 선택하고, 상기 제1 외부 객체의 표면을 정보 입력을 위한 가상 입력영역으로 설정하는 제어부를 포함하여 이루어진다.An electronic device according to a second aspect of the present invention includes a camera for photographing an external image; And a controller configured to select a first external object among at least one external object included in the image acquired through the camera, and to set a surface of the first external object as a virtual input area for inputting information.
본 발명의 제3 양상에 따른 전자 기기의 기능 수행 방법은, 외부 영상을 촬상하는 카메라를 구비한 전자 기기에서 기능을 수행하는 방법에 있어서, 상기 카메라를 통해 획득되는 영상으로부터 외부 객체의 실질적으로 폐곡선을 형성하는 움직 임을 인식하는 단계; 및 상기 폐곡선과 실질적으로 평행한 면을 정보 입력을 위한 가상 입력영역으로 설정하는 단계를 포함하여 이루어진다.In a method of performing a function of an electronic device according to a third aspect of the present invention, a method of performing a function in an electronic device having a camera for capturing an external image includes: substantially closing curves of an external object from an image obtained through the camera; Recognizing the movement to form a; And setting a plane substantially parallel to the closed curve as a virtual input area for inputting information.
본 발명의 제4 양상에 따른 전자 기기의 기능 수행 방법은, 외부 영상을 촬상하는 카메라를 구비한 전자 기기에서 기능을 수행하는 방법에 있어서, 상기 카메라를 통해 획득되는 영상에 포함된 적어도 하나의 외부 객체 중 제1 외부 객체에 대한 선택 신호를 수신하는 단계; 및 상기 선택된 제1 외부 객체의 표면을 정보 입력을 위한 가상 입력영역으로 설정하는 단계를 포함하여 이루어진다.In a method of performing a function of an electronic device according to a fourth aspect of the present invention, a method of performing a function in an electronic device having a camera for capturing an external image, the method comprising: at least one external device included in an image acquired through the camera Receiving a selection signal for a first external object of the objects; And setting a surface of the selected first external object as a virtual input area for inputting information.
본 발명에 따른 전자 기기 및 이를 이용한 기능 수행 방법에 의하면, 다음과 같은 효과가 있다.According to the electronic device and a method of performing a function using the same according to the present invention, the following effects are obtained.
본 발명에 의하면, 전자 기기의 외부에 가상 입력 영역을 설정할 수 있다. 사용자는 자신이 원하는 영역을 상기 전자 기기의 외부에 임의로 설정할 수 있다.According to the present invention, a virtual input area can be set outside the electronic device. The user may arbitrarily set an area desired by the user outside of the electronic device.
본 발명에 의하면, 사용자는 전자 기기의 외부에 존재하는 임의의 객체를 선택함으로써, 상기 가상 입력 영역을 설정할 수 있다.According to the present invention, the user can set the virtual input area by selecting any object existing outside the electronic device.
본 발명에 의하면, 상기 전자 기기를 직접 조작하지 않더라도 상기 가상 입력 영역을 통해 상기 전자 기기의 각종 기능을 제어하거나 소정의 정보를 입력할 수 있다.According to the present invention, even without directly operating the electronic device, various functions of the electronic device may be controlled or predetermined information may be input through the virtual input area.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명 에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like numbers refer to like elements throughout. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
이하, 본 발명과 관련된 전자 기기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.EMBODIMENT OF THE INVENTION Hereinafter, the electronic device which concerns on this invention is demonstrated in detail with reference to drawings. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other.
본 명세서에서 설명되는 전자 기기에는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 단말, DTV(Digital Television), IPTV(Internet Protocol Television) 등이 포함될 수 있다.The electronic device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation terminal, and a digital television (DTV). ), And IPTV (Internet Protocol Television).
도 1은 본 발명의 일 실시예와 관련된 전자 기기의 블록 구성도(block diagram)이다. 도 2는 본 발명의 일 실시예에 따른 전자 기기(100)가 DTV 또는 IPTV인 경우를 나타낸 도면이다. 도 3은 본 발명의 다른 실시예에 따른 전자 기기(100)가 이동 단말기인 경우를 나타낸 도면이다. 1 is a block diagram of an electronic device according to an embodiment of the present invention. 2 is a diagram illustrating a case in which the
상기 전자 기기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.The
도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기가 구현될 수도 있다.Since the components shown in FIG. 1 are not essential, an electronic device having more or fewer components may be implemented.
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 전자 기기(100)와 무선 통신 시스템 사이 또는 전자 기기(100)와 전자 기기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 전자 기기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information, or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to an electronic device. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신할 수 있다. 예를 들어, 상기 방송 수신 모듈(111)은, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 전자 기기(100)에 내장되거나 외장될 수 있다. 무선 인터 넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short
위치정보 모듈(115)은 전자 기기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈(115)은 범지구적 위성항법시스템(Global Navigation Satellite System, GNSS)를 이용하여 위치정보를 획득할 수 있다. 여기서, 범지구적 위성 항법 시스템(GNSS)은 지구를 공전하여 무선 항법 수신기들의 소정의 타입들이 지표면 또는 지표면 근처의 그들의 위치를 결정할 수 있는 기준 신호들을 보내는 무선 항법위성 시스템들을 설명하기 위해 이용되는 용어이다. 상기 범지구적 위성 항법 시스템(GNSS)에는 미국에서 운영하는 GPS(Global Position System), 유럽에서 운영하는 갈릴레오(Galileo), 러시아에서 운영하는 GLONASS(Global Orbiting Navigational Satelite System), 중국에서 운영하는 COMPASS 및 일본에서 운영하는 QZSS(Quasi-Zenith Satellite System)등이 있다. The
GNSS의 대표적인 예를 들면, 상기 위치정보 모듈(115)은 GPS(Global Position System) 모듈일 수 있다. 상기 GPS 모듈은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. 상기 GPS 모듈은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다.As a representative example of the GNSS, the
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 오디오 수신부(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A /
카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 전자 기기(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
상기 카메라(121)는 2차원(2-dimensional) 카메라와 3차원(3-dimensional) 카메라 중 적어도 하나를 구비할 수 있다. 3D 카메라가 구비되는 경우, 상기 3D 카메라는 획득된 영상의 3차원 깊이(depth)를 좌표값으로 변환하여 상기 제어부(180)로 전달할 수 있다. 3D 카메라의 예를 들면, 스테레오 카메라(stereo camera), TOF 카메라, Structured Light Camera 등이 있다.The
상기 오디오 수신부(122)는, 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 상기 오디오 수신부(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 전자 기기(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
센싱부(140)는 전자 기기(100)의 개폐 상태, 전자 기기(100)의 위치, 사용자 접촉 유무, 전자 기기(100)의 방위, 전자 기기(100)의 가속/감속 등과 같이 전자 기기(100)의 현재 상태 또는 외부 환경을 감지하여 전자 기기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 전자 기기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(142)를 포함할 수 있다. The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The
디스플레이부(151)는 전자 기기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 전자 기기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 전자 기기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 전자 기기(100) 바디의 디스플레이부(151)가 차지하는 영역을 통해 전자 기기(100) 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is a transparent LCD. The rear structure of the
전자 기기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 전자 기기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이 부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the
도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 전자 기기(100)의 내부 영역 또는 상기 터치 스크린의 근처에 상기 근접 센서(142)가 배치될 수 있다. 상기 근접 센서(142)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서(142)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, the proximity sensor 142 may be disposed in an inner region of the
상기 근접 센서(142)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.Examples of the proximity sensor 142 include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.
상기 근접센서(142)는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor 142 detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 전자 기기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 또한 상기 음향 출력 모듈(152)은, 이어폰잭(116)을 통해 음향을 출력할 수 있다. 사용자는 상기 이어폰잭(116)에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.The
알람부(153)는 전자 기기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 전자 기기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이 외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음향 출력 모듈(152)을 통해서도 출력될 수 있다.The
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 전자 기기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 기기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 전자 기기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 전자 기기(100) 내부의 각 구성 요소에 전달하거나 전자 기기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
식별 모듈은 전자 기기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 전자 기기(100)와 연결될 수 있다. The identification module is a chip that stores various types of information for authenticating the use authority of the
상기 인터페이스부(170)는 전자 기기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 전자 기기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 전자 기기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 전자 기기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The
제어부(180)는 통상적으로 상기 전자 기기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화, 음성 인식 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이 들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the
상기 전자 기기(100)는, 도 2에 도시된 바와 같이, 리모트 콘트롤(200)을 통해 제어될 수도 있다. 상기 리모트 콘트롤(200)과 상기 전자 기기(100)는 적외선 통신 또는 기타 RF 신호에 의한 통신을 수행할 수 있다.As illustrated in FIG. 2, the
또한 상기 리모트 콘트롤(200)은, 3D 포인팅 디바이스(3-Dimensional Pointing Device)의 형태로 구현될 수 있다. 상기 3D 포인팅 디바이스는, 3차원 움직임(motion)을 감지하여 상기 전자 기기(100)로 상기 감지된 3차원 움직임에 관한 정보를 전송할 수 있다. 상기 3차원 움직임은, 상기 전자 기기(100)를 제어하기 위한 명령에 대응될 수 있다. 사용자는 상기 3D 포인팅 디바이스를 공간상에서 움직임으로써 상기 전자 기기(100)에 소정의 명령을 전달할 수 있다. 상기 3D 포인팅 디바이스는, 각종 키 버튼을 구비할 수 있다. 사용자는 상기 키 버튼을 통해 각종 명령을 입력할 수 있다.In addition, the
이하 본 발명의 실시예들을 설명하기로 한다. 본 발명의 실시예들은, 도 1 내지 도 3을 참조하여 설명한 상기 전자 기기(100)에서 구현될 수 있다. 이하 설명의 편의를 위하여 상기 전자 기기(100)를 도 2에 도시된 DTV로 가정하여 본 발명의 실시예들을 설명하기로 한다. 전술한 바와 같이, 본 문서에서 개시되는 기술적 사상은, DTV, IPTV, 이동 단말기 등을 포함하는 다양한 전자 기기에 적용될 수 있음을 분명히 밝혀둔다.Hereinafter, embodiments of the present invention will be described. Embodiments of the present invention may be implemented in the
가상 입력 영역(20)의 설정-외부 객체의 움직임Setting of the virtual input area 20-movement of the external object
도 4는 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 5 내지 도 8은, 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면들이다. 이하 필요한 도면들을 참조하여, 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.4 is a flowchart of a method of performing a function of an electronic device according to a first embodiment of the present invention. 5 to 8 are diagrams for describing a method of performing a function of an electronic device according to a first embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device and an operation of the
상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드 로 진입한다[S100].The
상기 가상 입력 모드는, 후술하는 바와 같이, 상기 전자 기기(100)의 외부에 가상 입력영역을 설정하고, 상기 설정된 가상 입력영역을 통해 상기 전자 기기(100)의 제어 신호를 수신하거나, 각종 정보를 입력받기 위한 입력 모드이다.In the virtual input mode, as described later, a virtual input area is set outside the
상기 가상 입력 모드는, 상기 전자 기기(100) 자체에 구비된 입력 수단을 통한 입력 모드를 배제하거나 동시에 이용될 수 있다.The virtual input mode may exclude or simultaneously use an input mode through an input means provided in the
상기 가상 입력 모드로의 진입은 다양한 형태로 이루어질 수 있다. 예를 들어, 상기 전자 기기(100) 및/또는 상기 리모트 콘트롤(200)에 상기 가상 입력 모드로의 진입을 위한 특정 키가 구비될 수 있다.Entry into the virtual input mode may take various forms. For example, a specific key for entering the virtual input mode may be provided in the
또한 예를 들어, 상기 리모트 콘트롤(200)이 3D 포인팅 디바이스로서 공간 상의 움직임을 감지하고 상기 움직임 정보를 상기 전자 기기(100)에 전달하는 경우, 상기 리모트 콘트롤(200)의 공간상 움직임이 상기 가상 입력 모드로의 진입을 위해 설정될 수 있다.Also, for example, when the
도 5는 상기 가상 입력 모드로의 진입을 위해 상기 리모트 콘트롤(200)의 특정 움직임이 설정된 예를 도시한다.5 illustrates an example in which a specific movement of the
도 5를 참조하면, 상기 리모트 콘트롤(200)이 공간상에서 원(circle)을 형성하는 움직임을 감지하는 경우, 상기 가상 입력 모드로의 진입이 이루어지도록 설정될 수 있다.Referring to FIG. 5, when the
또는 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 통해, 외부 객체의 미리 지정된 움직임 또는 제스쳐를 감지하는 경우, 상기 가상 입력 모 드로 진입할 수 있다.Alternatively, the
상기 제어부(180)는, 상기 카메라(121)를 통해 외부 영상을 획득하고[S110], 상기 획득된 영상을 분석하여 외부 객체(10)의 움직임을 인식한다[S120].The
예를 들어 도 6을 참조하면, 사용자가 공간 상에서 특정 궤적(11)을 형성하도록 손가락(10)을 이동시키면, 상기 제어부(180)는 상기 카메라(121)를 통해 획득되는 영상을 분석하여 상기 손가락(10)의 움직임을 인식할 수 있다.For example, referring to FIG. 6, when a user moves a
여기서, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 외부 객체(10)의 움직임이 감지되는 경우, 상기 외부 객체(10)의 움직임에 대해 추적할 포인트(tracking point)를 설정할 수 있다.Here, the
예를 들어 도 6을 참조하면, 사용자가 손가락(10)을 이동시키기 시작하면, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 손가락(10)의 끝을 상기 추적 포인트로 설정할 수 있다.For example, referring to FIG. 6, when the user starts to move the
상기 추적 포인트가 설정되면, 상기 제어부(180)는 상기 추적 포인트의 이동을 중심으로 영상 분석을 함으로써, 영상 분석을 좀 더 효율적으로 수행할 수 있다.When the tracking point is set, the
또한 상기 제어부(180)는, 상기 추적 포인트가 설정된 후, 상기 카메라(121)를 통해 획득되는 영상으로부터 다른 외부 객체의 움직임이 감지되더라도 이를 무시하고, 상기 설정된 추적 포인트만을 감시할 수 있다.In addition, after the tracking point is set, the
상기 제어부(180)는, 상기 S120 단계를 수행함에 있어서, 상기 외부 객 체(10)의 움직임에 관한 정보를 상기 메모리(160)에 임시 저장하거나 영구 저장할 수 있다.The
상기 외부 객체(10)의 움직임에 관한 정보는, 상기 외부 객체(10)가 최초로 움직이기 시작한 지점에 관한 정보, 상기 외부 객체(10)가 최초로 움직이기 시작한 시각에 관한 정보, 상기 외부 객체(10)의 이동 경로에 관한 정보 등을 포함할 수 있다.The information about the movement of the
상기 제어부(180)는, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성하는지를 판단한다[S130].The
상기 폐곡선의 형성에 관한 다양한 기준이 설정될 수 있다. 예를 들어, 상기 제어부(180)는, 상기 외부 객체(10)의 움직임이 특정 궤적을 형성한 후 최초 움직이기 시작한 지점으로부터 미리 설정된 거리 내로 진입하면, 상기 외부 객체(10)의 움지임이 실질적으로 폐곡선을 형성한 것으로 판단할 수 있다.Various criteria regarding the formation of the closed curve may be set. For example, when the movement of the
예를 들어 상기 제어부(180)는, 도 7을 참조하면, 상기 외부 객체(10)의 움직임이 최초 움직이기 시작한 지점(A)으로부터 특정 궤적을 형성한 후, 미리 설정된 거리인 d1 내로 진입하기 전인 지점(B)에서는, 상기 외부 객체(10)의 움직임이 아직 폐곡선을 형성하지 않은 것으로 판단한다.For example, referring to FIG. 7, the
또한 예를 들어 상기 제어부(180)는, 도 7을 참조하면, 상기 외부 객체(10)의 움직임이 상기 지점(B)를 지나 상기 미리 설정된 거리 d1 내로 진입하는 지점(C)에 도달하면, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성한 것으로 판단할 수 있다.Also, for example, referring to FIG. 7, when the movement of the
상기 제어부(180)는, 상기 메모리(160)에 저장된 상기 외부 객체(10)의 움직임에 관한 정보를 이용하여, 상기 S130 단계를 수행할 수 있다.The
상기 제어부(180)는, 상기 S130 단계의 판단 결과, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성하지 않은 경우, 상기 S110 단계로 회귀한다.The
상기 제어부(180)는, 상기 S130 단계의 판단 결과, 상기 외부 객체(10)의 움직임이 실질적으로 폐곡선을 형성한 경우, 상기 형성된 폐곡선과 실질적으로 평행한 면을 가상 입력 영역으로 설정한다[S140].As a result of the determination in step S130, when the movement of the
예를 들어 도 8을 참조하면, 사용자의 손가락의 움직임이 폐곡선(11)을 형성하면, 상기 제어부(180)는, 상기 폐곡선(11)과 실질적으로 평행한 면을 가상 입력 영역(20)으로 설정할 수 있다.For example, referring to FIG. 8, when the movement of the user's finger forms the
상기 가상 입력 영역(20)으로 설정되는 면은, 다양한 방식으로 설정될 수 있다.The surface set as the
예를 들어, 상기 제어부(180)는, 상기 폐곡선(11)과 실질적으로 평행한 면으로서, 상기 폐곡선(11)을 실질적인 경계로 하는 면을 상기 가상 입력 영역(20)으로 설정할 수 있다.For example, the
또한 예를 들어, 상기 제어부(180)는, 상기 폐곡선(11)과 실질적으로 평행한 면으로서, 상기 폐곡선(11)의 내부에 존재하는 면을 상기 가상 입력 영역(20)으로 설정할 수 있다.In addition, for example, the
가상 입력 영역(20)의 설정-외부 객체를 선택(1)Setting of virtual input area 20-select external object (1)
도 9는 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 10은, 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.9 is a flowchart of a method of performing a function of an electronic device according to a second embodiment of the present invention. 10 is a diagram for describing a method of performing a function of an electronic device according to a second embodiment of the present disclosure. Hereinafter, a method of performing a function of an electronic device according to a second embodiment of the present invention and an operation of the
상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드로 진입하고[S200], 상기 카메라(121)를 통해 외부 영상을 획득하고[S210], 상기 획득된 영상을 분석하여 제1 외부 객체(10)의 움직임을 인식한다[S220]. The
상기 S200 단계 내지 상기 S220 단계는, 전술한 제1 실시예에서의 상기 S100 단계 내지 상기 S120 단계에 대응된다.The steps S200 to S220 correspond to the steps S100 to S120 in the above-described first embodiment.
상기 제어부(180)는, 상기 S220 단계에서 인식된 상기 제1 외부 객체(10)의 움직임이 상기 제1 외부 객체(10)와는 다른 제2 외부 객체(15)를 선택하는 움직임에 해당하는지를 판단한다[S230].The
도 10은, 사용자가 손가락으로 책상 위에 놓여진 책을 선택하는 모습을 도시한다. 도 10에서, 상기 손가락이 상기 제1 외부 객체(10)에 해당하고, 상기 책(20)이 상기 제2 외부 객체(15)에 해당한다.10 shows a user selecting a book placed on a desk with a finger. In FIG. 10, the finger corresponds to the first
예를 들어 도 10을 참조하면, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 상기 손가락(10)의 움직임을 인식하고, 상기 손가락(10)이 상기 책(15)과 접촉하거나, 상기 손가락(10)과 상기 책(15)의 거리가 미리 설정된 거리 이내가 되면, 상기 제2 외부 객체(15)가 선택된 것으로 판단할 수 있다.For example, referring to FIG. 10, the
상기 제어부(180)는, 3D 카메라를 이용하여 외부 객체들의 깊이(depth)를 통해 객체들 각각을 인식하거나, 2D 카메라 및/또는 3D 카메라를 이용하여 외부 객체들의 색상을 분석하여 외부 객체들 각각을 인식할 수도 있다.The
상기 제어부(180)는, 상기 선택된 제2 외부 객체(15)의 표면을 가상 입력 영역(20)으로 설정할 수 있다[S240].The
상기 제2 외부 객체(15)의 표면이 반드시 평평해야 하는 것은 아니다. 상기 제2 외부 객체(15)의 표면은 평평할 수도 있고 곡면일 수도 있다.The surface of the second
가상 입력 영역(20)의 설정-외부 객체를 선택(2)Setting of virtual input area 20-select external object (2)
도 11은 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 12 내지 도 14는, 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.11 is a flowchart of a method of performing a function of an electronic device according to a third embodiment of the present invention. 12 to 14 are diagrams for describing a method of performing a function of an electronic device according to a third embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a third embodiment of the present invention and an operation of the
상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드로 진입하고[S300], 상기 카메라(121)를 통해 외부 영상을 획득한다[S310].The
상기 S300 단계 및 상기 S310 단계는, 전술한 제1 실시예에서의 상기 S100 단계 및 상기 S110 단계에 대응된다.Steps S300 and S310 correspond to steps S100 and S110 in the above-described first embodiment.
상기 제어부(180)는, 상기 획득된 외부 영상에 포함된 적어도 하나의 외부 객체를 상기 디스플레이부(151)에 표시한다[S320].The
도 12는, 상기 획득된 외부 영상이 상기 디스플레이부(151)에 표시된 예를 도시한다. 예를 들어, 도 12에 도시된 외부 영상은, 3개의 외부 객체들(17)을 포함한다. 상기 제어부(180)는, 상기 디스플레이부(151)에 지시자(indicator, 22)를 표시할 수 있다.12 illustrates an example in which the acquired external image is displayed on the
상기 제어부(180)는, 상기 디스플레이부(151)에 표시된 상기 적어도 하나의 외부 객체 중 제1 외부 객체에 대한 선택 신호를 수신한다[S330].The
도 13은, 도 12에 도시된 외부 객체들(17) 중 특정 외부 객체를 선택하는 예를 도시한 도면이다. 예를 들어 도 13을 참조하면, 사용자는 상기 지시자(22)를 제어하여 상기 외부 객체들(17) 중 특정 외부 객체를 선택할 수 있다. 상기 지시자(22)는, 상기 리모트 콘트롤(200)에 의해 제어될 수 있다.FIG. 13 is a diagram illustrating an example of selecting a specific external object among the
상기 제어부(180)는, 상기 지시자(22)가 현재 지시하는 외부 객체를 다른 외부 객체들과 구별되게 표시할 수 있다. 도 13(a)를 참조하면, 상기 지시자(22)가 지시하고 있는 사람(17a)의 윤곽이 다른 객체들(17b, 17c)보다 굵게 표시될 수 있다. 도 13(b)를 참조하면, 상기 지시자(22)가 지시하고 있는 책(17b)의 윤곽이 다른 객체들(17a, 17c)보다 굵게 표시될 수 있다.The
사용자는, 도 13에 도시된 바와 같이, 상기 지시자(22)가 특정 외부 객체를 지시하는 상태에서, 상기 리모트 콘트롤(200)에 구비된 확인 버튼을 누름으로써, 상기 지시자(22)가 지시하고 있는 특정 외부 객체를 선택할 수 있다.As shown in FIG. 13, in the state where the
한편, 상기 디스플레이부(151)가 터치 스크린인 경우, 사용자는 자신이 원하 는 특정 외부 객체를 손가락으로 터치함으로써, 상기 특정 외부 객체를 선택할 수도 있다.On the other hand, when the
또한 상기 제어부(180)는, 상기 획득된 외부 영상을 분석하여, 상기 획득된 외부 영상으로부터 인식된 외부 객체들을 아이콘 또는 이미지의 형태로 별도로 제공할 수도 있다. 도 14는 아이콘 형태로 제공된 외부 객체들의 예를 도시한 도면이다.In addition, the
도 14를 참조하면, 도 12 및 도 13에 도시된 상기 외부 객체들(17)이 각각 아이콘들(18)로 상기 디스플레이부(151)에 제공될 수 있다.Referring to FIG. 14, the
사용자는, 도 13의 경우와 마찬가지로, 상기 지시자(22)를 제어하여 상기 아이콘들(18) 중 특정 아이콘을 선택할 수 있다. 상기 제어부(180)는, 사용자가 상기 특정 아이콘을 선택함에 따라, 상기 선택된 특정 아이콘과 대응되는 외부 객체를 선택하게 된다.As in the case of FIG. 13, the user may control the
상기 제어부(180)는, 상기 선택된 제1 외부 객체의 표면을 상기 가상 입력 영역으로 설정할 수 있다[S340]. 예를 들어, 사용자가 도 12 내지 도 14에 도시된 외부 영상에서 책(17b)을 선택한 경우, 상기 제어부(180)는 상기 책(17b)의 표면을 상기 가상 입력 영역으로 설정하게 된다.The
가상 입력 영역(20)의 설정-외부 객체의 선택 및 움직임Setting of the virtual input area 20-selection and movement of external objects
도 15는 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 16 및 도 17은, 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방 법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.15 is a flowchart illustrating a method of performing a function of an electronic device according to a fourth embodiment of the present invention. 16 and 17 are diagrams for describing a method of performing a function of an electronic device according to a fourth embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a fourth embodiment of the present invention and an operation of the
상기 제어부(180)는, 본 문서에서 개시되는 기능과 관련되는 가상 입력 모드로 진입하고[S400], 상기 카메라(121)를 통해 외부 영상을 획득한다[S410].The
상기 S400 단계 및 상기 S410 단계는, 전술한 제1 실시예에서의 상기 S100 단계 및 상기 S110 단계에 대응된다.The steps S400 and S410 correspond to the steps S100 and S110 in the above-described first embodiment.
상기 제어부(180)는, 상기 획득된 영상을 분석하여, 외부의 제1 객체의 움직임을 인식하고[S420], 상기 제1 객체의 움직임에 따라, 상기 제1 객체가 지시하는 제2 객체를 인식한다[S430].The
상기 제어부(180)는, 상기 제2 객체의 표면 중 상기 제1 객체의 움직임이 실질적으로 형성하는 폐곡선 내부면을 상기 가상 입력 영역으로 설정할 수 있다[S440].The
예를 들어 도 16을 참조하면, 사용자가 상기 제1 객체에 해당하는 손가락(24)을 상기 제2 객체에 해당하는 책상(25) 근처로 가져가거나 상기 책상(25)을 건드리면, 상기 제어부(180)는, 상기 손가락(24)의 움직임을 분석하여 상기 손가락(24)이 상기 책상(25)을 지시함을 인식할 수 있다[S420, S430].For example, referring to FIG. 16, when the user moves the
사용자는, 도 16에 도시된 바와 같이, 상기 손가락(24)으로 상기 책상(25) 표면에 실질적으로 폐곡선을 형성하는 궤적을 그릴 수 있다. 상기 제어부(180)는, 상기 손가락(24)의 움직임을 감시하여 상기 형성된 폐곡선에 의해 둘러싸여지는 영 역(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다[S440].As illustrated in FIG. 16, the user may draw a trajectory that substantially forms a closed curve on the surface of the
또한 예를 들어 도 17을 참조하면, 사용자가 상기 제1 객체에 해당하는 오른손 손가락(24)을 상기 제2 객체에 해당하는 왼손 손바닥(26) 근처로 가져가거나 상기 손바닥(26)을 건드리면, 상기 제어부(180)는, 상기 손가락(24)의 움직임을 분석하여 상기 손가락(24)이 상기 손바닥(26)을 지시함을 인식할 수 있다[S420, S430].For example, referring to FIG. 17, when the user moves the
사용자는, 도 17에 도시된 바와 같이, 상기 손가락(24)으로 상기 손바닥(26) 에 실질적으로 폐곡선을 형성하는 궤적을 그릴 수 있다. 상기 제어부(180)는, 상기 손가락(24)의 움직임을 감시하여 상기 형성된 폐곡선에 의해 둘러싸여지는 영역(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다[S440].As illustrated in FIG. 17, the user may draw a trajectory that substantially forms a closed curve on the
전술한 제1 내지 제4 실시예에서 설명된 바와 같은 다양한 방식으로 상기 가상 입력 영역(20)이 설정된 후, 상기 전자 기기(100)의 전원이 차단되거나 사용자의 명령에 의해 상기 전자 기기(100)가 오프(off)된 후 다시 온(on)되는 상황이 발생할 수 있다.After the
상기 전자 기기(100)가 재구동됨에 따라, 상기 제어부(180)는 상기 가상 입력 모드를 유지하도록 설정되어 있을 수 있다. 이때, 상기 제어부(180)는, 상기 전자 기기(100)가 오프된 후 재구동됨에 따라, 오프되기 전에 설정되었거나 활성화되었던 상기 가상 입력 영역(20)을 유지할 수 있다.As the
또는 상기 전자 기기(100)가 재구동됨에 따라, 상기 제어부(180)는 상기 가상 입력 모드를 유지하지만, 새로운 가상 입력 영역을 설정하도록 사용자에게 요청 할 수 있다.Alternatively, as the
또한 전술한 제1 내지 제4 실시예에서 설명된 바와 같은 다양한 방식으로 설정되는 상기 가상 입력 영역(20)은, 별도의 데이터베이스에 의해 관리될 수 있다. 상기 별도의 데이터베이스는, 상기 메모리(160) 또는 상기 전자 기기(100)에 탈부착될 수 있는 별도 메모리에 저장될 수 있다.In addition, the
예를 들어, 상기 데이터베이스는, 사용자에 의해 설정되었던 상기 가상 입력 영역(20)을 다양한 방식으로 관리할 수 있다. 예를 들어, 사용자별, 시간별, 장소별 등 다양한 관리 기준에 따라 상기 가상 입력 영역(20)이 데이터베이스화되어 관리될 수 있다.For example, the database may manage the
사용자는, 다양한 입력 수단을 통해 상기 전자 기기(100)를 제어하여 상기 데이터베이스를 호출할 수 있다. 사용자는 별도의 설정 과정 없이도 상기 호출된 데이터베이스에서 자신이 원하는 가상 입력 영역(20)을 선택할 수 있다. 예를 들어, 상기 전자 기기(100)가 거실에 놓여진 DTV인 경우, 거실의 환경이 크게 바뀌지 않는 것이 일반적일 것이다. 이러한 경우, 사용자는 상기 데이터베이스에 저장된 복수 개의 가상 입력 영역들 중 특정 가상 입력 영역을 선택하고, 상기 제어부(180)는 현재 거실의 환경에 상기 선택된 가상 입력 영역이 존재하는지 혹은 매칭되는지를 판단할 수 있다.The user may call the database by controlling the
또한 전술한 제1 내지 제4 실시예에서 설명된 바와 같은 다양한 상기 가상 입력 영역(20)의 설정 과정은, 상기 디스플레이부(151)를 통해 제공될 수 있다.In addition, the process of setting the various
예를 들어, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 상기 디스플레이부(151)에 표시하고, 상기 가상 입력 영역(20)을 상기 획득되는 영상에 포함된 다른 객체들과 구분하여 표시할 수 있다.For example, the
또한 상기 제어부(180)는, 상기 가상 입력 영역(20)의 설정 이전에 표시되었던 원래의 화면을 유지하면서 상기 가상 입력 영역(20)의 설정 과정을 상기 디스플레이부(151)에 표시할 수 있다.In addition, the
이때 상기 제어부(180)는, 상기 가상 입력 영역(20)의 설정 과정을 표시하는 영역과 상기 원래의 화면을 표시하는 영역을 겹치게 할 수도 있고, 별도의 영역으로 분리하여 표시할 수도 있다.In this case, the
상기 설정 과정을 표시하는 영역과 상기 원래의 화면을 표시하는 영역이 겹치는 경우, 상기 제어부(180)는, 상기 두 개의 영역 중 어느 하나의 영역을 반투명하게 처리할 수 있다.When an area displaying the setting process and an area displaying the original screen overlap, the
상기 제어부(180)는, 상기 카메라(121)가 2D 카메라와 3D 카메라를 모두 구비하는 경우, 상기 2D 카메라를 통해 획득되는 영상을 상기 설정 과정을 표시하는 영역에 표시하고, 상기 3D 카메라를 통해 획득되는 영상을 상기 설정 과정에서 필요한 분석용 영상으로 이용할 수 있다.When the
가상 입력 영역(20)과
전술한 제1 내지 제4 실시예에서 설정되는 상기 가상 입력 영역(20)은, 상기 전자 기기(100)의 상기 디스플레이부(151)의 화면과, 면대면(surface-to-surface) 매칭 또는 점대점(point-to-point) 매칭이 이루어질 수 있다.The
사용자가 상기 가상 입력 영역(20)을 외부의 터치 디바이스처럼 사용하기 위해서는, 상기 가상 입력 영역(20)의 특정 지점이 상기 디스플레이부(151)의 특정 지점에 대응되어야 할 필요가 있다.In order for a user to use the
도 18 내지 도 26은 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간의 매칭을 설명하기 위한 도면들이다. 도 18 내지 도 24는, 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간에 매칭이 이루어지는 다양한 방식들을 도시한 도면들이다. 도 25 및 도 26은, 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간에 매칭이 필요없는 경우를 설명하기 위한 도면들이다.18 to 26 are diagrams for describing matching between the
이하 도 18 내지 도 26을 참조하여, 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간의 매칭에 관해 설명하기로 한다.Hereinafter, matching between the
도 18을 참조하면, 상기 제어부(180)는, 상기 가상 입력 영역(20)이 사각형인 경우, 상기 가상 입력 영역(20)의 각 꼭지점과 상기 디스플레이부(151)을 구성하는 화면의 각 꼭지점을 일대일로 매칭시킬 수 있다.Referring to FIG. 18, when the
상기 제어부(180)는, 상기 매칭을 위해, 기준점을 이용할 수 있다. 예를 들어 도 18을 참조하면, 상기 제어부(180)는 상기 디스플레이부(151)의 중심(O1)을 기준점으로 하고, 상기 디스플레이부(151)의 중심(O1)을 상기 가상 입력 영역(20)의 중심 또는 임의의 지점(O2)과 매칭시킬 수 있다.The
상기 제어부(180)는, 상기 기준점의 매칭을 이용하여 나머지 지점들 또는 화면 전체의 매칭을 수행할 수 있다.The
상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 크기 및 형태는 상이 할 수 있으므로, 상기 제어부(180)는 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 매칭에 있어서, 스케일링(scaling)을 수행할 수도 있다.Since the size and shape of the
예를 들어, 사용자가 상기 가상 입력 영역(20)에서 손가락을 이동시키면, 이에 대응하여 상기 디스플레이부(151)에 표시되는 지시자가 이동하는 기능이 수행될 수 있다. 이때, 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 크기 및/또는 형태의 차이로 인하여, 상기 손가락의 이동 거리와 상기 지시자의 이동 거리는 다르게 설정될 필요가 있다. 이를 위해 상기 제어부(180)는, 상기 스케일링을 수행할 수 있다.For example, when a user moves a finger in the
상기 스케일링은, 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 각각의 크기 및 형태에 의존하여 수행될 수 있다.The scaling may be performed depending on the size and shape of each of the
예를 들어, 상기 가상 입력 영역(20)이 상기 디스플레이부(151)보다 작은 경우, 상기 가상 입력 영역(20) 내부의 임의의 두 지점 간의 거리는, 상기 디스플레이부(151) 내부에서 대응되는 두 지점 간의 거리보다 작도록 상기 스케일링이 수행될 수 있다.For example, when the
또한 예를 들어, 상기 가상 입력 영역(20)이 상기 디스플레이부(151)보다 큰 경우, 상기 가상 입력 영역(20) 내부의 임의의 두 지점 간의 거리는, 상기 디스플레이부(151) 내부에서 대응되는 두 지점 간의 거리보다 크도록 상기 스케일링이 수행될 수 있다.Also, for example, when the
한편 상기 가상 입력 영역(20)의 경계(boundary)가 상기 디스플레이부(151)의 경계와 정확하게 매칭되기 어려운 상황이 발생할 수 있다.On the other hand, a situation in which the boundary of the
예를 들어, 전술한 제1 실시예 또는 제4 실시예에서와 같이, 사용자가 허공에 또는 책상 위에 손가락으로 폐곡선(11)을 그린 경우, 상기 손가락의 이동 경로는 반드시 직선들로만 이루어지지 않을 수 있다. 도 19에 도시된, 사용자의 손가락이 이동하는 궤적(11)은, 직선들로 이루어지지 않는다.For example, as in the first or fourth embodiment described above, when the user draws the
이와 같은 경우, 상기 제어부(180)는, 도 19에 도시된 바와 같이, 상기 폐곡선(11)의 궤적을 감안하여, 상기 가상 입력 영역(20)이 직선들로만 이루어지도록, 상기 가상 입력 영역(20)을 설정할 수 있다. 도 19에 도시된 상기 가상 입력 영역(20)은, 사용자의 손가락이 형성한 상기 폐곡선(11)의 내부에 존재하고, B2-A2, A2-D2, D2-C2 및 C2-B2의 4개의 직선들로 이루어지도록 설정될 수 있다.In this case, as shown in FIG. 19, the
상기 제어부(180)는, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 대응되도록, 다양한 방식으로 상기 가상 입력 영역(20)을 설정할 수 있다.The
예를 들어 상기 제어부(180)는, 도 20에 도시된 바와 같이, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 내접하도록 상기 가상 입력 영역(20)을 설정할 수 있다.For example, as illustrated in FIG. 20, the
또한 예를 들어 상기 제어부(180)는, 도 21에 도시된 바와 같이, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 외접하도록 상기 가상 입력 영역(20)을 설정할 수 있다.For example, as illustrated in FIG. 21, the
또한 예를 들어 상기 제어부(180)는, 도 22에 도시된 바와 같이, 상기 가상 입력 영역(20)이 상기 폐곡선(11)에 외접하는 상태와 내접하는 상태의 중간 상태를 갖도록, 상기 가상 입력 영역(20)을 설정할 수 있다.For example, as shown in FIG. 22, the
또한 예를 들어 상기 제어부(180)는, 상기 가상 입력 영역(20)의 크기가 일정한 값을 갖도록, 상기 가상 입력 영역(20)을 설정할 수 있다. 도 23 및 도 24를 비교하면, 사용자가 손가락으로 형성한 폐곡선(11)의 크기는 서로 다르지만, 가상 입력 영역(20)의 크기는 서로 동일하다.For example, the
도 23 및 도 24의 경우, 상기 가상 입력 영역(20)의 크기는, 서로 다른 값을 갖는 몇 개의 크기들로 미리 설정되어 있을 수 있다. 상기 제어부(180)는, 사용자가 손가락으로 형성한 폐곡선(11)의 크기와 상기 미리 설정된 복수 개의 크기들을 비교하여, 상기 미리 설정된 복수 개의 크기들 중 상기 폐곡선(11)의 크기와 가장 가까운 크기를 상기 가상 입력 영역(20)의 크기로 결정할 수 있다.23 and 24, the size of the
도 25 및 도 26은, 상기 가상 입력 영역(20)과 상기 디스플레이부(151)의 매칭이 필요하지 않은 경우의 예들을 도시한다.25 and 26 illustrate examples in which the matching between the
상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간에 수행되는 면대면 매칭 또는 점대점 매칭은, 절대 좌표를 기반으로 수행될 수 있다. 절대 좌표 기반의 매칭은, 이론적으로 상기 가상 입력 영역(20)의 모든 지점과 상기 디스플레이부(151)의 간의 모든 지점이 서로 1:1로 대응될 수 있다.Face-to-face matching or point-to-point matching between the
그러나, 상기 가상 입력 영역(20)을 통한 정보 입력은, 상대 좌표를 기반으로 수행될 수도 있다. 예를 들어, 상대 좌표 기반의 정보 입력에 의하면, 상기 가상 입력 영역(20) 상에서의 특정 외부 객체의 제1 이동 거리와, 상기 디스플레이부(151)에 표시되는 커서(cursor)의 제2 이동 거리가 서로 매칭될 수 있다.However, information input through the
상기 상대 좌표 기반의 매칭에 의하면, 상기 가상 입력 영역(20)의 크기와 상기 디스플레이부(151)의 크기 또는 해상도가 1:1로 매칭될 필요 없이, 상기 가상 입력 영역(20) 상에서 이루어지는 외부 객체의 특정 이동 거리가, 상기 디스플레이부(151)에서의 특정 픽셀 거리 또는 커서의 특정 이동 거리에 매칭될 수 있다.According to the matching based on the relative coordinates, the size of the
예를 들어 도 25를 참조하면, 상기 가상 입력 영역(20)에서 특정 객체가 특정 거리만큼 이동하면, 상기 디스플레이부(151)에 표시된 윈도우(28)가 상기 특정 거리에 대응되는 거리 또는 픽셀수만큼 이동될 수 있다.For example, referring to FIG. 25, when a specific object moves in the
한편 상기 가상 입력 영역(20)을 통한 정보 입력이, 특정 궤적만으로만 이루어지도록 설정될 수 있다.Meanwhile, information input through the
예를 들어, 도 26에 도시된 바와 같이, 상기 가상 입력 영역(20) 내에서 사용자가 손가락으로 특정 궤적을 형성하는 제스쳐를 수행하면, 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 통해 상기 제스쳐의 수행을 인식하고, 상기 특정 궤적 또는 상기 제스쳐에 대응되는 특정 기능을 수행하도록 설정될 수 있다.For example, as illustrated in FIG. 26, when the user performs a gesture of forming a specific trajectory with a finger in the
이와 같은 경우, 상기 디스플레이부(151)와 상기 가상 입력 영역(20)의 매칭은 필요하지 않을 수 있다. 왜냐하면, 상기 제어부(180)는, 절대 좌표 또는 상대 좌표에 따라 상기 특정 궤적 또는 상기 제스쳐의 크기를 감지할 필요 없이, 상기 특정 궤적 또는 상기 제스쳐의 형태만을 인식하면, 특정 기능을 수행할 수 있기 때문이다.In this case, matching between the
가상 입력 영역(20)의 이동Movement of the
도 27은 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 28 내지 도 30은, 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.27 is a flowchart of a method of performing a function of an electronic device according to a fifth embodiment of the present invention. 28 to 30 are diagrams for describing a method of performing a function of an electronic device according to a fifth embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a fifth embodiment of the present invention and an operation of the
상기 제어부(180)는, 전술한 제1 실시예 내지 제4 실시예에 따라 설정된 상기 가상 입력 영역(20)의 이동 또는 상기 설정된 가상 입력 영역(20)과 관련된 외부 객체의 이동을 감지할 수 있다[S500]. 상기 제어부(180)는, 상기 가상 입력 모드에서는, 상기 카메라(121)를 통해 외부 영상을 계속 획득할 수 있다. 따라서, 상기 제어부(180)는, 상기 획득되는 외부 영상을 분석하여, 외부에 존재하는 적어도 하나의 객체의 움직임을 항상 감지할 수 있다.The
도 28은, 전술한 제2 실시예 또는 제3 실시예에 따라 책(15)의 표면이 상기 가상 입력 영역(20)으로 설정된 경우, 사용자 또는 누군가가 상기 책(15)을 상기 가상 입력 영역(20)이 최초 설정된 위치에서 다른 위치로 이동시키는 예를 도시한다.FIG. 28 shows that when the surface of the
상기 제어부(180)는, 상기 가상 입력 영역(20) 또는 이와 관련된 외부 객체의 이동을 감지한 경우, 상기 가상 입력 모드가 고정 모드(fixed mode)로 설정되어 있는지, 또는 추적 모드(tracking mode)로 설정되어 있는지를 판단한다[S510].When the
상기 고정 모드는, 상기 가상 입력 영역(20) 또는 이와 관련된 외부 객체의 이동이 있는 경우, 상기 이동을 추적하지 않는 모드를 말한다. 그리고 상기 추적 모드는, 상기 이동을 추적하는 모드를 말한다.The fixed mode refers to a mode in which the movement is not tracked when there is a movement of the
상기 제어부(180)는, 상기 S510 단계의 판단 결과, 상기 가상 입력 모드가 상기 고정 모드로 설정되어 있는 경우, 새로운 가상 입력 영역의 설정을 요청할 수 있다[S520].If the virtual input mode is set to the fixed mode as a result of the determination in step S510, the
도 29는, 상기 고정 모드가 설정되어 있는 경우, 상기 제어부(180)가 새로운 가상 입력 영역의 설정을 요청하는 GUI(graphical user interface, 30)를 상기 디스플레이부(151)에 제공하는 예를 도시한다.FIG. 29 illustrates an example in which the
도 29를 참조하면, 사용자는 상기 지시자(22)를 제어하여 "영역 설정"(31)을 선택하고, 전술한 제1 내지 제4 실시예에 따라, 상기 가상 입력 영역을 새롭게 설정할 수 있다. 또한 사용자가 "종료"(32)를 선택한 경우, 상기 제어부(180)는, 상기 가상 입력 모드를 종료할 수 있다.Referring to FIG. 29, the user may control the
한편, 상기 제어부(180)는, 상기 S510 단계의 판단 결과, 상기 가상 입력 모드가 상기 고정 모드로 설정되어 있는 경우, 상기 GUI(30)를 제공하지 않고, 상기 가상 입력 모드를 초기화할 수도 있다. 사용자는 별도의 입력 방식(예를 들어, 특정 제스쳐 또는 메뉴를 통해)으로 상기 가상 입력 모드를 새롭게 설정할 수 있다.On the other hand, the
상기 제어부(180)는, 상기 S510 단계의 판단 결과, 상기 가상 입력 모드가 상기 추적 모드로 설정되어 있는 경우, 상기 이동을 추적하여 상기 가상 입력 영역을 갱신하고 이를 유지할 수 있다[S530].If the virtual input mode is set to the tracking mode, the
도 30은, 도 28에서 상기 책(15)이 제1 위치(15a)에서 제2 위치(15b)로 이동한 경우, 상기 제어부(180)는 상기 책(15)의 움직임을 감지하여 상기 책(15)의 표 면으로 설정되어 있는 상기 가상 입력 영역(20)을 제1 위치(20a)에서 제2 위치(20b)로 추적할 수 있다.FIG. 30 illustrates that when the
따라서 상기 추적 모드 하에서, 사용자는 상기 제1 위치(20a)에서 상기 제2 위치(20b)로 이동된 상기 가상 입력 영역(20)을 정보 입력을 위한 가상의 입력 영역으로 계속 이용할 수 있다.Accordingly, under the tracking mode, the user may continue to use the
상기 추적 모드 하에서, 상기 가상 입력 영역(20) 또는 이와 관련된 객체가 상기 카메라(121)의 화각에서 사라진 후, 일정 시간 내에 다시 나타난 경우, 상기 제어부(180)는 상기 가상 입력 영역(20)을 유지할 수 있다.Under the tracking mode, when the
가상 입력 영역(20)의 이용Use of the
도 31은 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다. 도 32는 도 31의 S610 단계의 세부 흐름도의 예이다. 도 33 내지 도 45는, 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다. 이하 필요한 도면들을 참조하여, 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법과, 이를 구현하기 위한 상기 전자 기기(100)의 동작을 상세히 설명하기로 한다.31 is a flowchart of a method of performing a function of an electronic device according to a sixth embodiment of the present invention. 32 is an example of a detailed flowchart of step S610 of FIG. 31. 33 to 45 are diagrams for describing a method of performing a function of an electronic device according to a sixth embodiment of the present invention. Hereinafter, a method of performing a function of an electronic device according to a sixth embodiment of the present invention and an operation of the
상기 제어부(180)는, 상기 가상 입력 영역(20)이 설정된 후, 상기 가상 입력 영역(20)과 관련된 외부 객체가 아닌 상기 제1 외부 객체의 움직임을 인식할 수 있다[S600]. 예를 들어, 상기 설정된 가상 입력 영역(20) 내에서 사용자가 특정 정보를 입력하기 위해 손가락을 움직이는 경우, 상기 제어부(180)는, 상기 손가락의 움 직임을 감지할 수 있다.After the
상기 제어부(180)는, 상기 제1 외부 객체의 움직임에 대응하여 특정 기능을 실행할 수 있다[S610].The
상기 S610 단계는, 다양한 방식 및 형태로 수행될 수 있다. 도 32 및 필요한 도면들을 참조하여, 상기 S610 단계가 수행되는 방식의 다양한 예들을 설명하기로 한다.The step S610 may be performed in various ways and forms. Referring to FIG. 32 and necessary drawings, various examples of how the step S610 is performed will be described.
상기 제어부(180)는, 상기 감지된 제1 외부 객체의 움직임이 미리 지정된 궤적을 형성하는지를 판단한다[S611].The
도 33 내지 도 35는, 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하는 예들을 도시한다. 도 33 내지 도 35에 도시된, 제1 궤적(40), 제2 궤적(41) 및 제3 궤적(42)은, 상기 미리 지정된 궤적으로서, 상기 메모리(160)에 저장되어 있을 수 있다.33 to 35 illustrate examples in which the movement of the first external object forms the predetermined trajectory. 33 to 35, the
상기 제어부(180)는, 미리 설정된 시간을 고려하여, 상기 S611 단계를 수행할 수 있다. 예를 들어, 후술하는 바와 같이, 상기 감지된 제1 외부 객체의 움직임이 다른 기능 수행을 위한 것일 수도 있으므로, 상기 제어부(180)는 상기 미리 설정된 시간 내에 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하는지의 여부를 판단할 수 있다.The
따라서, 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하더라도 상기 미리 설정된 시간 내에 이루어지지 않으면, 상기 제어부(180)는 상기 제1 외부 객체의 움직임이 상기 미리 지정된 궤적을 형성하지 않는 것으로 판단할 수 있다.Accordingly, even if the movement of the first external object does not occur within the preset time even if the movement of the first external object forms the predetermined trajectory, the
상기 제어부(180)는, 상기 S611 단계의 판단 결과, 상기 움직임이 상기 미리 지정된 궤적을 형성하는 경우, 상기 미리 지정된 궤적에 대응되는 기능을 실행할 수 있다[S612].As a result of the determination in step S611, when the movement forms the predetermined trajectory, the
예를 들어 도 33 내지 도 35에 도시된 상기 제1 궤적(40), 제2 궤적(41) 및 제3 궤적(42)은 각각, 방송 애플리케이션의 실행, 인터넷 접속 및 메인 메뉴 표시에 대응될 수 있다. 상기 제1 내지 제3 궤적들(40, 41, 42)과 이에 각각 대응되는 기능들의 대응 관계는, 상기 메모리(160)에 저장되어 있을 수 있다.For example, the
예를 들어 상기 제어부(180)는, 상기 제1 궤적(40)을 감지하면, 도 33에 도시된 바와 같이, 상기 제1 궤적(40)에 대응되는 방송 애플리케이션을 실행할 수 있다.For example, when the
또한 예를 들어 상기 제어부(180)는, 상기 제2 궤적(41)을 감지하면, 도 34에 도시된 바와 같이, 상기 제2 궤적(41)에 대응되는 인터넷 접속을 실행할 수 있다. 이때 상기 제어부(180)는, 웹브라우저(web browser)를 구동하고 미리 지정된 웹사이트에 접속할 수 있다.For example, when the
또한 예를 들어 상기 제어부(180)는, 상기 제3 궤적(42)을 감지하면, 도 35에 도시된 바와 같이, 상기 제3 궤적(40)에 대응되는 메뉴(44)를 상기 디스플레이부(151)에 표시할 수 있다.For example, when the
여기서 특정 궤적은, 다양한 기능들에 중복되어 매칭되어 있을 수 있다. 예를 들어, 대기 화면을 표시하는 제1 상태, 방송을 출력하는 제2 상태, 인터넷에 접 속 중인 제3 상태에서, 상기 제어부(180)는, 도 33에 도시된 상기 제1 궤적(40)이 상기 가상 입력 영역(20)을 통해 입력되면, 서로 다른 기능들을 각각 수행할 수 있다.In this case, the specific trajectory may overlap and match various functions. For example, in a first state displaying a standby screen, a second state outputting a broadcast, and a third state connected to the Internet, the
상세한 예를 들면, 상기 대기 화면 상태에서 상기 제1 궤적(40)이 입력되면, 상기 제어부(180)는, 특정 메뉴를 상기 디스플레이부(151)에 표시할 수 있다.For example, when the
또한 상기 방송 출력 상태인 상기 제2 상태에서 상기 제1 궤적(40)이 입력되면, 상기 제어부(180)는, EPG(electronic program guide) 정보를 상기 디스플레이부(151)에 표시할 수 있다.In addition, when the
또한 상기 제3 상태에서 상기 제1 궤적(40)이 입력되면, 상기 제어부(180)는, 현재 접속 중인 웹사이트(website)에 미리 저장된 아이디와 패스워드를 이용하여 사용자 인증을 수행할 수 있다.In addition, when the
도 36은, 특정 궤적에 대해, 현재 상태에 따라 대응되는 기능이 달라지는 예를 도시한 도면이다. 도 36에 예로서 도시된 대응 관계는, 사용자에 의해 설정되거나 변경될 수 있다.36 is a diagram illustrating an example in which a corresponding function varies depending on a current state with respect to a specific trajectory. The correspondence relationship shown as an example in FIG. 36 may be set or changed by a user.
상기 제어부(180)는, 상기 S611 단계의 판단 결과, 상기 움직임이 상기 미리 지정된 궤적을 형성하지 않는 경우, 상기 움직임이 미리 지정된 패턴을 형성하는지 판단한다[S613].If the movement does not form the predetermined trajectory as a result of the determination in step S611, the
상기 미리 지정된 궤적이 상기 가상 입력 영역(20)의 표면에서 상기 제1 외부 객체가 움직임에 대응된다면, 상기 미리 지정된 패턴은 상기 가상 입력 영역(20)의 표면과 상관없이 상기 제1 외부 객체의 움직임에 대응된다.If the predetermined trajectory corresponds to the movement of the first external object on the surface of the
상기 미리 지정된 패턴의 예를 들면, 사용자가 터치 스크린을 손가락으로 터치하는 동작처럼, 사용자가 상기 가상 입력 영역(20) 위에서 손가락을 한 번 아래 위로 움직이는 동작, 또는 손가락을 두 번 아래 위로 움직이는 동작 등이 있다.For example, the user may move the finger up and down once on the
도 37 및 도 38을 참조하면, 사용자가 상기 가상 입력 영역(20) 위에서 손가락을 상하로 움직이는 동작의 예를 도시한다. 상기 제어부(180)는 상기 카메라(121)를 통해 획득되는 영상을 분석하여, 도 37 및 도 38에 도시된 손가락의 움직임을 감지할 수 있다.37 and 38, an example of an operation in which a user moves a finger up and down on the
상기 제어부(180)는, 상기 S613 단계의 판단 결과, 상기 움직임이 상기 미리지정된 패턴을 형성하면, 상기 디스플레이부(151)에 표시된 객체를 선택하거나 실행할 수 있다[S615].The
예를 들어 도 37을 참조하면, 복수 개의 아이콘들(50)이 상기 디스플레이부(151)에 표시되고 있다. 사용자는 상기 리모트 콘트롤(200)을 제어하거나 상기 가상 입력 영역(20)에서 손가락을 사용함으로써 상기 지시자(22)를 이동시킬 수 있다.For example, referring to FIG. 37, a plurality of
도 37에 도시된 바에 따라, 상기 지시자(22)가 특정 아이콘(50c)를 지시하는 상태에서, 사용자가 손가락을 상하로 1회 또는 2회 움직이면 상기 특정 아이콘(50c)이 선택되거나, 상기 특정 아이콘(50c)에 대응되는 기능이 실행될 수 있다.As shown in FIG. 37, when the user moves the finger up or down one or two times while the
한편 상기 미리 지정된 패턴은, 상기 가상 입력 영역(20) 위에서 이루어질 수도 있고, 상기 가상 입력 영역(20)을 관통하여 이루어질 수도 있다.The predetermined pattern may be formed on the
도 38은 상기 가상 입력 영역(20) 위에서 상기 미리 지정된 패턴이 형성되는 예를 도시하고, 도 39는 상기 가상 입력 영역(20)을 관통하여 상기 미리 지정된 패턴이 형성되는 예를 도시한다.FIG. 38 illustrates an example in which the predetermined pattern is formed on the
상기 제어부(180)는, 상기 S613 단계의 판단 결과, 상기 움직임이 상기 미리 지정된 패턴을 형성하지 않는 경우, 상기 움직임에 대응하여 상기 디스플레이부(151)에 표시된 지시자를 이동시킬 수 있다[S614].As a result of the determination in step S613, when the movement does not form the predetermined pattern, the
예를 들어 도 40을 참조하면, 사용자는 상기 가상 입력 영역(20) 상에서 손가락을 움직임으로써 상기 디스플레이부(151)에 표시된 지시자(22)를 이동시킬 수 있다. 도 40에서, 사용자의 손가락이 지점 M을 지시하는 상태(10a)에서 지점 N을 지시하는 상태(10b)로 이동하면, 상기 지시자(22)는 상기 디스플레이부(151)의 지점 M을 지시하는 상태(22a)에서 지점 N을 지시하는 상태(22b)로 이동될 수 있다.For example, referring to FIG. 40, the user may move the
여기서, 상기 지시자(22)의 이동은, 절대 좌표 기반으로 설정되었는지 또는 상대 좌표 기반으로 설정되었는지에 따라 다른 방식으로 수행될 수 있다.Here, the movement of the
예를 들어 상기 절대 좌표 기반에서는, 상기 지시자(22)는, 상기 가상 입력 영역(20)에서 상기 손가락(10)이 위치하는 지점에 대응되는, 상기 디스플레이부(151)의 지점에 위치한다. 따라서, 상기 절대 좌표 기반에서는, 사용자가 상기 가상 입력 영역(20)의 임의의 지점을 손가락(10)으로 지시하면, 상기 지시자(22)는, 상기 손가락(10)이 지시하는 상기 임의의 지점과 대응되는 위치로 이동할 수 있다.For example, on the basis of the absolute coordinate, the
또한 예를 들어 상기 상대 좌표 기반에서는, 상기 지시자(22)는, 상기 가상 입력 영역(20)에서 상기 손가락(10)의 이동 거리에 대응하여 이동한다. 따라서, 상 기 상대 좌표 기반에서는, 사용자가 상기 가상 입력 영역(20)의 임의의 지점을 손가락(10)으로 지시하더라도, 상기 지시자(22)는 이동하지 않을 수 있다.For example, on the basis of the relative coordinates, the
전술한 바와 같이, 상기 가상 입력 영역(10)은 상기 전자 기기(100)의 외부에 존재하는 것이지만, 사용자는 상기 가상 입력 영역(10)을 상기 전자 기기(100)의 일부로서 입력 영역으로 이용할 수 있다.As described above, the
상기 가상 입력 영역(10)을 이용하여 상기 전자 기기(100)를 제어하는 다른 실시예들을 설명하기로 한다.Other embodiments of controlling the
도 41은 상기 가상 입력 영역(10)을 통해 상기 전자 기기(100)의 음향 출력을 제어하는 예를 도시한 도면이다. 사용자는 상기 가상 입력 영역(10) 내부에서 손가락(10)을 이동시킴으로써 상기 전자 기기(100)에서 출력되는 음향의 볼륨(volume)을 제어할 수 있다.FIG. 41 is a diagram illustrating an example of controlling sound output of the
도 41을 참조하면, 상기 가상 입력 영역(10) 내부에서 이루어지는 외부 객체의 좌우 이동이 음향의 볼륨 조절 기능에 대응되어 있는 경우, 사용자의 손가락이 지점 M을 지시하는 상태(10c)에서 지점 N을 지시하는 상태(10d)로 이동하면, 상기 전자 기기(100)로부터 출력되는 음향의 볼륨이 증가한다.Referring to FIG. 41, when the left and right movement of an external object in the
도 42 및 도 43은 상기 가상 입력 영역(10)을 통해 방송 채널을 제어하는 예를 도시한 도면이다. 사용자는 상기 가상 입력 영역(10) 내부에서 손가락(10)을 이동시킴으로써 상기 전자 기기(100)에서 출력중인 방송의 방송 채널을 변경시킬 수 있다.42 and 43 illustrate an example of controlling a broadcast channel through the
도 42를 참조하면, 상기 가상 입력 영역(10) 내부에서 이루어지는 외부 객체 의 상하 이동이 방송채널 변경 기능에 대응되어 있는 경우, 사용자의 손가락이 지점 J를 지시하는 상태(10e)에서 지점 K를 지시하는 상태(10f)로 이동하면, 현재 출력 중인 방송채널에서 증가된 숫자에 대응되는 방송채널로 변경된다.Referring to FIG. 42, when the vertical movement of the external object in the
또한 도 43을 참조하면, 상기 가상 입력 영역(10) 내부에서 이루어지는 외부 객체의 이동 궤적이 숫자에 해당하는 경우, 상기 제어부(180)는 상기 숫자에 대응되는 방송채널을 출력할 수 있다. 도 43에서, 왼쪽 화면에 출력 중인 방송채널은 "06"이다. 여기서 사용자가 상기 가상 입력 영역(10) 내부에서 "9"라는 숫자를 그리면, 상기 제어부(180)는 이를 감지하고, 상기 입력된 "9"에 대응되는 방송채널 "09"로부터 수신되는 방송을 출력한다.Referring to FIG. 43, when the movement trajectory of the external object inside the
도 44 및 도 45는 상기 가상 입력 영역(10)이 가상 키보드로 이용되는 예를 도시한다. 도 44는 대기 화면 상태에서 상기 가상 입력 영역(10)이 가상 키보드로 이용되는 예를 도시하고, 도 45는 방송 화면과 같은 특정 애플리케이션의 구동 중, 상기 가상 입력 영역(10)이 가상 키보드로 이용되는 예를 도시한다.44 and 45 illustrate an example in which the
상기 제어부(180)는, 상기 디스플레이부(151)에 가상 키보드(52)를 표시할 수 있다. 상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상으로부터 사용자의 양손의 움직임을 감지하고, 상기 감지된 움직임을 반영하는 손 모양의 객체(53)를 상기 디스플레이부(151)에 표시할 수 있다.The
상기 손 모양의 객체(53)는, 상기 카메라(21)를 통해 입력되는 영상에서 캡쳐된 실제 외부의 객체일 수도 있고, 상기 감지된 움직임을 반영하기 위한 객체로서 상기 메모리(160)에 저장된 객체일 수도 있다.The hand-shaped
상기 객체(53)의 모양이 반드시 손의 형태를 가져야 하는 것은 물론 아니다. 상기 제어부(180)는, 상기 감지된 움직임을 반영하기 위한 다양한 객체를 제공할 수 있다.Of course, the shape of the
사용자가 상기 가상 입력 영역(20)을 통해 손가락들을 움직이면, 상기 제어부(180)는 상기 손가락들의 움직임에 대응하여 상기 객체(53)를 움직일 수 있다.When the user moves the fingers through the
또한 상기 제어부(180)는, 상기 가상 키보드(52)에 포함되는 복수 개의 키들이 표시되는 위치와, 상기 가상 입력 영역(20)을 매칭할 수 있다. 따라서 사용자가 상기 가상 입력 영역(20)에서 손가락들을 움직임에 따라, 상기 가상 키보드(52)에서 특정 키가 선택되어 정보가 입력될 수 있다.In addition, the
도 45의 경우, 상기 가상 키보드(52) 및 상기 객체(53) 중 적어도 하나는 불투명하게 또는 반투명하게 제공될 수 있다.In the case of FIG. 45, at least one of the
전술한 실시예들에서는, 주로 외부 객체의 이동 궤적이 폐곡선을 형성하는 경우, 상기 폐곡선에 대응되도록 상기 가상 입력 영역을 설정하는 것을 위주로 설명하였다.In the above-described embodiments, it has been mainly described that the virtual input area is set to correspond to the closed curve when the movement trajectory of the external object forms the closed curve.
그러나 본 문서에서 개시되는 기술적 사상이 이에 한정되는 것은 아니다. 예를 들어, 외부 객체의 이동 궤적 자체가 폐곡선을 형성해야만 하는 것이 아니라, 상기 외부 객체의 이동 궤적이 폐곡선에 대응될 수 있으면, 상기 가상 입력 영역이 설정될 수 있다.However, the technical idea disclosed in this document is not limited thereto. For example, if the movement trajectory of the external object itself does not have to form a closed curve, but the movement trajectory of the external object can correspond to the closed curve, the virtual input area may be set.
도 46 내지 도 48은, 상기 외부 객체의 이동 궤적이 폐곡선에 대응될 수 있 는 예들을 도시한다.46 to 48 illustrate examples in which the movement trajectory of the external object may correspond to the closed curve.
도 46을 참조하면, 사용자는 책상과 같은 객체 위에서 또는 허공에서 손가락으로 4개의 지점들(P, Q, R, S)을 순차적으로 또는 순서와 관계없이 선택하는 동작을 취할 수 있다.Referring to FIG. 46, a user may take an operation of selecting four points P, Q, R, and S sequentially or in any order with a finger on an object such as a desk or in the air.
상기 제어부(180)는, 상기 카메라(121)를 통해 획득되는 영상을 통해 상기 사용자의 동작을 감지하고, 상기 4개의 지점들(P, Q, R, S)을 연결하는 폐곡선(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다.The
단, 상기 4개의 지점들(P, Q, R, S)이 미리 설정된 시간 내에 선택되는 경우, 상기 4개의 지점들(P, Q, R, S)을 연결하는 폐곡선이 상기 가상 입력 영역(20)으로 설정되도록 설정되어 있을 수 있다.However, when the four points P, Q, R, and S are selected within a preset time, the closed curve connecting the four points P, Q, R, and S is the
또한 도 47을 참조하면, 사용자는 책상과 같은 객체 위에서 또는 허공에서 손가락으로 "X" 형태의 궤적(55, 56)을 그리는 동작을 취할 수 있다.Referring to FIG. 47, the user may take an operation of drawing the "X" -shaped
상기 제어부(180)는, 상기 사용자의 손가락이 형성하는 두 개의 궤적들(55, 56)을 감지하고, 상기 두 개의 궤적들(55, 56)이 도 47에 도시된 바와 같이 형성하는 폐곡선(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다.The
여기서, 도 46과 마찬가지로, 상기 제어부(180)는 상기 "X" 형태의 궤적들이 형성되는 시간을 고려하여, 상기 가상 입력 영역(20)을 설정할 수 있다.Here, as in FIG. 46, the
또한 도 48을 참조하면, 사용자는 책상과 같은 객체 위에서 또는 허공에서 손가락으로 직선 형태의 궤적(57)을 그리는 동작을 취할 수 있다.In addition, referring to FIG. 48, a user may take an operation of drawing a
상기 제어부(180)는, 상기 사용자의 손가락이 형성하는 1개의 직선 형태의 궤적(57)을 감지하고, 상기 궤적(57)의 시작점(E)과 종착점(F)을 상기 디스플레이부(151)의 두 모서리들(E, F)에 각각 매칭시키고, 도 48에 도시된 바와 같이 형성되는 폐곡선(20)을 상기 가상 입력 영역(20)으로 설정할 수 있다.The
상기에서 설명한 본 발명에 의한 전자 기기의 기능 수행 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The method for performing a function of an electronic device according to the present invention described above may be provided by recording on a computer-readable recording medium as a program for executing in a computer.
본 발명에 의한 전자 기기의 기능 수행 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The method of performing a function of an electronic device according to the present invention can be executed through software. When implemented in software, the constituent means of the present invention are code segments that perform the necessary work. The program or code segments may be stored on a processor readable medium or transmitted by a computer data signal coupled with a carrier on a transmission medium or network.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of the computer-readable recording device include ROM, RAM, CD-ROM, DVD ± ROM, DVD-RAM, magnetic tape, floppy disk, hard disk, optical data storage device, and the like. The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings. In addition, the embodiments described in this document may not be limitedly applied, but may be configured by selectively combining all or part of the embodiments so that various modifications may be made.
도 1은 본 발명의 일 실시예와 관련된 전자 기기의 블록 구성도(block diagram)이다.1 is a block diagram of an electronic device according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 전자 기기(100)가 DTV 또는 IPTV인 경우를 나타낸 도면이다.2 is a diagram illustrating a case in which the
도 3은 본 발명의 다른 실시예에 따른 전자 기기(100)가 이동 단말기인 경우를 나타낸 도면이다. 3 is a diagram illustrating a case in which the
도 4는 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.4 is a flowchart of a method of performing a function of an electronic device according to a first embodiment of the present invention.
도 5 내지 도 8은, 본 발명의 제1 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면들이다.5 to 8 are diagrams for describing a method of performing a function of an electronic device according to a first embodiment of the present invention.
도 9는 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.9 is a flowchart of a method of performing a function of an electronic device according to a second embodiment of the present invention.
도 10은, 본 발명의 제2 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.10 is a diagram for describing a method of performing a function of an electronic device according to a second embodiment of the present disclosure.
도 11은 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.11 is a flowchart of a method of performing a function of an electronic device according to a third embodiment of the present invention.
도 12 내지 도 14는, 본 발명의 제3 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.12 to 14 are diagrams for describing a method of performing a function of an electronic device according to a third embodiment of the present invention.
도 15는 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도 이다.15 is a flowchart illustrating a method of performing a function of an electronic device according to a fourth embodiment of the present invention.
도 16 및 도 17은, 본 발명의 제4 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.16 and 17 are diagrams for describing a method of performing a function of an electronic device according to a fourth embodiment of the present invention.
도 18 내지 도 26은 상기 가상 입력 영역(20)과 상기 디스플레이부(151) 간의 매칭을 설명하기 위한 도면들이다.18 to 26 are diagrams for describing matching between the
도 27은 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.27 is a flowchart of a method of performing a function of an electronic device according to a fifth embodiment of the present invention.
도 28 내지 도 30은, 본 발명의 제5 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.28 to 30 are diagrams for describing a method of performing a function of an electronic device according to a fifth embodiment of the present invention.
도 31은 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법의 흐름도이다.31 is a flowchart of a method of performing a function of an electronic device according to a sixth embodiment of the present invention.
도 32는 도 31의 S610 단계의 세부 흐름도의 예이다.32 is an example of a detailed flowchart of step S610 of FIG. 31.
도 33 내지 도 45는, 본 발명의 제6 실시예에 따른 전자 기기의 기능 수행 방법을 설명하기 위한 도면이다.33 to 45 are diagrams for describing a method of performing a function of an electronic device according to a sixth embodiment of the present invention.
도 46 내지 도 48은, 상기 외부 객체의 이동 궤적이 폐곡선에 대응될 수 있는 예들을 도시한다.46 to 48 illustrate examples in which the movement trajectory of the external object may correspond to the closed curve.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100: 전자 기기 121: 카메라100: electronic device 121: camera
151: 디스플레이부 160: 메모리151: display unit 160: memory
180: 제어부 20: 가상 입력 영역180: control unit 20: virtual input area
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090060452A KR101549461B1 (en) | 2009-07-03 | 2009-07-03 | Electronic Device And Method Of Performing Function Using Same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090060452A KR101549461B1 (en) | 2009-07-03 | 2009-07-03 | Electronic Device And Method Of Performing Function Using Same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110002922A true KR20110002922A (en) | 2011-01-11 |
KR101549461B1 KR101549461B1 (en) | 2015-09-02 |
Family
ID=43610985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090060452A KR101549461B1 (en) | 2009-07-03 | 2009-07-03 | Electronic Device And Method Of Performing Function Using Same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101549461B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012141351A1 (en) * | 2011-04-12 | 2012-10-18 | Lg Electronics Inc. | Electronic device and method of controlling the same |
KR101414356B1 (en) * | 2012-08-30 | 2014-07-01 | 주식회사 팬택 | Portable Device and Information Input Method thereof |
US8860805B2 (en) | 2011-04-12 | 2014-10-14 | Lg Electronics Inc. | Electronic device and method of controlling the same |
KR20150076767A (en) * | 2013-12-27 | 2015-07-07 | 주식회사 케이티 | Virtual touch pointing area based touch panel input apparatus for controlling computerized electronic apparatus and method thereof |
WO2017003152A1 (en) * | 2015-06-29 | 2017-01-05 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling object movement |
WO2023132629A1 (en) * | 2022-01-06 | 2023-07-13 | 삼성전자 주식회사 | Electronic device including camera, and moving image generating method for photographing moving object |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003076495A (en) | 2001-08-31 | 2003-03-14 | Hitachi Kokusai Electric Inc | Virtual input device |
US20090027330A1 (en) | 2007-07-26 | 2009-01-29 | Konami Gaming, Incorporated | Device for using virtual mouse and gaming machine |
-
2009
- 2009-07-03 KR KR1020090060452A patent/KR101549461B1/en active IP Right Grant
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012141351A1 (en) * | 2011-04-12 | 2012-10-18 | Lg Electronics Inc. | Electronic device and method of controlling the same |
US8860805B2 (en) | 2011-04-12 | 2014-10-14 | Lg Electronics Inc. | Electronic device and method of controlling the same |
KR101414356B1 (en) * | 2012-08-30 | 2014-07-01 | 주식회사 팬택 | Portable Device and Information Input Method thereof |
KR20150076767A (en) * | 2013-12-27 | 2015-07-07 | 주식회사 케이티 | Virtual touch pointing area based touch panel input apparatus for controlling computerized electronic apparatus and method thereof |
WO2017003152A1 (en) * | 2015-06-29 | 2017-01-05 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling object movement |
CN107710083A (en) * | 2015-06-29 | 2018-02-16 | 三星电子株式会社 | Apparatus and method for control object movement |
WO2023132629A1 (en) * | 2022-01-06 | 2023-07-13 | 삼성전자 주식회사 | Electronic device including camera, and moving image generating method for photographing moving object |
Also Published As
Publication number | Publication date |
---|---|
KR101549461B1 (en) | 2015-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10101874B2 (en) | Apparatus and method for controlling user interface to select object within image and image input device | |
EP2261785B1 (en) | Mobile terminal and controlling method thereof | |
US20130053007A1 (en) | Gesture-based input mode selection for mobile devices | |
KR101733057B1 (en) | Electronic device and contents sharing method for electronic device | |
US8655413B2 (en) | Mobile terminal and method of setting items using the same | |
US20110319130A1 (en) | Mobile terminal and method of operation | |
KR20170003193A (en) | Mobile terminal and method for controlling the same | |
KR101694787B1 (en) | Mobile terminal and control method for mobile terminal | |
KR20150006237A (en) | Electronic device and operating method thereof | |
KR101951473B1 (en) | Mobile terminal | |
US20140282204A1 (en) | Key input method and apparatus using random number in virtual keyboard | |
KR20160071263A (en) | Mobile terminal and method for controlling the same | |
KR101549461B1 (en) | Electronic Device And Method Of Performing Function Using Same | |
KR20110080915A (en) | Method, system and mobile terminal for video service providing | |
KR101669520B1 (en) | Electronic device and control method thereof | |
KR101662249B1 (en) | Mobile Terminal And Method Of Inputting Imformation Using The Same | |
KR20110125725A (en) | Electronic device and contents sharing method for electronic device | |
KR20110132031A (en) | Mobile terminal and image processing method for mobile terminal | |
KR101680810B1 (en) | Mobile terminal | |
KR102088866B1 (en) | Mobile terminal | |
KR101779504B1 (en) | Mobile terminal and control method for mobile terminal | |
KR101302363B1 (en) | Electronic device and method for controlling of the same | |
KR20140062328A (en) | Mobile terminal | |
KR101699298B1 (en) | Mobile terminal and control method for mobile terminal | |
KR101687350B1 (en) | Mobile terminal and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |