KR20090116591A - A user interface controlling method using gesture in the proximal space - Google Patents

A user interface controlling method using gesture in the proximal space Download PDF

Info

Publication number
KR20090116591A
KR20090116591A KR1020080068755A KR20080068755A KR20090116591A KR 20090116591 A KR20090116591 A KR 20090116591A KR 1020080068755 A KR1020080068755 A KR 1020080068755A KR 20080068755 A KR20080068755 A KR 20080068755A KR 20090116591 A KR20090116591 A KR 20090116591A
Authority
KR
South Korea
Prior art keywords
function
user interface
display
touch screen
proximity
Prior art date
Application number
KR1020080068755A
Other languages
Korean (ko)
Other versions
KR100934514B1 (en
Inventor
김주민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US12/196,104 priority Critical patent/US8219936B2/en
Priority to PCT/KR2008/005066 priority patent/WO2009028892A2/en
Publication of KR20090116591A publication Critical patent/KR20090116591A/en
Application granted granted Critical
Publication of KR100934514B1 publication Critical patent/KR100934514B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

PURPOSE: A user interface control method using a gesture at adjacent space is provided to control an electronic system by not touching the electronic system, but using the gesture at adjacent space to the electronic system. CONSTITUTION: An object comes close to a display. The 2D(Dimensional) motion pattern of the object is extracted. A user interface is controlled according to the extracted 2D motion pattern. If the 2D motion pattern is spiral(15), the user interface is zoomed in/out according to the spiral direction.

Description

근접한 공간에서의 제스쳐를 이용한 사용자 인터페이스 제어방법{A user interface controlling method using gesture in the proximal space}A user interface controlling method using gesture in the proximal space}

본 발명은 사용자 인터페이스 제어방법에 관한 것이다.The present invention relates to a user interface control method.

보다 구체적으로, 본 발명은 근접 센서가 장착된 장치의 근접한 곳에서 사용자의 제스쳐를 검출하고, 검출된 제스쳐를 이용하여 사용자 인터페이스를 제어하는 다양한 방법을 제공한다.More specifically, the present invention provides various methods for detecting a user's gesture in the vicinity of a device equipped with a proximity sensor and controlling the user interface using the detected gesture.

오늘날 TV, 휴대폰, MP3 플레이어, PMP, 노트북, PDA 등의 전자 시스템들에는 다양한 입출력 장치들이 장착된다. Today, electronic systems such as TVs, cell phones, MP3 players, PMPs, notebooks and PDAs are equipped with various input / output devices.

다양한 입출력 장치들은 사용자가 위 시스템들을 편리하게 제어할 수 있도록 하기 위해 제공된다.Various input / output devices are provided for the user to conveniently control the above systems.

전자 시스템들 중에서도 휴대폰, MP3 플레이어, PMP, 노트북, PDA 등의 휴대형 장치들은 사이즈가 작기 때문에, 입출력 장치들을 장착하는데도 한계가 있다.Among electronic systems, portable devices such as mobile phones, MP3 players, PMPs, notebook computers, PDAs, and the like are small in size, and thus, there are limitations in mounting input / output devices.

최근 이러한 휴대형 장치들에는 사용자 인터페이스를 개선하기 위한 노력의 일환으로써 터치 스크린, 터치 패드, 네비게이션 패드 등이 장착되고 있는 추세이다. 터치 스크린을 채용함으로써 일반 PC에서 마우스 및 키보드 입력을 대체하고, 좁은 공간에서도 사용자로 하여금 다양한 방식으로 데이터를 입력하고, 명령을 입력하도록 할 수 있다.Recently, such portable devices have been equipped with touch screens, touch pads, and navigation pads as part of efforts to improve user interfaces. By adopting a touch screen, it replaces mouse and keyboard input in a general PC, and allows a user to input data and input commands in various ways even in a small space.

이러한 다양한 사용자 인터페이스에도 불구하고, 장치들의 입출력에는 많은 제한이 따르고, 사용자도 그만큼 불편을 느끼게 된다.Despite these various user interfaces, the input and output of devices are subject to a lot of limitations, and the user also feels uncomfortable.

휴대폰의 경우를 예로 들면, 통화 기능 외에 다양한 부가 기능을 추가하는 추세인데, 예를 들면, MP3 플레이어, 카메라 기능, 인터넷 접속 기능 등이 추가되고 있다.For example, in the case of a mobile phone, various additional functions are added in addition to a call function. For example, an MP3 player, a camera function, and an internet connection function are added.

이들 많은 기능들은 사용자가 모두 제어할 수 있도록 구성되는 것은 당연하지만, 장치의 사용 상태에 따라 사용자가 적절하게 기능을 제어하기에는 불편이 따른다.Naturally, many of these functions are configured to be controlled by the user, but it is inconvenient for the user to control the functions properly according to the use state of the device.

본 발명은 위와 같은 과제를 해결하기 위한 것으로서, 전자 시스템을 터치하지 않고, 전자 시스템의 근처에서 제스쳐를 취함으로써 전자 시스템을 제어할 수 있는 사용자 인터페이스 제어방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a user interface control method capable of controlling an electronic system by making a gesture in the vicinity of the electronic system without touching the electronic system.

본 발명은 장치 등의 다양한 사용자 인터페이스가 요구되는 환경에서 사용자에게 편리하면서도 생동감있는 장치의 사용감을 줄 수 있는 사용자 인터페이스 제어방법을 제공하는 것을 목적으로 한다.It is an object of the present invention to provide a user interface control method that can give a user a comfortable and lively device in an environment in which various user interfaces such as a device are required.

본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법은, 디스플레이를 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법으로서, 상기 디스플레이로의 오브젝트의 근접을 검출하는 단계; 상기 오브젝트의 2차원 움직임 패턴을 검출하는 단계; 및 상기 검출된 2차원 움직임 패턴에 따라 상기 사용자 인터페이스를 제어하는 단계를 포함한다.A method of controlling a user interface according to an embodiment of the present invention includes a method of controlling a user interface of an electronic device having a display, the method comprising: detecting proximity of an object to the display; Detecting a two-dimensional movement pattern of the object; And controlling the user interface according to the detected two-dimensional movement pattern.

본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법은, 다수의 터치 감응 영역으로 분할된 터치 스크린을 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법으로서, 상기 다수의 터치 감응 영역들의 제1 및 제2 영역 사이의 경계 위 공간의 오브젝트를 검출하고 해당 검출 신호를 출력하는 단계; 및 상기 검출 신호에 응답하여 상기 제1 및 제2 영역들에 해당하는 제1 및 제2 정보를 동시에 표시하는 단계를 포함한다.A user interface control method according to an embodiment of the present invention is a method of controlling a user interface of an electronic device having a touch screen divided into a plurality of touch sensitive regions, the first and second regions of the plurality of touch sensitive regions. Detecting an object in a space above a boundary between and outputting a corresponding detection signal; And simultaneously displaying first and second information corresponding to the first and second areas in response to the detection signal.

본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법은, 터치 스크린을 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법으로서, 상기 터치 스크린 상에 사용자 인터페이스를 표시하는 단계; 상기 터치 스크린의 표면 위로 오브젝트의 다수의 높이 중 제1 높이를 검출하는 단계; 각각 상기 다수의 높이 중 하나에 해당하는 다수의 기능들 중 제1 기능을 선택하는 단계; 및 상기 선택된 제1 기능을 수행하는 단계를 포함한다.A method of controlling a user interface according to an embodiment of the present invention includes a method of controlling a user interface of an electronic device having a touch screen, the method including: displaying a user interface on the touch screen; Detecting a first height of a plurality of heights of an object over a surface of the touch screen; Selecting a first function from among a plurality of functions corresponding to one of the plurality of heights, respectively; And performing the selected first function.

본 발명의 일 실시예에 따른 이동 단말기는, 디스플레이; 상기 디스플레이 위의 오브젝트의 근접을 검출하고, 상기 오브젝트의 2차원 움직임 패턴을 검출하고, 해당 근접 및 움직임 신호를 출력하도록 구성된 근접 센서; 및 상기 근접 및 움직임 신호를 기반으로 상기 디스플레이에 표시된 사용자 인터페이스를 제어하도록 구성된 프로세서를 포함한다.A mobile terminal according to an embodiment of the present invention, a display; A proximity sensor configured to detect proximity of an object on the display, detect a two-dimensional motion pattern of the object, and output a corresponding proximity and motion signal; And a processor configured to control a user interface displayed on the display based on the proximity and motion signals.

본 발명의 일 실시예에 따른 이동 단말기는, 다수의 터치 감응 영역으로 분할된 터치 스크린을 갖는 디스플레이; 상기 다수의 터치 감응 영역들 중 제1 및 제2 영역 간의 경계에서의 오브젝트를 검출하고, 해당 센서 신호를 출력하도록 구성된 근접 센서; 및 상기 디스플레이를 제어하여 상기 센서 신호에 응답하여 상기 제1 및 제2 영역에 해당하는 제1 및 제2 정보를 동시에 표시하도록 구성된 프로세서를 포함한다.A mobile terminal according to an embodiment of the present invention, a display having a touch screen divided into a plurality of touch sensitive areas; A proximity sensor configured to detect an object at a boundary between a first and a second area of the plurality of touch sensitive areas and output a corresponding sensor signal; And a processor configured to control the display to simultaneously display first and second information corresponding to the first and second areas in response to the sensor signal.

본 발명의 일 실시예에 따른 이동 단말기는, 터치 스크린을 갖는 디스플레이; 상기 터치 스크린의 표면 위의 오브젝트의 다수의 높이 중 제1 높이를 검출하고, 해당 제1 센서 신호를 출력하도록 구성된 근접 센서; 및 상기 다수의 높이들 중 하나에 해당하는 다수의 기능들 중 제1 기능을 선택하고, 상기 제1 센서 신호에 응답하여 상기 선택된 제1 기능을 수행하도록 구성된 프로세서를 포함한다.A mobile terminal according to an embodiment of the present invention, a display having a touch screen; A proximity sensor configured to detect a first height of a plurality of heights of an object on a surface of the touch screen and output a corresponding first sensor signal; And a processor configured to select a first function among a plurality of functions corresponding to one of the plurality of heights, and to perform the selected first function in response to the first sensor signal.

본 발명에 따르면 제한된 입출력 하드웨어로도 사용자에게 다양한 명령을 입력하도록 할 수 있다.According to the present invention, the user can input various commands even with limited input / output hardware.

본 발명에 따르면 사용자가 보다 직관적인 명령 입력을 통해, 보다 생동감있게 전자 시스템을 제어하도록 할 수 있다.According to the present invention, the user can control the electronic system more vividly through a more intuitive command input.

이하 도면을 참조하여 본 발명의 실시예들을 보다 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1a 내지 도 1c는 본 발명의 일 실시예에 따른 근접 센싱 시스템(11)의 동작을 나타낸다. 1A-1C illustrate the operation of proximity sensing system 11 in accordance with one embodiment of the present invention.

도 1a와 같이 근접 센싱 시스템(11)의 센싱 표면(12) 상방으로 소정 거리, d 예컨대 1cm 이내의 공간(이하 '센싱 필드'이라 한다)에 사용자의 손가락, 스타일러스 펜 등 오브젝트가 진입하면 그것을 센싱할 수 있다.As shown in FIG. 1A, when an object of a user's finger, stylus pen, or the like enters a space within a predetermined distance, d, for example, 1 cm (hereinafter referred to as a 'sensing field') above the sensing surface 12 of the proximity sensing system 11, the sensing surface 12 is sensed. can do.

근접 센싱 시스템(11)으로는 캐패시턴스의 변화를 검출하는 캐패시턴스 시스템이나, 적외선을 방사하여 오브젝트에 의해 반사되는 적외선을 검출하는 적외선 시스템, 또는 이미지 센서를 사용하여 오브젝트의 근접을 검출하는 이미지 센싱 시스템을 사용할 수 있다. The proximity sensing system 11 includes a capacitance system that detects a change in capacitance, an infrared system that emits infrared rays, and detects infrared rays reflected by an object, or an image sensing system that detects proximity of an object using an image sensor. Can be used.

캐패시턴스 방식을 사용하는 경우에는 센싱 필드 내에 오브젝트가 접근하였 을 때 발생하는 캐패시턴스의 변화를 검출함으로써 오브젝트의 접근을 검출해낼 수 있다.In the case of using the capacitance method, the proximity of the object can be detected by detecting a change in capacitance generated when the object approaches the sensing field.

캐패시턴스 검출 방식의 근접 센싱 시스템에는 캐패시턴스값의 변화를 측정하는 캐패시턴스 검출 회로와 제어부 등(미도시)이 포함될 수 있다.The proximity sensing system of the capacitance detection method may include a capacitance detection circuit and a controller (not shown) for measuring a change in the capacitance value.

적외선 방식의 근접 센싱 시스템에는 오브젝트를 향해 적외선을 방사하는 적외선 방출부, 오브젝트에 의해 반사된 적외선을 수신하는 적외선 수신부, 및 변화 검출 회로, 및 제어부 등(미도시)이 포함될 수 있다.The infrared sensing system may include an infrared emitter that emits infrared rays toward an object, an infrared receiver that receives infrared rays reflected by the object, a change detection circuit, a controller, and the like (not shown).

적외선 방식을 사용하는 경우에는 센싱 표면(12)의 주변에 적외선 방출부와 수신부 어레이를 장착함으로써, 오브젝트의 근접 여부뿐만 아니라 센싱 표면(12) 상에서의 위치도 검출해낼 수 있다. 적외선 방식의 경우에는 캐패시턴스 방식에 비해 센싱 필드의 깊이 d를 상대적으로 높게 설정할 수 있다.In the case of using the infrared method, by mounting the infrared emitter and the receiver array around the sensing surface 12, the position on the sensing surface 12 can be detected as well as whether the object is in proximity. In the case of the infrared method, the depth d of the sensing field may be set relatively higher than that of the capacitance method.

이미지 센서를 이용하는 경우에는 CMOS 센서 등의 이미지 센서에 의해 오브젝트의 이미지를 촬영하고 이미지 처리함으로써, 오브젝트의 접근 여부 및 움직임을 인식할 수 있다. 이미지 센서를 사용하는 경우에는 센싱 가능한 거리 d에 제약을 받지 않으며, 필요에 따라 조절할 수 있다.In the case of using an image sensor, an image sensor, such as a CMOS sensor, photographs an image of an object and processes the image to recognize whether the object is approaching or not. When using an image sensor, it is not limited by the sensing distance d and can be adjusted as needed.

본 발명의 일 실시예에 따라, 도 1a와 같이 오브젝트, 예컨대 사용자의 손가락이 센싱 필드 내로 접근하면 이것을 종래의 터치를 기반으로 동작되는 터치 패드나 터치 스크린에서의 터치로 판단하고 그에 해당하는 동작을 수행할 수 있다. 이하에서는 오브젝트가 근접 센싱 시스템의 센싱 거리 이내로 진입하는 동작을 픽 업(pickup) 동작이라 한다.According to an embodiment of the present invention, when an object, for example, a user's finger approaches the sensing field as shown in FIG. 1A, it is determined as a touch on a touch pad or a touch screen operated based on a conventional touch, and the corresponding operation is performed. Can be done. Hereinafter, an operation of entering an object within a sensing distance of the proximity sensing system is called a pickup operation.

오브젝트가 근접 센싱 시스템에 의해 픽업된 상태에서 도 1b와 같이 사용자가 오브젝트를 센싱 표면(12)에 평행하게 이동시키면 근접 센싱 시스템(11)은 사용자가 손가락을 실제로 터치하여 이동시켰을 때처럼, 즉 드래그할 때처럼 오브젝트의 움직임 패턴을 인식할 수 있다.If the user moves the object parallel to the sensing surface 12 as shown in FIG. 1B while the object is picked up by the proximity sensing system, the proximity sensing system 11 is dragged as if the user actually touched and moved the finger. You can recognize the movement pattern of the object as you do.

그에 따라, 근접 센싱 시스템(11)을 임의의 프로세서가 장착된 전자 장치에 장착하면, 그 장치의 프로세서는 패턴을 명령으로 인식하여 그 장치가 특정 동작을 수행하도록 할 수 있다.Accordingly, when the proximity sensing system 11 is mounted on an electronic device equipped with any processor, the processor of the device may recognize the pattern as a command so that the device may perform a specific operation.

움직임 패턴을 입력한 후에, 도 1c와 같이 사용자가 오브젝트를 센싱 표면으로부터 d 이상, 즉 센싱 필드 밖으로 멀리 떨어뜨리면 더 이상 손가락의 움직임을 검출하지 않게 된다. 이하 본 명세서에서는 센싱 영역에서 벗어나는 동작을 드롭(drop)이라고 한다.After inputting the movement pattern, as shown in FIG. 1C, when the user moves the object further than d from the sensing surface, that is, out of the sensing field, the movement of the finger is no longer detected. Hereinafter, in the present specification, an operation out of the sensing area is referred to as a drop.

도 2a 내지 도 2c와 같이, 본 발명의 일 실시예에 따라 근접 센싱 시스템(11)을 휴대폰 등의 디스플레이를 갖는 전자 장치(13)에 장착할 수 있다. 그에 따라, 전자 장치(13)의 근접한 거리에서 사용자의 제스쳐를 검출하여 그에 따른 동작을 수행할 수 있다.2A to 2C, the proximity sensing system 11 may be mounted on an electronic device 13 having a display such as a mobile phone according to an embodiment of the present invention. Accordingly, the user's gesture may be detected at a close distance of the electronic device 13 and the corresponding operation may be performed.

본 발명에 따른 전자 장치(13)는 휴대폰, MP3 플레이어, PMP, 노트북, PDA 등 터치 스크린이 장착된 모든 종류의 장치들을 포함한다.The electronic device 13 according to the present invention includes all kinds of devices equipped with a touch screen such as a mobile phone, an MP3 player, a PMP, a notebook computer, a PDA, and the like.

본 실시예에서는 전자 장치(13)로서 인터넷 브라우징이 가능한 휴대폰의 경 우를 예로 들어 설명한다.In the present embodiment, a mobile phone capable of internet browsing as the electronic device 13 will be described as an example.

도 2a와 같이 전자 장치(13)의 전면, 즉 디스플레이가 부착된 면에 근접 센싱 시스템(11)을 장착할 수 있다. 바람직하게는, 근접 센싱 시스템(11)이 전자 장치(13)의 디스플레이의 전체면을 커버할 수 있다. As illustrated in FIG. 2A, the proximity sensing system 11 may be mounted on the front surface of the electronic device 13, that is, the surface on which the display is attached. Preferably, the proximity sensing system 11 may cover the entire surface of the display of the electronic device 13.

손가락이나 스타일러스 펜 등의 오브젝트(14)가 센싱 필드 내에 진입하면 근접 센싱 시스템(11)은 그 오브젝트를 센싱하고, 그 오브젝트는 픽업된다.When an object 14 such as a finger or a stylus pen enters the sensing field, the proximity sensing system 11 senses the object, and the object is picked up.

픽업된 상태에서 사용자가 오브젝트(14)로 패턴을 그리면 근접 센싱 시스템(11)은 그 패턴을 인식할 수 있다. 예컨대, 도 2b와 같이 사용자가 센싱 표면 상의 한 점으로부터 시작되는 스파이럴 패턴(15)을 그릴 수 있다. When the user draws a pattern with the object 14 in the picked-up state, the proximity sensing system 11 may recognize the pattern. For example, as shown in FIG. 2B, the user can draw a spiral pattern 15 starting from a point on the sensing surface.

사용자가 센싱 필드 밖으로 오브젝트를 멀리하면 드롭되어, 근접 센싱 시스템(11)은 더 이상 패턴을 인식하지 않는다.If the user moves the object out of the sensing field, it is dropped and the proximity sensing system 11 no longer recognizes the pattern.

전술한 바와 같이, 근접 센싱 시스템(11)은 캐패시턴스 검출 시스템, 적외선 검출식 시스템, 또는 이미지 센서 시스템을 사용할 수 있다. 이와 같은 근접 센싱 시스템(11)에 의해 터치 없이도 디스플레이 상에서 그 오브젝트의 위치를 검출해낼 수 있고, 그 오브젝트의 움직임 패턴, 즉 디스플레이 상에서의 제스쳐도 검출해낼 수 있다.As described above, the proximity sensing system 11 may use a capacitance detection system, an infrared detection system, or an image sensor system. The proximity sensing system 11 can detect the position of the object on the display without a touch, and can detect the movement pattern of the object, that is, the gesture on the display.

전자 장치(13)의 제어부(미도시)는 검출된 제스쳐에 따라 그에 해당하는 동작을 수행할 수 있다. 예컨대, 도 2b와 같은 스파이럴 패턴(15)이 검출된 경우는 도 2c와 같이 줌인 동작을 수행하여 확대된 화면을 표시할 수 있다.The controller (not shown) of the electronic device 13 may perform a corresponding operation according to the detected gesture. For example, when the spiral pattern 15 as illustrated in FIG. 2B is detected, an enlarged screen may be displayed by performing a zoom in operation as illustrated in FIG. 2C.

근접 센싱 시스템(11)은 사용자의 손가락 또는 스타일러스 펜이 그리는 원형 패턴이 점점 커지는 것을 검출할 수 있고, 전자 장치(13)의 제어부는 검출된 패턴으로부터 줌인 명령임을 판단할 수 있다. The proximity sensing system 11 may detect that a circular pattern drawn by a user's finger or a stylus pen is gradually increasing, and the controller of the electronic device 13 may determine that the zoom-in command is from the detected pattern.

일 실시예에 따라, 화면을 확대시킴과 동시에 스파이럴 패턴(15)이 시작되는 포인트를 디스플레이의 중심점으로 이동시킬 수 있다. 즉, 사용자가 디스플레이의 중심부에서 시작되는 스파이럴을 그리면 줌인이 됨과 동시에 스파이럴 패턴(15)의 시작 포인트가 화면의 새로운 중심이 될 수 있다. 화면 중심의 이동은 손가락이 픽업되었을 때 또는 드롭되었을 때 수행될 수 있다.According to an exemplary embodiment, the screen may be enlarged and at the same time, the point where the spiral pattern 15 starts may be moved to the center point of the display. That is, when the user draws a spiral starting at the center of the display, the user can zoom in and at the same time, the starting point of the spiral pattern 15 can be a new center of the screen. The movement of the screen center may be performed when a finger is picked up or dropped.

일 실시예에 따라, 사용자가 손가락으로 스파이럴 패턴(15)을 그릴 때, 손가락이 한바퀴를 돌 때마다 단계적으로 줌인할 수 있다. 즉, 사용자가 손가락을 한바퀴 돌릴 때마다, 소정 비율 예컨대 25%씩 화면을 확대시킬 수 있다. 위와 같은 단계적인 줌인은 손가락이 근접 센싱 시스템(11)에 의해 드롭되었을 때 수행되는 것이 바람직하다.According to an embodiment, when the user draws the spiral pattern 15 with his or her finger, the user may zoom in step by step each time the finger turns. That is, each time the user rotates the finger, the screen may be enlarged by a predetermined ratio, for example, 25%. Such stepwise zoom-in is preferably performed when the finger is dropped by the proximity sensing system 11.

반대로, 사용자가 스파이럴 패턴(15)을 역방향으로 그리면 화면이 줌아웃 되도록 할 수 있다. 이 경우에는 시작점은 스파이럴 패턴(15)의 가장 외측이고, 종점은 스파이럴 패턴(15)의 중심 포인트가 된다. 줌 아웃하는 경우에도 마찬가지로, 사용자가 손가락으로 스파이럴 패턴(15)을 그릴 때, 손가락이 한바퀴를 돌 때마다 단계적으로 화면을 줌아웃 시킬 수 있다.On the contrary, when the user draws the spiral pattern 15 in the reverse direction, the screen may be zoomed out. In this case, the starting point is the outermost side of the spiral pattern 15, and the ending point is the center point of the spiral pattern 15. Similarly, when the user zooms out, when the user draws the spiral pattern 15 with his or her finger, the user can zoom out the screen step by step each time the finger rotates.

줌아웃의 경우에도 근접 센싱 시스템(11)은 사용자가 그리는 패턴을 검출하고, 전자 장치(13)의 제어부는 사용자가 그리는 원형 패턴의 반지름이 점점 작아지 는 것을 검출함으로써 그것이 줌아웃 명령임을 판단하고 줌아웃을 수행할 수 있다.Even in the case of zooming out, the proximity sensing system 11 detects the pattern drawn by the user, and the control unit of the electronic device 13 determines that the radius of the circular pattern drawn by the user becomes smaller and smaller, thereby determining that it is a zoom out command and performing zoom out. Can be done.

선택적으로, 사용자가 스파이럴 패턴(15)을 그리는 방향으로부터 그것이 줌인 명령인지 줌아웃 명령인지 판단할 수 있다. 예컨대, 사용자가 시계 방향으로 스파이럴 패턴을 그리면 줌인 명령으로, 반시계 방향으로 스파이럴 패턴을 그리면 줌아웃 명령으로 판단하여 그에 따른 동작을 수행하도록 설정할 수 있다. 그 반대로 설정하는 것도 물론 가능하다.Optionally, it may be determined from the direction in which the user draws the spiral pattern 15 whether it is a zoom in command or a zoom out command. For example, when the user draws a spiral pattern in the clockwise direction, the user may set the zoom-in command to determine the zoom-in command and draw the spiral pattern in the counterclockwise direction to perform the operation accordingly. It is also possible to set the reverse.

일 실시예에 따라서는, 도 3a 또는 3b와 같이 사용자가 같은 크기의 원형 패턴을 반복해서 그리는 경우에도 화면을 줌인하도록 설정할 수 있다. 이 경우는 원형 패턴을 그리는 방향에 따라 줌인 또는 줌아웃을 수행하도록 설정할 수 있다. 예컨대, 도 3a와 같이 시계방향으로 하나의 원을 그릴 때마다 일정 비율만큼 줌인을 하고, 도 3b와 같이 시계반대방향으로 하나의 원을 그릴 때마다 일정 비율만큼 줌아웃하도록 구성할 수 있다.According to an exemplary embodiment, as shown in FIG. 3A or 3B, the screen may be zoomed in even when the user repeatedly draws a circular pattern having the same size. In this case, the zoom-in or zoom-out may be performed according to the direction in which the circular pattern is drawn. For example, each time a circle is drawn in a clockwise direction as shown in FIG. 3A, the user zooms in by a predetermined ratio, and each time a circle is drawn in a counterclockwise direction as shown in FIG. 3B, the user may be configured to zoom out by a certain ratio.

사용자가 근접 센싱 시스템(11)이 장착된 장치의 센싱 표면(12)에 근접하여 그리는 패턴에 따라 다양한 명령을 수행하도록 구성할 수 있으며, 패턴은 문자나 숫자일 수도 있다.The user may be configured to perform various commands according to a pattern drawn close to the sensing surface 12 of the device on which the proximity sensing system 11 is mounted, and the pattern may be a letter or a number.

예컨대, 도 4과 같이 사용자가 전자 장치에 근접하여 예컨대 L자를 그리면 장치에 장착된 터치 스크린에 락을 설정할 수 있다. 마찬가지로 U자를 그리면 터치 스크린의 락을 해제하도록 설정할 수 있다. 이 경우, 터치 스크린에 락이 설정된 상태에서는 제어부가 U자 이외의 패턴 입력은 무시하도록 설정할 수 있다.For example, as shown in FIG. 4, when the user draws an L letter in close proximity to the electronic device, a lock may be set on the touch screen mounted on the device. Likewise, drawing a U character can be set to unlock the touch screen. In this case, when the lock is set on the touch screen, the controller may be set to ignore pattern input other than U.

전자 장치(13)가 MP3 등의 오디오 파일을 재생 기능, 비디오 파일 재생 기능, TV 수신 기능을 갖는 경우에도 제스쳐를 이용하여 사용자 인터페이스를 제어할 수 있다.Even when the electronic device 13 has an audio file playback function such as an MP3, a video file playback function, and a TV reception function, the user interface may be controlled using the gesture.

도 5a는 전자 장치(13)로 MP3 오디오 파일을 재생하는 화면을 나타낸다. 오디오 파일 재생 중에 도 5a와 같이 화면의 임의의 위치에 V자를 그리면 도 5b와 같이 볼륨 콘트롤 메뉴(15)를 디스플레이할 수 있다. 볼륨 콘트롤 메뉴(15)가 디스플레이된 상태에서, 사용자는 장치의 터치 스크린을 터치하여, 즉 볼륨 콘트롤 메뉴(15)를 터치하여 스크롤하면 볼륨을 조절할 수 있다. 비디오 파일 재생 중이나, TV수신 기능 수행 중에도 마찬가지로 구현될 수 있음은 물론이다.5A illustrates a screen of playing back an MP3 audio file by the electronic device 13. While playing an audio file, if the letter V is drawn at an arbitrary position on the screen as shown in FIG. 5A, the volume control menu 15 can be displayed as shown in FIG. 5B. With the volume control menu 15 displayed, the user can adjust the volume by touching the device's touch screen, ie, touching the volume control menu 15 to scroll. Of course, it can be implemented during video file playback or during TV reception.

위에 설명한 예 외에도, 사용자가 근접 센싱 시스템(11)의 센싱 표면(12)에 근접하여 그릴 수 있는 패턴은 다양하게 변경될 수 있으며, 그 패턴에 따라 수행되는 동작도 다양하게 변경될 수 있을 것이다.In addition to the above-described example, the pattern that the user can draw in proximity to the sensing surface 12 of the proximity sensing system 11 may be variously changed, and the operation performed according to the pattern may be variously changed.

복수의 문자나 숫자의 패턴을 인식하여 그에 해당하는 명령을 수행하도록 하는 것도 가능하다. 예컨대, L자나 V자와 같은 한 문자가 아니라, "Lo" 또는 "Lock"등와 같이 복수개의 문자나 숫자로 이루어진 패턴을 입력하는 경우도 그에 해당하는 명령을 설정할 수 있으며, 해당 패턴이 입력되는 경우에는 해당 동작이 수행되도록 할 수 있다. It is also possible to recognize a pattern of a plurality of letters or numbers and to perform a corresponding command. For example, when entering a pattern consisting of a plurality of letters or numbers, such as "Lo" or "Lock", and not a single letter such as L or V, the corresponding command can be set. This operation can be performed.

사용자가 입력하는 패턴과 그에 해당하는 동작은 직관적으로 쉽게 이해할 수 있도록 설정되는 것이 바람직하다.The pattern input by the user and the corresponding operation are preferably set to be intuitively and easily understood.

전술한 바와 같이, 볼륨 제어의 경우에는 첫 글자인 V자 설정하는 것이 바람 직하고, 스파이럴 패턴으로 줌인을 하는 경우에는, 스파이럴 패턴이 점점 커지면 줌인, 스파이럴 패턴이 점점 작아지면 줌아웃 되도록 구성하는 것이 바람직하다.As described above, in the case of the volume control, it is preferable to set the first letter, V, and when zooming in with a spiral pattern, it is preferable to configure the zoom-in as the spiral pattern increases and zoom-out as the spiral pattern decreases. Do.

전술한 또는 후술할 실시예에서, 시각적 디스플레이에는 오디오 기반 또는 촉각 기반(예컨대, 진동) 피드백이 추가될 수 있다. 일 실시예에서, 상기 오디오 피드백의 볼륨 또는 진동 피드백의 강도는 스크린 위의 오브젝트의 거리에 따라 변화할 수 있다.In the embodiments described above or below, audio visual or tactile based (eg, vibrational) feedback may be added to the visual display. In one embodiment, the volume of the audio feedback or the strength of the vibration feedback may vary with the distance of the object on the screen.

도 6a 및 도 6b는 본 발명에 따른 근접 센싱을 이용한 사용자 인터페이스 제어방법의 또 다른 실시예를 나타낸다.6A and 6B illustrate another embodiment of a method for controlling a user interface using proximity sensing according to the present invention.

도 6a는 디스플레이가 화면의 대부분을 차지하고, 번호 버튼이 없는 소위 풀 터치 휴대폰을 나타낸다. 도 6a의 휴대폰의 디스플레이에는 상기 휴대폰의 메인 메뉴가 표시되어 있으며, 메인 메뉴는 통화, 메시지, 전화번호부, 알람/일정, 멀티미디어, 편의기능, 소리/진동, 화면설정, 휴대폰 설정 등의 메뉴를 포함할 수 있으며, 상기 메뉴들은 각각 아이콘으로 표시되어 있다.6A shows a so-called full touch mobile phone with a display occupying most of the screen and without a number button. The display of the mobile phone of FIG. 6A shows a main menu of the mobile phone, and the main menu includes menus such as a call, a message, a phone book, an alarm / schedule, a multimedia, a convenience function, a sound / vibration, a screen setting, a mobile phone setting, and the like. The menus are represented by icons, respectively.

도 6a와 같이 장치의 디스플레이는 각각 하나의 아이콘을 포함하는 다수의 서브 영역들(16)로 구분될 수 있다. As shown in FIG. 6A, the display of the device may be divided into a plurality of sub-regions 16 each including one icon.

사각형으로 구분되는 서브 영역들(16)의 내부 아무 곳이나 터치하면 명령이실행되도록 할 수도 있고, 서브 영역들(16)에 포함되어 있는 아이콘을 터치하여야 명령이 실행되도록 할 수 있다.If a user touches anywhere inside the sub-regions 16 separated by the squares, the command may be executed or the command may be executed only by touching an icon included in the sub-regions 16.

도 6b와 같이 사용자가 손가락을 장치의 디스플레이에 근접시키면, 장치에 장착된 근접 센싱 시스템이 손가락의 근접 및 그 위치를 검출한다. As shown in FIG. 6B, when the user approaches the finger on the display of the device, the proximity sensing system mounted on the device detects the proximity of the finger and its position.

그 검출된 위치에 따라 도 6b에 도시된 바와 같이 그 위치에 해당하는 아이콘의 설명(17)을 표시해줄 수 있다. 즉, 손가락의 위치가 통화 아이콘에 해당하는 서브 영역(16a)에 속하면 그에 대한 설명(17a)을 표시하고, 메시지 아이콘에 해당하는 서브 영역(16b)에 속하면 그에 대한 설명을 표시할 수 있다.According to the detected position, the description 17 of the icon corresponding to the position may be displayed as shown in FIG. 6B. That is, if the position of the finger belongs to the sub area 16a corresponding to the call icon, the description 17a may be displayed. If the position of the finger belongs to the sub area 16b corresponding to the message icon, the description thereof may be displayed. .

사용자는 손가락이나 스타일러스 펜으로 각 아이콘을 선택하여 해당 기능을 이용할 수 있다. 이 때, 사용자가 손가락이나 두꺼운 오브젝트를 이용해서 선택하는 경우에 오브젝트가 검출되는 위치가 복수의 선택가능한 영역에 걸치게 되어 어느 아이콘을 선택하는 것인지 불분명할 때가 있다. The user can select each icon with a finger or a stylus pen to use the corresponding function. At this time, when the user selects using a finger or a thick object, it is sometimes unclear which icon is selected because the position where the object is detected spans a plurality of selectable areas.

즉, 도 6c와 같이 2개의 아이콘 사이에 손가락이나 기타 오브젝트를 가져가게 되면 어느 것도 실행되지 않거나, 두 개의 명령이 동시에 실행되는 문제가 발생할 수 있다. 도 6c의 상황에서는 통화 메뉴(16a)를 실행하여야 할지, 메시지 메뉴(16b)를 실행하여야 할지 불분명하게 된다. 이 상태에서 그대로 터치를 하게 되면, 두 가지 모두 실행되지 않거나 또는 두가지 모두 실행될 수도 있다. That is, when a finger or other object is taken between two icons as shown in FIG. 6C, none of them may be executed or two commands may be executed simultaneously. In the situation of FIG. 6C, it is unclear whether the call menu 16a should be executed or the message menu 16b should be executed. In this state, if the touch is performed as it is, both may not be executed or both may be executed.

사용자가 장치의 터치 스크린에 오브젝트를 근접시킨 경우에 어느 아이콘을 선택하는지 불분명한 경우에는 도 6c와 같이 가능성 있는 서브 영역(16a,16b) 모두에 대한 설명(17a,17b)을 표시할 수 있다. 표시되는 설명을 보고 사용자는 손가락을 자신이 원하는 서브 영역으로 이동한 다음 그 영역의 아이콘을 터치하여 원하는 명령을 수행할 수 있다.If it is unclear which icon is selected when the user brings the object close to the touch screen of the device, the descriptions 17a and 17b of all possible sub-regions 16a and 16b may be displayed as shown in FIG. 6C. Based on the displayed description, the user may move a finger to a desired sub area and then touch an icon of the area to perform a desired command.

본 발명의 다른 실시예에서, 사용자가 그리는 패턴을 인식하여 이미지나 동 영상의 표시 방향을 변환할 수 있다.In another embodiment of the present invention, the display direction of an image or a video may be changed by recognizing a pattern drawn by a user.

도 7a와 같이 휴대폰 등의 전자 장치의 디스플레이에 세로 방향으로 사진이 표시되어 있는 경우에, 장치의 센싱 검출 시스템(11)에 근접하여 사용자가 회전 패턴(18)을 그리는 경우에 그에 응답하여 도 7b와 같이 가로 방향으로 사진을 표시할 수 있다. When a picture is displayed in the vertical direction on a display of an electronic device such as a mobile phone as shown in FIG. 7A, when the user draws the rotation pattern 18 in close proximity to the sensing detection system 11 of the device, FIG. 7B The picture can be displayed in the horizontal direction as shown.

위 실시예는 디스플레이가 장착되어 있는 전자 장치를 이용하여 동영상 파일을 재생하는 경우, 웹브라우징을 하는 경우 등에도 마찬가지로 적용될 수 있으며, 전자 장치의 임의의 동작 모드에서도 동일하게 동작하도록 구성할 수 있다.The above embodiment may be similarly applied to the case of playing a video file using the electronic device equipped with the display, the web browsing, etc., and may be configured to operate in the same operation mode of the electronic device.

도 8a 내지 도 8c는 본 발명의 다른 실시예에 따른 근접 센싱을 이용한 사용자 인터페이스 제어방법을 나타낸다.8A to 8C illustrate a method of controlling a user interface using proximity sensing according to another exemplary embodiment of the present invention.

근접 센싱 시스템(11)으로 캐패시턴스 측정 방식의 센싱 시스템을 사용하는 경우에는, 손가락 등의 오브젝트가 근접함에 따라 검출되는 캐패시턴스의 변화량이 크게 된다. 따라서, 검출되는 캐패시턴스 변화량에 따라 오브젝트까지의 거리를 측정할 수 있다. 근접 센싱 시스템(11)의 센싱 표면(12) 상방의 필드를 복수개의 섹션으로 구분하여 근접 정도를 판단할 수 있다.When the sensing system of the capacitance measurement method is used as the proximity sensing system 11, the amount of change in capacitance detected as an object such as a finger approaches is large. Therefore, the distance to the object can be measured according to the amount of capacitance change detected. The degree of proximity may be determined by dividing the field above the sensing surface 12 of the proximity sensing system 11 into a plurality of sections.

적외선 검출 방식을 사용하는 경우에도 적외선이 오브젝트에 의해 반사되는 각을 이용하여 센싱 표면(12)으로부터 오브젝트까지의 높이를 알 수 있다. 이미지 센서를 이용한 근접 센싱 시스템(11)에서는 이미지 프로세싱을 통해 센싱 표면(12)에서 오브젝트까지의 높이를 알 수 있다.Even when using an infrared detection scheme, the angle from the sensing surface 12 to the object can be known using the angle at which the infrared light is reflected by the object. In the proximity sensing system 11 using the image sensor, the height from the sensing surface 12 to the object may be known through image processing.

센싱 필드는 도 8a와 같이 근접 센싱 시스템(11)의 센싱 표면(12)으로부터의 거리에 따라 제1 필드(19a)와 제2 필드(19b)로 구분할 수 있다. 사용자가 제1 필드(19a) 밖에 있으면 아무런 입력이 없는 것으로 판단한다. The sensing field may be divided into a first field 19a and a second field 19b according to the distance from the sensing surface 12 of the proximity sensing system 11 as shown in FIG. 8A. If the user is outside the first field 19a, it is determined that there is no input.

도 8b와 같이 오브젝트가 제1 필드(19a)에 진입한 경우와, 도 8c와 같이 더 근접하여 제2 필드(19b)에 진입한 경우를 구분할 수 있다. 또한, 오브젝트가 센싱 표면(12)에 터치된 경우도 구분할 수 있다. 근접 센싱 시스템(11)을 사용자 인터페이스가 필요한 장치들에 장착하면, 오브젝트가 제1 필드(19a)에 있는 경우, 제2 필드(19b)에 있는 경우, 터치된 경우에 각각 다른 동작을 수행할 수 있다.As illustrated in FIG. 8B, an object enters the first field 19a and a case in which the object enters the second field 19b closer to each other as shown in FIG. 8C. In addition, the case where the object touches the sensing surface 12 may be distinguished. When the proximity sensing system 11 is mounted on devices requiring a user interface, when the object is in the first field 19a or the second field 19b, when the object is touched, different operations may be performed. have.

예컨대, 근접 센싱 시스템(11)을 휴대폰에 장착한 경우에, 사용자가 손가락을 제1 필드(19a)에서 도 2b와 같은 패턴을 그리면 화면을 25%씩 줌인하고, 제2 필드(19b)에서 같은 동작을 하면 50% 줌인하도록 구성할 수 있다. 터치된 상태에서는 또 다른 동작을 수행하도록 구성할 수 있을 것이다.For example, when the proximity sensing system 11 is mounted on the mobile phone, when the user draws a finger on the first field 19a as shown in FIG. The action can be configured to zoom in 50%. In the touched state, it may be configured to perform another operation.

실시예에 따라서는, 사용자의 손가락이 제1 필드(19a)에서 제2 필드(19b)로 이동하면 일정 비율만큼 줌인하고, 제2 필드(19b)에서 제1 필드(19a)로 이동하면 일정 비율만큼 줌아웃하도록 구성할 수 있다.According to an embodiment, when the user's finger moves from the first field 19a to the second field 19b, the user zooms in by a certain ratio, and when the user moves from the second field 19b to the first field 19a, Can be configured to zoom out as much as possible.

실시예에 따라서는, 메뉴 선택 시에 사용자의 손가락이 제1 필드(19a)에 있는 경우는 그 손가락의 위치에 해당하는 아이콘을 확대하여 표시하고, 제2 필드(19b)에 진입하면 그 아이콘을 실행하도록 구성할 수 있다.According to an embodiment, when the user's finger is in the first field 19a at the time of menu selection, the icon corresponding to the position of the finger is enlarged and displayed, and when the user enters the second field 19b, the icon is displayed. It can be configured to run.

또한, 실시예에 따라서는, 상기 전자 장치가 사진 보기 모드에 있고, 상기 사진 보기 모드에서 사진파일들의 프리뷰를 제공하는 경우에, 사용자의 손가락이 제1 필드(19a)에 있는 경우는 그 손가락 위치에 해당하는 프리뷰를 확대하고, 제2 필드(19b)로 진입하면 그 사진을 화면에 꽉 차게 표시할 수 있다.Further, according to an embodiment, when the electronic device is in the picture viewing mode and provides a preview of the picture files in the picture viewing mode, the finger position when the user's finger is in the first field 19a. If the preview is enlarged and enters the second field 19b, the picture may be displayed on the screen.

또한, 상기 손가락의 높이를 일정 시간 측정하여 그 변화를 검출할 수 있고, 그 변화에 따라 상기 전자 장치의 특정 동작을 수행하도록 구성할 수 있다. 예컨대, 손가락이 제1 필드(19a)와 제2 필드(19b) 사이를 3회 왕복하였으면, 즉 사용자가 손가락을 제1 필드(19a)와 제2 필드(19b)에서 흔들면, 흔든 횟수만큼 볼륨을 업 또는 다운하거나 화면을 줌인 또는 줌아웃 하도록 구성할 수 있다. In addition, the height of the finger may be measured for a predetermined time to detect the change and may be configured to perform a specific operation of the electronic device according to the change. For example, if a finger has reciprocated three times between the first field 19a and the second field 19b, i.e., if the user shakes the finger in the first field 19a and the second field 19b, the volume is shaken a number of times. It can be configured to up or down or to zoom in or out of the screen.

실시예에 따라서는, 근접 센싱에 의한 동작은 동일하게 하되, 근접 센싱에 의해 측정되는 센싱 표면(12)으로부터의 거리, 즉 깊이에 따라 해당 동작의 피드백의 강도를 변화시킬 수 있다.According to an embodiment, the operation by the proximity sensing is the same, but the intensity of the feedback of the operation may be changed according to the distance from the sensing surface 12 measured by the proximity sensing, that is, the depth.

예컨대, 근접 센싱 시스템의 센싱 필드에 오브젝트가 진입했을 때, 텍타일 피드백이나, 사운드 피드백을 제공할 수 있는데, 오브젝트가 제1 필드(19a)에 있는 경우는 약한 피드백을 제공하고, 오브젝트가 제2 필드(19b)에 있는 경우는 상대적으로 강한 피드백을 제공할 수 있다. 그에 따라, 사용자에게 생동감있는 사용자 인터페이스를 제공할 수 있다.For example, when an object enters a sensing field of a proximity sensing system, it may provide tactile feedback or sound feedback. If the object is in the first field 19a, the feedback field may provide weak feedback, and the object may provide a second feedback. When in field 19b, it can provide relatively strong feedback. Accordingly, it is possible to provide a user with a lively user interface.

다른 기능들로는 줌 기능, 회전 기능, 조리개 오픈 기능, 디졸브(dissolve) 기능, 메뉴 표시 기능과 같은 디스플레이 제어 기능들도 포함될 수 있다. 다른 기능들로는 스크린 활성화 기능도 포함될 수 있다. 즉, 오브젝트/손가락이 임계 거리 이상 멀리 떨어져 있을 때, 메뉴 아이콘은 비활성화될 수 있다. 오브젝트/손가 락이 특정 메뉴 아이콘 위에 있고, 임계 거리 이하에 있는 것으로 검출되면, 메뉴 아이콘이 활성화되어 서브 메뉴를 표시하거나 해당 메뉴 아이콘과 관련된 제어 기능을 제어할 수 있다.Other functions may include display control functions such as zoom function, rotation function, aperture open function, dissolve function, and menu display function. Other features may include screen activation. That is, the menu icon can be deactivated when the object / finger is far apart above the threshold distance. If it is detected that the object / finger is above a certain menu icon and below a threshold distance, the menu icon can be activated to display a submenu or to control a control function associated with the menu icon.

도 9a 및 도 9b는 본 발명의 또 다른 실시예에 따른 근접 센싱을 이용한 사용자 인터페이스 제어방법을 나타낸다.9A and 9B illustrate a method of controlling a user interface using proximity sensing according to another embodiment of the present invention.

도 9a는 사진 보기 기능이 장착된 풀 터치 휴대폰을 나타낸다. 다수의 사진의 미리 보기를 포함하는 아이콘(20)들이 표시되어 있다. 사용자가 이 중 하나를 터치하거나 더블 터치하면 해당 사진이 표시된다.9A illustrates a full touch mobile phone equipped with a photo viewing function. Icons 20 that include previews of multiple photos are displayed. When the user touches or double touches one of the pictures, the picture is displayed.

사용자가 터치를 하지 않고, 휴대폰의 디스플레이 표면, 즉 센싱 표면으로부터 센싱 가능한 거리 내에 손가락을 근접시키는 경우에는 도 9b와 같이 해당 사진의 상세설명을 표시할 수 있다. 상세 설명은 그 사진의 파일명, 생성일, 파일 크기, 해상도 등을 포함할 수 있다. 센싱 표면을 직접 터치하면 해당 사진을 크게 표시한다.When the user does not touch and moves his or her finger within a sensing distance from the display surface of the mobile phone, that is, the sensing surface, the detailed description of the corresponding picture may be displayed as shown in FIG. 9B. The detailed description may include the file name, creation date, file size, resolution, etc. of the photo. Touch the sensing surface directly to make the photo larger.

위와 같은 동작은 근접 센싱 시스템이 장착된 다양한 장치들에 적용될 수 있다. 화면에 다양한 파일들이 표시되어 있는 경우에 터치없이 오브젝트를 근접시키면 그 파일에 대한 정보를 표시하여 사용자가 그 내용을 파악할 수 있다.The above operation can be applied to various devices equipped with the proximity sensing system. When various files are displayed on the screen, if an object is approached without a touch, information about the files can be displayed so that the user can grasp the contents.

전술한 실시예에서는 휴대폰의 경우를 예로 들어 설명하였으나, 본 발명은 휴대폰 등의 휴대용 장치 뿐만 아니라, 근접 센싱이 가능한 센서를 장착한 모든 장 치에 적용될 수 있다. In the above-described embodiment, the case of the mobile phone has been described as an example, but the present invention can be applied to all devices equipped with a sensor capable of proximity sensing as well as a portable device such as a mobile phone.

또한 본 발명의 사용자 인터페이스 제어방법은, 근접 센싱용 센서로 캐패시턴스 타입의 터치 스크린 뿐만 아니라, 적외선 방식의 터치 스크린 또는 카메라를 이용한 영상 인식 방법을 이용해서도 구현될 수 있다.In addition, the user interface control method of the present invention may be implemented by using an infrared type touch screen or an image recognition method using a camera as well as a capacitance type touch screen as a proximity sensing sensor.

도 10는 본 발명의 일 실시예에 따른 이동 단말기(100)의 블록도이다. 본 명세서에 언급된 임의의 이동 단말기(예컨대, 이동 단말기(10,21))는 거리 센서를 포함하는 부품들이 장착된 이동 단말기(100)일 수 있다. 전술한 바와 같이, 본 발명의 이동 단말기는 다양한 타입의 장치들을 사용하여 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 이동 단말기는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 등이 있다.10 is a block diagram of a mobile terminal 100 according to an embodiment of the present invention. Any mobile terminal (eg, mobile terminals 10, 21) referred to herein may be a mobile terminal 100 equipped with components that include a distance sensor. As mentioned above, the mobile terminal of the present invention can be implemented using various types of devices. For example, the mobile terminal described herein may be a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, or the like. have.

도시된 이동 단말기(100)는 수개의 공지된 컴포넌트들로 구현할 수 있는 무선 통신부(110)를 포함한다. 예를 들어, 무선 통신부(110)는 통상적으로 이동 단말기(100)와 이동 단말기가 위치한 무선 통신 시스템 또는 네트워크 간의 무선 통신을 가능케하는 하나 이상의 컴포넌트들을 포함한다.The illustrated mobile terminal 100 includes a wireless communication unit 110 that can be implemented with several known components. For example, the wireless communication unit 110 typically includes one or more components that enable wireless communication between the mobile terminal 100 and a wireless communication system or network in which the mobile terminal is located.

방송 수신 모듈(111)은 방송 채널을 통해 외부 방송 관리 서버로부터 방송 신호 및/또는 방송과 관련된 정보를 수신한다. 방송 채널은 위성 채널 및 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.

한편, 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.Meanwhile, the broadcast related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다.The broadcast receiving module 111 receives broadcast signals using various broadcasting systems, and in particular, digital multimedia broadcasting-terrestrial (DMB-T), digital multimedia broadcasting-satellite (DMB-S), and media forward link (MediaFLO). Digital broadcast signals can be received using digital broadcasting systems such as only), digital video broadcast-handheld (DVB-H), integrated services digital broadcast-terrestrial (ISDB-T), and the like. Of course, the broadcast receiving module 111 is configured to be suitable for all broadcast systems providing broadcast signals as well as the digital broadcast system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

또한, 이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. In addition, the mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 내장되거나 외장될 수 있다.The wireless internet module 113 refers to a module for wireless internet access, and the wireless internet module 113 may be internal or external.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

또한, 위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들어, GPS 모듈은, 3개 이상의 위성으로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 방법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다.In addition, the location information module 115 is a module for checking or obtaining the location of the mobile terminal. One example is the Global Position System (GPS) module. The GPS module receives location information from a plurality of satellites. Here, the location information may include coordinate information represented by latitude and longitude. For example, the GPS module can measure the exact time and distance from three or more satellites and accurately calculate the current position by triangulating three different distances. A method of obtaining distance and time information from three satellites and correcting the error with one satellite may be used. In particular, the GPS module can obtain not only the location of latitude, longitude, and altitude but also accurate time together with three-dimensional speed information from the location information received from the satellite.

한편, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력 을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)은 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Meanwhile, the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)은 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided according to the configuration aspect of the terminal.

마이크(122)은 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module 112 and output in the call mode. The microphone 122 may implement various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)과 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.The user input unit 130 generates input data for the user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like. In particular, when the touch pad has a mutual layer structure with the display unit 151 described later, this may be referred to as a touch screen.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단 말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 detects the current state of the mobile terminal 100 such as the open / closed state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of a user contact, the orientation of the mobile terminal, the acceleration / deceleration of the mobile terminal, and the like. The sensing unit generates a sensing signal for controlling the operation of the mobile terminal 100.

센싱부(140)는 자이로 센서, 가속도 센서 등의 움직임 또는 위치를 검출하기 위한 관성 센서 또는 사용자와 이동 단말기(100) 사이의 거리 관계를 검출 또는 측정하기 위한 거리 센서를 포함할 수 있다.The sensing unit 140 may include an inertial sensor for detecting a movement or a position of a gyro sensor, an acceleration sensor, or a distance sensor for detecting or measuring a distance relationship between a user and the mobile terminal 100.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다. The interface unit 170 serves as an interface with all external devices connected to the mobile terminal 100. For example, wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, Video I / O (Input / Output) port, earphone port, etc. may be included.

여기에서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module; 'UIM'), 가입자 인증 모듈(Subscriber Identify Module; 'SIM'), 범용 사용자 인증 모듈(Universal Subscriber Identity Module; 'USIM') 등을 포함할 수 있다. 또한, 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.Here, the identification module is a chip that stores various types of information for authenticating the use authority of the mobile terminal 100, and includes a user identification module (UIM) and a subscriber identify module (SIM). ), A Universal Subscriber Identity Module (“USIM”), and the like. In addition, the device equipped with the identification module (hereinafter, 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through a port. The interface unit 170 receives data from an external device or receives power and transmits the data to each component inside the mobile terminal 100 or transmits the data inside the mobile terminal 100 to an external device.

출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력 을 위한 것으로, 이에는 디스플레이부(151)와 음향 출력 모듈(152), 알람부(153) 등이 포함될 수 있다. 디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 150 may include a display unit 151, a sound output module 152, an alarm unit 153, and the like. The display unit 151 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal is in a call mode, a user interface (UI) or a graphic user interface (GUI) related to a call is displayed. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 displays a photographed and / or received image, a UI, or a GUI.

디스플레이부(151) 위에는 터치 스크린 패널이 장착될 수 있다. 이러한 구성에 의해 디스플레이부(151)는 입력부 및 출력부 모두의 역할을 할 수 있다.The touch screen panel may be mounted on the display unit 151. By such a configuration, the display unit 151 may serve as both an input unit and an output unit.

디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수도 있다. 예를 들어, 이동 단말기(100)에 외부 디스플레이부(미도시)과 내부 디스플레이부(미도시)이 동시에 구비될 수 있다.The display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display). In addition, two or more display units 151 may exist according to the implementation form of the mobile terminal 100. For example, an external display unit (not shown) and an internal display unit (not shown) may be simultaneously provided in the mobile terminal 100.

음향 출력 모듈(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등 이 포함될 수 있다.The sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 152 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed in the mobile terminal 100. The sound output module 152 may include a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(153)은 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 알람부(153)은 진동을 출력할 수 있다. 또는, 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 알람부(153)은 진동을 출력할 수 있다. 상기와 같은 진동 출력을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)이나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The alarm unit 153 outputs a signal for notifying occurrence of an event of the mobile terminal 100. Examples of events occurring in the mobile terminal include call signal reception, message reception, and key signal input. The alarm unit 153 may output a signal for notifying occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration. When a call signal is received or a message is received, the alarm unit 153 may output a vibration to inform this. Alternatively, when a key signal is input, the alarm unit 153 may output a vibration in response to the key signal input. Through the vibration output as described above, the user can recognize the occurrence of the event. Of course, the signal for notification of event occurrence may be output through the display unit 151 or the voice output module 152.

메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 160 may store a program for processing and controlling the controller 180 and may provide a function for temporarily storing input / output data (for example, a phone book, a message, a still image, a video, etc.). It can also be done.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적 어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 이동 단말기(100)는 인터넷(internet)상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) magnetic memory, At least one type of storage medium may be included in the optical disc. In addition, the mobile terminal 100 may operate a web storage that performs a storage function of the memory 150 on the Internet.

그리고 제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, perform related control and processing for voice calls, data communications, video calls, and the like. In addition, the controller 180 may include a multimedia module 181 for playing multimedia. The multimedia module 181 may be implemented in the controller 180 or may be implemented separately from the controller 180.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be implemented in a computer readable recording medium using, for example, software, hardware or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing the functions. It may be implemented by the controller 180.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. In addition, the software code may be stored in the memory 160 and executed by the controller 180.

도 10에 도시된 단말기(100)는, 유무선 통신 시스템 및 위성 기반 통신 시스템을 포함하여, 프레임(frame) 또는 패킷(packet)을 통하여 데이터(data)를 전송할 수 있는 통신 시스템에서 동작 가능하도록 구성될 수 있다.The terminal 100 illustrated in FIG. 10 may be configured to be operable in a communication system capable of transmitting data through a frame or packet, including a wired / wireless communication system and a satellite based communication system. Can be.

이하에서는, 도 11를 참조하여, 본 발명에 관련된 단말기가 동작 가능한 통신 시스템에 대하여 살펴보겠다. Hereinafter, referring to FIG. 11, a communication system capable of operating a terminal according to the present invention will be described.

통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access; 'FDMA'), 시분할 다중 접속(Time Division Multiple Access; 'TDMA'), 코드 분할 다중 접속(Code Division Multiple Access; 'CDMA'), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems; 'UMTS')(특히, LTE(Long Term Evolution)), 이동통신 글로벌 시스템(Global System for Mobile Communications; 'GSM') 등이 포함될 수 있다. 이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 있음은 당연하다.The communication system may use different air interfaces and / or physical layers. For example, a radio interface usable by a communication system may include frequency division multiple access (FDMA), time division multiple access (TDMA), and code division multiple access (Code Division). Multiple Access (CDMA), Universal Mobile Telecommunications Systems (UMTS) (especially Long Term Evolution (LTE)), Global System for Mobile Communications (GSM), etc. May be included. Hereinafter, for convenience of description, the description will be limited to CDMA. However, it is a matter of course that the present invention is applicable to all communication systems including the CDMA wireless communication system.

도 11에 도시된 바와 같이, CDMA 무선 통신 시스템은, 복수의 단말기들(100), 복수의 기지국(Base Station; 'BS')(270), 기지국 제어부(Base Station Controllers; 'BSCs')(275), 이동 스위칭 센터(Mobile Switching Center; 'MSC')(280)를 포함할 수 있다. MSC(280)는, 일반 전화 교환망(Public Switched Telephone Network; 'PSTN')(290)과 연결되도록 구성되고, BSCs(275)와도 연결되도록 구성된다. BSCs(275)는, 백홀 라인(backhaul line)을 통하여, BS(270)과 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs(275)가 도 11에 도시된 시스템에 포함될 수 있다.As illustrated in FIG. 11, the CDMA wireless communication system includes a plurality of terminals 100, a plurality of base stations (BS) 270, and base station controllers (BSCs) 275. ), And a mobile switching center (MSC) 280. The MSC 280 is configured to be connected to a public switched telephone network (PSTN) 290 and is also configured to be connected to BSCs 275. The BSCs 275 may be coupled to the BS 270 through a backhaul line. The backhaul line may be provided according to at least one of E1 / T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL, or xDSL. Thus, a plurality of BSCs 275 may be included in the system shown in FIG.

각각의 BS(270)는, 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS(270)으로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS(270)는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당 각각은, 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 갖는다.Each BS 270 may include at least one sector, and each sector may include an omnidirectional antenna or an antenna pointing radially out of BS 270. In addition, each sector may include two or more antennas of various types. Each BS 270 may be configured to support a plurality of frequency assignments, each of which has a specific spectrum (eg, 1.25 MHz, 5 MHz, etc.).

섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS(270)은, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem; 'BTSs')이라고 불릴수 있다. 이러한 경우, "기지국"이라는 단어는, 하나의 BSC(275) 및 적어도 하나의 BS(270)을 합하여 불릴 수도 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS(270)에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다. The intersection of sectors and frequency assignments may be called a CDMA channel. BS 270 may be referred to as a base station transceiver subsystem ('BTSs'). In this case, the word "base station" may be called the sum of one BSC 275 and at least one BS 270. The base station may also indicate “cell site”. Alternatively, each of the plurality of sectors for a particular BS 270 may be called a plurality of cell sites.

도 11에 도시된 바와 같이, 방송 송신부(Broadcasting Transmitter; 'BT')(295)는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 10에 도시된 방송용 모듈(111)은, BT(295)에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다. As shown in FIG. 11, the broadcasting transmitter (BT) 295 transmits a broadcast signal to the terminals 100 operating in the system. The broadcast module 111 shown in FIG. 10 is provided in the terminal 100 to receive a broadcast signal transmitted by the BT 295.

뿐만 아니라, 도 11에서는, 여러 개의 위성 위치 확인 시스템(Global Positioning System; 'GPS') 위성(300)을 도시한다. 상기 위성들(300)은, 복수의 단말기(100) 중 적어도 하나의 단말기의 위치를 파악하는 것을 돕는다. 도 11에서는 두 개의 위성이 도시되어 있지만, 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 도 10에 도시된 GPS 모듈(115)은, 원하는 위치 정보를 획득하기 위하여 위성들(300)과 협력한다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 위치를 추적할 수 있다. 또한, GPS 위성들(300) 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다.In addition, FIG. 11 illustrates a number of satellite positioning system (GPS) satellites 300. The satellites 300 help to locate the at least one terminal of the plurality of terminals 100. Although two satellites are shown in FIG. 11, useful location information may be obtained by two or less or more satellites. The GPS module 115 shown in FIG. 10 cooperates with the satellites 300 to obtain desired location information. Here, the location can be tracked using all the techniques that can track the location, not just the GPS tracking technology. In addition, at least one of the GPS satellites 300 may optionally or additionally be responsible for satellite DMB transmission.

무선 통신 시스템의 전형적인 동작 중, BS(270)은, 다양한 단말기들(100)로부터 역 링크 신호를 수신한다. 이때, 단말기들(100)은, 호를 연결 중이거나, 메시지를 송수신 중이거나 또는 다른 통신 동작을 수행중에 있다. 특정 기지국(270)에 의해 수신된 역 링크 신호들 각각은, 특정 기지국(270)에 의해 내에서 처리된다. 상기 처리 결과 생성된 데이터는, 연결된 BSC(275)로 송신된다. BSC(275)는, 기지국들(270) 간의 소프트 핸드오프(soft handoff)들의 조직화를 포함하여, 호 자원 할당 및 이동성 관리 기능을 제공한다. 또한, BSC(275)는, 상기 수신된 데이터를 MSC(280)으로 송신하고, MSC(280)은, PSTN(290)과의 연결을 위하여 추가적인 전송 서비스를 제공한다. 유사하게, PSTN(290)은 MSC(280)과 연결하고, MSC(280)은 BSCs(275)와 연결하고, BSCs(275)는 단말기들(100)로 순 링크 신호를 전송하도록 BS들(270)을 제어한다.During typical operation of a wireless communication system, BS 270 receives a reverse link signal from various terminals 100. At this time, the terminals 100 are connecting a call, transmitting or receiving a message, or performing another communication operation. Each of the reverse link signals received by a particular base station 270 is processed within by the particular base station 270. The data generated as a result of the processing is transmitted to the connected BSC 275. BSC 275 provides call resource allocation and mobility management functionality, including the organization of soft handoffs between base stations 270. In addition, the BSC 275 transmits the received data to the MSC 280, and the MSC 280 provides an additional transmission service for connection with the PSTN 290. Similarly, PSTN 290 connects with MSC 280, MSC 280 connects with BSCs 275, and BSCs 275 send BSs 270 to transmit a forward link signal to terminals 100. ).

도 1a 내지 도 1c는 본 발명의 일 실시예에 따른 근접 센싱 시스템의 동작을 나타낸다. 1A-1C illustrate the operation of a proximity sensing system in accordance with one embodiment of the present invention.

도 2a 내지 도 2c는 본 발명의 일 실시예에 따란 사용자의 제스쳐를 이용하여 디스플레이를 줌인 또는 줌아웃하는 방법을 나타낸다.2A to 2C illustrate a method of zooming in or out of a display using a gesture of a user according to an embodiment of the present invention.

도 3a 및 3b는 본 발명의 다른 실시예에 따라 디스플레이를 줌인 또는 줌아웃하는 방법을 나타낸다.3A and 3B illustrate a method of zooming in or out of a display in accordance with another embodiment of the present invention.

도 4 내지 7b는 본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법을 나타낸다.4 to 7b illustrate a user interface control method according to an embodiment of the present invention.

도 8a 내지 도 8c는 본 발명의 다른 실시예에 따른 근접 센싱 시스템의 동작을 나타낸다. 8A to 8C illustrate an operation of a proximity sensing system according to another embodiment of the present invention.

도 9a 및 9b는 본 발명의 일 실시예에 따른 사용자 인터페이스 제어방법을 나타낸다.9A and 9B illustrate a user interface control method according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 이동 단말기의 블록도이다.10 is a block diagram of a mobile terminal according to an embodiment of the present invention.

도 11은 도 10의 이동 단말기를 적용할 수 있는 CDMA 무선 통신 시스템의 블록도이다.FIG. 11 is a block diagram of a CDMA wireless communication system to which the mobile terminal of FIG. 10 can be applied.

Claims (21)

디스플레이를 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법에 있어서,A method of controlling a user interface of an electronic device having a display, the method comprising: 상기 디스플레이로의 오브젝트의 근접을 검출하는 단계;Detecting proximity of an object to the display; 상기 오브젝트의 2차원 움직임 패턴을 검출하는 단계; 및Detecting a two-dimensional movement pattern of the object; And 상기 검출된 2차원 움직임 패턴에 따라 상기 사용자 인터페이스를 제어하는 단계를 포함하는 사용자 인터페이스 제어방법.And controlling the user interface according to the detected two-dimensional movement pattern. 제1항에 있어서, 상기 2차원 움직임 패턴은 스파이럴이고, 상기 제어 단계는 상기 스파이럴의 방향을 기반으로 상기 사용자 인터페이스를 줌인 또는 줌아웃하는 단계를 포함하는 사용자 인터페이스 제어방법.The method of claim 1, wherein the two-dimensional movement pattern is a spiral, and the controlling step includes zooming in or out of the user interface based on a direction of the spiral. 제1항에 있어서, 상기 2차원 움직임 패턴은 원형이고, 상기 제어 단계는 상기 원의 방향을 기반으로 상기 사용자 인터페이스를 회전시키는 단계를 포함하는 사용자 인터페이스 제어방법.The method of claim 1, wherein the two-dimensional movement pattern is circular, and the controlling step includes rotating the user interface based on the direction of the circle. 제1항에 있어서, 상기 2차원 움직임 패턴은 알파벳, 숫자 및 심볼 중 하나를 포함하고, 상기 제어 단계는 볼륨 제어 메뉴를 제어하는 단계 및 상기 사용자 인터페이스에 락을 설정 또는 해제하는 단계 중 어느 하나를 포함하는 사용자 인터페이 스 제어방법.The method of claim 1, wherein the two-dimensional movement pattern comprises one of alphabets, numbers, and symbols, and the controlling may include controlling one of a volume control menu and setting or releasing a lock on the user interface. User interface control method comprising. 다수의 터치 감응 영역으로 분할된 터치 스크린을 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법에 있어서,A method of controlling a user interface of an electronic device having a touch screen divided into a plurality of touch sensitive regions, the method comprising: 상기 다수의 터치 감응 영역들의 제1 및 제2 영역 사이의 경계 위 공간의 오브젝트를 검출하고 해당 검출 신호를 출력하는 단계; 및Detecting an object in a space above a boundary between first and second regions of the plurality of touch sensitive regions and outputting a corresponding detection signal; And 상기 검출 신호에 응답하여 상기 제1 및 제2 영역들에 해당하는 제1 및 제2 정보를 동시에 표시하는 단계를 포함하는 사용자 인터페이스 제어방법.And simultaneously displaying first and second information corresponding to the first and second areas in response to the detection signal. 제5항에 있어서,The method of claim 5, 상기 오브젝트의 상기 경계로부터 상기 제1 영역의 공간으로 이동하는 움직임을 검출하는 단계; 및Detecting a movement moving from the boundary of the object to the space of the first area; And 상기 제2 정보를 표시하지 않고 상기 제1 정보를 표시하는 단계를 더 포함하는 사용자 인터페이스 제어방법.And displaying the first information without displaying the second information. 터치 스크린을 갖는 전자 장치의 사용자 인터페이스를 제어하는 방법에 있어서,A method of controlling a user interface of an electronic device having a touch screen, the method comprising: 상기 터치 스크린 상에 사용자 인터페이스를 표시하는 단계;Displaying a user interface on the touch screen; 상기 터치 스크린의 표면 위로 오브젝트의 다수의 높이 중 제1 높이를 검출하는 단계;Detecting a first height of a plurality of heights of an object over a surface of the touch screen; 각각 상기 다수의 높이 중 하나에 해당하는 다수의 기능들 중 제1 기능을 선택하는 단계; 및Selecting a first function from among a plurality of functions corresponding to one of the plurality of heights, respectively; And 상기 선택된 제1 기능을 수행하는 단계를 포함하는 사용자 인터페이스 제어방법.And performing the selected first function. 제7항에 있어서, 상기 선택된 기능은 청각기반 기능, 촉각기반 기능, 시각기반 기능 및 전송기능 중 하나인 사용자 인터페이스 제어방법.8. The method of claim 7, wherein the selected function is one of an auditory based function, a tactile based function, a visual based function, and a transmission function. 제7항에 있어서, 상기 선택된 기능은 줌 기능, 회전 기능, 조리개 오픈 기능, 디졸브(dissolve) 기능, 및 메뉴 표시 기능 중 하나인 사용자 인터페이스 제어방법.8. The method of claim 7, wherein the selected function is one of a zoom function, a rotation function, an aperture opening function, a dissolve function, and a menu display function. 제7항에 있어서, 상기 선택된 기능은 메뉴 아이콘 활성화 기능인 사용자 인터페이스 제어방법.8. The method of claim 7, wherein the selected function is a menu icon activation function. 제7항에 있어서, 상기 선택된 기능은 볼륨 제어 기능인 사용자 인터페이스 제어방법.8. The method of claim 7, wherein the selected function is a volume control function. 제7항에 있어서, 상기 선택된 기능은 진동 제어 기능인 사용자 인터페이스 제어방법.8. The method of claim 7, wherein the selected function is a vibration control function. 제7항에 있어서,The method of claim 7, wherein 상기 터치 스크린의 표면 위의 오브젝트의 다수의 높이 중 제2 높이를 검출하는 단계; Detecting a second height of a plurality of heights of an object on a surface of the touch screen; 상기 다수의 기능들 중 제2 기능을 선택하는 단계; 및Selecting a second function of the plurality of functions; And 상기 선택된 제2 기능을 수행하는 단계를 더 포함하는 사용자 인터페이스 제어방법.And performing the selected second function. 제13항에 있어서, 상기 제1 기능은 아이콘 확대 기능이고, 상기 제2 기능은 아이콘 실행 기능인 사용자 인터페이스 제어방법.The method of claim 13, wherein the first function is an icon magnification function, and the second function is an icon execution function. 제13항에 있어서, 상기 제1 기능은 제1 진동 강도 실행 기능이고, 상기 제2 기능은 제2 진동 강도 실행 기능인 사용자 인터페이스 제어방법.The method of claim 13, wherein the first function is a first vibration intensity execution function and the second function is a second vibration intensity execution function. 제13항에 있어서, 상기 제1 기능은 제1 줌 레벨 설정 기능이고, 상기 제2 기능은 제2 줌 레벨 설정 기능인 사용자 인터페이스 제어방법.The method of claim 13, wherein the first function is a first zoom level setting function, and the second function is a second zoom level setting function. 디스플레이;display; 상기 디스플레이 위의 오브젝트의 근접을 검출하고, 상기 오브젝트의 2차원 움직임 패턴을 검출하고, 해당 근접 및 움직임 신호를 출력하도록 구성된 근접 센 서; 및A proximity sensor configured to detect proximity of an object on the display, detect a two-dimensional motion pattern of the object, and output a corresponding proximity and motion signal; And 상기 근접 및 움직임 신호를 기반으로 상기 디스플레이에 표시된 사용자 인터페이스를 제어하도록 구성된 프로세서를 포함하는 이동 단말기.And a processor configured to control a user interface displayed on the display based on the proximity and motion signals. 다수의 터치 감응 영역으로 분할된 터치 스크린을 갖는 디스플레이;A display having a touch screen divided into a plurality of touch sensitive regions; 상기 다수의 터치 감응 영역들 중 제1 및 제2 영역 간의 경계에서의 오브젝트를 검출하고, 해당 센서 신호를 출력하도록 구성된 근접 센서; 및A proximity sensor configured to detect an object at a boundary between a first and a second area of the plurality of touch sensitive areas and output a corresponding sensor signal; And 상기 디스플레이를 제어하여 상기 센서 신호에 응답하여 상기 제1 및 제2 영역에 해당하는 제1 및 제2 정보를 동시에 표시하도록 구성된 프로세서를 포함하는 이동 단말기.And a processor configured to control the display to simultaneously display first and second information corresponding to the first and second areas in response to the sensor signal. 터치 스크린을 갖는 디스플레이;A display having a touch screen; 상기 터치 스크린의 표면 위의 오브젝트의 다수의 높이 중 제1 높이를 검출하고, 해당 제1 센서 신호를 출력하도록 구성된 근접 센서; 및A proximity sensor configured to detect a first height of a plurality of heights of an object on a surface of the touch screen and output a corresponding first sensor signal; And 상기 다수의 높이들 중 하나에 해당하는 다수의 기능들 중 제1 기능을 선택하고, 상기 제1 센서 신호에 응답하여 상기 선택된 제1 기능을 수행하도록 구성된 프로세서를 포함하는 이동 단말기.And a processor configured to select a first function among a plurality of functions corresponding to one of the plurality of heights, and to perform the selected first function in response to the first sensor signal. 제19항에 있어서, The method of claim 19, 상기 근접 센서는 상기 터치 스크린의 표면 위의 오브젝트의 다수의 높이 중 제2 높이를 검출하고, 해당 제2 센서 신호를 출력하도록 구성되고,The proximity sensor is configured to detect a second height of the plurality of heights of the object on the surface of the touch screen and output a corresponding second sensor signal, 상기 프로세서는 상기 다수의 기능들 중 제2 기능을 선택하고, 상기 제2 센서 신호에 응답하여 상기 선택된 제2 기능을 수행하도록 구성된 이동 단말기.And the processor is configured to select a second one of the plurality of functions and to perform the selected second function in response to the second sensor signal. 제20항에 있어서, 상기 다수의 기능들은 다음 중 하나를 포함하는 이동 단말기:The mobile terminal of claim 20, wherein the plurality of functions comprise one of the following: 제1 기능은 아이콘 확대 기능이고, 제2 기능은 아이콘 실행 기능;The first function is an icon magnification function, and the second function is an icon execution function; 제1 기능은 제1 진동 강도 실행 기능이고, 제2 기능은 제2 진동 강도 실행 기능; 및The first function is a first vibration intensity execution function, and the second function is a second vibration intensity execution function; And 제1 기능은 제1 줌 레벨 설정 기능이고, 제2 기능은 제2 줌 레벨 설정 기능.The first function is a first zoom level setting function, and the second function is a second zoom level setting function.
KR1020080068755A 2007-08-30 2008-07-15 User Interface Control Method Using Gesture in Adjacent Space KR100934514B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/196,104 US8219936B2 (en) 2007-08-30 2008-08-21 User interface for a mobile device using a user's gesture in the proximity of an electronic device
PCT/KR2008/005066 WO2009028892A2 (en) 2007-08-30 2008-08-28 A user interface for a mobile device using a user's gesture in the proximity of an electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080042144 2008-05-07
KR20080042144 2008-05-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020090063377A Division KR101004489B1 (en) 2009-07-13 2009-07-13 A user interface controlling method using gesture in the proximal space

Publications (2)

Publication Number Publication Date
KR20090116591A true KR20090116591A (en) 2009-11-11
KR100934514B1 KR100934514B1 (en) 2009-12-29

Family

ID=41601347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080068755A KR100934514B1 (en) 2007-08-30 2008-07-15 User Interface Control Method Using Gesture in Adjacent Space

Country Status (1)

Country Link
KR (1) KR100934514B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012038589A1 (en) * 2010-09-22 2012-03-29 Nokia Corporation Apparatus and method for proximity based input
KR101134192B1 (en) * 2009-12-11 2012-04-09 한국과학기술원 A method for controlling touch screen, a medium recoring the same, a control device for touch screen and mobile device using the same
WO2012094396A3 (en) * 2011-01-07 2012-10-04 Microsoft Corporation Natural input for spreadsheet actions
KR20130090665A (en) * 2012-02-06 2013-08-14 엘지전자 주식회사 Apparatus for controlling 3-dimension display
WO2014014292A1 (en) * 2012-07-18 2014-01-23 Park Chul Method for operating personal portable terminal having touch panel
KR101406668B1 (en) * 2013-03-20 2014-06-20 한국과학기술원 System, method for controlling user terminal using finger gesture, and user terminal comprising the same
KR20140141211A (en) * 2013-05-31 2014-12-10 삼성전자주식회사 Method and apparatus for processing data using user gesture
KR20150107785A (en) * 2013-01-14 2015-09-23 퀄컴 인코포레이티드 Use of emg for gesture recognition on surfaces
US9983779B2 (en) 2013-02-07 2018-05-29 Samsung Electronics Co., Ltd. Method of displaying menu based on depth information and space gesture of user
EP3336662A4 (en) * 2015-09-15 2019-05-29 Omron Corporation Character input method, and character input program, recording medium, and information processing device
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
US10664154B2 (en) 2015-12-15 2020-05-26 Huawei Technologies Co., Ltd. Displayed content adjustment based on a radian of an arc

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110179376A1 (en) * 2010-01-21 2011-07-21 Sony Corporation Three or higher dimensional graphical user interface for tv menu and document navigation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69232553T2 (en) 1991-05-31 2002-12-05 Koninkl Philips Electronics Nv Device with a human-machine interface
JP5090161B2 (en) * 2004-06-29 2012-12-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Multi-level display of graphical user interface
KR101255014B1 (en) * 2005-11-18 2013-04-23 엘지전자 주식회사 Mobile communication terminal having page data displaying function and controlling method thereof
KR100778927B1 (en) * 2005-12-29 2007-11-22 엠텍비젼 주식회사 Device capable of recognizing non-contact key selection and method thereof

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101134192B1 (en) * 2009-12-11 2012-04-09 한국과학기술원 A method for controlling touch screen, a medium recoring the same, a control device for touch screen and mobile device using the same
CN103210366A (en) * 2010-09-22 2013-07-17 诺基亚公司 Apparatus and method for proximity based input
US8890818B2 (en) 2010-09-22 2014-11-18 Nokia Corporation Apparatus and method for proximity based input
WO2012038589A1 (en) * 2010-09-22 2012-03-29 Nokia Corporation Apparatus and method for proximity based input
CN103210366B (en) * 2010-09-22 2016-11-02 诺基亚技术有限公司 For apparatus and method based on neighbouring input
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
WO2012094396A3 (en) * 2011-01-07 2012-10-04 Microsoft Corporation Natural input for spreadsheet actions
US10732825B2 (en) 2011-01-07 2020-08-04 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
KR20130090665A (en) * 2012-02-06 2013-08-14 엘지전자 주식회사 Apparatus for controlling 3-dimension display
WO2014014292A1 (en) * 2012-07-18 2014-01-23 Park Chul Method for operating personal portable terminal having touch panel
KR20150107785A (en) * 2013-01-14 2015-09-23 퀄컴 인코포레이티드 Use of emg for gesture recognition on surfaces
US9983779B2 (en) 2013-02-07 2018-05-29 Samsung Electronics Co., Ltd. Method of displaying menu based on depth information and space gesture of user
US10795568B2 (en) 2013-02-07 2020-10-06 Samsung Electronics Co., Ltd. Method of displaying menu based on depth information and space gesture of user
KR101406668B1 (en) * 2013-03-20 2014-06-20 한국과학기술원 System, method for controlling user terminal using finger gesture, and user terminal comprising the same
KR20140141211A (en) * 2013-05-31 2014-12-10 삼성전자주식회사 Method and apparatus for processing data using user gesture
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
EP3336662A4 (en) * 2015-09-15 2019-05-29 Omron Corporation Character input method, and character input program, recording medium, and information processing device
US10444851B2 (en) 2015-09-15 2019-10-15 Omron Corporation Character input method, program for character input, recording medium, and information-processing device
US10664154B2 (en) 2015-12-15 2020-05-26 Huawei Technologies Co., Ltd. Displayed content adjustment based on a radian of an arc

Also Published As

Publication number Publication date
KR100934514B1 (en) 2009-12-29

Similar Documents

Publication Publication Date Title
KR100934514B1 (en) User Interface Control Method Using Gesture in Adjacent Space
US8219936B2 (en) User interface for a mobile device using a user's gesture in the proximity of an electronic device
KR101456001B1 (en) Terminal and method for controlling the same
US8565828B2 (en) Mobile terminal having touch sensor-equipped input device and control method thereof
EP2124138B1 (en) Mobile terminal using proximity sensing
US9569088B2 (en) Scrolling method of mobile terminal
US8170620B2 (en) Mobile terminal and keypad displaying method thereof
US8423076B2 (en) User interface for a mobile device
EP2101243B1 (en) Mobile terminal and display method thereof
KR100981200B1 (en) A mobile terminal with motion sensor and a controlling method thereof
KR101467766B1 (en) Mobile terminal and screen displaying method thereof
KR101474452B1 (en) Method for controlling touch input of mobile terminal
EP2570906A2 (en) Mobile terminal and control method thereof
KR101502002B1 (en) Mobile terminal using of proximity touch and wallpaper controlling method therefor
KR100912310B1 (en) User interface controlling method by detecting user's gestures
KR101430475B1 (en) Mobile terminal and screen displaying method thereof
KR100917527B1 (en) User interface controlling method by detecting user's gestures
KR101004489B1 (en) A user interface controlling method using gesture in the proximal space
KR20090111040A (en) Mobile terminal and method of executing function therein
KR101430479B1 (en) Mobile terminal and method of composing menu therein
KR20100024552A (en) A method for controlling input and output of an electronic device using user's gestures
KR101486348B1 (en) Mobile terminal and method of displaying screen therein
KR20100045434A (en) A method for inputting orders using gestures
KR101455994B1 (en) Mobile terminal and screen displaying method thereof
KR101452765B1 (en) Mobile terminal using promixity touch and information input method therefore

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121128

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131122

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141124

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151124

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161114

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171114

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20181114

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20191114

Year of fee payment: 11