KR101597553B1 - 기능 실행 방법 및 그 장치 - Google Patents

기능 실행 방법 및 그 장치 Download PDF

Info

Publication number
KR101597553B1
KR101597553B1 KR1020090045595A KR20090045595A KR101597553B1 KR 101597553 B1 KR101597553 B1 KR 101597553B1 KR 1020090045595 A KR1020090045595 A KR 1020090045595A KR 20090045595 A KR20090045595 A KR 20090045595A KR 101597553 B1 KR101597553 B1 KR 101597553B1
Authority
KR
South Korea
Prior art keywords
touch
function
display unit
sub
displayed
Prior art date
Application number
KR1020090045595A
Other languages
English (en)
Other versions
KR20100127081A (ko
Inventor
최진원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090045595A priority Critical patent/KR101597553B1/ko
Priority to US12/557,322 priority patent/US9292199B2/en
Publication of KR20100127081A publication Critical patent/KR20100127081A/ko
Application granted granted Critical
Publication of KR101597553B1 publication Critical patent/KR101597553B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 시간 차를 두고 입력되는 제1 터치 및 제2 터치에 의해, 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 제2 터치 입력에 따른 궤적 상에 표시하고, 상기 표시된 하나 이상의 서브 기능 중 선택된 해당 서브 기능을 실행하게 하는 기능 실행 방법 및 그 장치에 관한 것이다. 이를 위하여 본 발명에 따른 기능 실행 방법은, 표시부 상에 터치되는 제1 터치 입력을 감지하는 단계; 상기 제1 터치가 유지되는 동안 입력된 제2 터치에 의한 드래그를 감지하는 단계; 및 상기 감지된 드래그의 궤적을 따라 상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 상기 표시부에 표시하는 단계를 포함하여 이루어진다.
기능 실행 장치, 이동 단말, PDA, 노트북, 내비게이션 장치

Description

기능 실행 방법 및 그 장치{FUNCTION EXECUTION METHOD AND APPARATUS THEREOF}
본 발명은 기능 실행 방법 및 그 장치에 관한 것이다.
일반적으로, 단말기의 기능 실행 장치는, 키보드, 마우스, 키패드 또는 터치 스크린을 통해 사용자가 선택한 해당 기능을 실행하는 장치이다.
본 발명의 목적은, 시간차를 이용한 다중 터치 입력을 통해 임의의 기능 실행을 가능하게 하는 기능 실행 방법 및 그 장치를 제공하는 데 있다.
본 발명의 다른 목적은, 다중 터치되는 궤적을 따라 하나 이상의 기능을 표시하게 하는 기능 실행 방법 및 그 장치를 제공하는 데 있다.
본 발명의 또 다른 목적은, 다중 터치되는 거리만큼 표시되는 서브 기능의 수를 조절하는 기능 실행 방법 및 그 장치를 제공하는 데 있다.
상기 목적들을 달성하기 위한 본 발명에 따른 기능 실행 방법은, 표시부 상에 터치되는 제1 터치 입력을 감지하는 단계; 상기 제1 터치가 유지되는 동안 입력된 제2 터치에 의한 드래그를 감지하는 단계; 및 상기 감지된 드래그의 궤적을 따라 상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 상기 표시부에 표시하는 단계를 포함하여 이루어진다.
상기 목적들을 달성하기 위한 본 발명에 따른 기능 실행 장치는, 표시부; 및 상기 표시부 상의 제1 터치가 유지되는 동안 입력된 제2 터치에 의한 드래그를 감지하고, 상기 감지된 드래그의 궤적을 따라 상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 상기 표시부에 표시하는 제어부를 포함하여 구성된다.
본 발명의 실시예에 따른 기능 실행 방법 및 그 장치는, 시간차를 이용한 다중 터치 입력을 통해 임의의 기능 실행을 가능하게 함으로써, 임의의 기능 실행 결과를 빠르고 편리하게 사용자에게 제공할 수 있는 효과가 있다.
또한, 본 발명의 실시예에 따른 기능 실행 방법 및 그 장치는, 다중 터치되는 궤적을 따라 하나 이상의 기능을 표시함으로써, 사용자에게 제공되는 사용자 그래픽 화면의 효율성을 증대시킬 수 있는 효과가 있다.
또한, 본 발명의 실시예에 따른 기능 실행 방법 및 그 장치는, 다중 터치되는 거리만큼 표시되는 서브 기능의 수를 조절하여 표시함으로써, 임의의 기능 실행 결과를 빠르고 편리하게 사용자에게 제공할 수 있는 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 기능 실행 장치를 설명하기 위한 이동 단말기(100)의 구성을 나타낸 블록도이다.
상기 이동 단말기(100)는 다양한 형태로 구현될 수 있다. 예를 들면, 이동 단말기(100)는 휴대폰, 스마트 폰(Smart Phone), 노트북 컴퓨터(Notebook Computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션(차량 내비게이션 장치), 등이 있다.
도 1에 도시된 바와 같이, 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 이동 단말기(100)의 구성요소 모두가 필수 구성요소인 것은 아니며, 도 1에 도시된 구성요소보다 많은 구성요소에 의해 이동 단말기(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 이동 단말기(100)가 구현될 수도 있다.
상기 무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 간의 무선 통신 또는 이동 단말기(100)와 그 이동 단말기(100)가 위치한 네트워크 간의 무선 통신을 수행하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들면, 무선 통신부(110)는 방송 수신 모듈(111), 이동 통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치 정보 모듈(115) 등을 포함할 수 있다.
상기 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 미리 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 이동 단말기(100)에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
한편, 상기 방송 관련 정보는, 이동 통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동 통신 모듈(112)에 의해 수신될 수 있다. 상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들면, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
상기 이동 통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 및/또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
상기 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 의미하는 것 으로, 상기 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 여기서, 무선 인터넷 기술로는 WLAN(Wireless LAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
상기 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 의미한다. 여기서, 근거리 통신(Short Range Communication) 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다.
상기 위치 정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 일 예로, GPS 모듈이 있다. GPS 모듈은 복수 개의 인공 위성으로부터 위치 정보를 수신한다. 여기서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들면, GPS 모듈은, 3개 이상의 위성으로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 측량법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다. 상기 위치 정보 모듈(115)로서 와이 파이 위치추적 시스템(Wi-Fi Positioning System) 및/또는 하이브리드 위치추적 시스템(Hybrid Positioning System)이 적용될 수도 있다.
상기 A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호를 입력하기 위한 것으로서, 상기 A/V(Audio/Video) 입력부(120)에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 상기 카메라(121)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 상기 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
상기 카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 상기 카메라(121)는 이동 단말기의 구성 형태 및/또는 사용 환경에 따라 2개 이상이 구성될 수도 있다.
상기 마이크(122)는 통화 모드 또는 녹음 모드, 음성 인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 수신하여 전기적인 음성 데이터로 처리한다. 상기 통화 모드일 때, 상기 처리된 음성 데이터는 이동 통신 모듈(112)을 통하여 이동 통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 상기 마이크(122)는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
상기 사용자 입력부(130)는 사용자가 이동 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 상기 사용자 입력부(130)는 키 패드(Key Pad), 돔 스위치 (Dome Switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
상기 센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기(100)의 방위, 이동 단말기(100)의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들면, 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 상기 센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당한다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.
상기 출력부(150)는 오디오 신호(또는, 청각과 관련된 신호) 또는 비디오 신호(또는, 시각과 관련된 신호) 또는 알람(alarm) 신호 또는 촉각과 관련된 신호의 출력을 위한 것으로서, 상기 출력부(150)에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및, 햅틱 모듈(154) 등이 포함될 수 있다.
상기 디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(또는, 출력)한다. 예를 들면, 이동 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
상기 디스플레이부(151)는, 액정 디스플레이(Liquid Crystal Display : LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display : TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode : OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광 투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들면, 이동 단말기(100)에 복수의 디스플레이부들이 하나의 면(동일면)에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
한편, 상기 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 상기 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.
또한, 상기 터치 센서는, 상기 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기 (미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 상기 제어부(180)는, 상기 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 근접 센서(141)는, 터치 스크린에 의해 감싸지는 이동 단말기(100)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서(141)는, 소정의 검출 면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서(141)는, 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서(141)의 예로는, 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(Proximity Touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(Contact Touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치는, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.
또한, 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근 접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린 상에 출력될 수 있다.
상기 음향 출력 모듈(152)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성 인식 모드, 방송 수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들면, 호 신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(Speaker), 버저(Buzzer) 등이 포함될 수 있다.
상기 알람부(153)는, 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 상기 이동 단말기(100)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 상기 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 호 신호가 수신되거나 메시지가 수신될 때, 이를 알리기 위해 알람부(153)는 진동 수단을 통해 이동 단말기(100)를 진동시킬 수 있다. 또는, 상기 알람부(153)는, 키 신호가 입력된 경우, 그 키 신호 입력에 대한 피드백으로 진동 수단을 통해 이동 단말기(100)를 진동시킬 수 있다. 상기와 같은 진동을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.
상기 햅틱 모듈(Haptic Module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 상기 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅틱 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들면, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
상기 햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
상기 햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 형태에 따라 2개 이상이 구비될 수 있다.
상기 메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
상기 메모리(160)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 램(Random Access Memory : RAM) SRAM(Static Random Access Memory), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 이동 단말기(100)는 인터넷(Internet) 상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(Web Storage)를 운영하거나, 상기 웹 스토리지와 관련되어 동작할 수도 있다.
상기 인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들면, 상기 인터페이스부(170)는 유/무선 헤드셋 포트(Headset Port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(Memory Card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등으로 구성될 수 있다. 여기서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module : UIM), 가입자 인증 모듈(Subscriber Identify Module : SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module : USIM) 등을 포함할 수 있다. 또한, 상기 식별 모듈이 구비된 장치(이하 '식별 장치'라 한다)는, 스마트 카드(Smart Card) 형식으로 제작될 수 있다. 따라서, 상기 식별 모듈은 포트를 통하여 이동 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 수신하거나 전원을 수신하여 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단 말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.
상기 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(Cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
상기 제어부(180)는 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들면, 상기 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 상기 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 상기 멀티미디어 모듈(181)은 상기 제어부(180) 내에 구현될 수도 있고, 상기 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
상기 전원 공급부(190)는 상기 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 수신하여 각 구성요소들의 동작에 필요한 전원을 공급한다.
상기 이동 단말기(100)에 적용된 구성 요소의 기능은 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터로 읽을 수 있는 기록매체 내에서 구현될 수도 있다. 하드웨어적인 구현에 의하면, ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서(Processors), 제어기(Controllers), 마이크로 컨트롤러(Micro-Controllers), 마이크로 프로세서(Microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다. 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수도 있다. 또한, 상기 이동 단말기(100)에 적용된 네비게이션 세션(Session)(300)은, 일반적인 네비게이션 기능을 제공한다.
한편, 본 발명의 실시예에 따른 상기 이동 단말기(100)에 적용된 제어부(180)는, 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 제2 터치 입력에 따른 궤적 상에 표시하고, 상기 표시된 하나 이상의 서브 기능 중 선택된 해당 서브 기능을 실행하고, 상기 실행 결과를 표시할 수 있게 한다.
도 2는 본 발명의 실시예에 따른 기능 실행 장치를 설명하기 위한 텔레매틱스 단말기(200)의 구성을 나타낸 블록도로서, 이에 도시된 바와 같이, 텔레매틱스 단말기(200)를 전체적으로 제어하는 중앙처리장치(Central Processing Unit : CPU)(222)와, 각종 키 신호의 제어를 위한 키 제어부(221)와, LCD를 제어하는 LCD 제어부(223)와, 각종 정보를 저장하는 메모리(224)를 내장한 메인 보드(220)를 포함하여 이루어진다.
상기 메모리(224)는, 차량 안내 정보(주행/비주행 중 사용자에게 안내하는 길 안내 정보)를 표시부(또는 LCD)(211)의 지도상에 표시하기 위한 지도 정보(지도 데이터)를 저장한다.
또한, 상기 메모리(224)는, 차량이 현재 주행하는 도로 상황에 따른 교통 정보를 입력할 수 있도록 하는 교통 정보 수집 제어 알고리즘 및 상기 알고리즘의 제어를 위한 각종 정보를 저장한다.
상기 메인 보드(220)는, 고유의 기기 번호가 부여되어 차량에 내장된 이동 통신 단말기를 통해 음성 통화 및 데이터 송수신을 수행하는 통신 모듈(201)과, 차량의 위치 안내, 출발지부터 목적지까지의 주행 경로 추적 등을 위한 GPS 신호를 수신하고 상기 수신된 GPS 신호를 근거로 차량의 현재 위치 데이터를 발생하거나, 사용자에 의해서 수집된 교통 정보를 GPS 신호로 송신하는 GPS 모듈(202)과, 상기 차량의 주행 방향을 검출하는 자이로 센서(Gyro Sensor)(203)와, 콤팩트 디스크(Compact Disk : CD)에 기록된 신호의 재생을 위한 CD 덱(CD Deck)(204) 등을 포함하여 이루어진다.
또한, 상기 통신 모듈(201) 및 상기 GPS 모듈(202)은, 각각 제1 안테나(205) 및 제2 안테나(206)를 통해서 신호를 송/수신한다.
또한, 상기 메인 보드(220)는, 방송 신호용 안테나(또는 TV 안테나)(231)를 통해 방송 신호를 수신하는 TV 모듈(230)과 연결된다.
또한, 상기 메인 보드(220)는, 인터페이스 보드(213)를 통해 상기 LCD 제어부(223)의 제어를 받는 표시부(Liquid Crystal Display : LCD)(211)와 연결된다.
상기 LCD(211)는, 상기 TV 모듈(230)을 통해 수신된 방송 신호를 소정의 신호 처리 과정을 거친 후, 상기 신호 처리된 방송 신호를 상기 LCD 제어부(223)의 제어에 의해 상기 인터페이스 보드(213)를 통해 상기 LCD(211)에 비디오 신호를 표시하고, 오디오 신호는 후술할 오디오 보드(240)의 제어에 의해 앰프(254)를 통해 출력한다. 또한, 상기 LCD(211)는, 상기 LCD 제어부(223)의 제어 신호에 근거해서 각종 비디오 신호, 문자 신호를 표시한다.
또한, 상기 LCD(211)는, 터치 스크린(Touch Screen) 방식을 이용하여, 사용자로부터의 입력을 받도록 구성될 수도 있다.
또한, 상기 메인 보드(220)는, 상기 인터페이스 보드(213)를 통해 상기 키 제어부(221)의 제어를 받는 프론트 보드(212)와 연결된다. 상기 프론트 보드(212)는, 각종 키 신호 입력을 위한 버튼 및 메뉴를 구성하고, 사용자에 의해 선택된 키(또는 버튼)에 해당하는 키 신호를 상기 메인 보드(220)에 제공한다. 또한, 상기 프론트 보드(212)는, 교통 정보를 직접 입력하기 위한 메뉴 키를 구비하며, 상기 메뉴 키는 상기 키 제어부(221)의 제어를 받도록 구성될 수 있다.
상기 오디오 보드(240)는, 상기 메인 보드(220)와 연결되고, 각종 오디오 신호를 처리한다. 상기 오디오 보드(240)는, 상기 오디오 보드(240)를 제어하기 위한 마이크로컴퓨터(244)와, 안테나(또는 라디오 안테나)(245)를 통해 라디오 신호를 수신하는 튜너(Tuner)(243)와, 상기 마이크로컴퓨터(244)에 전원을 공급하는 전원 부(242)와, 각종 음성 신호의 출력을 위한 신호 처리를 수행하는 신호처리부(241)를 포함하여 이루어진다.
또한, 상기 오디오 보드(240)는, 라디오 신호를 수신하기 위한 라디오 안테나(245)와, 오디오 테이프의 재생을 위한 테이프 덱(Tape Deck)(246)이 연결된다.
또한, 상기 오디오 보드(240)는, 상기 오디오 보드(240)에서 신호 처리된 음성 신호를 출력하기 위한 앰프(254)가 연결된다.
또한, 상기 앰프(254)는, 차량 인터페이스(250)에 연결된다. 즉, 상기 메인 보드(220)와 상기 오디오 보드(240)는 상기 차량 인터페이스(250)에 각각 연결된다. 또한, 상기 차량 인터페이스(250)는, 차량 운행자의 손을 이용하지 않고도 음성 신호를 입력하는 핸즈프리(251)와, 탑승자의 안전을 제공하기 위한 에어백(252)과, 차량의 속도 검출을 위한 속도 센서(253) 등이 연결될 수 있다.
또한, 상기 속도 센서(253)는, 차량 속도를 산출하고, 상기 산출된 차량 속도 정보를 상기 중앙처리장치(222)에 제공한다.
또한, 상기 텔레매틱스 단말기(200)에 적용된 네비게이션 세션(300)은, 일반적인 네비게이션 기능을 제공한다.
한편, 본 발명의 실시예에 따른 상기 텔레매틱스 단말기(200)에 적용된 중앙처리장치(222)는, 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 제2 터치 입력에 따른 궤적 상에 표시하고, 상기 표시된 하나 이상의 서브 기능 중 선택된 해당 서브 기능을 실행하고, 상기 실행 결과를 표시할 수 있게 한다.
이하에서는, 본 발명의 실시예에 따른 기능 실행 장치의 구성을 도3을 참조하여 설명한다. 여기서, 도3의 기능 실행 장치는, 이동 단말기(100) 및 텔레매틱스 단말기(200)뿐만 아니라, 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 노트북 컴퓨터, 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기 등과 같이 임의의 기능 실행 장치를 사용하는 다양한 단말기에 적용될 수 있다.
도 3은 본 발명의 실시예에 따른 기능 실행 장치의 구성을 나타낸 블록도로서, 이에 도시된 바와 같이, 기능 실행 장치(400)는, 저장부(410), 표시부(420) 및, 제어부(430)로 구성된다.
상기 저장부(410)는, 각종 메뉴 화면, 다양한 사용자 인터페이스(User Interface : UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface : GUI)를 저장한다.
또한, 상기 저장부(410)는, 상기 기능 실행 장치(400)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
상기 표시부(420)는, 터치 스크린을 포함할 수 있다. 또한, 상기 터치 스크린을 구성하는 터치 센서는, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.
또한, 상기 터치 센서는, 상기 표시부(420)의 특정 부위에 가해진 압력 또는 상기 표시부(420)의 특정 부위에서 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성할 수 있다. 또한, 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 상기 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(430)로 전송한다. 이로써, 상기 제어부(430)는 상기 표시부(420)의 어느 영역이 터치되었는지 여부 등을 알 수 있게 된다.
또한, 상기 표시부(420)는, 근접 센서를 포함할 수 있다. 또한, 상기 근접 센서는, 터치 스크린에 의해 감싸지는 기능 실행 장치(400)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다.
또한, 상기 근접 센서는, 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
또한, 상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린상에 출력될 수 있다.
상기 제어부(430)는, 상기 표시부(420)에 표시되는 임의의 사용자 인터페이 스 화면 및/또는 그래픽 사용자 인터페이스 화면 중에서, 사용자에 의해 터치(입력)되는 제1 터치를 인식한다.
또한, 상기 제어부(430)는, 상기 제1 터치 인식이 유지되는 상태에서, 상기 사용자에 의한 제2 터치를 인식한다. 이때, 상기 제2 터치 인식 후, 상기 제어부(430)는, 상기 제2 터치에 의한 드래그(drag)를 추가로 인식한다.
또한, 상기 제어부(430)는, 상기 인식되는 제2 터치에 의한 드래그의 궤적 및 이동 방향 등을 함께 인식한다.
또한, 상기 제어부(430)는, 상기 제1 또는 제2 터치 감지시, 사용자의 손가락, 스타일러스 펜(Stylus Pen) 및 터치 펜(Touch Pen) 등을 이용한 터치를 감지하도록 구성할 수 있다.
또한, 상기 제어부(430)는, 상기 제1 터치에 의해 선택된 기능(메뉴 또는 특정 응용 프로그램의 단축 아이콘 등 포함)에 포함된 하나 이상의 서브 기능을 상기 제2 터치에 의한 드래그의 궤적 상에 표시한다. 이때, 상기 선택된 기능에 포함된 서브 기능의 총 개수가 N (N>1)개이고, 상기 제2 터치에 의한 드래그의 궤적 상에 표시되는 서브 기능의 개수가 M 개이고, N>M 인 경우, 즉 상기 기능에 포함된 모든 서브 기능이 표시되지 않고 일부 서브 기능만이 상기 표시부(420)에 표시되는 경우, 상기 제어부(430)는, 상기 모든 서브 기능 중에서 표시되지 않은 나머지 서브 기능이 존재함(남아있음)을 나타내기 위해, 상기 드래그에 의한 궤적 상의 일부분(일 예로, 드래그 진행 방향의 끝부분)에 기설정된 제1 식별자를 표시할 수 있다. 이때, 상기 기설정된 제1 식별자는, 아이콘(화살표 모양, 버튼 모양, 스크롤 모양 등 포함), 이모티콘, 사용자 인터페이스/그래픽 사용자 인터페이스 화면 등일 수 있다.
또한, 상기 제어부(430)는, 상기 제2 터치에 의한 드래그의 궤적 상에 표시되는 서브 기능 중 적어도 어느 하나의 서브 기능이 추가적인 서브 기능을 포함하고 있는 경우, 상기 추가적인 서브 기능을 포함하는 상기 적어도 어느 하나의 서브 기능의 일부분에 기설정된 제2 식별자를 표시할 수 있다. 이때, 상기 기설정된 제2 식별자는, 아이콘(화살표 모양, 버튼 모양 등 포함), 이모티콘, 사용자 인터페이스/그래픽 사용자 인터페이스 화면 등일 수 있다.
또한, 상기 제어부(430)는, 상기 제2 터치에 의한 드래그의 궤적 상에 표시되는 하나 이상의 서브 기능 중 어느 하나의 서브 기능이 선택되면, 상기 선택된 서브 기능을 실행하고, 상기 기능 실행 결과를 상기 표시부(420)에 표시하도록 제어한다.
또한, 상기 제어부(430)는, 기설정된 시간 이내에 제2 터치 입력이 감지되지 않으면, 상기 제1 터치 입력에 의해 활성화된 기능을 비활성화시킨다.
또한, 상기 제어부(430)는, 기설정된 시간 이내에 상기 표시부(420)에 표시되는 서브 기능에 대한 선택 입력이 감지되지 않으면, 상기 제1 터치 입력에 의해 활성화된 기능을 비활성화시키고 상기 표시부(420)에 표시되는 서브 기능이 표시되지 않도록 제어한다.
이하에서는, 본 발명에 따른 기능 실행 방법을 도 1 내지 도 9를 참조하여 상세히 설명한다.
도 4는 본 발명의 제1 실시예에 따른 기능 실행 방법을 나타낸 흐름도이다.
먼저, 제어부(430)는, 사용자 인터페이스 화면 및/또는 그래픽 사용자 인터페이스 화면(또는, 사용자 인터페이스/그래픽 사용자 인터페이스에 의해 생성된 화면)을 상기 표시부(420)에 표시한다. 이후, 상기 제어부(430)는, 상기 표시부(터치 스크린)(420) 상에 터치되는 제1 터치 입력을 감지(또는, 인지)한다.
예를 들어, 상기 제어부(430)는, 도 5A에 도시된 바와 같이, 상기 표시부(420)에 표시되는 임의의 기능들(바탕 화면, 메뉴 화면 등 포함)(501) 중 어느 하나를 선택(터치)("메시지" 메뉴 선택)하는 제1 터치(502) 입력을 감지할 수 있다. 또한, 상기 터치된 해당 기능(또는, 메뉴)은, 활성화 상태로 표시(503)될 수 있다. 또한, 상기 표시부(420) 상에서의 터치는, 근접 터치(Proximity Touch) 또는 접촉 터치(Contact Touch) 중 어느 하나일 수 있다(S110).
이후, 상기 제어부(430)는, 상기 제1 터치 입력이 유지되는 상태에서, 상기 표시부(420) 상에 터치되는 제2 터치 입력에 의한 드래그를 감지한다. 이때, 상기 제2 터치 입력이 감지된 이후, 상기 제1 터치 입력은, 그대로 유지되거나 또는, 터치 상태가 비활성화될 수도 있다.
예를 들어, 도 5B에 도시된 바와 같이, 상기 제어부(430)는, 상기 제1 터치 입력(502)이 유지되는 상태에서 상기 표시부(420) 상에 터치되는 제2 터치 입력에 의한 드래그(504)를 감지할 수 있다.
또한, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그가 감지될 때, 상기 드래그에 의한 궤적의 길이, 진행 방향(505) 등을 함께 감지한다(S120).
이후, 상기 제어부(430)는, 상기 감지된 드래그에 의한 궤적 상에 상기 제1 터치 입력에 의해 선택된 기능에 포함된 적어도 하나 이상의 서브 기능들을 기설정된 순서대로(또는, 임의의 순서로) 표시한다.
예를 들어, 도 5C에 도시된 바와 같이, 상기 제어부(430)는, 상기 제1 터치 입력에 의해 선택된 기능("메시지" 메뉴)에 포함된 서브 기능(서브 메뉴 화면 또는 서브 메뉴 기능)이 7개(멀티메일, 수신함, 발신함, 이메일, 이모티콘, 메시지 사용기록, 호출 등 포함)일 때, 상기 선택된 기능에 포함된 서브 기능을 기설정된 순서대로 상기 감지된 드래그에 의한 궤적 길이만큼 상기 감지된 드래그의 궤적 상에 표시(511)한다. 즉, 상기 제어부(430)는, 상기 제2 터치가 입력된 지점("A" 지점)부터 상기 제2 터치의 드래그에 의한 최종 지점("B" 지점)까지의 궤적 상에 상기 "메시지" 메뉴에 포함된 하나 이상의 서브 메뉴 항목을 표시(511)한다.
이때, 상기 드래그에 의한 궤적 상에 표시되는 서브 기능 중, 표시되지 않은 서브 기능이 있는 경우(일 예로, 7개의 서브 기능 중 3개만이 표시되고, 나머지 4개는 표시되지 않은 경우), 도 5C에 도시된 바와 같이, 상기 드래그에 의한 궤적의 일부분(일 예로, 궤적의 진행 방향의 끝부분)에 기설정된 제1 식별자를 표시(512)하여, 표시되지 않은 서브 기능이 존재함을 나타낼 수 있다. 이때, 상기 기설정된 제1 식별자는, 아이콘("+" 모양, 화살표 모양(→ 모양), 버튼 모양, 스크롤 모양 등 포함), 이모티콘, 사용자 인터페이스/그래픽 사용자 인터페이스 화면 등일 수 있다.
또한, 상기 드래그에 의한 궤적 상에 표시되는 서브 기능 중, 표시되지 않은 서브 기능이 있는 경우, 도 5C에 도시된 바와 같이, 상기 드래그에 의한 궤적의 일정 영역(513)에 기설정된 바탕색을 표시하여, 표시되지 않은 서브 기능이 존재함을 표시할 수도 있다.
또한, 상기 드래그에 의한 궤적 상에 상기 제1 터치 입력에 의해 선택된 기능에 포함된 모든 서브 기능들이 표시된 경우, 상기 기설정된 바탕색과는 다른 색으로 바탕색을 표시할 수도 있다. 일 예로, 상기 기설정된 바탕색이 하늘색이고 상기 제1 터치 입력에 의해 선택된 기능에 포함된 모든 서브 기능들이 표시된 경우, 바탕색을 투명색으로 표시하여, 선택된 기능에 포함된 모든 서브 기능들이 표시되었음을 나타낼 수도 있다.
이와 같이, 전체 서브 기능이 표시되었는지 여부에 따라, 전체 서브 기능의 표시 완료 상태와 미완료 상태를 구별하기 위한 다양한 표시 방법이 사용될 수 있다.
또한, 상기 드래그에 의한 궤적 상에 표시되는 서브 기능 중 임의의 서브 기능이 추가적인 서브 기능을 포함하는 경우, 도 5C에 도시된 바와 같이, 해당 임의의 서브 기능이 표시되는 일부분에 기설정된 제2 식별자를 표시(514)하여, 추가적인 서브 기능이 존재함을 나타낼 수 있다. 이때, 상기 기설정된 제2 식별자는, 아이콘("+" 모양, 화살표 모양(↑ 모양), 버튼 모양 등 포함), 이모티콘, 사용자 인터페이스/그래픽 사용자 인터페이스 화면 등일 수 있다.
또한, 상기 드래그에 의한 궤적 상에 표시되는 서브 기능 중, 임의의 서브 기능이 추가적인 서브 기능을 포함하는 경우 해당 임의의 서브 기능은 3D로 표시하 고, 추가적인 서브 기능을 포함하지 않는 서브 기능은 2D로 표시할 수도 있다.
이와 같이, 임의의 서브 기능이 추가적인 서브 기능을 포함하는지 여부에 따라, 추가 기능을 포함하는 서브 기능과 추가 기능을 포함하지 않는 서브 기능을 구별하기 위한 다양한 표시 방법이 사용될 수도 있다.
또한, 상기 제1 터치에 의해 선택된 기능에 포함된 적어도 하나 이상의 서브 기능을 표시할 때, 상기 제어부(430)는, 상기 제2 터치에 의한 궤적 상에 또는 기설정된 임의의 궤적 상에 상기 하나 이상의 서브 기능을 표시할 수도 있다(S130).
이후, 상기 제어부(430)는, 상기 표시되는 서브 기능 중 어느 하나가 선택되면, 상기 선택된 서브 기능을 실행하고, 상기 기능 실행 결과를 상기 표시부(420)에 표시한다.
이때, 상기 제1 터치 입력 및, 상기 제2 터치 입력은, 감지되지 않는 상태이다. 즉, 상기 제1 터치 입력 및 상기 제2 터치 입력을 근거로 상기 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능이 상기 표시부(420)에 표시된 후, 사용자의 제1 및 제2 터치 입력이 해제되면, 상기 제어부(430)는, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능 중 어느 하나의 선택을 입력받고, 상기 선택된 서브 기능을 실행한다.
또한, 상기 제1 터치 입력 및, 상기 제2 터치 입력 중 적어도 어느 하나는, 계속해서 감지된 상태를 유지할 수도 있다. 즉, 상기 제1 터치 입력 및, 상기 제2 터치 입력 중 적어도 어느 하나가 감지된 상태를 유지하는 경우, 상기 제어부(430)는, 추가적인 터치 입력에 의해 상기 표시부(420)에 표시되는 하나 이상의 서브 기 능 중 어느 하나의 선택을 입력받고, 상기 선택된 서브 기능을 실행할 수도 있다.
일 예로, 상기 제어부(430)는, 상기 도 5C에 표시되는 서브 기능들(511) 중에서, "멀티메일" 기능이 선택되면, 해당 멀티메일 기능을 실행하고, 상기 실행 결과를 상기 표시부(420)에 표시할 수 있다.
다른 일 예로, 상기 제어부(430)는, 상기 도 5C에 표시되는 서브 기능들(511) 중에서 "수신함" 기능이 선택되면 해당 수신함 기능을 실행하고, 도 5D에 도시된 바와 같이, 상기 수신함에 포함된 추가적인 서브 기능들(새로 보내기, 컬러 메일, 받은 문자, 받은 음성, 보낸 문자 등 포함)을 상기 표시부(420) 상에 표시(521)할 수 있다.
또 다른 일 예로, 도 5E에 도시된 바와 같이, 상기 제어부(430)가 제3 터치 입력에 의한 상기 표시되는 서브 기능들(511) 중에서 "수신함" 기능의 일부분에 구비된 "+" 기능(제2 식별자)(514)의 터치(또는, 선택)(531) 및, 제4 터치 입력에 의한 드래그(532)를 감지한 경우, 상기 제어부(430)는, 상기 제4 터치 입력에 의한 드래그의 궤적 길이 및 진행 방향으로 상기 선택된 "수신함" 기능에 포함된 추가적인 서브 기능들을 기설정된 순서대로 상기 표시부(420) 상에 표시(533)할 수 있다.
또한, 도 5F에 도시된 바와 같이, 상기 제어부(430)가 제1 식별자(512)에 대한 새로운 터치 입력에 따른 드래그(541)를 감지한 경우, 상기 제어부(430)는 상기 새로운 터치 입력에 의한 드래그의 궤적 길이 및 진행 방향으로, 상기 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능 중에서 제2 터치 입력에 의해 표시되지 않은 나머지 하나 이상의 서브 기능(542)을 상기 표시부(420)에 표 시하도록 제어할 수 있다(S140).
또한, 상기 제어부(430)는, 상기 각 단계(S110 단계 내지 S140 단계)에서 기설정된 기능 취소 조건을 판단한다. 상기 판단 결과, 상기 기능 취소 조건에 해당하는 경우, 상기 제어부(430)는, 상기 각 단계에서 수행된 결과를 상기 표시부(420) 상에서 표시되지 않도록 제어한다.
일 예로, 상기 제어부(430)는, 상기 제1 터치 입력이 감지된 이후, 기설정된 제1 시간 이내에 제2 터치 입력(또는, 제2 터치 입력에 의한 드래그)이 감지되지 않으면, 상기 제1 터치 입력에 의해 터치된 해당 기능의 활성화 상태를 해제하도록 상기 표시부(420)에 표시되는 화면을 제어한다.
다른 일 예로, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그가 감지된 이후, 기설정된 제2 시간 이내에 상기 표시부(420)에 표시되는 하나 이상의 서브 기능 중 어느 하나가 선택되지 않으면, 상기 제1 터치 입력에 의해 터치된 해당 기능의 활성화 상태를 해제시키고, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능이 표시되지 않도록 제어한다. 또한, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능이 사라지도록 제어할 때, 상기 제어부(430)는 애니메이션 효과(animation effect) 등을 이용하여 마치 상기 하나 이상의 서브 기능이 임의의 지점(일 예로, 상기 제2 터치 입력의 시작점("A" 지점))으로 빨려들어가는 듯한 효과를 줄 수도 있다.
또 다른 일 예로, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그에 의해 상기 표시부(420)에 하나 이상의 서브 기능이 표시되고 있는 상태에서, 상기 제2 터치 입력에 의한 드래그의 진행 방향(505)과 반대되는 방향으로의 터치 입력에 의한 드래그를 감지하면, 상기 제1 터치 입력에 의해 터치된 해당 기능의 활성화 상태를 해제시키고, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능이 표시되지 않도록 제어한다. 즉, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그의 진행 방향과 반대되는 방향(일 예로, 제2 방향)으로의 터치 입력에 의한 드래그를 감지하면, 상기 감지된 제2 방향에 대응하여 기설정된 "취소" 기능을 수행하도록 구성할 수도 있다.
또한, 상기 제2 방향에 대응하여 기설정된 "취소" 기능 수행 시, 상기 제2 방향뿐만 아니라, 시간이나 속도 등도 함께 고려될 수 있다. 즉, 상기 제어부(430)는, 임의의 기설정된 시간 간격 이내에 상기 제2 방향으로의 터치 입력에 의한 드래그 및, 상기 제2 방향으로의 드래그 속도를 감지하여, 상기 기설정된 시간 간격 이내에 상기 제2 방향으로 기설정된 속도 이상으로
즉, 상기 제어부(430)는, 임의의 기설정된 시간 간격 이내에 상기 제2 방향으로 기설정된 속도 이상의 드래그 속도가 감지된 경우, 상기 제2 방향에 대응하여 기설정된 "취소" 기능을 수행하도록 구성할 수도 있다.
도 6은 본 발명의 제2 실시예에 따른 기능 실행 방법을 나타낸 흐름도이다.
먼저, 제어부(430)는, 표시부(터치 스크린)(420) 상에 터치되는 제1 터치 입력을 감지(또는, 인지)한다.
예를 들어, 상기 제어부(430)는, 도 7A에 도시된 바와 같이, 상기 표시부(420)의 임의의 영역을 선택(터치)하는 제1 터치(601) 입력을 감지할 수 있다. 또한, 상기 터치된 바탕 화면의 임의의 영역(해당 기능 또는, 메뉴)은, 활성화 상태로 표시(602)될 수 있다. 또한, 상기 표시부(420) 상에서의 터치는, 근접 터치(Proximity Touch) 또는 접촉 터치(Contact Touch) 중 어느 하나일 수 있다(S210).
이후, 상기 제어부(430)는, 상기 제1 터치 입력이 유지되는 상태에서, 상기 표시부(420) 상에 터치되는 제2 터치 입력에 의한 드래그를 감지한다. 이때, 상기 제2 터치 입력이 감지된 이후, 상기 제1 터치 입력은, 그대로 유지되거나 또는, 터치 상태가 비활성화될 수도 있다.
예를 들어, 도 7B에 도시된 바와 같이, 상기 제어부(430)는, 상기 제1 터치 입력(601)이 유지되는 상태에서 상기 표시부(420) 상에 터치되는 제2 터치 입력에 의한 드래그(603)를 감지할 수 있다.
또한, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그가 감지될 때, 상기 드래그에 의한 궤적의 길이, 진행 방향(604) 등을 함께 감지할 수 있다(S220).
이후, 상기 제어부(430)는, 상기 감지된 드래그에 의한 궤적 상에 상기 제1 터치 입력에 의해 선택된 기능에 포함된 적어도 하나 이상의 서브 기능들을 기설정된 순서대로(또는, 임의의 순서로) 표시한다.
예를 들어, 도 7C에 도시된 바와 같이, 상기 제어부(430)는, 상기 제1 터치 입력에 의해 선택된 기능("바탕 화면의 임의의 영역" 에 대응)에 포함된 서브 기능이 5개(윈도 탐색기, 웹 브라우저, 이메일 함, 메모장, 일정표 등 포함)일 때, 상 기 선택된 기능에 포함된 서브 기능을 기설정된 순서대로 상기 감지된 드래그에 의한 궤적 길이만큼 상기 감지된 드래그의 궤적 상에 표시(611)한다. 즉, 상기 제어부(430)는, 상기 제2 터치가 입력된 지점부터 상기 제2 터치가 드래그에 의해 최종 위치한 지점까지 상기 기능에 포함된 하나 이상의 서브 기능을 표시한다. 이때, 상기 하나 이상의 서브 기능은, 특정 응용 프로그램의 단축 아이콘 등일 수 있다.
또한, 상기 드래그에 의한 궤적 상에 표시되는 서브 기능 중, 표시되지 않은 서브 기능이 있는 경우(일 예로, 5개의 서브 기능 중 3개만이 표시되고, 나머지 2개는 표시되지 않은 경우), 상기 드래그에 의한 궤적의 일부분(일 예로, 궤적의 진행 방향의 끝부분)에 기설정된 제1 식별자를 표시(612)하여, 표시되지 않은 서브 기능이 존재함을 나타낼 수 있다. 이때, 상기 기설정된 제1 식별자는, 아이콘("+" 모양, 화살표 모양(→ 모양), 버튼 모양, 스크롤 모양 등 포함), 이모티콘, 사용자 인터페이스/그래픽 사용자 인터페이스 화면 등일 수 있다.
또한, 상기 드래그에 의한 궤적 상에 표시되는 서브 기능 중, 표시되지 않은 서브 기능이 있는 경우, 상기 드래그에 의한 궤적의 일정 영역(613)에 기설정된 바탕색을 표시하여, 표시되지 않은 서브 기능이 있음을 표시할 수도 있다.
또한, 상기 드래그에 의한 궤적 상에 상기 제1 터치 입력에 의해 선택된 기능에 포함된 모든 서브 기능들이 표시된 경우, 상기 기설정된 바탕색과는 다른 색으로 바탕색을 표시할 수도 있다. 일 예로, 상기 기설정된 바탕색이 하늘색이고 상기 제1 터치 입력에 의해 선택된 기능에 포함된 모든 서브 기능들이 표시된 경우, 바탕색을 투명색으로 표시하여, 선택된 기능에 포함된 모든 서브 기능들이 표시되 었음을 나타낼 수도 있다.
이와 같이, 임의의 서브 기능이 추가적인 서브 기능을 포함하는지 여부에 따라, 추가 기능을 포함하는 서브 기능과 추가 기능을 포함하지 않는 서브 기능을 구별하기 위한 다양한 표시 방법이 사용될 수도 있다.
또한, 상기 제1 터치에 의해 선택된 기능에 포함된 적어도 하나 이상의 서브 기능을 표시할 때, 상기 제어부(430)는, 상기 제2 터치에 의한 궤적 상에 또는 기설정된 임의의 궤적 상에 상기 하나 이상의 서브 기능을 표시할 수도 있다(S230).
이후, 상기 제어부(430)는, 상기 표시되는 서브 기능 중 어느 하나가 선택되면, 상기 선택된 서브 기능을 실행하고, 상기 기능 실행 결과를 상기 표시부(420)에 표시한다.
이때, 상기 제1 터치 입력 및, 상기 제2 터치 입력은, 감지되지 않는 상태이다. 즉, 상기 제1 터치 입력 및 상기 제2 터치 입력을 근거로 상기 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능이 상기 표시부(420)에 표시된 후, 사용자의 제1 및 제2 터치 입력이 해제되면, 상기 제어부(430)는, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능 중 어느 하나의 선택을 입력받고, 상기 선택된 서브 기능을 실행한다.
또한, 상기 제1 터치 입력 및, 상기 제2 터치 입력 중 적어도 어느 하나는, 계속해서 감지된 상태를 유지할 수도 있다. 즉, 상기 제1 터치 입력 및, 상기 제2 터치 입력 중 적어도 어느 하나가 감지된 상태를 유지하는 경우, 상기 제어부(430)는, 추가적인 터치 입력에 의해 상기 표시부(420)에 표시되는 하나 이상의 서브 기 능 중 어느 하나의 선택을 입력받고, 상기 선택된 서브 기능을 실행할 수도 있다.
일 예로, 상기 제어부(430)는, 상기 도 7C에 표시되는 서브 기능들(611) 중에서, "이메일 함" 응용 프로그램에 해당하는 아이콘(서브 기능)이 선택되면, 해당 "이메일 함" 응용 프로그램을 실행하고, 상기 실행 결과를 상기 표시부(420) 상에 표시할 수 있다.
다른 일 예로, 도 7D에 도시된 바와 같이, 상기 제어부(430)가 상기 제1 식별자(612)에 대한 새로운 터치 입력에 따른 드래그(621)를 감지한 경우, 상기 제어부(430)는 상기 새로운 터치 입력에 의한 드래그의 궤적 길이 및 진행 방향으로 상기 제1 터치 입력에 의해 선택된 기능에 포함된 하나 이상의 서브 기능 중에서 제2 터치 입력에 의해 표시되지 않은 나머지 하나 이상의 서브 기능(622)을 상기 표시부(420)에 표시하도록 제어할 수 있다.
또한, 상기 도 7D에서 볼 수 있듯이, 상기 제1 터치 입력에 의해 선택된 기능에 포함된 모든 서브 기능이 상기 표시부(420)에 표시된 경우, 상기 제어부(430)는, 도 7C에 표시된 것과 같은 상기 제1 식별자(612)를 표시하지 않을 수 있다(S240).
또한, 상기 제어부(430)는, 상기 각 단계(S210 단계 내지 S240 단계)에서 기설정된 기능 취소 조건을 판단한다. 상기 판단 결과, 상기 기능 취소 조건에 해당하는 경우, 상기 제어부(430)는, 상기 각 단계에서 수행된 결과를 상기 표시부(420) 상에서 표시되지 않도록 제어한다.
일 예로, 상기 제어부(430)는, 상기 제1 터치 입력이 감지된 이후, 기설정된 제1 시간 이내에 제2 터치 입력(또는, 제2 터치 입력에 의한 드래그)이 감지되지 않으면, 상기 제1 터치 입력에 의해 터치된 해당 기능의 활성화 상태를 해제하도록 상기 표시부(420)에 표시되는 화면을 제어한다.
다른 일 예로, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그가 감지된 이후, 기설정된 제2 시간 이내에 상기 표시부(420)에 표시되는 하나 이상의 서브 기능 중 어느 하나가 선택되지 않으면, 상기 제1 터치 입력에 의해 터치된 해당 기능의 활성화 상태를 해제시키고, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능이 표시되지 않도록 제어한다. 또한, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능이 사라지도록 제어할 때, 상기 제어부(430)는 애니메이션 효과 등을 이용하여 마치 상기 하나 이상의 서브 기능이 임의의 지점(일 예로, 상기 제2 터치 입력의 시작점("A" 지점))으로 빨려들어가는 듯한 효과를 줄 수도 있다.
또 다른 일 예로, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그에 의해 상기 표시부(420)에 하나 이상의 서브 기능이 표시되고 있는 상태에서, 상기 제2 터치 입력에 의한 드래그의 진행 방향(604)과 반대되는 방향으로의 터치 입력에 의한 드래그를 감지하면, 상기 제1 터치 입력에 의해 터치된 해당 기능의 활성화 상태를 해제시키고, 상기 표시부(420)에 표시되는 하나 이상의 서브 기능이 표시되지 않도록 제어한다. 즉, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그의 진행 방향과 반대되는 방향(일 예로, 제2 방향)으로의 터치 입력에 의한 드래그를 감지하면, 상기 감지된 제2 방향에 대응하여 기설정된 "취소" 기능을 수행하도록 구성할 수도 있다.
이와 같이, 제2 터치 입력에 의한 드래그된 궤적 상에 제1 터치에 의해 선택된 기능에 포함된 다수의 서브 기능들 중 적어도 하나 이상의 서브 기능을 각각 표시하고, 상기 표시된 적어도 하나 이상의 서브 기능 중 어느 하나의 서브 기능이 선택되면, 상기 선택된 서브 기능을 실행하고, 상기 실행 결과를 표시부 상에 표시할 수 있다.
또한, 상기 본 발명의 제1 및 제2 실시예에서는, 표시부에 표시되는 메뉴 화면과 특정 응용 프로그램의 단축 아이콘의 기능 실행을 각각 설명하였으나, 상기 표시부에는 상기 메뉴 화면 및 상기 응용 프로그램의 단축 아이콘이 함께 표시될 수 있으며, 상기 표시된 메뉴 화면 및 상기 응용 프로그램의 단축 아이콘 중 어느 하나가 선택되면, 상기 선택된 기능을 실행하고, 상기 실행된 결과를 상기 표시부에 표시하도록 구성할 수도 있다.
도 8은 본 발명의 기능 실행 방법이 웹 브라우저에 적용된 상태를 나타낸 도이다.
먼저, 제어부(430)는, 저장부(410)에 기저장된 응용 프로그램 중 웹 브라우저(일 예로, 인터넷 익스플로러)를 실행시키고, 상기 실행 결과를 표시부(420)에 표시한다.
이후, 상기 제어부(430)는, 상기 표시부(터치 스크린)(420)에 표시되는 웹 브라우저의 실행 화면 중에서 임의의 영역에 대한 제1 터치 입력(801)을 감지한다. 이때, 상기 터치된 임의의 영역은, 상기 웹 브라우저의 바탕 화면, 일반 텍스트나 그림, 특정 문서나 사이트로의 링크 관련 기능을 포함하는 텍스트나 그림 등일 수 있다. 또한, 상기 표시부(420) 상에서의 터치는, 근접 터치(Proximity Touch) 또는 접촉 터치(Contact Touch) 중 어느 하나일 수 있다.
이후, 상기 제어부(430)는, 상기 제1 터치 입력(801)이 유지되는 상태에서 상기 표시부(420) 상에 터치되는 제2 터치 입력에 의한 드래그(802)를 감지한다.
또한, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그를 감지한 경우, 상기 드래그에 의한 궤적의 길이, 진행 방향(803) 등을 근거로 상기 드래그에 의한 궤적 상에 상기 웹 브라우저에 대응하여 기설정된 기능에 포함된 하나 이상의 서브 메뉴를 기설정된 순서대로(또는, 임의의 순서로) 상기 표시부(420)에 표시(804)한다.
즉, 상기 제어부(430)는, 상기 웹 브라우저에 대해 기설정된 기능("즐겨찾기" 기능)에 포함된 서브 기능(일 예로, "LG 전자" 웹 사이트, "GS 쇼핑몰" 웹 사이트, "다음(DAUM)" 웹 사이트 등등 포함)을 상기 궤적 상에 표시(804)한다.
이후, 상기 제어부(430)는, 상기 표시되는 서브 기능(804) 중 어느 하나가 선택되면, 해당하는 서브 기능을 실행한다. 즉, 상기 표시되는 서브 기능(804) 중 "LG 전자"가 선택되면, 새로운 웹 브라우저를 실행하고, 상기 실행된 웹 브라우저(또는, 상기 현재 실행된 웹 브라우저)를 통해 해당 사이트로의 링크를 실행하고, 상기 실행 결과를 상기 표시부(420) 상에 표시할 수 있다.
도 9는 본 발명의 기능 실행 방법이 일정표(scheduler)에 적용된 상태를 나타낸 도이다.
먼저, 제어부(430)는, 저장부()에 기저장된 응용 프로그램 중 일정표를 실행 시키고, 상기 실행 결과를 표시부(420)에 표시한다.
이후, 상기 제어부(430)는, 상기 표시부(터치 스크린)(420)에 표시되는 일정표의 실행 화면 중에서 임의의 영역에 대한 제1 터치 입력(901)을 감지한다. 이때, 상기 터치된 임의의 영역은, 특정 기능을 실행하고자 하는 영역일 수 있다. 또한, 상기 표시부(420) 상에서의 터치는, 근접 터치(Proximity Touch) 또는 접촉 터치(Contact Touch) 중 어느 하나일 수 있다.
이후, 상기 제어부(430)는, 상기 제1 터치 입력(901)이 유지되는 상태에서 상기 표시부(420) 상에 터치되는 제2 터치 입력에 의한 드래그(902)를 감지한다.
또한, 상기 제어부(430)는, 상기 제2 터치 입력에 의한 드래그를 감지한 경우, 상기 드래그에 의한 궤적의 길이, 진행 방향(903) 등을 근거로 상기 드래그에 의한 궤적 상에 상기 일정표에 대응하여 기설정된 기능에 포함된 하나 이상의 서브 메뉴를 기설정된 순서대로(또는, 임의의 순서로) 상기 표시부(420)에 표시(904)한다.
즉, 상기 제어부(430)는, 상기 일정표에 대해 기설정된 기능("특정 날짜")에 포함된 서브 기능(일 예로, 편집, 수정, 삭제, 복사, 이동 등 포함)을 상기 궤적 상에 표시(904)한다.
이후, 상기 제어부(430)는, 상기 표시되는 서브 기능(904) 중 어느 하나가 선택되면, 해당하는 서브 기능을 실행한다. 즉, 상기 제1 터치 입력에 의해 "9월 30일"이 선택되고, 상기 제2 터치 입력에 의해 "편집", "수정", "삭제", "복사", "이동" 등의 서브 기능이 상기 표시부(420) 상에 표시되는 상태에서, 상기 "편집" 기능이 선택되면, 상기 제어부(430)는, 상기 표시부(420)에 표시되는 일정표 중에서, "9월 30일" 에 대해 편집 가능한 화면을 표시하도록 제어할 수 있다.
이후, 상기 제어부(430)는, 사용자의 입력에 의해 해당일의 스케줄 내용을 입력받아, 해당일의 스케줄 내용을 저장하도록 구성할 수 있다.
이와 같이, 상기 제1 터치 입력에 의해 임의의 기능(또는, 메뉴)을 선택하고, 상기 제2 터치 입력에 의해 상기 임의의 기능에 대해 기설정된 부가 기능(또는, 서브 기능)을 상기 제2 터치 입력에 따른 궤적을 따라 표시하도록 구성할 수도 있다.
이와 같이, 기능 실행 장치에 저장된 모든 응용 프로그램 및, 사용자 인터페이스/그래픽 사용자 인터페이스 화면 등에 대해서, 해당 응용 프로그램 및, 사용자 인터페이스/그래픽 사용자 인터페이스 화면에 대해 기설정된 기능에 포함된 서브 기능들을 표시할 수 있다.
또한, 상기 서브 기능들을 표시할 때, 제2 터치에 따른 궤적 상에 상기 서브 기능들을 표시할 수 있다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
도 1은 본 발명의 실시예에 따른 기능 실행 장치를 설명하기 위한 이동 단말기의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 기능 실행 장치를 설명하기 위한 텔레매틱스 단말기의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 기능 실행 장치의 구성을 나타낸 블록도이다.
도 4는 본 발명의 제1 실시예에 따른 기능 실행 방법을 나타낸 흐름도이다.
도 5A 내지 도 5F는 본 발명의 실시예에 따른 기능 실행 장치의 화면을 나타낸 도이다.
도 6은 본 발명의 제2 실시예에 따른 기능 실행 방법을 나타낸 흐름도이다.
도 7A 내지 도 7D는 본 발명의 실시예에 따른 기능 실행 장치의 화면을 나타낸 도이다.
도 8은 본 발명의 기능 실행 방법이 웹 브라우저에 적용된 상태를 나타낸 도이다.
도 9는 본 발명의 기능 실행 방법이 일정표에 적용된 상태를 나타낸 도이다.

Claims (20)

  1. 표시부 상에 터치되는 제1 터치 입력을 감지하는 단계;
    상기 제1 터치가 유지되는 동안 입력된 제2 터치에 의한 드래그를 감지하는 단계; 및,
    상기 감지된 드래그의 궤적을 따라 상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 상기 표시부에 표시하는 단계를 포함하며,
    상기 제1 터치에 의해 선택된 기능은,
    상기 표시부에 표시되는 바탕화면 상에서 상기 제1 터치가 감지되는 일 영역에 대응되는 기능 또는, 상기 제1 터치가 특정 기능의 실행 화면이 표시되는 상기 표시부 상의 일 지점에 인가될 때 상기 실행 화면에 대응되는 특정 기능에 따라 결정되고,
    상기 하나 이상의 서브 기능을 상기 표시부에 표시하는 단계는,
    상기 제1 터치가 유지되는 상태에서 상기 제2 터치가 감지되면, 상기 제2 터치에 이어 추가로 인가되는 드래그 입력을 감지하고, 상기 제2 터치에 이어 인가된 드래그의 궤적 상에, 상기 제1 터치에 의해 선택된 기능에 포함되는 하나 이상의 서브 기능을 표시하는 단계이며,
    상기 선택된 기능에 포함된 하나 이상의 서브 기능은,
    상기 결정된 기능에 따라 서로 달라지는 것을 특징으로 하는 기능 실행 방법.
  2. 제1항에 있어서, 상기 제1 터치 입력 또는 상기 제2 터치 입력은,
    상기 표시부 상의 접촉 터치이거나 근접 터치인 것을 특징으로 하는 기능 실행 방법.
  3. 제1항에 있어서, 상기 제2 터치에 의한 드래그를 감지하는 단계는,
    상기 제2 터치에 의한 드래그의 궤적 및 진행 방향을 감지하는 것을 특징으로 하는 기능 실행 방법.
  4. 제1항에 있어서, 상기 하나 이상의 서브 기능을 표시하는 단계는,
    상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능 중에서 상기 표시부에 표시되지 않은 서브 기능이 있을 때, 상기 표시부의 일부분에 기설 정된 제1 식별자를 표시하는 것을 특징으로 하는 기능 실행 방법.
  5. 제1항에 있어서, 상기 제1 터치에 의해 선택된 기능은,
    사용자 인터페이스 또는 그래픽 사용자 인터페이스에 의해 생성된 메뉴 화면에 포함된 메뉴 또는, 상기 표시부 상의 임의의 영역에 대응되는 기능인 것을 특징으로 하는 기능 실행 방법.
  6. 제5항에 있어서, 상기 하나 이상의 서브 기능을 표시하는 단계는,
    상기 메뉴 화면에 포함된 하나 이상의 서브 메뉴를 상기 감지된 드래그의 궤적을 따라 표시하는 과정;
    상기 메뉴 화면에 포함된 서브 메뉴 중에서 추가 메뉴를 포함하는 서브 메뉴가 있을 때, 상기 추가 메뉴를 포함하는 적어도 하나 이상의 서브 메뉴의 일부분에 기설정된 제2 식별자를 표시하는 과정;
    상기 적어도 하나 이상의 서브 메뉴 중 어느 하나의 서브 메뉴의 제2 식별자에 대한 제3 터치 입력을 감지하는 과정;
    상기 제3 터치가 유지되는 동안 입력된 제4 터치에 의한 드래그의 궤적을 따라 상기 적어도 하나 이상의 서브 메뉴 중 어느 하나의 서브 메뉴에 포함된 추가 메뉴를 상기 표시부에 표시하는 과정을 포함하여 이루어진 것을 특징으로 하는 기능 실행 방법.
  7. 제6항에 있어서,
    상기 표시부에 표시되는 서브 메뉴 중 어느 하나가 선택되면, 상기 선택된 서브 메뉴의 기능을 실행하는 과정; 및
    상기 표시부에 표시되는 추가 메뉴 중 어느 하나가 선택되면, 상기 선택된 추가 메뉴의 기능을 실행하는 과정을 더 포함하여 이루어진 것을 특징으로 하는 기능 실행 방법.
  8. 제5항에 있어서, 상기 하나 이상의 서브 기능을 표시하는 단계는,
    상기 임의의 영역에 대응하여 기저장된 하나 이상의 응용 프로그램의 단축 아이콘을 상기 감지된 드래그의 궤적을 따라 표시하는 것을 특징으로 하는 기능 실행 방법.
  9. 제1항에 있어서,
    상기 표시된 하나 이상의 서브 기능 중 선택된 서브 기능을 실행하는 단계; 및
    상기 실행된 결과를 상기 표시부에 표시하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 기능 실행 방법.
  10. 제1항에 있어서,
    상기 제1 터치 입력이 감지된 이후, 기설정된 제1 시간 이내에 제2 터치 입력이 감지되지 않을 때, 상기 제1 터치 입력에 의해 선택된 기능의 활성화 상태를 해제시키는 단계를 더 포함하여 이루어진 것을 특징으로 하는 기능 실행 방법.
  11. 제1항에 있어서,
    상기 제2 터치 입력에 의한 드래그가 감지된 이후, 기설정된 제2 시간 이내에 상기 표시부에 표시되는 하나 이상의 서브 기능 중 어느 하나가 선택되지 않을 때, 상기 제1 터치 입력에 의해 선택된 기능의 활성화 상태를 해제시키고, 상기 하나 이상의 서브 기능이 표시되지 않도록 제어하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 기능 실행 방법.
  12. 제1항에 있어서,
    상기 감지된 드래그의 진행 방향과 반대되는 방향으로의 드래그가 감지될 때, 상기 제1 터치 입력에 의해 선택된 기능의 활성화 상태를 해제시키고, 상기 하나 이상의 서브 기능이 표시되지 않도록 제어하는 단계를 더 포함하여 이루어진 것을 특징으로 하는 기능 실행 방법.
  13. 표시부; 및,
    상기 표시부 상에 인가되는 제1 터치를 감지 및, 상기 제1 터치가 유지되는 상태에서 인가되는 제2 터치를 감지하고, 상기 제2 터치가 감지되면 상기 제2 터치에 이어 추가로 인가되는 드래그 입력을 감지하며, 상기 제2 터치에 이어 인가된 드래그의 궤적 상에, 상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능을 상기 표시부에 표시하는 제어부를 포함하며,
    상기 제어부는,
    상기 표시부에 표시되는 바탕화면 상에서 상기 제1 터치가 감지되는 일 영역에 대응되는 기능 또는, 상기 제1 터치가 특정 기능의 실행 화면이 표시되는 상기 표시부 상의 일 지점에 인가될 때 상기 실행 화면에 대응되는 특정 기능에 따라 상기 제1 터치에 의해 선택된 기능을 결정하고,
    상기 선택된 기능에 포함된 하나 이상의 서브 기능은,
    상기 결정된 기능에 따라 서로 달라지는 것을 특징으로 하는 기능 실행 장치.
  14. 제13항에 있어서, 상기 표시부는,
    상기 표시부에 대한 접촉 터치를 감지하는 터치 스크린이거나, 상기 표시부에 대한 근접 터치를 감지하는 근접 센서인 것을 특징으로 하는 기능 실행 장치.
  15. 제13항에 있어서, 상기 제어부는,
    상기 제1 터치에 의해 선택된 기능에 포함된 하나 이상의 서브 기능 중에서 상기 표시부에 표시되지 않은 서브 기능이 있을 때, 상기 표시부의 일부분에 기설정된 제1 식별자를 표시하는 것을 특징으로 하는 기능 실행 장치.
  16. 제13항에 있어서, 상기 제1 터치에 의해 선택된 기능은,
    사용자 인터페이스 또는 그래픽 사용자 인터페이스에 의해 생성된 메뉴 화면에 포함된 메뉴 또는, 상기 표시부 상의 임의의 영역에 대응되는 기능인 것을 특징으로 하는 기능 실행 장치.
  17. 제16항에 있어서, 상기 제어부는,
    상기 메뉴 화면에 포함된 하나 이상의 서브 메뉴를 상기 감지된 드래그의 궤적을 따라 상기 표시부에 표시하는 것을 특징으로 하는 기능 실행 장치.
  18. 제16항에 있어서, 상기 제어부는,
    상기 임의의 영역에 대응하여 기저장된 하나 이상의 응용 프로그램의 단축 아이콘을 상기 감지된 드래그의 궤적을 따라 상기 표시부에 표시하는 것을 특징으로 하는 기능 실행 장치.
  19. 제13항에 있어서, 상기 제어부는,
    상기 표시된 하나 이상의 서브 기능 중 선택된 서브 기능을 실행하고, 상기 실행 결과를 상기 표시부에 표시하는 것을 특징으로 하는 기능 실행 장치.
  20. 제13항에 있어서, 상기 제어부는,
    상기 감지된 드래그의 진행 방향과 반대되는 방향으로의 드래그가 감지될 때, 상기 제1 터치 입력에 의해 선택된 기능의 활성화 상태를 해제시키고, 상기 하나 이상의 서브 기능이 표시되지 않도록 제어하는 것을 특징으로 하는 기능 실행 장치.
KR1020090045595A 2009-05-25 2009-05-25 기능 실행 방법 및 그 장치 KR101597553B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090045595A KR101597553B1 (ko) 2009-05-25 2009-05-25 기능 실행 방법 및 그 장치
US12/557,322 US9292199B2 (en) 2009-05-25 2009-09-10 Function execution method and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090045595A KR101597553B1 (ko) 2009-05-25 2009-05-25 기능 실행 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20100127081A KR20100127081A (ko) 2010-12-03
KR101597553B1 true KR101597553B1 (ko) 2016-02-25

Family

ID=43125397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090045595A KR101597553B1 (ko) 2009-05-25 2009-05-25 기능 실행 방법 및 그 장치

Country Status (2)

Country Link
US (1) US9292199B2 (ko)
KR (1) KR101597553B1 (ko)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5343692B2 (ja) * 2009-05-12 2013-11-13 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
KR101646922B1 (ko) * 2009-05-19 2016-08-23 삼성전자 주식회사 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기
KR101648747B1 (ko) * 2009-10-07 2016-08-17 삼성전자 주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
US20110138321A1 (en) * 2009-12-04 2011-06-09 International Business Machines Corporation Zone-based functions in a user interface
US10719131B2 (en) 2010-04-05 2020-07-21 Tactile Displays, Llc Interactive display with tactile feedback
US20200393907A1 (en) 2010-04-13 2020-12-17 Tactile Displays, Llc Interactive display with tactile feedback
KR20110121888A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 휴대용 단말기에서 팝업 메뉴를 확인하기 위한 장치 및 방법
KR101690232B1 (ko) * 2010-05-28 2016-12-27 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
JP2012033058A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP5552947B2 (ja) 2010-07-30 2014-07-16 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP5494337B2 (ja) * 2010-07-30 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP5655515B2 (ja) * 2010-11-11 2015-01-21 ソニー株式会社 情報処理装置、テーブル、表示制御方法、プログラム、携帯端末、及び情報処理システム
JP5679782B2 (ja) * 2010-11-26 2015-03-04 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
KR20120067445A (ko) * 2010-12-16 2012-06-26 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR20120080922A (ko) * 2011-01-10 2012-07-18 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
US20120272144A1 (en) * 2011-04-20 2012-10-25 Microsoft Corporation Compact control menu for touch-enabled command execution
JP5360140B2 (ja) * 2011-06-17 2013-12-04 コニカミノルタ株式会社 情報閲覧装置及び制御プログラム並びに制御方法
JP5855862B2 (ja) * 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
KR101786978B1 (ko) * 2011-07-22 2017-10-18 엘지전자 주식회사 이동 단말기
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5173001B2 (ja) * 2011-08-11 2013-03-27 シャープ株式会社 情報処理装置、画面表示方法、制御プログラムおよび記録媒体
US9619139B2 (en) * 2011-10-03 2017-04-11 Kyocera Corporation Device, method, and storage medium storing program
JP5519020B2 (ja) * 2011-10-27 2014-06-11 京セラ株式会社 入力装置および入力装置の制御方法
US9517812B2 (en) * 2011-12-13 2016-12-13 Shimano Inc. Bicycle component operating device for controlling a bicycle component based on a sensor touching characteristic
KR101338825B1 (ko) 2011-12-14 2013-12-06 현대자동차주식회사 다이나믹 터치 인터렉션을 이용한 선택영역 상세 정보 표시 제어방법 및 그 장치
WO2013132552A1 (ja) * 2012-03-06 2013-09-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及び端末装置の制御方法
KR102027879B1 (ko) * 2012-04-04 2019-10-02 삼성전자주식회사 미디어 기기의 메뉴 제어 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체
US9261961B2 (en) 2012-06-07 2016-02-16 Nook Digital, Llc Accessibility aids for users of electronic devices
JP5502943B2 (ja) * 2012-06-29 2014-05-28 楽天株式会社 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
US20140026101A1 (en) 2012-07-20 2014-01-23 Barnesandnoble.Com Llc Accessible Menu Navigation Techniques For Electronic Devices
KR102073601B1 (ko) * 2012-07-25 2020-02-06 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
US9495069B2 (en) 2012-08-31 2016-11-15 Paypal, Inc. Expanded icon functionality
US9261989B2 (en) * 2012-09-13 2016-02-16 Google Inc. Interacting with radial menus for touchscreens
US9195368B2 (en) 2012-09-13 2015-11-24 Google Inc. Providing radial menus with touchscreens
US9729695B2 (en) 2012-11-20 2017-08-08 Dropbox Inc. Messaging client application interface
US9654426B2 (en) 2012-11-20 2017-05-16 Dropbox, Inc. System and method for organizing messages
US9935907B2 (en) 2012-11-20 2018-04-03 Dropbox, Inc. System and method for serving a message client
CN102981768B (zh) * 2012-12-04 2016-12-21 中兴通讯股份有限公司 一种在触屏终端界面实现悬浮式全局按钮的方法及系统
US10082949B2 (en) * 2013-01-17 2018-09-25 Samsung Electronics Co., Ltd. Apparatus and method for application peel
CN104919408A (zh) * 2013-01-25 2015-09-16 惠普发展公司,有限责任合伙企业 用户界面应用启动器及其方法
US9971495B2 (en) 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
US20140210729A1 (en) * 2013-01-28 2014-07-31 Barnesandnoble.Com Llc Gesture based user interface for use in an eyes-free mode
KR102133410B1 (ko) * 2013-01-31 2020-07-14 삼성전자 주식회사 멀티태스킹 운용 방법 및 이를 지원하는 단말기
US9658716B2 (en) * 2013-02-12 2017-05-23 Shenzhen Seefaa Scitech Co., Ltd. Method and device of deactivating portion of touch screen to prevent accidental activation
KR20140112918A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 온도 및 습도를 이용한 화면 표시 제어 장치 및 방법
CN103455278B (zh) * 2013-08-28 2018-02-06 华为终端(东莞)有限公司 应用关联处理方法及装置
KR102192233B1 (ko) * 2013-09-16 2020-12-17 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP2015088180A (ja) * 2013-09-25 2015-05-07 アークレイ株式会社 電子機器、その制御方法、及び制御プログラム
US9692840B2 (en) 2013-11-11 2017-06-27 Dropbox, Inc. Systems and methods for monitoring and applying statistical data related to shareable links associated with content items stored in an online content management service
US9690910B2 (en) 2013-11-11 2017-06-27 Dropbox, Inc. Systems and methods for monitoring and applying statistical data related to shareable links associated with content items stored in an online content management service
KR102166833B1 (ko) * 2014-01-28 2020-10-16 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20150098115A (ko) * 2014-02-19 2015-08-27 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6119633B2 (ja) 2014-02-21 2017-04-26 富士ゼロックス株式会社 表示制御装置、画像形成装置およびプログラム
US20150256506A1 (en) * 2014-03-06 2015-09-10 Honda Motor Co., Ltd. Method and electronic device for performing message exchange
KR101647734B1 (ko) * 2014-07-22 2016-08-23 엘지전자 주식회사 이동 단말기 및 그 제어방법
USD758416S1 (en) * 2014-08-28 2016-06-07 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
KR20160034135A (ko) * 2014-09-19 2016-03-29 삼성전자주식회사 터치 입력을 처리하는 전자 장치 및 방법
KR20160034776A (ko) * 2014-09-22 2016-03-30 삼성전자주식회사 디바이스 및 상기 디바이스의 제어 방법
KR20160063875A (ko) * 2014-11-27 2016-06-07 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP5881870B2 (ja) * 2015-02-10 2016-03-09 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
FR3034218A1 (fr) * 2015-03-27 2016-09-30 Orange Procede d'acces rapide a des fonctionnalites d'application
US9980304B2 (en) 2015-04-03 2018-05-22 Google Llc Adaptive on-demand tethering
CN106293051B (zh) * 2015-08-21 2020-01-10 北京智谷睿拓技术服务有限公司 基于手势的交互方法、交互装置及用户设备
KR102408942B1 (ko) * 2015-10-19 2022-06-14 삼성전자주식회사 전자 장치의 입력 처리 방법 및 전자 장치
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
KR102490913B1 (ko) * 2016-06-07 2023-01-20 삼성전자주식회사 디스플레이 장치 및 제어 방법
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK179657B1 (en) 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
KR20180051002A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 터치 스크린을 이용하는 전자 장치에서 애플리케이션의 실행을 제어하는 방법과 이를 위한 전자 장치
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US11467723B2 (en) * 2017-06-15 2022-10-11 Huawei Technolgoies Co., Ltd. Method and electronic device for displaying a menu in association with an application icon
CN109324846B (zh) * 2017-07-28 2021-11-23 北京小米移动软件有限公司 应用显示方法及装置、存储介质
KR102026615B1 (ko) * 2017-09-11 2019-09-30 (주)컴버스테크 제스처 인식 기반의 터치 디스플레이 장치
US20190243536A1 (en) * 2018-02-05 2019-08-08 Alkymia Method for interacting with one or more software applications using a touch sensitive display
CN110347315A (zh) * 2018-04-08 2019-10-18 中兴通讯股份有限公司 一种数据处理方法、终端及存储介质
CN111433723A (zh) * 2018-06-27 2020-07-17 华为技术有限公司 一种快捷按键的控制方法及终端
US11554322B2 (en) 2019-04-26 2023-01-17 Sony Interactive Entertainment LLC Game controller with touchpad input
US11409279B1 (en) * 2019-09-26 2022-08-09 Amazon Technologies, Inc. Autonomously motile device with remote control
US10908811B1 (en) 2019-12-17 2021-02-02 Dell Products, L.P. System and method for improving a graphical menu
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040150668A1 (en) * 2003-01-31 2004-08-05 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
JP2007316732A (ja) * 2006-05-23 2007-12-06 Sharp Corp 項目選択装置、情報処理装置、及び項目選択のためのコンピュータプログラム
KR100848272B1 (ko) * 2007-02-13 2008-07-25 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기의 아이콘 표시 방법
US20090125845A1 (en) * 2007-11-13 2009-05-14 International Business Machines Corporation Providing suitable menu position indicators that predict menu placement of menus having variable positions depending on an availability of display space

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5010500A (en) * 1989-01-26 1991-04-23 Xerox Corporation Gesture-modified diagram for retrieval of image resembling diagram, with parts selectable for further interactive retrieval
US5612719A (en) * 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
JP3546337B2 (ja) * 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US5689667A (en) * 1995-06-06 1997-11-18 Silicon Graphics, Inc. Methods and system of controlling menus with radial and linear portions
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6262724B1 (en) * 1999-04-15 2001-07-17 Apple Computer, Inc. User interface for presenting media information
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US6961912B2 (en) * 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
US20030025676A1 (en) * 2001-08-02 2003-02-06 Koninklijke Philips Electronics N.V. Sensor-based menu for a touch screen panel
KR100811339B1 (ko) * 2001-10-11 2008-03-07 엘지전자 주식회사 그래픽 유저 인터페이스가 구현되는 원격제어 시스템 및방법
US7058902B2 (en) * 2002-07-30 2006-06-06 Microsoft Corporation Enhanced on-object context menus
US20040032400A1 (en) * 2002-08-14 2004-02-19 Freeman Mark T. Method and systems for managing the display of digital content
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US7318202B2 (en) * 2003-05-19 2008-01-08 Seiko Epson Corporation User interface device and its display method
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060181519A1 (en) * 2005-02-14 2006-08-17 Vernier Frederic D Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US20070236468A1 (en) * 2006-03-30 2007-10-11 Apaar Tuli Gesture based device activation
JP2007280019A (ja) * 2006-04-06 2007-10-25 Alps Electric Co Ltd 入力装置およびこの入力装置を使用したコンピュータシステム
KR20070113025A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 이의 작동방법
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
KR100774927B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
KR100801650B1 (ko) * 2007-02-13 2008-02-05 삼성전자주식회사 휴대 단말기의 대기 화면에서의 기능 실행 방법
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US9772751B2 (en) * 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
KR20090005680A (ko) * 2007-07-09 2009-01-14 삼성전자주식회사 원통형 입체 형상의 메뉴를 제공하기 위한 gui 제공방법및 이를 적용한 멀티미디어 기기
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7956848B2 (en) * 2007-09-04 2011-06-07 Apple Inc. Video chapter access and license renewal
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
US20090158152A1 (en) * 2007-12-12 2009-06-18 Kodimer Marianne L System and method for generating context sensitive help for a graphical user interface
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
KR100973354B1 (ko) * 2008-01-11 2010-07-30 성균관대학교산학협력단 메뉴 유저 인터페이스 제공 장치 및 방법
KR101513023B1 (ko) * 2008-03-25 2015-04-22 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
US8826181B2 (en) * 2008-06-28 2014-09-02 Apple Inc. Moving radial menus
US20100053111A1 (en) * 2008-09-04 2010-03-04 Sony Ericsson Mobile Communications Ab Multi-touch control for touch sensitive display
US9250797B2 (en) * 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
US20100146425A1 (en) * 2008-12-08 2010-06-10 Lance John M Drag and drop target indication in a graphical user interface
US8219937B2 (en) * 2009-02-09 2012-07-10 Microsoft Corporation Manipulation of graphical elements on graphical user interface via multi-touch gestures
US8255830B2 (en) * 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8279185B2 (en) * 2009-05-08 2012-10-02 Sony Ericsson Mobile Communications Ab Methods, devices and computer program products for positioning icons on a touch sensitive screen
KR101691823B1 (ko) * 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040150668A1 (en) * 2003-01-31 2004-08-05 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
JP2007316732A (ja) * 2006-05-23 2007-12-06 Sharp Corp 項目選択装置、情報処理装置、及び項目選択のためのコンピュータプログラム
KR100848272B1 (ko) * 2007-02-13 2008-07-25 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기의 아이콘 표시 방법
US20090125845A1 (en) * 2007-11-13 2009-05-14 International Business Machines Corporation Providing suitable menu position indicators that predict menu placement of menus having variable positions depending on an availability of display space

Also Published As

Publication number Publication date
KR20100127081A (ko) 2010-12-03
US20100299638A1 (en) 2010-11-25
US9292199B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
KR101597553B1 (ko) 기능 실행 방법 및 그 장치
US10261591B2 (en) Electronic device and method of controlling the same
KR101924095B1 (ko) 전자 기기 및 전자 기기의 제어 방법
EP2637086B1 (en) Mobile terminal
KR101830965B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
EP2731003B1 (en) Mobile terminal and control method thereof
US20100060595A1 (en) Mobile terminal and method of switching identity module therein
KR20110004708A (ko) 이동 단말기 및 그 제어 방법
KR101694787B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
KR101749612B1 (ko) 이동 단말기
US20100030469A1 (en) Contents navigation apparatus and method thereof
KR101951480B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR101698087B1 (ko) 이동 단말기 및 그 제어 방법
KR101752411B1 (ko) 이동 단말기 및 그 제어 방법
KR101518031B1 (ko) 이동 단말기 및 그 정보처리방법
KR101641250B1 (ko) 이동 단말기 및 그 제어 방법
KR101748665B1 (ko) 정보 표시 장치 및 그 방법
KR20130006777A (ko) 이동 단말기 및 이동 단말기의 제어 방법
KR20140134377A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20140062328A (ko) 이동 단말기
KR101578731B1 (ko) 이동 단말기 및 그 제어 방법
KR101929777B1 (ko) 이동 단말기 및 그 제어방법
KR101545593B1 (ko) 메뉴 검색 장치 및 그 방법
KR20100107787A (ko) 명령어 처리 장치 및 그 방법
KR101785918B1 (ko) 전자 기기 및 전자 기기의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 4