KR20100078295A - 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치 - Google Patents

이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치 Download PDF

Info

Publication number
KR20100078295A
KR20100078295A KR1020080136517A KR20080136517A KR20100078295A KR 20100078295 A KR20100078295 A KR 20100078295A KR 1020080136517 A KR1020080136517 A KR 1020080136517A KR 20080136517 A KR20080136517 A KR 20080136517A KR 20100078295 A KR20100078295 A KR 20100078295A
Authority
KR
South Korea
Prior art keywords
touch
touch area
input
area
mobile terminal
Prior art date
Application number
KR1020080136517A
Other languages
English (en)
Inventor
신승우
한명환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080136517A priority Critical patent/KR20100078295A/ko
Priority to US12/647,775 priority patent/US20100164893A1/en
Priority to CN2009801534728A priority patent/CN102272700A/zh
Priority to JP2011544370A priority patent/JP5705131B2/ja
Priority to PCT/KR2009/007851 priority patent/WO2010077048A2/en
Priority to EP09836369.0A priority patent/EP2370882A4/en
Publication of KR20100078295A publication Critical patent/KR20100078295A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Selective Calling Equipment (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

본 발명은 터치스크린과 터치패드로 구성된 입력수단을 포함하는 휴대단말에서 이종의 터치영역 상의 연속적인 접촉을 하나의 제스처 입력으로 인지하여 휴대단말의 동작을 제어하는 방법 및 장치에 관한 것으로, 이러한 본 발명은 휴대단말의 입력 시스템에 있어서, 인접하는 다른 터치영역으로부터 연속된 접촉(continuous contact)을 입력받는 터치영역을 가지는 그래픽 사용자 인터페이스(GUI)와, 상기 GUI의 터치영역과 인접하여 대칭구조로 연결되며, 상기 GUI의 터치영역으로부터 연속된 접촉을 입력받는 터치영역을 가지는 물리적 사용자 인터페이스(PUI)를 포함한다.
휴대단말, 터치스크린, 터치패드, PUI, GUI, 터치영역, 제스처

Description

이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치{APPARATUS AND METHOD FOR CONTROLLING OPERATION OF PORTABLE TERMINAL USING DIFFERENT TOUCH ZONE}
본 발명은 휴대단말의 동작 제어 방법 및 장치에 관한 것으로, 특히 터치스크린(Touch-screen)과 터치패드(Touch-pad)를 구비하는 휴대단말에서 터치스크린과 터치패드 각각에 포함되는 서로 다른 터치영역 간의 연속적인 접촉에 의해 휴대단말의 동작을 제어하는 방법 및 장치에 관한 것이다.
최근 들어, 통신 기술의 급속한 발전으로 인해, 휴대단말에서의 기능이 점차 확대되고 있으며, 이에 맞추어 보다 다양한 사용자인터페이스(UI, User Interface) 및 그를 이용한 다양한 기능들이 제공되고 있다.
특히, 최근에는 일반적인 키패드가 터치스크린(Touch-screen)으로 대체되거나, 또는 이들의 조합으로 이루어진 휴대단말이 제공되고 있다. 또한, 일부 휴대단말에서는 터치패드(Touch-pad)를 구비하여 돔 키(Dome key)를 대체하고 있다.
사용자는 상기 터치스크린 또는 터치패드를 이용하여 휴대단말의 다양한 기능들에 대한 제어를 수행할 수 있다. 그러나 상기와 같이 터치스크린 또는 터치패 드가 별도로 구비된 휴대단말에서는 각각의 수단을 이용하여 휴대단말의 동작을 제어하는 데에는 한계가 있다.
또한 상기 터치스크린과 터치패드의 두 가지 형태를 모두 구비하는 휴대단말도 제공되고 있는데, 이러한 휴대단말의 경우는 두 가지 형태가 동시에 적용되더라도 터치스크린과 터치패드가 각각 독립적으로 활용되고 있다. 따라서 터치스크린과 터치패드 간의 연속적으로 발생하는 입력에 대해서 별개의 입력으로 인식되어, 상기 각 수단 간에 연속적인 접촉에 의한 휴대단말 동작을 지원하지 않고 있다.
본 발명의 목적은 터치스크린과 터치패드 간에 연속적으로 이루어지는 입력을 하나의 제스처 입력으로 인식하고, 이에 의한 휴대단말의 동작을 제어하는 방안을 제공함에 있다.
본 발명의 다른 목적은 서로 대칭되는 구조로 인접하게 연결되는 이종의 터치영역으로 이루어진 입력수단 및 이를 이용한 휴대단말의 동작 제어 방법을 제공함에 있다.
본 발명의 또 다른 목적은 터치스크린과 터치패드를 인접하게 배열하여 탭 이벤트 및 스윕 이벤트 등의 상호 작용(interaction)을 유기적으로 적용할 수 있는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 휴대단말에 형성되는 GUI 영역과 PUI 영역의 유기적인 연결을 통해 서로 이웃하는 이종의 영역 간에 이루어지는 연속적인 접촉(continuous contact)을 하나의 연속된 입력으로 인지하여 그에 따른 휴대단말의 동작을 제어할 수 있는 방법 및 장치를 제공함에 있다.
상기와 같은 목적들을 달성하기 위한 본 발명의 실시 예에 따른 시스템은, 휴대단말의 입력 시스템에 있어서, 인접하는 다른 터치영역으로부터 연속된 접촉(continuous contact)을 입력받는 터치영역을 가지는 그래픽 사용자 인터페이스(GUI)와; 상기 GUI의 터치영역과 인접하여 대칭구조로 연결되며, 상기 GUI의 터 치영역으로부터 연속된 접촉을 입력받는 터치영역을 가지는 물리적 사용자 인터페이스(PUI)를 포함한다.
본 발명의 실시 예에 따르면, 상기 PUI는 터치패드를 포함하고, 상기 GUI는 터치스크린을 포함하며, 상기 터치패드 및 상기 터치스크린은 서로 인접되어 대칭구조로 연결되는 이종의 터치영역을 포함하는 것을 특징으로 한다.
상기와 같은 목적들을 달성하기 위한 본 발명의 실시 예에 따른 장치는, 휴대단말에 있어서, 제1 터치영역을 포함하는 터치패드와; 상기 터치패드와 인접하게 배열되어, 상기 제1 터치영역과 연결되는 제2 터치영역을 포함하는 터치스크린과; 상기 터치패드와 상기 터치스크린에 걸쳐 발생하는 연속적인 입력을 하나의 제스처 입력으로 처리하는 제어부를 포함한다.
상기와 같은 목적들을 달성하기 위한 본 발명의 실시 예에 따른 방법은, 휴대단말의 동작 제어 방법에 있어서, 제1 터치영역에 의한 기능 제어 중 제2 터치영역으로 연결되는 연속적인 접촉을 감지하는 과정과; 상기 제1 터치영역 및 제2 터치영역 간의 상기 연속적인 접촉을 하나의 제스처 입력으로 인지하는 과정과; 상기 제1 터치영역에 의한 상기 기능 제어를 상기 제2 터치영역에 의해 연속되게 제어하는 과정을 포함한다.
상술한 바와 같이 본 발명에서 제안하는 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치에 따르면, GUI 영역과 PUI 영역 간의 유기적인 연결을 통해 휴대단말의 활용성을 높일 수 있다. 즉, 휴대단말의 입력수단을 터치스크린과 터치패드의 유기적인 연결에 의해 구성하고, 터치스크린과 터치패드를 실행 어플리케이션에 따라 각각 독립적인 입력 매개체로 이용하거나, 통합된 하나의 입력 매개체로 이용할 수 있다. 이에 의해, 사용자의 입력 및 휴대단말 제어에 따른 효용성을 높일 수 있으며, 결과적으로 휴대단말 이용에 따른 사용자의 편의성을 향상시킬 수 있다.
본 발명에 따르면, 터치패드의 제1 터치영역과 상기 제1 터치영역에 대칭 구조를 가지는 터치스크린의 제2 터치영역을 인접하여 구성하고, 상기 제1 터치영역 및 제2 터치영역 간의 상호작용에 의한 다양한 입력 동작을 제공할 수 있다. 본 발명에 따르면, 상기 제1 터치영역과 제2 터치영역 간에 연속된 사용자 제스처가 감지될 시 이를 하나의 제스처 입력으로 인지하고, 그에 대응하게 휴대단말의 동작을 제어할 수 있다.
본 발명에서 정의된 터치영역을 물리적인 형태의 휠(Wheel) 입력수단과 유사한 형태로 제공함으로써 직관적인 인터페이스에 의한 가시성(visibility)을 높일 수 있다. 아울러, 터치스크린에 해당하는 영역에 실행 어플리케이션의 상황에 적합한 GUI의 가상 이미지를 출력하여 다양한 기능을 직관적으로 제공할 수 있다. 이에 따라, 본 발명의 이종의 터치영역을 통해 휠 제어와 같은 입력 효과를 제공함과 아울러, 출력 효과를 동시에 제공할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
제안하는 본 발명은 휴대단말의 동작 제어 방법 및 장치에 관한 것이다. 특히, 본 발명의 실시 예에서는 이종의 터치영역(different touch zone)을 이용하여 휴대단말의 동작을 제어하는 방법 및 장치를 제안한다. 이를 위해, 본 발명의 실시 예에서는 휴대단말에 터치패드(Touch-pad)와 터치스크린(Touch-screen)을 구비하고, 상기 터치패드와 터치스크린 간에 유기적인 연결을 통해 사용자의 입력을 위한 새로운 터치영역을 제안한다.
제안하는 본 발명에서는, 물리적 사용자 인터페이스(PUI, Physical User Interface) 영역과 그래픽 사용자 인터페이스(GUI, Graphical User interface) 영역으로 구성된 입력수단을 가지는 휴대단말을 제안한다. 본 발명에서, 상기 PUI 영역의 제1 터치영역과 상기 GUI 영역의 제2 터치영역은 서로 인접하여 연결되며, 상기 제1 터치영역 및 제2 터치영역은 대칭 구조를 가질 수 있다. 특히, 상기 제1 터치영역 및 제2 터치영역 간에 연속적인 접촉(continuous contact)이 발생될 시, 이를 하나의 제스처 입력(single gesture input)으로 인지하고, 그에 대응하는 휴대단말의 동작을 제어한다.
본 발명의 실시 예에서 상기 PUI는 버튼, 스위치, 손잡이, 레버 등과 같이 인간이 도구나 장비와 상호 작용하는 것을 도와주는 일련의 물리적 매개체를 대표하는 용어로 나타내며, 상기 GUI는 사용자가 휴대단말과 정보를 교환할 때, 그래픽을 통해 작업할 수 있는 매개체를 대표하는 용어로 나타낸다.
이하에서는 본 발명의 실시 예를 설명함에 있어서, 상기 PUI 영역으로서 터치패드를 이용하는 경우를 대표적인 예로 설명하며, 상기 GUI 영역으로서 터치스크린을 이용하는 경우를 대표적인 예로 설명하기로 한다. 하지만, 본 발명이 반드시 이에 한정되는 것은 아니며, 상기 터치패드 및 터치스크린에 대응하는 기능이 제공되는 다양한 PUI 및 GUI를 이용할 수 있음에 유의하여야 한다.
또한, 본 발명의 실시 예에서는 상기 터치패드의 제1 터치영역과 상기 터치스크린의 제2 터치영역의 유기적인 연결 구조를 통해 양자 간에 이루어지는 연속된 입력을 하나의 제스처 입력(single gesture input)으로 인지 및 그에 따른 동작을 처리한다. 이상 및 이하에서는 상기 제1 터치영역 및 제2 터치영역과 같이 서로 다른 터치영역을 이종의 터치영역이라 칭하기로 한다.
이때, 본 발명의 실시 예에서 상기 터치스크린의 터치영역과 상기 터치패드의 터치영역이 서로 인접하게 연결된 상기 이종의 터치영역은 물리적인 형태로는 일반적인 휠(Wheel)과 유사한 형태를 가지지만, 상기 터치스크린에 해당하는 터치영역에서는 휴대단말에서 실행하는 어플리케이션에 대응하는 적합한 GUI를 출력하여 다양한 기능들을 제공할 수 있다.
이상에서와 같이, 본 발명의 실시 예에서는 터치스크린과 터치패드로 구성되는 새로운 입력수단 및 이를 이용한 휴대단말의 동작 제어 방안을 제안한다. 본 발명의 실시 예에서 상기 이종의 터치영역에서 휴대단말의 동작 제어는 스윕(Sweep) 이벤트 및 탭(Tap) 이벤트 등의 상호 작용에 의해 이루어질 수 있다. 이하에서는, 이러한 스윕 이벤트 및 탭 이벤트를 통칭하여 '제스처' 또는 '사용자 제스처'라 명 명하고, 설명에 따라 각각을 혼용하여 기재하기로 한다.
아울러, 본 발명의 실시 예에 따르면 상기 이종의 터치영역에서 발생하는 스윕 이벤트 및 탭 이벤트 등이 이웃하는 각 터치영역 간에 연결되어 연속해서 발생할 시 이를 하나의 제스처 입력으로 인식하고, 현재 실행하는 어플리케이션에 대응하는 기능을 제어할 수 있다. 예를 들면, 상기 터치패드의 터치영역에서 발생된 사용자 제스처(스윕 이벤트 또는 탭 이벤트)에 따른 입력이 이웃된 터치스크린의 터치영역에서 연속적으로 발생할 시, 이를 하나의 제스처 입력으로 인식한다. 이에 따라 이종의 터치영역 간에 터치영역의 변경이 발생하더라도, 상기 제스처에 따른 연속된 제어에 의해 실행 중인 어플리케이션에 대한 제어 동작을 중단 없이 연속되게 처리할 수 있다.
그러면 이하, 본 발명의 실시 예에 따른 터치스크린 및 터치패드를 구비하는 휴대단말에서, 이종의 터치영역을 이용하여 휴대단말의 동작을 제어하는 방법에 대하여 살펴보기로 한다. 하지만, 본 발명의 휴대단말이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 1은 본 발명의 실시 예에 따른 이종의 터치영역을 구비하는 휴대단말의 예시를 나타낸 도면이다.
상기 도 1을 참조하면, 본 발명의 휴대단말은 크게 GUI 영역(110)과 PUI 영역(120)으로 구분된다. 상기 GUI 영역(110)은 본 발명의 실시 예에서 터치스크린에 대응하며, 상기 PUI 영역(120)은 본 발명의 실시 예에서 터치패드에 대응한다. 즉, 본 발명의 실시 예에서 상기 휴대단말은 터치스크린(110)과 터치패드(120)를 포함하며, 상기 터치스크린(110)과 상기 터치패드(120)는 서로 인접하게 연결되는 구조를 가진다. 상기 도 1의 예시에서는 상기 터치스크린(110) 하단에 상기 터치패드(120)가 인접하게 배열된 경우를 예시로 나타낸다.
상기 터치스크린(110)은 본 발명의 실시 예에서 표시영역(130)과 터치영역(140)으로 구분할 수 있다. 여기서, 상기 표시영역(130)과 터치영역(140)은 설명의 편의를 위해 구분한 것으로, 상기 표시영역(130)은 화면데이터 표시와 더불어, 사용자의 터치 입력도 가능함은 물론이다. 또한, 상기 터치영역(140)은 사용자의 터치 입력을 위한 영역으로 나타내지만, 상기 터치영역(140)에서도 화면데이터 표시가 가능함은 물론이다. 특히, 상기 터치영역(140) 상에 표시되는 화면데이터는 실행 어플리케이션에 대응하게 적응적으로 변경되는 GUI 즉, 특정 아이템들을 표시할 수 있다. 여기서, 상기 특정 아이템은 실행 어플리케이션에 따라 적응적으로 변경 제공되며, 해당 어플리케이션의 다양한 기능 부여를 위한 다양한 형태의 아이콘, 텍스트, 이미지 등을 나타낼 수 있다. 이러한 특정 아이템은 고정적으로 할당되는 것이 아니며, 실행 어플리케이션에 대응하게 변경되는 가상 아이템(virtual item)으로 제공된다. 이러한 예시에 대해서는 후술하는 도면들을 참조하여 설명하기로 한다.
상기 터치패드(120)는 사용자와 휴대단말 간의 상호 작용에 의하여 사용자의 입력을 처리하는 물리적 매개체를 나타내며, 특히, 상기 터치패드(120)는 사용자의 터치 입력을 위한 터치영역(150)을 포함한다.
한편, 상기 도 1에 나타낸 휴대단말의 형태는 반드시 상기한 형태에 한정되지는 않으며, 터치스크린(110)과 터치패드(120)가 인접하여 유기적인 연결 구조를 가지는 모든 형태의 휴대단말을 포함할 수 있다.
도 2는 본 발명의 실시 예에 따른 이종의 터치영역에서 입력 가능한 터치 입력의 종류를 설명하기 위한 도면이다.
상기 도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 휴대단말에서는 터치스크린(110)과 터치패드(120)가 인접하게 배열되며, 상기 터치스크린(110)의 터치영역(140)과 상기 터치패드(120)의 터치영역(150)에 따른 이종의 터치영역(140, 150)에 탭 이벤트 및 스윕 이벤트 등을 발생할 수 있다. 본 발명은 상기 탭 이벤트 및 스윕 이벤트 등의 상호 작용(interaction)을 유기적으로 적용할 수 있도록 한다.
상기 탭 이벤트는 참조부호 210에 나타낸 바와 같이, 상기 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150)에 형성되는 다수개의 탭 포인트(Tap point)(230)에 의해 이루어질 수 있다. 상기 탭 포인트(230)는 실행 어플리케이션마다 다르게 정의되며, 각 실행 어플리케이션에서 해당 탭 포인트(230)에 할당된 소정 기능을 수행할 수 있다.
상기 스윕 이벤트는 참조부호 220에 나타낸 바와 같이, 상기 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150)에 형성되는 원형의 구조(240)에서 시계 방향 및/또는 반시계 방향으로 이루어질 수 있다.
전술한 바와 같은 본 발명의 탭 이벤트 및 스윕 이벤트 입력에 의해 휴대단 말의 동작을 제어하는 예시에 대해서는 후술하는 도면들을 참조하여 살펴보기로 한다.
이때, 상기 터치패드(120)의 터치영역(150)과 유기적인 연결 관계에 있는 상기 터치스크린(110)의 터치영역(140)의 형상은, 상기 터치패드(120)의 터치영역(150)의 형상(예컨대, 반원 형태)과 대칭하는 형상(예컨대, 반원 형태)으로 이루어질 수 있다. 본 발명의 휴대단말은 이러한 대칭 구조를 가지는 이종의 터치영역(예컨대, 원 형태)(140, 150)을 이용하여 입력수단으로 활용할 수 있다.
상기 이종의 터치영역(원 형태)(140, 150)은 연속적인 접촉(continuous contact)(예컨대, touch and moving 등)이 가능하도록 서로 연결된 유기적인 형태를 가진다. 따라서 본 발명에 따르면 상기 이종의 터치영역(140, 150) 간에 연속적으로 이루어지는 접촉(continuous contact)은 하나의 제스처 입력(single gestural input)으로 인식한다.
상기 하나의 제스처 입력은, 상기 휴대단말에서 실행 중인 어플리케이션 모드 내 하나 이상의 값(value)을 가감(예컨대, volume, zoom in/out 등), 하나 이상의 아이템 간 내비게이팅(navigating) 등과 같은 입력을 나타낸다. 이러한 예시에 대해서는 후술하는 도면을 통해 설명하기로 한다.
또한, 상기 연속적인 접촉에 따른 값 변화를 상기 터치스크린(110)의 터치영역(140) 상에 GUI를 통해 가상 이미지(virtual image)로 표시함으로써, 상기 터치영역(140)에서 입력 기능 및 출력 기능이 이루어지도록 한다.
그러면 이하, 상기에서 살펴본 바와 같은 이종의 터치영역을 포함하는 휴대 단말에서, 상기 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법에 대하여 살펴보기로 한다. 하지만, 본 발명의 휴대단말이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 3은 본 발명의 실시 예에 따른 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법을 도시한 도면이다.
상기 도 1 내지 도 3을 참조하면, 먼저 휴대단말은 사용자 입력을 감지하면(S301단계), 상기 사용자 입력이 발생하는 영역을 판단한다(S303단계). 즉, 상기 휴대단말은 상기 사용자 입력이 터치영역에서 발생한 것인지, 입력영역에서 발생한 것인지를 판단한다(S305단계). 여기서, 상기 사용자 입력은 터치 입력인 것을 가정한다. 여기서, 상기 입력영역 및 터치영역은 설명의 편의를 위해 구분한 것이다. 상기 입력영역은 터치스크린(110)의 표시영역(130) 또는 터치패드(120)에 형성되는 물리적인 영역을 나타내며, 상기 터치영역은 상기 터치스크린(110)의 터치영역(140) 또는 상기 터치패드(120)의 터치영역(150)을 나타낸다.
다음으로, 상기 판단결과, 상기 터치영역에 의한 입력이 아니면, 상기 휴대단말은 상기 입력영역에 의한 입력으로 판단하고(S307단계), 상기 사용자의 입력 즉, 터치 입력에 따른 해당 동작을 수행한다(S309단계). 예를 들어, 상기 표시영역(130) 또는 상기 터치패드(120)의 물리적인 영역에서 터치 입력이 발생하는 포인트의 특정 아이템에 대한 기능을 실행하는 등의 동작을 수행할 수 있다.
다음으로, 상기 판단결과, 터치영역에 의한 입력인 것으로 판단하면, 상기 휴대단말은 상기 터치영역의 발생 위치를 식별한다(S311단계). 상기 휴대단말은 상기 사용자 입력이 발생하는 터치영역이 PUI 터치영역 즉, 터치패드(120)의 터치영역(150)인지, GUI 터치영역 즉, 터치스크린(110)의 터치영역(140)인지를 판단한다.
상기 S311단계의 판단결과 PUI 터치영역이면, 상기 사용자 입력이 제스처 입력(예컨대, 스윕 이벤트)인지 또는 일반 입력(예컨대, 탭 이벤트)인지를 확인한다(S313단계). 여기서, 상기 제스처 입력은 미리 설정된 특정 패턴에 따라 이루어지는 사용자의 입력 동작을 나타낸다.
상기 S313단계의 판단결과, 제스처 입력이 아니면, 상기 휴대단말은 상기 사용자 입력이 일반 터치입력인 것으로 판단하고(S331단계), 해당 동작을 수행한다(S333단계). 예를 들면, PUI 터치영역에서 탭 이벤트 입력을 발생하면, 상기 탭 이벤트 입력이 발생하는 탭 포인트(TAP Point)에 매핑된 해당 기능에 대한 동작을 수행한다.
상기 S313단계의 판단결과, 제스처 입력이면, 상기 휴대단말은 사용자 제스처에 따른 기능을 제어한다(S315단계). 예를 들면, 휴대단말에서 실행 중인 어플리케이션 모드 내 하나 이상의 값(value)을 가감(예컨대, 재생 음악파일의 볼륨 제어, 카메라 기능의 줌인/줌아웃 제어 등)하거나, 하나 이상의 아이템 간 내비게이팅에 관련된 제어를 수행한다.
다음으로, 상기 휴대단말은 상기 S315단계에서와 같이 사용자 제스처에 따른 기능 제어 중에, 터치영역 변경을 감지할 수 있다(S317단계). 상기 휴대단말은 상기 PUI 터치영역으로부터 전달되는 입력정보에 의한 상기 기능 제어 중에, 상기 GUI 터치영역으로부터 입력정보를 전달받을 수 있다. 즉, 상기 PUI 터치영역에 의한 입력정보 전달이 중단됨과 동시에, 상기 GUI 터치영역으로부터 입력정보를 전달받을 수 있다.
이러한 경우, 상기 휴대단말은 상기 터치영역 변경으로 인지하게 된다. 즉, 상기 휴대단말은 상기 PUI 터치영역에 의한 입력정보 전달이 중단되더라도 이를 입력종료로 처리하지 않고, 상기 GUI 터치영역에 의한 입력정보와 연계하여 처리한다. 여기서, 상기 사용자 제스처는 이종의 터치영역에서 연속적인 접촉인 것을 가정하며, 릴리즈(release) 후에 발생하는 새로운 사용자 제스처에 대해서는 새로운 입력의 시작으로 인지할 수 있다. 이러한 예시에 대해서는 후술하기로 한다.
다음으로, 상기 휴대단말은 상기 터치영역 변경을 감지하면, 상기 GUI 터치영역에서 발생하는 사용자 제스처를 상기 PUI 터치영역에서 발생된 제스처와 연속된 제스처 즉, 하나의 제스처로 처리한다(S319단계). 이어서, 상기 휴대단말은 상기 GUI 터치영역에서 발생하는 사용자 제스처에 따라 상기 PUI 터치영역의 입력정보에 의해 수행하던 기능 제어를 계속하여 수행한다(S321단계). 예를 들면, 상기 실행 중인 어플리케이션 예컨대, 재생 음악파일의 볼륨, 카메라 기능의 줌인/줌아웃 등에 따른 값을 가감하거나, 하나 이상의 아이템 간 내비게이팅에 관련된 제어를 계속하여 수행할 수 있다.
한편, 상기 S311단계의 판단결과 상기 입력영역의 발생 위치가 PUI 터치영역이 아니면, 상기 휴대단말은 GUI 터치영역으로 판단한다(S341단계). 이어서, 상기 휴대단말은 상기 사용자 입력이 제스처 입력(예컨대, 스윕 이벤트)인지 또는 일반 입력(예컨대, 탭 이벤트)인지를 확인한다(S343단계).
상기 S343단계의 판단결과, 제스처 입력이 아니면, 상기 휴대단말은 상기 사용자 입력이 일반 터치입력인 것으로 판단하고(S331단계), 전술한 예시에서 살펴본 바와 같은 해당 동작을 수행한다.
상기 S343단계의 판단결과, 제스처 입력이면, 상기 휴대단말은 사용자 제스처에 따른 기능을 제어한다(S345단계). 예를 들면, 휴대단말에서 실행 중인 어플리케이션 모드 내 하나 이상의 값을 가감(예컨대, 재생 음악파일의 볼륨 제어, 카메라 기능의 줌인/줌아웃 제어 등)하거나, 하나 이상의 아이템 간 내비게이팅에 관련된 제어를 수행한다.
다음으로, 상기 휴대단말은 상기 S345단계에서와 같이 사용자 제스처에 따른 기능 제어 중에, 터치영역 변경을 감지할 수 있다(S347단계). 상기 휴대단말은 상기 GUI 터치영역으로부터 전달되는 입력정보에 의한 상기 기능 제어 중에, 상기 PUI 터치영역으로부터 입력정보를 전달받을 수 있다. 즉, 상기 GUI 터치영역에 의한 입력정보 전달이 중단됨과 동시에, 상기 PUI 터치영역으로부터 입력정보를 전달받을 수 있다.
이러한 경우, 상기 휴대단말은 상기 터치영역 변경으로 인지하게 된다. 즉, 상기 휴대단말은 상기 GUI 터치영역에 의한 입력정보 전달이 중단되더라도 이를 입력종료로 처리하지 않고, 상기 PUI 터치영역에 의한 입력정보와 연계하여 처리한다. 여기서, 상기 사용자 제스처는 이종의 터치영역에서 연속적인 접촉인 것을 가정하며, 릴리즈 후에 발생하는 새로운 사용자 제스처에 대해서는 새로운 입력의 시 작으로 인지할 수 있다. 이러한 예시에 대해서는 후술하기로 한다.
다음으로, 상기 휴대단말은 상기 터치영역 변경을 감지하면, 상기 PUI 터치영역에서 발생하는 사용자 제스처를 상기 GUI 터치영역에서 발생된 제스처와 연속된 제스처 즉, 하나의 제스처로 처리한다(S349단계). 따라서 상기 휴대단말은 상기 PUI 터치영역에서 발생하는 사용자 제스처에 따라 상기 GUI 터치영역의 입력 정보에 의해 수행하던 기능 제어를 계속하여 수행한다(S351단계). 예를 들면, 상기 실행 중인 어플리케이션 예컨대, 재생 음악파일의 볼륨, 카메라 기능의 줌인/줌아웃 등에 따른 값을 가감하거나, 하나 이상의 아이템 간 내비게이팅에 관련된 제어를 계속하여 수행할 수 있다.
이상에서는 본 발명의 실시 예에 따른 휴대단말에서 터치스크린 및 터치패드 상에 발생하는 연속적인 접촉의 제스처 입력에 따라 휴대단말의 동작을 제어하는 제어 방법에 대하여 살펴보았다. 다음으로 이하에서는, 상기 도 1 내지 도 3에서 살펴본 바와 같은 본 발명의 동작을 화면 예시들을 통해 살펴보기로 한다. 하지만, 본 발명의 화면 예시가 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 4는 본 발명의 실시 예에 따른 이종의 터치영역 상에서 탭 포인트에 할당된 소정 기능을 수행하는 경우의 화면 예시를 나타낸 도면이다.
상기 도 1 내지 도 4를 참조하면, 본 발명에서는 터치스크린(110)의 터치영역(140)과 터치패드(120)의 터치영역(150)에 실행 어플리케이션에 대응하는 탭 포인트를 할당하여 휴대단말의 동작을 제어할 수 있다. 상기 도 4에서는 상기 터치스 크린(110)의 터치영역(140)에 소정 개수의 탭 포인트가 할당된 경우의 예시를 나타낸다. 하지만, 본 발명의 실시 예에서 상기 탭 포인트의 할당은 상기 터치스크린(110)의 터치영역(140)과 상기 터치패드(120)의 터치영역(150)의 구분 없이 할당하여 구성될 수 있다. 다만, 탭 포인트에 할당되는 기능들에 대한 GUI 즉, 특정 아이템은 상기 터치스크린(110)의 터치영역(140)에 표시될 수 있다.
상기 도 4에 나타낸 바와 같이, 상기 도 4는 휴대단말의 제공 기능 중 계산기 기능에 의한 어플리케이션 실행 화면의 예시를 나타낸 것이다. 상기 도 4에서는 터치스크린(110)의 터치영역(140)에 연산 기호(/, -, +, X, =)와 같은 가상 아이템이 표시된 경우의 예시를 나타낸다. 사용자는 상기 터치영역(140) 상의 상기 연산 기호들 중 희망하는 연산 기호가 매핑된 탭 포인트에 탭 이벤트를 발생함으로써, 해당 연산 기호를 계산식에 반영하고, 휴대단말은 상기 연산 기호에 대응하는 계산을 처리할 수 있다.
한편, 상기 터치영역(140) 상에 표시되는 아이템은 실행 어플리케이션에 따라 해당 탭 포인트에 다른 기능이 매핑될 수 있다. 이와 같이, 특정 어플리케이션에 매핑되는 아이템은 제조 시에 기본 값으로 제공되거나, 사용자 설정에 따를 수 있다.
또한, 상기 도 4에서, 상기와 같은 기능 수행 중에, 상기 터치패드(120)의 터치영역(150) 상에 사용자 제스처 입력에 의한 기능을 제어할 수도 있다. 이러한 예시가 하기 도 5에 나타나 있다.
도 5는 본 발명의 실시 예에 따른 이종의 터치영역 상에서 스윕 이벤트에 의 한 휴대단말의 동작을 제어하는 화면 예시를 나타낸 도면이다.
상기 도 4 및 도 5를 참조하면, 상기 도 5는 상기 도 4와 같은 계산기 기능에 따른 어플리케이션 실행 화면의 예시를 나타낸 것이다. 특히, 상기 도 5에서는 터치패드(120)의 터치영역(150) 상에 제스처(스윕 이벤트) 입력을 통해 사용자 희망에 따른 숫자를 입력하는 경우의 예시를 나타낸 것이다. 여기서, 참조부호 520 내지 참조부호 530에 나타낸 바와 같은, 터치패드(120)의 터치영역(150)에 표시된 숫자 및 라인(line)들은 설명의 편의를 위해 나타낸 것으로 실제 휴대단말에서는 그 표시가 생략된다.
먼저, 참조부호 510과 같이 계산기 기능에 의한 화면데이터를 표시할 수 있다. 상기 참조부호 510에 나타낸 바와 같이, 터치스크린(110)의 터치영역(140) 상에 연산 기호가 표시되고, 표시영역(130)에는 사용자 입력에 대응하는 숫자정보들이 표시될 수 있다.
상기 참조부호 510과 같은 상태에서 사용자는 계산을 위한 숫자를 입력한다. 이때, 상기 숫자 입력은 참조부호 520 내지 참조부호 530에 나타낸 바와 같이, 사용자 제스처에 의해 입력할 수 있다.
예를 들면, 사용자는 반시계 방향의 스윕 이벤트 입력에 의해 희망하는 숫자정보를 입력할 수 있다. 즉, 상기 계산기 기능 실행에 따라 상기 터치패드(120)의 터치영역(150)은 0 내지 9의 숫자가 매핑되는 탭 포인트가 활성화되며, 상기 터치영역(150) 상에서의 스윕 이벤트에 대응하여, 각 탭 포인트에 매핑된 해당 숫자정보가 상기 터치스크린(110)의 터치영역(140) 중 상기 숫자정보 표시를 위해 할당되 는 특정 탭 포인트에 표시될 수 있다.
상기 특정 탭 포인트의 숫자정보는 상기 스윕 이벤트에 대응하여 적응적으로 변경되면서 표시된다. 사용자는 스윕 이벤트 입력 및 스윕 이벤트 릴리즈에 의해 희망하는 숫자정보를 입력할 수 있다.
예를 들면, 참조부호 520과 같이 스윕 이벤트 입력이 숫자 '0'이 할당된 탭 포인트에서 시작하여 숫자 '3'이 할당된 탭 포인트로 이동 시, 상기 스윕 이벤트에 따라 상기 터치영역(140)의 특정 탭 포인트에는 숫자 0에서 3의 숫자정보가 순차적으로 표시된다. 이후, 사용자가 상기 스윕 이벤트 중에 숫자 '3'이 위치하는 부분에서 상기 스윕 이벤트를 릴리즈하면, 상기 숫자 '3'이 표시영역(130) 상에 입력된다. 즉, 상기 스윕 이벤트가 릴리즈 되는 탭 포인트 위치의 숫자 즉, 상기 터치영역(140)의 특정 탭 포인트에 최종 표시되는 숫자정보가 상기 표시영역(130) 상에 표시되는 계산식에 반영된다.
여기서, 상기 숫자정보가 매핑되는 탭 포인트는 상기 계산기 기능에 따른 어플리케이션 실행에 따라 활성화될 수 있으며, 상기 계산기 기능 외에 다른 기능을 이용할 시 상기 각 탭 포인트의 숫자정보 매핑 기능은 생략되고, 해당 어플리케이션에 대응하는 탭 포인트가 형성될 수 있다.
다음으로, 사용자는 상기 참조부호 520의 설명과 대응하는 동작에 의하여 참조부호 530과 같이 숫자 '2'를 상기 계산식에 반영할 수 있다. 여기서, 상기 스윕 이벤트에 따른 숫자정보 선택 절차가 계속되는 동안 상기 계산식의 라인 변경 없이, 숫자의 자리수가 증가하는 형태를 가질 수 있다.
다음으로, 사용자는 상기 숫자 '32'를 계산식의 첫 번째 연산자로 하고, 상기 숫자 '32'와 계산을 수행할 두 번째 연산자를 입력할 수 있다. 이때, 사용자는 희망하는 연산 기호가 할당된 탭 포인트에 탭 이벤트를 발생함으로써, 두 번째 연산자의 입력을 수행할 수 있다. 이러한 예시가 참조부호 540에 나타나 있다.
즉, 사용자는 상기 연산 기호들 중 '+'가 할당된 탭 포인트에 탭 이벤트를 발생함으로써, 더하기 연산을 결정할 수 있다. 이때, 상기 참조부호 540에 나타낸 바와 같이, 스윕 이벤트 입력이 없을 시에는 상기 터치영역(140) 상의 특정 탭 포인트는 최초 표시된 연산 기호 '='가 다시 표시될 수 있다.
이후, 사용자는 전술한 참조부호 520 내지 참조부호 530에서 수행하는 스윕 이벤트 입력 및 스윕 이벤트 릴리즈 동작에 대응하여 두 번째 연산자 '235'를 입력할 수 있다. 이때, 참조부호 550에 나타낸 바와 같이, 상기 참조부호 540에서 사용자가 '+' 연산 기호를 선택함에 따라 상기 숫자 '235'에는 상기 연산이 더하기 연산임을 나타내는 '+235'와 같이 표시된다.
이어서, 사용자는 상기 각 연산자들에 의한 계산 결과를 요청하는 탭 이벤트를 발생하여, 상기 계산식에 의한 결과를 출력할 수 있다. 즉, 상기 참조부호 550에 나타낸 바와 같이, 사용자는 터치스크린(110)의 터치영역(140) 상에 연산 결과를 요청하는 연산 기호(=)가 할당된 탭 포인트에 탭 이벤트를 발생함으로써, 결과 값을 요청할 수 있다.
도 6은 본 발명의 실시 예에 따른 이종의 터치영역 상에서 탭 포인트에 할당된 소정 기능을 수행하는 경우의 다른 화면 예시를 나타낸 도면이다.
상기 도 1 내지 도 6을 참조하면, 본 발명에서는 터치스크린(110)의 터치영역(140)과 터치패드(120)의 터치영역(150)에 실행 어플리케이션에 대응하는 탭 포인트를 할당하여 휴대단말의 동작을 제어할 수 있다.
상기 도 6에서는 상기 터치스크린(110)의 터치영역(140) 및 상기 터치패드(120)의 터치영역(150)에 소정 개수의 탭 포인트가 할당된 경우의 예시를 나타낸다. 이때, 탭 포인트에 할당되는 기능들에 대한 GUI 즉, 특정 아이템은 상기 터치스크린(110)의 터치영역(140)에 표시될 수 있다. 즉, 상기 도 6에서 터치패드(120)의 터치영역(150)에 표시된 아이템은 설명의 편의를 위해 나타낸 것으로 실제 제공되는 휴대단말에서는 그 표시가 생략되거나 물리적인 형태로 각인되어 제공될 수 있다.
상기 도 6에 나타낸 바와 같이, 상기 도 6은 휴대단말의 제공 기능 중 앨범 기능에 의한 어플리케이션 실행 화면(메뉴 리스트)의 예시를 나타낸 것이다. 상기 도 6에서는 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150)에 내비게이팅을 위한 방향지시 아이템이 할당된 경우의 예시를 나타낸다. 사용자는 상기 각 터치영역(140, 150) 상에서 내비게이팅하고자 하는 방향에 대응하는 탭 포인트에 탭 이벤트를 발생함으로써, 표시영역(130)에 제공되는 메뉴 리스트의 각 항목 간의 내비게이팅을 수행할 수 있다.
특히, 상기 도 6에서 좌방향 또는 우방향으로의 내비게이팅은 터치스크린(110)의 터치영역(140) 또는 터치패드(120)의 터치영역(150) 중 적어도 하나에서 발생하는 탭 이벤트에 따라 수행할 수 있다. 즉, 터치스크린(110)과 터치패드(120) 의 구분 없이 동일하게 탭 포인트를 활용할 수 있다.
한편, 상기 터치영역(140) 상에 표시되는 아이템은 실행 어플리케이션에 따라 해당 탭 포인트에 다른 기능이 매핑될 수 있다. 이와 같이, 특정 어플리케이션에 매핑되는 아이템은 제조 시에 기본 값으로 제공되거나, 사용자 설정에 따를 수 있다.
또한, 상기 도 6에서, 상기와 같은 기능 수행 중에, 상기 터치스크린(110)의 터치영역(140) 및 상기 터치패드(120)의 터치영역(150) 상에 사용자 제스처 입력에 의한 기능을 제어할 수도 있다. 이러한 예시가 하기 도 7에 나타나 있다.
도 7은 본 발명의 실시 예에 따른 이종의 터치영역 상에서 스윕 이벤트에 의한 휴대단말의 동작을 제어하는 다른 화면 예시를 나타낸 도면이다.
상기 도 6 및 도 7을 참조하면, 상기 도 7은 상기 도 6과 같은 앨범 기능에 따른 어플리케이션 실행 화면(메뉴(사진파일) 리스트)의 예시를 나타낸 것이다. 특히, 상기 도 7에서는 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150) 상에 제스처(스윕 이벤트) 입력을 통해 메뉴 리스트(블럭 형태)의 각 항목 간의 내비게이팅을 수행하는 경우의 예시를 나타낸 것이다. 여기서, 상기 각 터치영역들(140, 150)에 표시된 텍스트(next, pre.) 및 라인은 발명의 동작 설명을 위해 나타낸 것으로 실제 휴대단말에서는 그 표시가 생략될 수 있다.
먼저, 참조부호 710과 같이 사용자는 터치스크린(110)의 터치영역(140) 또는 터치패드(120)의 터치영역(150)에서 시계 방향(또는 반시계 방향)의 스윕 이벤트에 따라 메뉴 리스트의 각 항목 간의 내비게이팅을 수행할 수 있다. 상기 참조부호 710에서는 하나의 터치영역에서 발생하는 시계 방향 또는 반시계 방향의 스윕 이벤트에 따라 현재 카테고리 내에 속한 "A 항목" 내지 "I 항목" 간의 내비게이팅이 수행될 수 있다.
하지만, 본 발명이 상기와 같이 어느 하나의 터치영역에서만 상기 내비게이팅이 이루어지는 것은 아니며, 설정 방식에 따라 이종의 터치영역(140, 150) 모두를 이용하여 현재 카테고리 내에 속한 항목들 간의 내비게이팅을 수행할 수도 있음은 물론이다. 상기 도 7에서는 상기 어느 하나의 터치영역 내에서 발생하는 스윕 이벤트에 의해 현재 카테고리 내에 속한 항목들 간의 내비게이팅을 수행하고, 각 터치영역들(140, 150) 간의 변경이 있을 시, 해당 스윕 이벤트의 진행 방향에 따라 이전(previous) 카테고리 또는 다음(next) 카테고리로 전환하는 경우를 예시로 설명하기로 한다.
즉, 사용자는 상기 참조부호 710과 같은 내비게이팅 수행 중에, 상기 스윕 이벤트를 발생하는 어느 하나의 터치영역(예컨대, 터치스크린(110)의 터치영역(140))에서 다른 하나의 터치영역(예컨대, 터치패드(120)의 터치영역(150))으로 전환하여 연속적인 접촉에 의한 스윕 이벤트를 계속하여 발생할 수 있다. 이러한 예시가 참조부호 720에 나타나 있다.
상기 참조부호 710 및 참조부호 720에 나타낸 바와 같이, 사용자는 터치스크린(110)의 터치영역(140)에서 시계/반시계 방향의 스윕 이벤트에 의해 현재 카테고리에 속한 메뉴 리스트의 항목들 간 내비게이팅을 수행한다. 이후, 사용자는 상기 터치스크린(110)의 터치영역(140)에서 터치패드(120)의 터치영역(150)으로 시계 방 향에 대응하는 연속적인 이동(예컨대, touch and moving)에 의하여 다음(next) 카테고리(J 항목 내지 R 항목으로 이루어진 카테고리)에 속한 메뉴 리스트로 전환할 수 있다(710 -> 720). 아울러, 사용자는 상기 터치스크린(110)의 터치영역(140)에서 터치패드(120)의 터치영역(150)으로 반시계 방향에 대응하는 연속적인 이동(예컨대, touch and moving)에 의하여 이전(pre.) 카테고리(A 항목 내지 I 항목으로 이루어진 카테고리)에 속한 메뉴 리스트로 전환할 수 있다(720 -> 710).
상기 연속적인 접촉에 의한 카테고리 전환은, 상기 터치패드(120)의 터치영역(150)에서 시작하여 터치스크린(110)의 터치영역(140)으로의 연속적인 이동에 의해 수행할 수도 있음은 물론이다. 이러한 예시가 참조부호 730 및 참조부호 740에 나타나 있다.
상기 참조부호 730 및 참조부호 740에 나타낸 바와 같이, 사용자는 전술한 참조부호 710 및 참조부호 720을 참조한 설명 부분에서 설명한 바에 대응하는 동작에 의하여 내비게이팅을 수행할 수 있다. 이때, 상기 참조부호 740에서는 상기 참조부호 720과 달리, 터치패드(120)의 터치영역(150)에서 터치스크린(110)의 터치영역(140)으로 연결되는 연속된 스윕 이벤트 발생에 따라 카테고리를 변경하는 경우의 예시를 나타낸다.
한편, 상기 도 7에서는 현재 카테고리 내에서 내비게이팅 수행 중에 이전/다음 카테고리를 전환하는 경우의 예시를 나타내었으나, 본 발명에 따르면 사용자는 각 터치영역들(140, 150) 간의 전환 포인트에서의 제스처를 통해 카테고리 전환을 바로 수행할 수도 있다. 예를 들면, 터치스크린(110)의 터치영역(140)과 터치패 드(120)의 터치영역(150)이 인접하는 어느 하나의 종단 터치영역에서 다른 하나의 종단 터치영역으로 연결되는 짧은 스윕 이벤트를 통해 이전/다음 카테고리로의 전환을 바로 수행할 수 있다.
도 8은 본 발명의 실시 예에 따른 이종의 터치영역 상에서 스윕 이벤트에 의한 휴대단말의 동작을 제어하는 다른 화면 예시를 나타낸 도면이다.
상기 도 8을 참조하면, 상기 도 8은 문자메시지 기능에 따른 어플리케이션 실행 화면(메뉴(수신 메시지) 리스트)의 예시를 나타낸 것이다. 특히, 상기 도 8에서는 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150) 상에 제스처(스윕 이벤트) 입력을 통해 메뉴 리스트의 각 항목 간의 내비게이팅을 수행하는 경우의 예시를 나타낸 것이다. 여기서, 상기 각 터치영역들(140, 150)에 표시된 텍스트(next, pre.) 및 라인은 발명의 동작 설명을 위해 나타낸 것으로 실제 휴대단말에서는 그 표시가 생략될 수 있다.
먼저, 참조부호 810 및 참조부호 820에 나타낸 바와 같이, 사용자는 터치스크린(110)의 터치영역(140) 또는 터치패드(120)의 터치영역(150)에서 시계 방향(또는 반시계 방향)의 스윕 이벤트에 따라 메뉴 리스트의 각 항목 간의 내비게이팅을 수행할 수 있다. 상기 참조부호 810 및 참조부호 820에서는 어느 하나의 터치영역에서 발생하는 시계 방향 또는 반시계 방향의 스윕 이벤트에 따라 현재 카테고리 내에 속한 "1번 항목" 내지 "6번 항목" 간의 내비게이팅이 수행될 수 있다.
하지만, 본 발명이 상기와 같이 어느 하나의 터치영역에서만 상기 내비게이팅이 이루어지는 것은 아니며, 설정 방식에 따라 이종의 터치영역(140, 150) 모두 를 이용하여 현재 카테고리 내에 속한 항목들 간의 내비게이팅을 수행할 수도 있음은 물론이다. 상기 도 8에서는 상기 어느 하나의 터치영역 내에서 발생하는 스윕 이벤트에 의해 현재 카테고리 내에 속한 항목들 간의 내비게이팅을 수행하고, 각 터치영역들(140, 150) 간의 변경이 있을 시, 해당 스윕 이벤트의 진행 방향에 따라 이전(previous) 카테고리 또는 다음(next) 카테고리로 전환하는 경우를 예시로 설명하기로 한다.
즉, 사용자는 상기 참조부호 820과 같은 내비게이팅 수행 중에, 상기 스윕 이벤트를 발생하는 어느 하나의 터치영역(예컨대, 터치스크린(110)의 터치영역(140))에서 다른 하나의 터치영역(예컨대, 터치패드(120)의 터치영역(150))으로 전환하여 연속적인 접촉에 의한 스윕 이벤트를 발생할 수 있다. 이러한 예시가 참조부호 830에 나타나 있다.
상기 참조부호 810 내지 참조부호 830에 나타낸 바와 같이, 사용자는 터치스크린(110)의 터치영역(140)에서 시계/반시계 방향의 스윕 이벤트에 의해 현재 카테고리에 속한 메뉴 리스트의 항목들 간 내비게이팅을 수행한다. 이후, 사용자는 상기 터치스크린(110)의 터치영역(140)에서 터치패드(120)의 터치영역(150)으로 시계 방향에 대응하는 연속적인 이동(예컨대, touch and moving)에 의하여 다음(next) 카테고리(7번 항목 내지 12번 항목으로 이루어진 카테고리)에 속한 메뉴 리스트로 전환할 수 있다(820 -> 830). 아울러, 사용자는 상기 터치스크린(110)의 터치영역(140)에서 터치패드(120)의 터치영역(150)으로 반시계 방향에 대응하는 연속적인 이동(예컨대, touch and moving)에 의하여 이전(pre.) 카테고리(1번 항목 내지 6번 항목으로 이루어진 카테고리)에 속한 메뉴 리스트로 전환할 수 있다(830 -> 820).
상기 연속적인 접촉에 의한 카테고리 전환은, 상기 터치패드(120)의 터치영역(150)에서 시작하여 터치스크린(110)의 터치영역(140)으로의 연속적인 이동에 의해 수행할 수도 있음은 물론이다.
한편, 사용자는 상기 참조부호 820 및 참조부호 830에서 이루어지는 스윕 이벤트를 계속하여 발생할 경우, 참조부호 840에 나타낸 바와 같이 다음 카테고리에 대한 전환을 계속하여 수행할 수 있다. 상기 참조부호 840은 터치영역의 변경이 2번 발생하는 경우의 예시를 나타낸다. 즉, 사용자의 제스처 입력이 릴리즈 없이 터치스크린(110)의 터치영역(140) -> 터치패드(120)의 터치영역(150) -> 터치스크린(110)의 터치영역(140)으로 계속하여 입력되는 경우의 예시를 나타낸다.
본 발명의 실시 에에서는 상기 참조부호 820 내지 참조부호 840에 나타낸 바와 같이 이종의 터치영역(140, 150)에서 연속적인 접촉이 계속하여 발생할 시 이를 하나의 제스처 입력으로 인지한다. 따라서 사용자의 스윕 이벤트가 발생하는 터치영역의 변경이 있더라도 이를 하나의 제스처 입력으로 처리함에 따라 이전에 수행하던 제어를 이어서 계속하여 수행할 수 있다.
도 9는 본 발명의 실시 예에 따른 이종의 터치영역 상에서 스윕 이벤트에 의한 휴대단말의 동작을 제어하는 다른 화면 예시를 나타낸 도면이다.
상기 도 9를 참조하면, 상기 도 9는 본 발명의 사용자인터페이스 중, 기어구조의 회전원리에 의한 입출력을 제공하는 사용자인터페이스의 예시를 나타낸다. 즉, 상기 기어구조에 의한 회전은 두 개의 톱니바퀴가 맞물려 각각이 서로 반대 방 향으로 회전하는 구조를 가지며, 상기 도 9에서는 이종의 터치영역(140, 150)에서 발생하는 스윕 이벤트에 따라 표시영역(130)에 제공되는 메뉴 리스트의 항목 간 전환이 상기 기어 구조의 회전원리에 대응하게 제어되는 과정을 나타낸 것이다. 즉, 상기 도 9에서는 이종의 터치영역(140, 150)에서 스윕 이벤트가 발생할 시, 상기 스윕 이벤트의 진행 방향과 반대방향으로 리스트의 항목들 간 이동이 이루어지게 된다.
상기 도 9에서 본 발명의 이종의 터치영역을 이용한 휴대단말의 동작 제어 방안은 전술한 도 7 및 도 8에 대응하는 동작에 의하여 수행될 수 있다. 즉, 참조부호 910 내지 참조부호 930에 나타낸 스윕 이벤트에 의한 휴대단말의 동작 제어는 전술한 도 7 및 도 8에서 대응하는 부분의 설명과 동일한 원리에 의해 수행할 수 있다. 이때, 상기 도 9에서는 상기에서와 같이 이종의 터치영역에서 발생하는 스윕 이벤트의 입력방향과, 상기 스윕 이벤트 입력에 대응하여 내비게이팅되는 화면데이터의 출력방향이 전술한 기어구조의 회전원리에 의해 전환될 수 있다.
한편, 참조부호 940은 상기 참조부호 910과 같은 상태에서 카테고리를 이전 또는 다음으로 전환하는 동작의 예시를 나타낸 것이다.
본 발명에 따르면, 사용자는 상기 참조부호 910 내지 참조부호 930에서 이루어지는 스윕 이벤트를 계속하여 발생할 경우, 다음 카테고리로의 전환에 의한 내비게이팅을 계속하여 수행할 수 있다.
또한, 상기 참조부호 940에 나타낸 바와 같이, 사용자는 각 터치영역들(140, 150) 간의 전환 포인트에서의 제스처를 통해 카테고리 전환을 바로 수행할 수도 있 다. 예를 들면, 터치스크린(110)의 터치영역(140)과 터치패드(120)의 터치영역(150)이 인접하는 어느 하나의 종단 터치영역에서 다른 하나의 종단 터치영역으로 연결되는 짧은 스윕 이벤트를 통해 이전/다음 카테고리로의 전환을 바로 수행할 수 있다. 이때, 상기 도 9에서는 시계 방향으로의 진행을 다음 항목(또는 카테고리) 선택을 위한 명령으로 지정하고, 반시계 방향으로의 진행을 이전 항목(또는 카테고리) 선택을 위한 명령으로 지정된 경우를 가정하지만, 이는 사용자 설정 또는 제조 시 설정되는 정보에 따를 수 있다.
한편, 상기 참조부호 940에서 이종의 터치영역(140, 150) 각각에 표시되는 텍스트(next, pre.)는 설명의 편의를 위해 나타낸 것으로 실제 휴대단말에서는 그 표시가 생략된다. 아울러, 표시영역(130) 및 터치스크린(110)의 터치영역(140)에 회전방향을 지시하는 가상 이미지는 설정 방식에 따라 생략하거나 표시될 수 있다. 또한, 터치패드(120)의 터치영역(150)에 회전방향을 지시하는 가상 이미지는 실제 휴대단말에서는 그 표시가 생략된다. 특히, 상기 터치스크린(110)의 터치영역(140)에서는 GUI를 통해 사용자의 스윕 이벤트 진행 방향에 대응하는 가상 이미지(virtual image)로 표시함으로써, 상기 터치영역(140)에서 입력 기능 및 출력 기능이 이루어지도록 한다.
도 10a 내지 도 10c는 본 발명의 실시 예에 따른 이종의 터치영역 상에서 스윕 이벤트에 의한 휴대단말의 동작을 제어하는 다른 화면 예시를 나타낸 도면들이다.
상기 도 10a 내지 도 10c를 참조하면, 상기 도 10a 내지 도 10c는 휴대단말 에서 실행 중인 어플리케이션 모드 내에서 하나 이상의 값(value)을 조절(가감)하는 경우의 동작 예시를 나타낸 것이다. 특히, 상기 도 10a 내지 도 10c에서는 카메라 기능에 따른 어플리케이션 실행 화면에서 이종의 터치영역(140, 150) 간의 상호 작용에 의해 줌인(zoom in) 또는 줌아웃(zoom out)과 같은 값을 조절하는 동작의 예시들을 나타낸 것이다.
먼저, 상기 도 10a 및 도 10c에 나타낸 바와 같이, 상기 도 10a 및 도 10c는 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150) 상에 제스처(스윕 이벤트) 입력을 통해 실행 어플리케이션 내의 값, 특히 줌인(zoom in)을 조절하는 경우의 예시를 나타낸 것이다. 특히, 상기 도 10a는 줌인 제어를 위한 제스처 입력이 상기 터치스크린(110)의 터치영역(140)에서 시작되는 경우의 예시를 나타낸 것이고, 상기 도 10c는 줌인 제어를 위한 제스처 입력이 상기 터치패드(120)의 터치영역(150)에서 시작되는 경우의 예시를 나타낸 것이다.
다음으로, 상기 도 10b에 나타낸 바와 같이, 상기 도 10b는 터치스크린(110)의 터치영역(140) 및 터치패드(120)의 터치영역(150) 상에 제스처(스윕 이벤트) 입력을 통해 실행 어플리케이션 내의 값, 특히 줌아웃(zoom out)을 조절하는 경우의 예시를 나타낸 것이다. 특히, 상기 도 10b는 줌아웃 제어를 위한 제스처 입력이 상기 터치스크린(110)의 터치영역(140)에서 시작되는 경우의 예시를 나타내지만, 상기 도 10c의 응용에 의하여 상기 줌아웃 제어를 위한 제스처 입력이 상기 터치패드(120)의 터치영역(150)에서 시작될 수도 있음은 물론이다.
한편, 상기 도 10a 내지 도 10c에서는 줌인 및 줌아웃에 따른 해당 동작을 수행하는 경우를 나타내었다. 예를 들면, 사용자는 상기 이종의 터치영역(140, 150)에서 시계 방향에 대응하는 연속적인 이동(예컨대, touch and moving)에 의하여 줌인을 계속적으로 수행할 수 있다. 이와는 반대로, 사용자는 이종의 터치영역(140, 150)에서 반시계 방향에 대응하는 연속적인 이동(예컨대, touch and moving)에 의하여 줌아웃을 계속적으로 수행할 수 있다.
아울러, 상기 도 10a 내지 도 10c에서는 생략되었으나, 사용자는 이종의 터치영역들(140, 150) 중 어느 하나의 터치영역에서 시계 및 반시계 방향으로 반복하는 스윕 이벤트에 의해 줌인 및 줌아웃과 같은 값의 조절을 적응적으로 수행할 수 있음은 물론이다.
한편, 상기 도 10a 내지 도 10c에서는 줌인/줌아웃을 위한 제스처 입력이 각 터치영역의 일측 종단 포인트에서 시작되어 타측 종단 포인트로 이동하여, 순차적으로 값을 가감하는 경우를 나타내었다. 하지만, 본 발명의 이종 터치영역을 이용한 값의 가감 제어는, 반드시 종단 포인트에서 시작되는 것은 아니다.
예를 들면, 상기 도 10a 내지 도 10c에서 줌인/줌아웃의 시작은 사용자 희망에 따른 어느 하나의 터치영역에서 임의의 포인트에서 시작될 수 있으며, 휴대단말은 상기 제스처 입력이 발생하는 해당 포인트에서 시작하여 사용자 제어에 따른 줌인/줌아웃을 처리하게 된다.
또한, 상기 도 10a에서 줌인 제어에 의해 6배 확대된 후 사용자의 제스처 입력이 릴리즈될 수 있다. 이후, 사용자가 상기 6배 확대된 화면에 추가 줌인을 수행하거나 줌아웃을 수행할 수 있는데, 이러한 경우 사용자는 이종의 터치영역 중 희 망하는 터치영역의 임의의 포인트에서 줌인/줌아웃을 위한 제스처 입력을 수행할 수 있다. 따라서 휴대단말은 상기 제스처 입력이 발생하는 해당 포인트에서 시작하여 사용자 제어에 따른 줌인/줌아웃을 처리하게 된다.
한편, 상기 도 10a 내지 도 10c에서는 시계 방향으로의 진행을 줌인을 위한 명령으로 지정하고, 반시계 방향으로의 진행을 줌아웃을 위한 명령으로 지정된 경우를 가정하지만, 이는 사용자 설정 또는 제조 시 설정되는 정보에 따를 수 있다.
또한, 상기 도 10a 내지 도 10c에 나타낸 바와 같은 이종의 터치영역(140, 150)에서의 가감 제어 동작은, 재생 음악파일의 볼륨 조절, 특정 양의 조절 하는 등에도 응용될 수 있음은 자명하다. 즉, 본 발명의 실시 예에 따르면 휴대단말에서 실행 중인 어플리케이션 모드 내에서 하나 이상의 값(value)을 조절(가감)하는 모든 경우에 적용될 수 있다.
상기 도 10a 내지 도 10c에 나타낸 바와 같이, 상기 터치스크린(110)의 터치영역(140)에서는 GUI를 통해 사용자의 스윕 이벤트에 따라 값의 제어 정도를 지시하는 가상 이미지(virtual image)를 표시함으로써, 상기 터치영역(140)에서 입력 기능 및 출력 기능이 이루어지도록 한다. 이때, 상기 터치패드(120)의 터치영역(150)에 표시된 가상 이미지는 설명의 편의를 위해 나타낸 것으로 실제 휴대단말에서는 그 표시가 생략된다.
도 11은 본 발명의 실시 예에 따른 이종의 터치영역에서 탭 이벤트 및 스윕 이벤트에 의한 휴대단말의 동작을 제어하는 화면 예시를 나타낸 도면이다.
상기 도 11을 참조하면, 본 발명에서는 터치스크린(110)의 터치영역(140)과 터치패드(120)의 터치영역(150)에 실행 어플리케이션에 대응하는 탭 포인트를 할당하여 탭 이벤트에 의한 휴대단말의 동작을 제어할 수 있다. 아울러, 상기 이종의 터치영역(140, 150)을 활용하여 스윕 이벤트에 의한 휴대단말의 동작을 제어할 수 있다.
상기 도 11에 나타낸 바와 같이, 상기 도 11은 휴대단말의 제공 기능 중 음악재생 기능에 의한 어플리케이션 실행 화면의 예시를 나타낸 것이다. 상기 도 11에서는 터치스크린(110)의 터치영역(140)에 음악재생과 관련된 기능과 매핑되는 기호(
Figure 112008090328554-PAT00001
,
Figure 112008090328554-PAT00002
,
Figure 112008090328554-PAT00003
,
Figure 112008090328554-PAT00004
,
Figure 112008090328554-PAT00005
,
Figure 112008090328554-PAT00006
)와 같은 가상 아이템이 표시될 수 있다. 사용자는 상기 이종의 터치영역(140, 150)의 각 탭 포인트에 탭 이벤트를 발생함으로써, 각 탭 포인트에 매핑된 가상 아이템에 대응하는 기능을 실행할 수 있다. 여기서, 상기 터치패드(120)의 터치영역(150)에 표시되는 가상 아이템들은 설명의 편의를 위해 나타낸 것으로 실제 휴대단말에서는 그 표시가 생략되며, 터치스크린(110)의 터치영역(140)의 가상 아이템들만 표시될 수 있다.
또한, 사용자는 상기와 같이 탭 포인트에 대한 탭 이벤트를 통해 기능을 실행함과 아울러, 상기 이종의 터치영역(140, 150) 상에 스윕 이벤트를 발생함으로써, 상기 어플리케이션에 대응하여 매핑된 해당 기능을 실행할 수 있다. 예를 들면, 상기 도 11에서는 시계 방향의 스윕 이벤트를 통해 빨리감기(FF, Fast Forward)를 실행하거나, 반시계 방향의 스윕 이벤트를 통해 되감기(REW, Rewind)를 실행할 수 있다.
아울러, 상기 휴대단말의 표시영역(130)에는 상기 실행 어플리케이션에 대응 하는 설정된 화면데이터가 표시될 수 있다. 상기 도 11에서는 음악파일 재생과 관련된 어플리케이션 실행에 따라 그래픽 이퀄라이저(graphic equalizer), 프로그래스바(progress bar), 곡명, 가사 등의 화면데이터들이 표시될 수 있다.
이상에서는 도 1 내지 도 11을 참조하여 본 발명의 실시 예에 따른 터치스크린과 터치패드에 구비되는 이종의 터치영역 간의 상호 작용에 의해 휴대단말의 동작을 제어하는 방법 및 그에 따른 화면 예시들에 대하여 설명하였다. 다음으로 이하에서는 상기 도 1 내지 도 11에서 살펴본 바와 같은 본 발명의 동작을 수행하는 휴대단말에 대하여 살펴보기로 한다. 하지만, 본 발명의 휴대단말이 하기에서 기술하는 내용에 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
본 발명의 휴대단말에 대한 상세한 설명에 앞서, 이하에서는 본 발명의 휴대단말을 이동통신 단말기(mobile communication terminal)로서 설명한다. 하지만, 본 발명이 반드시 이동통신 단말기에만 한정되지는 않는다.
따라서 본 발명의 상기 휴대단말은 다양한 통신 시스템들에 대응되는 통신 프로토콜들(communication protocols)에 의거하여 동작하는 모든 이동통신 단말기를 비롯하여, 터치스크린 및 터치패드가 인접하게 연결되어 구성되는 PMP(Portable Multimedia Player), 디지털방송 플레이어, PDA(Personal Digital Assistant), 휴대게임단말 및 스마트 폰(Smart Phone) 등 모든 정보통신기기와 멀티미디어 기기 및 그에 대한 응용기기를 포함할 수 있다. 그러면, 이하 본 발명의 휴대단말의 개략적인 구조를 하기 도 12를 참조하여 살펴보기로 한다.
도 12는 본 발명의 실시 예에 따른 휴대단말의 구성을 개략적으로 도시한 도면이다. 특히, 상기 도 12에서는 본 발명의 휴대단말이 이동통신 단말기인 경우를 일예로 하여 나타내었으나, 본 발명의 휴대단말이 반드시 이동통신 단말기에 한정되지는 않는다.
상기 도 1 내지 도 12를 참조하면, 본 발명의 실시 예에 따른 휴대단말은 무선통신부(1210)와, 오디오처리부(1220)와, 입력부(1230)와, 터치스크린(110)과, 저장부(1250) 및 제어부(1260) 등을 포함한다. 아울러, 상기 터치스크린(110)은 표시영역(130) 및 터치영역(140)을 포함하고, 상기 입력부(1230)는 터치패드(120)를 포함한다.
상기 무선통신부(1210)는 상기 휴대단말의 통신을 수행한다. 상기 무선통신부(1210)는 지원 가능한 이동통신 네트워크와 설정된 통신채널(communication channel)을 형성하여 음성통신(voice call), 화상통신(video telephony call) 및 데이터통신(data call) 등과 같은 통신을 수행한다. 상기 무선통신부(1210)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신부와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신부 등을 포함할 수 있다. 상기 무선통신부(1210)는 본 발명의 휴대단말의 형태에 따라 생략될 수 있다.
상기 오디오처리부(1220)는 마이크(MIC, Microphone) 및 스피커(SPK, Speaker)와 접속되며, 상기 마이크(MIC)로부터 입력되는 음성신호를 데이터화하여 상기 제어부(1260)로 출력하고, 상기 제어부(1260)로부터 입력되는 음성신호를 상 기 스피커(SPK)를 통해 출력한다. 즉, 상기 오디오처리부(1220)는 상기 마이크(MIC)로부터 입력된 아날로그 음성신호를 디지털 음성신호로 변환하거나, 상기 제어부(1260)로부터 입력된 디지털 음성신호를 아날로그 음성신호로 변환을 처리한다. 상기 오디오처리부(1220)는 상기 휴대단말에서 발생하는 다양한 오디오 성분(예컨대, MP3 파일 재생 등에 따른 오디오신호 등)을 사용자 선택에 따라 재생할 수 있다. 상기 오디오처리부(1220)의 음성신호 처리 기능은 본 발명의 휴대단말의 형태에 따라 생략될 수 있다.
상기 입력부(1230)는 다양한 문자 정보를 입력받고, 각종 기능들의 설정 및 상기 휴대단말의 기능 제어와 관련하여 입력되는 신호를 상기 제어부(1260)로 전달한다. 상기 입력부(1230)는 사용자의 행위에 따른 입력 신호를 발생하고, 이를 위한 키패드(Keypad)와 터치패드(Touch pad)(120) 등과 같은 입력수단을 포함할 수 있다. 본 발명의 실시 예에서 상기 입력부(1230)는 터치패드(120)로 형성되어 사용자의 제스처를 입력받을 수 있다.
상기 터치패드(120)는 사용자와 휴대단말 간의 상호 작용에 의하여 사용자의 입력을 처리하는 물리적 매개체로, 특히 상기 터치패드(120)는 상기 도 1 내지 도 11을 참조한 설명 부분에서 설명한 바와 같은 사용자 제스처를 입력받는 터치영역(150)을 포함한다. 상기 터치패드(120)는 상기 터치영역(150)에서 사용자 제스처 입력을 감지하면, 상기 사용자 제스처 입력을 상기 제어부(1260)로 전달한다. 그러면, 상기 제어부(1260)는 상기 제스처에 대응하여 휴대단말의 동작을 처리한다. 본 발명의 실시 예에서 상기 입력부(1230)는 상기 터치패드(1235)로만 구성될 수 있 다.
상기 터치스크린(110)은 입력 기능과 표시 기능을 동시에 수행하는 입출력 수단으로, 특히 본 발명의 실시 예에서 상기 터치스크린(110)은 상기 표시영역(130)과 상기 터치영역(140)을 포함한다.
상기 표시영역(130)은 상기 휴대단말의 기능 수행 중에 발생하는 화면데이터를 표시하고, 사용자의 키 조작 및 기능 설정 등에 따른 상태 정보를 표시한다. 즉, 상기 표시영역(130)은 상기 휴대단말의 상태 및 동작에 관련된 각종 화면데이터를 표시할 수 있다. 상기 표시영역(130)은 상기 제어부(1260)로부터 출력되는 여러 신호와 색 정보들을 시각적으로 표시한다. 특히, 상기 표시영역(130)은 상기 표시와 더불어, 사용자의 다양한 터치신호를 입력받을 수 있다. 상기 표시영역(140)은 사용자에 의해 발생되는 터치를 감지하고, 감지된 터치에 따른 신호를 생성하여 상기 제어부(1260)로 전달한다.
상기 터치영역(140)은 사용자 제스처를 입력받는다. 특히, 상기 터치영역(140)은 실행 어플리케이션에 따른 기능 제어를 위한 탭 이벤트 및 스윕 이벤트를 입력받는다. 상기 터치영역(140)은 실행 어플리케이션에 대응하게 변경되는 가상 아이템을 GUI로 표시한다. 상기 터치영역(140)은 사용자 제스처가 입력될 시, 상기 사용자 제스처가 발생하는 좌표정보를 상기 제어부(1260)로 전달한다. 즉, 상기 터치영역(140)은 사용자에 의해 발생되는 터치를 감지하고, 감지된 터치에 따른 신호를 생성하여 상기 제어부(1260)로 전달한다.
본 발명의 실시 예에 따르면, 상기 입력부(1230)의 터치패드(120)와 상기 터 치스크린(110)은 인접하게 배열되어, 상기 터치패드(120)의 터치영역(150)과 상기 터치스크린(110)의 터치영역(140)이 서로 이웃하여 연결되는 구조를 가진다.
상기 저장부(1250)는 ROM(Read Only Memory)과 RAM(Random Access Memory) 등으로 구성될 수 있다. 상기 저장부(1250)는 상기 휴대단말에서 생성 및 활용되는 다양한 데이터 등을 저장할 수 있다. 상기 데이터는, 상기 휴대단말의 어플리케이션 실행에 따라 발생하는 데이터 및 상기 휴대단말을 이용하여 생성하거나 외부(기지국, 상대 휴대단말, 퍼스널 컴퓨터 등)로부터 수신하여 저장 가능한 모든 형태의 데이터 등을 포함한다. 특히, 상기 데이터는 상기 휴대단말에서 제공되는 사용자인터페이스, 상기 휴대단말 이용에 따른 여러 설정정보, 실행 어플리케이션마다 설정된 가상 아이템 및 본 발명의 사용자 제스처에 따른 동작 제어를 위한 설정정보 등을 포함할 수 있다.
아울러, 상기 저장부(1250)는 상기 휴대단말의 일반적인 동작을 제어하기 위한 어플리케이션 및 본 발명의 사용자 제스처를 이용한 휴대단말의 동작을 제어하기 위한 어플리케이션 등을 저장할 수 있다. 상기 본 발명의 어플리케이션은 전술한 도 1 내지 도 12에서 설명한 바와 같은 본 발명의 동작에 대응하는 어플리케이션일 수 있다. 이러한 어플리케이션들은 상기 저장부(1250)의 어플리케이션 저장영역(미도시)에 저장할 수 있다. 또한, 상기 저장부(1250)는 전술한 어플리케이션 실행 중에 발생하는 데이터를 일시 저장하는 하나 이상의 버퍼(buffer)를 포함할 수 있다.
상기 제어부(1260)는 상기 휴대단말에 대한 전반적인 제어 기능을 수행하며, 상기 휴대단말 내의 상기 각 블록들 간 신호 흐름을 제어한다. 상기 제어부(1260)는 상기 무선통신부(1210)와, 상기 오디오처리부(1220)와, 상기 입력부(1230)와, 상기 터치스크린(110) 및 상기 저장부(1250) 등과 같은 각 구성 간의 신호 흐름을 제어한다. 특히, 상기 제어부(1260)는 본 발명의 실시 예에서 상기 터치스크린(110)과 상기 터치패드(120)로부터 전달되는 터치신호를 처리한다.
상기 제어부(1260)는 상기 터치스크린(110)의 터치영역(140)과 상기 터치패드(120)의 터치영역(150)에 걸쳐 발생하는 연속적인 입력을 하나의 제스처 입력으로 처리한다.
상기 제어부(1260)는 상기 터치스크린(110) 및 터치패드(120)와 같이 인접하는 다른 터치영역들로부터 연속된 접촉(continuous contact)이 입력될 시, 이를 연속된 하나의 사용자 제스처로 인지하고, 터치영역의 변경이 발생하더라도 이전의 터치영역에 의한 기능 제어를, 변경된 터치영역에 의해 연속되게 제어한다.
아울러, 상기 제어부(1260)는 상기 터치스크린(110)의 터치영역(140) 상에 실행 어플리케이션에 대응하는 가상 아이템의 표시를 제어한다. 상기 제어부(1260)는 이종의 터치영역(140, 150)에서 발생하는 탭 이벤트 및 스윕 이벤트의 상호 작용에 의한 기능 제어를 담당한다.
이상에서와 같은 동작을 제어하는 상기 제어부(1260)는 전술한 도 1 내지 도 12를 참조한 설명 부분에서 설명한 바와 같은 본 발명의 전반적인 동작을 제어할 수 있다. 상기 제어부(1260)의 전술한 기능 제어는 소프트웨어로 구현되어 본 발명의 동작을 처리할 수도 있다.
또한, 상기 제어부(1260)는 상기 휴대단말의 이동통신 서비스를 위한 베이스밴드(Baseband) 모듈을 구비할 수 있다. 또한, 상기 베이스밴드 모듈은 상기 제어부(1260) 및 상기 무선통신부(1210)에 각각 구비되거나, 상기 제어부(1260) 및 상기 무선통신부(1210)와 분리되어 구비될 수 있다.
한편, 상기 도 12에서는 설명의 편의를 위하여 상기 휴대단말의 개략적인 구성 예를 도시하였다. 하지만, 본 발명의 상기 휴대단말이 반드시 상기한 구성에 한정되지는 않는다.
따라서 본 발명의 상기 휴대단말은 상기 도 12에서는 도시하지 않았으나, 그 제공 형태에 따라 피사체 촬영을 통해 그에 따른 영상데이터를 획득할 수 있는 카메라모듈, 디지털 방송을 수신할 수 있는 디지털방송수신모듈, 근거리 통신을 위한 근거리통신모듈 및 인터넷 망과 통신하여 인터넷 기능을 수행하는 인터넷통신모듈 등과 같이 상기에서 언급되지 않은 구성들을 추가적으로 더 포함할 수 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 상기 휴대단말에 추가로 더 포함되어 구성될 수 있다. 또한 본 발명의 상기 휴대단말은 그 제공 형태에 따라 상기한 구성에서 특정 블록들이 제외되거나 다른 블록으로 대체될 수도 있음은 물론이다. 이는 본 기술 분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
도 1은 본 발명의 실시 예에 따른 이종의 터치영역을 구비하는 휴대단말의 예시를 나타낸 도면,
도 2는 본 발명의 실시 예에 따른 이종의 터치영역에서 입력 가능한 터치 입력의 종류를 설명하기 위한 도면,
도 3은 본 발명의 실시 예에 따른 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법을 도시한 도면,
도 4 내지 도 11은 본 발명의 실시 예에 따른 이종의 터치영역을 이용한 휴대단말의 동작을 제어하는 화면 예시를 나타낸 도면들,
도 12는 본 발명의 실시 예에 따른 휴대단말의 구성을 개략적으로 도시한 도면.

Claims (23)

  1. 휴대단말의 입력 시스템에 있어서,
    인접하는 다른 터치영역으로부터 연속된 접촉(continuous contact)을 입력받는 터치영역을 가지는 그래픽 사용자 인터페이스(GUI)와,
    상기 GUI의 터치영역과 인접하여 대칭구조로 연결되며, 상기 GUI의 터치영역으로부터 연속된 접촉을 입력받는 터치영역을 가지는 물리적 사용자 인터페이스(PUI)를 포함하는 것을 특징으로 하는 이종의 터치영역으로 이루어진 휴대단말의 입력 시스템.
  2. 제1항에 있어서,
    상기 연속된 접촉은 상기 GUI의 터치영역과 상기 PUI의 터치영역 중 어느 하나의 터치영역에서 다른 터치영역으로의 영역 전환이 이루어지는 입력인 것을 특징으로 하는 휴대단말의 입력 시스템.
  3. 제2항에 있어서,
    상기 GUI의 터치영역과 상기 PUI의 터치영역은 서로 이웃하게 유기적으로 연결되는 것을 특징으로 하는 휴대단말의 입력 시스템.
  4. 제2항에 있어서,
    상기 GUI의 터치영역과 상기 PUI의 터치영역 중 어느 하나의 터치영역에서 다른 터치영역으로의 영역 전환이 이루어지는 입력을 하나의 제스처 입력으로 처리하는 것을 특징으로 하는 휴대단말의 입력 시스템.
  5. 제4항에 있어서,
    상기 하나의 제스처 입력은 실행 중인 어플리케이션 모드 내 하나 이상의 값(value)의 가감을 제어하는 입력 및 하나 이상의 아이템 간 내비게이팅(navigating)을 제어하는 입력을 포함하는 것을 특징으로 하는 휴대단말의 입력 시스템.
  6. 제5항에 있어서,
    상기 가감을 제어하는 입력 및 상기 내비게이팅을 제어하는 입력에 따른 가상 이미지(virtual image)를 상기 GUI의 터치영역에 표시하는 것을 특징으로 하는 휴대단말의 입력 시스템.
  7. 제1항에 있어서,
    상기 GUI는 터치스크린이고 상기 PUI는 터치패드인 것을 특징으로 하는 휴대단말의 입력 시스템.
  8. 휴대단말에 있어서,
    제1 터치영역을 포함하는 터치패드와,
    상기 터치패드와 인접하게 배열되어, 상기 제1 터치영역과 연결되는 제2 터치영역을 포함하는 터치스크린과,
    상기 터치패드와 상기 터치스크린에 걸쳐 발생하는 연속적인 입력을 하나의 제스처 입력으로 처리하는 제어부를 포함하는 것을 특징으로 하는 휴대단말.
  9. 제8항에 있어서,
    상기 터치패드의 상기 제1 터치영역과 상기 터치스크린의 제2 터치영역은 서로 대칭구조로 연결되는 것을 특징으로 하는 휴대단말.
  10. 제9항에 있어서,
    상기 터치패드의 제1 터치영역과 상기 터치스크린의 제2 터치영역은 연속적인 접촉(continuous contact)이 가능하도록 유기적으로 연결되는 것을 특징으로 하는 휴대단말.
  11. 제10항에 있어서, 상기 연속적인 접촉은,
    상기 제1 터치영역과 상기 제2 터치영역 중 어느 하나의 터치영역에서 다른 터치영역으로의 영역 전환이 이루어지는 입력인 것을 특징으로 하는 휴대단말.
  12. 제11항에 있어서, 상기 제어부는,
    상기 제1 터치영역과 상기 제2 터치영역 상에서의 상기 연속적인 접촉을 하나의 제스처 입력으로 연결하여 인식하는 것을 특징으로 하는 휴대단말.
  13. 제12항에 있어서,
    상기 하나의 제스처 입력은 실행 중인 어플리케이션 모드 내 하나 이상의 값(value)의 가감을 제어하는 입력 및 하나 이상의 아이템 간 내비게이팅(navigating)을 제어하는 입력을 포함하는 것을 특징으로 하는 휴대단말.
  14. 제12항에 있어서, 상기 터치스크린은,
    상기 연속적인 접촉에 따른 값 변화를 상기 제2 터치영역에 가상 이미지(virtual image)로 표시하는 것을 특징으로 하는 휴대단말.
  15. 제12항에 있어서, 상기 제어부는,
    상기 터치패드 및 터치스크린 중 어느 하나의 탭 포인트(tap point)에서 발생하는 입력에 따라, 실행 중인 어플리케이션 모드 내에서 해당 탭 포인트에 할당된 해당 기능 수행을 제어하는 것을 특징으로 하는 휴대단말.
  16. 휴대단말의 동작 제어 방법에 있어서,
    제1 터치영역에 의한 기능 제어 중 제2 터치영역으로 연결되는 연속적인 접촉을 감지하는 과정과,
    상기 제1 터치영역 및 제2 터치영역 간의 상기 연속적인 접촉을 하나의 제스처 입력으로 인지하는 과정과,
    상기 제1 터치영역에 의한 상기 기능 제어를 상기 제2 터치영역에 의해 연속되게 제어하는 과정을 포함하는 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  17. 제16항에 있어서,
    상기 제1 터치영역은 터치패드 및 터치스크린 중 어느 하나에 형성되는 터치영역인 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  18. 제17항에 있어서,
    상기 제2 터치영역은 상기 제1 터치영역과 인접하여 대칭구조로 연결되며, 상기 터치패드 및 터치스크린 중 다른 하나에 형성되는 터치영역인 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  19. 제18항에 있어서, 상기 인지하는 과정은,
    상기 제1 터치영역에서 사용자 제스처에 의한 기능 제어 중 상기 제2 터치영역으로 터치영역 변경을 감지하는 과정과,
    상기 제2 터치영역에서 입력되는 사용자 제스처를 상기 제1 터치영역의 상기 사용자 제스처에 연속된 입력으로 인지하는 과정을 포함하는 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  20. 제19항에 있어서,
    상기 사용자 제스처는 상기 제1 터치영역 및 제2 터치영역 상에서 연속되게 이루어지는 연속적인 접촉인 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  21. 제19항에 있어서,
    상기 사용자 제스처가 상기 제1 터치영역에서 릴리즈(release) 후, 상기 제2 터치영역에서 새로운 사용자 제스처가 발생할 시, 상기 새로운 사용자 제스처를 새로운 입력의 시작으로 인지하는 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  22. 제18항에 있어서, 상기 제어하는 과정은,
    상기 휴대단말에서 실행 중인 어플리케이션 모드 내 하나 이상의 값을 가감하거나, 하나 이상의 아이템 간 내비게이팅에 관련된 제어를 계속하여 제어하는 과정인 것을 특징으로 하는 휴대단말의 동작 제어 방법.
  23. 제17항에 있어서,
    상기 연속적인 접촉에 따른 값 변화를 상기 터치스크린에 형성되는 터치영역에 가상 이미지(virtual image)로 표시하는 과정을 포함하는 것을 특징으로 하는 휴대단말의 동작 제어 방법.
KR1020080136517A 2008-12-30 2008-12-30 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치 KR20100078295A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020080136517A KR20100078295A (ko) 2008-12-30 2008-12-30 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
US12/647,775 US20100164893A1 (en) 2008-12-30 2009-12-28 Apparatus and method for controlling particular operation of electronic device using different touch zones
CN2009801534728A CN102272700A (zh) 2008-12-30 2009-12-29 使用不同触摸区域控制电子装置的特定操作的设备和方法
JP2011544370A JP5705131B2 (ja) 2008-12-30 2009-12-29 異種のタッチ領域を利用した電子機器の動作制御方法及び装置
PCT/KR2009/007851 WO2010077048A2 (en) 2008-12-30 2009-12-29 Apparatus and method for controlling particular operation of electronic device using different touch zones
EP09836369.0A EP2370882A4 (en) 2008-12-30 2009-12-29 DEVICE AND METHOD FOR CONTROLLING SPECIFIC OPERATIONS OF AN ELECTRONIC DEVICE WITH DIFFERENT TOUCH AREAS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080136517A KR20100078295A (ko) 2008-12-30 2008-12-30 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20100078295A true KR20100078295A (ko) 2010-07-08

Family

ID=42284311

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080136517A KR20100078295A (ko) 2008-12-30 2008-12-30 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치

Country Status (6)

Country Link
US (1) US20100164893A1 (ko)
EP (1) EP2370882A4 (ko)
JP (1) JP5705131B2 (ko)
KR (1) KR20100078295A (ko)
CN (1) CN102272700A (ko)
WO (1) WO2010077048A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012087309A1 (en) * 2010-12-22 2012-06-28 Intel Corporation Touch sensor gesture recognition for operation of mobile devices

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100097376A (ko) * 2009-02-26 2010-09-03 삼성전자주식회사 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
CN102934067B (zh) * 2010-04-09 2016-07-13 索尼电脑娱乐公司 信息处理系统、操作输入装置、信息处理装置、信息处理方法
GB2487425A (en) * 2011-01-21 2012-07-25 Inq Entpr Ltd Gesture input on a device a first and second touch sensitive area and a boundary region
US8316319B1 (en) * 2011-05-16 2012-11-20 Google Inc. Efficient selection of characters and commands based on movement-inputs at a user-inerface
CN102298420B (zh) * 2011-09-15 2013-03-20 鸿富锦精密工业(深圳)有限公司 具触摸输入功能的电子装置
JP2013093003A (ja) * 2011-10-26 2013-05-16 Touch Panel Kenkyusho:Kk タッチパネル構造体
CN103116417A (zh) * 2013-01-30 2013-05-22 华为技术有限公司 一种触摸条及移动终端装置
USD755831S1 (en) * 2013-12-26 2016-05-10 Nikon Corporation Display screen with graphical user interface
CN103777869B (zh) * 2014-01-08 2016-10-26 宇龙计算机通信科技(深圳)有限公司 主菜单应用界面切换的方法及其装置
USD760761S1 (en) * 2015-04-07 2016-07-05 Domo, Inc. Display screen or portion thereof with a graphical user interface
US9979890B2 (en) 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
JP5906345B1 (ja) * 2015-08-05 2016-04-20 株式会社Cygames 操作履歴に基づいてタッチ対象を予測するプログラム、電子装置、システム及び制御方法
USD810758S1 (en) * 2016-02-19 2018-02-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
USD876475S1 (en) * 2018-02-22 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
USD955429S1 (en) * 2018-11-02 2022-06-21 Honor Device Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD933700S1 (en) * 2018-11-02 2021-10-19 Honor Device Co., Ltd. Display screen or portion thereof with animated graphical user interface
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304290B2 (ja) * 1997-06-26 2002-07-22 シャープ株式会社 ペン入力装置及びペン入力方法及びペン入力制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US6331840B1 (en) * 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6440197B1 (en) * 1999-07-27 2002-08-27 G.B.D. Corp. Apparatus and method separating particles from a cyclonic fluid flow including an apertured particle separation member within a cyclonic flow region
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2002157086A (ja) * 2000-11-17 2002-05-31 Seiko Epson Corp 入力機能付き表示装置およびそれを備える電子機器ならびに入力機能付き表示装置の製造方法
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
JP2005346583A (ja) * 2004-06-04 2005-12-15 Canon Inc 画像表示装置、マルチディスプレイ・システム、座標情報出力方法及びその制御プログラム
KR101307062B1 (ko) * 2006-04-19 2013-09-11 엘지전자 주식회사 터치패드의 입력 정보 제어방법 및 장치
TWI328185B (en) * 2006-04-19 2010-08-01 Lg Electronics Inc Touch screen device for potable terminal and method of displaying and selecting menus thereon
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
KR101426718B1 (ko) * 2007-02-15 2014-08-05 삼성전자주식회사 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
KR20080084156A (ko) * 2007-03-15 2008-09-19 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법및 장치
US10133317B2 (en) * 2007-04-27 2018-11-20 Hewlett-Packard Development Company, L.P. Computing device with multiple displays

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012087309A1 (en) * 2010-12-22 2012-06-28 Intel Corporation Touch sensor gesture recognition for operation of mobile devices

Also Published As

Publication number Publication date
WO2010077048A2 (en) 2010-07-08
EP2370882A4 (en) 2014-05-07
JP5705131B2 (ja) 2015-04-22
CN102272700A (zh) 2011-12-07
WO2010077048A3 (en) 2010-10-07
US20100164893A1 (en) 2010-07-01
JP2012514268A (ja) 2012-06-21
EP2370882A2 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
KR20100078295A (ko) 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
KR101545875B1 (ko) 멀티미디어 아이템 조작 장치 및 방법
JP5228755B2 (ja) 携帯端末装置、表示制御方法および表示制御プログラム
CN101309311B (zh) 双向滑动式移动通信终端及其提供图形化用户界面的方法
KR101523979B1 (ko) 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법
EP3617861A1 (en) Method of displaying graphic user interface and electronic device
KR101426718B1 (ko) 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
KR101640464B1 (ko) 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
US20100306703A1 (en) Method, device, module, apparatus, and computer program for an input interface
KR20100097376A (ko) 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
US20110087983A1 (en) Mobile communication terminal having touch interface and touch interface method
KR20100134948A (ko) 터치스크린을 구비하는 장치의 메뉴 표시 방법
EP2204721A2 (en) Method and apparatus for navigation between objects in an electronic apparatus
CN101901107A (zh) 能够基于触摸缩放的移动设备及其控制方法
KR20120130404A (ko) 터치스크린을 구비한 휴대 단말기의 화면 편집 방법 및 장치
US20100188351A1 (en) Apparatus and method for playing of multimedia item
JP2014219726A (ja) 表示装置、入力制御方法、及び入力制御プログラム
JP5875510B2 (ja) 電子機器、メニュー表示方法
KR101349309B1 (ko) 이동통신 단말기 및 그 제어방법
JP2019070990A (ja) 表示制御装置
JPH11220523A (ja) 通信端末装置
KR100455145B1 (ko) 이동통신 단말기의 아이콘 선택에 따른 도움말 표시방법
KR101346889B1 (ko) 조이스틱을 갖는 이동통신단말기 및 그 입력 처리방법
KR101214486B1 (ko) 휴대용 단말기 및 그의 영상 이동방법
KR20190113704A (ko) 미디어 기기의 메뉴 제어 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application