KR20140111497A - 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말 - Google Patents

터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말 Download PDF

Info

Publication number
KR20140111497A
KR20140111497A KR1020130025721A KR20130025721A KR20140111497A KR 20140111497 A KR20140111497 A KR 20140111497A KR 1020130025721 A KR1020130025721 A KR 1020130025721A KR 20130025721 A KR20130025721 A KR 20130025721A KR 20140111497 A KR20140111497 A KR 20140111497A
Authority
KR
South Korea
Prior art keywords
item
deletion
condition
touch
drag
Prior art date
Application number
KR1020130025721A
Other languages
English (en)
Inventor
조재민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130025721A priority Critical patent/KR20140111497A/ko
Priority to RU2015143235A priority patent/RU2677591C2/ru
Priority to AU2014230369A priority patent/AU2014230369A1/en
Priority to US14/204,396 priority patent/US20140258901A1/en
Priority to PCT/KR2014/001984 priority patent/WO2014142503A1/en
Priority to CN201480014314.5A priority patent/CN105190514A/zh
Priority to EP14764605.3A priority patent/EP2972733A4/en
Publication of KR20140111497A publication Critical patent/KR20140111497A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 측면에 따른 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법은, 상기 아이템에 대한 상기 터치 스크린 상의 드래그 터치를 인식하는 단계와; 상기 드래그 터치의 패턴이 제1 삭제 조건을 만족하는지의 여부를 판단하는 단계와; 상기 제1 삭제 조건이 만족되면, 상기 터치 스크린 상의 사용자 입력과 관련된 제2 삭제 조건이 만족되는지의 여부를 판단하는 단계와; 상기 제2 삭제 조건이 만족되면, 상기 아이템을 상기 터치 스크린의 화면에서 삭제하는 단계를 포함한다.

Description

터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말{METHOD FOR DELETING ITEM ON TOUCH SCREEN, MACHINE-READABLE STORAGE MEDIUM AND PORTABLE TERMINAL}
본 발명은 터치 스크린에 관한 것으로서, 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법 및 장치에 관한 것이다.
디스플레이 기술이 발전하면서, 디스플레이 장치는 기존의 보여주기만 하는 디스플레이 개념을 뛰어넘어 사용자와 커뮤니케이션이 가능한 양방향 엔터테인먼트 기기로 발전하고 있다. 이에 따라 사용자가 손가락 제스쳐(gesture)나 터치용 펜을 이용하여 디스플레이 장치의 화면을 직접 터치하거나 그에 상응하는 동작을 하면, 해당 입력을 인식하는 디스플레이 장치가 다수 개발되고 있다.
디스플레이 장치의 대표적인 예인 휴대 단말은 사용자 입력을 감지하면서 화면을 표시하는 터치 스크린을 구비할 수 있고, 이러한 터치 스크린의 화면에는 애플리케이션들과 관련된 아이콘들이 표시된다.
종래의 휴대 단말에서 아이템 또는 애플리케이션을 삭제하려면, 환경 설정 메뉴 및 어플리케이션 관리 메뉴를 차례로 실행하고, 어플리케이션 관리 메뉴에서 휴대 단말에 설치된 애플리케이션을 삭제하였다.
또는, 터치 스크린에 표시된 아이콘을 길게 누르고, 추가 동작을 통해 아이콘을 삭제하는 방식도 종래에 개시된 바 있으나,
펜을 사용하는 사용자에게 더욱 더 직관적인 UX(user experience)를 제공할 수 있는 방법과, 사용자의 실수로 인한 애플리케이션의 삭제를 방지할 수 있는 방법이 요구된다.
본 발명의 특정 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.
본 발명의 일 목적은 터치 스크린의 화면에 표시된 아이템을 삭제함에 있어서 펜을 사용하는 사용자에게 더욱 직관적인 UX(user experience)를 제공하고, 사용자의 실수로 인한 애플리케이션의 삭제를 방지할 수 있는 방법을 제공함에 있다.
본 발명의 일 측면에 따른 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법은, 상기 아이템에 대한 상기 터치 스크린 상의 드래그 터치를 인식하는 단계와; 상기 드래그 터치의 패턴이 제1 삭제 조건을 만족하는지의 여부를 판단하는 단계와; 상기 제1 삭제 조건이 만족되면, 상기 터치 스크린 상의 사용자 입력과 관련된 제2 삭제 조건이 만족되는지의 여부를 판단하는 단계와; 상기 제2 삭제 조건이 만족되면, 상기 아이템을 상기 터치 스크린의 화면에서 삭제하는 단계를 포함한다.
본 발명의 다른 측면에 따른 휴대 단말은, 적어도 하나의 아이템을 화면에 표시하는 터치 스크린과; 제1 및 제2 삭제 조건을 저장하기 위한 저장부와; 상기 아이템에 대한 상기 터치 스크린 상의 드래그 터치를 인식하고, 상기 드래그 터치의 패턴이 제1 삭제 조건을 만족하는지의 여부를 판단하고, 상기 제1 삭제 조건이 만족되면, 상기 터치 스크린 상의 사용자 입력과 관련된 제2 삭제 조건이 만족되는지의 여부를 판단하고, 상기 제2 삭제 조건이 만족되면, 상기 아이템을 상기 터치 스크린의 화면에서 삭제하도록 구성된 제어부를 포함한다.
본 발명에 따르면, 사용자는 연필 뒤의 지우개로 글자를 지울 때의 경험을 살려 애플리케이션의 삭제 작업을 직관적으로 수행할 수 있으며, 펜을 사용하는 사용자들에게 직관적이고 재미있는 UX를 제공하며, 아이콘을 길게 누르는 방식에서 문제가 된 의도하지 않은 애플리케이션의 삭제를 방지할 수 있다는 이점이 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 휴대 단말을 나타내는 개략적인 블록도,
도 2는 본 발명의 실시 예에 따른 휴대 단말의 전면 사시도를 나타낸 도면,
도 3은 본 발명의 실시 예에 따른 휴대 단말의 후면 사시도를 나타낸 도면,
도 4는 본 발명의 실시 예에 따른 터치 스크린을 나타낸 도면,
도 5는 본 발명의 바람직한 실시 에에 따른 입력 유닛을 나타낸 도면,
도 6은 본 발명의 바람직한 실시 에에 따른 아이템 삭제 방법을 나타내는 흐름도,
도 7 및 8은 본 발명의 제1 예에 따른 아이템 삭제 방법을 설명하기 위한 도면들,
도 9는 본 발명의 다양한 제1 삭제 조건들을 설명하기 위한 도면,
도 10은 복수의 아이템을 동시에 삭제하는 방법을 설명하기 위한 도면,
도 11은 본 발명의 제2 예에 따른 아이템 삭제 방법을 설명하기 위한 도면,
도 12는 본 발명의 다양한 시각 효과들을 설명하기 위한 도면,
도 13은 본 발명의 제3 예에 따른 아이템 삭제 방법을 설명하기 위한 도면.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에서 단말은 터치 스크린을 구비하는 임의의 장치일 수 있으며, 단말은 휴대 단말, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등으로 칭할 수 있다.
예를 들어, 단말은 스마트폰, 휴대폰, 게임기, TV, 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등일 수 있다. 단말은 무선 통신 기능을 갖는 포켓 사이즈의 휴대용 통신 단말로서 구현될 수 있다. 또한, 단말은 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
이러한 단말의 대표적인 구성은 휴대폰에 대한 것이며, 이러한 단말의 대표적인 구성에서 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 휴대 단말을 나타내는 개략적인 블록도이다.
도 1을 참조하면, 휴대 단말(100)은 통신 모듈(120), 커넥터(165), 및 이어폰 연결잭(167) 중 적어도 하나를 이용하여 외부 전자 장치(도시되지 아니함)와 연결될 수 있다. 이러한, 전자 장치는 상기 휴대 단말(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 네비게이션 장치 등 다양한 장치들 중의 하나를 포함할 수 있다. 또한, 전자 장치는 무선으로 연결 가능한 블루투스 통신 장치, NFC(Near Field Communication) 장치, 와이파이 다이렉트(WiFi Direct) 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 그리고, 휴대 단말(100)은 유선 또는 무선을 이용하여 다른 휴대 단말 또는 전자 장치, 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 데스크탑 PC 및 서버 중의 하나와 연결될 수 있다.
도 1을 참조하면, 휴대 단말(100)은 적어도 하나의 터치 스크린(190) 및 적어도 하나의 터치 스크린 컨트롤러(195)를 포함한다. 또한, 휴대 단말(100)은 제어부(110), 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원 공급부(180)를 포함한다.
통신 모듈(120)은 이동통신 모듈(121), 서브 통신 모듈(130) 및 방송통신 모듈(141)을 포함한다.
서브 통신 모듈(130)은 무선랜 모듈(131) 및 근거리 통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 오디오 재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함한다. 또한, 본 발명의 휴대 단말(100)의 카메라 모듈(150)은 휴대 단말(100)의 주 용도에 따라 제1 및/또는 제2 카메라(151, 152)의 줌 인/줌 아웃을 위한 경통부(155), 상기 경통부(155)의 줌 인/줌 아웃을 위해 경통부(155)의 움직임을 제어하는 모터부(154), 촬영을 위해 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다.
제어부(110)는 CPU(111), 휴대 단말(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 휴대 단말(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 단말(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
또한, 제어부(110)는 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.
제어부(110)는 터치 스크린(190) 상에 복수의 객체 또는 아이템이 표시된 상태에서 입력 유닛(168), 사용자의 손가락 등의 터치 가능한 사용자 입력 수단이 어느 하나의 객체를 터치하거나, 그에 접근하거나, 그에 근접하게 위치함에 따른 사용자 입력을 감지하고, 사용자 입력이 발생한 터치 스크린(190) 상의 위치에 대응하는 객체를 식별한다. 터치 스크린(190)을 통한 사용자 입력은 객체를 직접 터치하는 직접 터치 입력과, 미리 설정된 인식 거리 이내로 객체에 접근하지만 객체를 직접 터치하지 않는 간접 터치 입력인 호버링 입력 중의 하나를 포함한다. 예를 들어, 입력 유닛(168)을 터치 스크린(190)에 가까이 위치시키면, 입력 유닛(168)의 연직 하방에 위치하는 객체가 선택될 수 있다. 본 발명에서 사용자 입력은, 터치 스크린(190)을 통한 사용자 입력 외에, 카메라 모듈(150)을 통한 제스처 입력, 버튼(161) 또는 키패드(166)를 통한 스위치/버튼 입력, 마이크(162)를 통한 음성 입력 등을 포함한다.
객체 또는 아이템(또는 기능 아이템)은 휴대 단말(100)의 터치 스크린(190) 상에 표시되거나, 표시될 수 있는 것으로서, 예를 들어, 애플리케이션, 메뉴, 문서, 위젯, 사진, 동영상, 이메일, SMS 메시지 및 MMS 메시지 중 적어도 하나를 나타내며, 사용자 입력 수단에 의해 선택, 실행, 삭제, 취소, 저장 및 변경될 수 있다. 이러한 아이템은 버튼, 아이콘(또는 단축 아이콘), 썸네일 이미지 또는 휴대 단말에서 적어도 하나의 객체를 저장하고 있는 폴더를 포괄하는 의미로도 사용될 수 있다. 또한, 이러한 아이템은 이미지, 텍스트 등의 형태로 표시될 수 있다.
단축 아이콘은 각각의 애플리케이션 또는 휴대 단말(100)에서 기본적으로 제공되는 통화, 연락처, 메뉴 등의 빠른 실행을 위해 휴대 단말(100)의 터치 스크린(190) 상에 표시되는 이미지로서, 이를 실행하기 위한 명령 또는 선택이 입력되면 해당 애플리케이션을 실행한다.
또한, 제어부(110)는 입력 유닛(168)이 터치 스크린(190)에 접근하거나, 그에 근접하게 위치함에 따른 호버링(Hovering) 이벤트와 같은 사용자 입력 이벤트를 감지할 수 있다.
제어부(110)는 미리 설정된 아이템에 대해, 또는 미리 설정된 방식에 따라 사용자 입력 이벤트가 발생되면, 사용자 입력 이벤트에 대응하는 미리 설정된 프로그램 동작을 수행한다.
제어부(110)는 제어 신호를 입력 유닛(168) 또는 진동 소자(164)로 출력할 수 있다. 이러한 제어 신호는 진동 패턴에 대한 정보를 포함할 수 있으며, 입력 유닛(168) 또는 진동 소자(164)는 이러한 진동 패턴에 따른 진동을 생성한다. 이러한 진동 패턴에 대한 정보는 진동 패턴 자체, 진동 패턴의 식별자 등을 나타낼 수 있다. 또는, 이러한 제어 신호는 단순히 진동 생성의 요청만을 포함할 수도 있다.
휴대 단말(100)은 성능에 따라 이동 통신 모듈(121), 무선랜 모듈(131), 및 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
이동 통신 모듈(121)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 휴대 단말(100)이 외부 전자 장치와 연결되도록 할 수 있다. 이동 통신 모듈(121)은 휴대 단말(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC 또는 다른 전자 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브 통신 모듈(130)은 무선랜 모듈(131)과 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리 통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리 통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리 통신 모듈(132)은 제어부(110)의 제어에 따라 휴대 단말(100)과 외부 전자 장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
이러한, 서브 통신 모듈(130)을 통해서 제어부(110)는 햅틱 패턴에 따른 제어 신호를 입력 유닛(168)으로 전송할 수 있다.
방송 통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.
멀티미디어 모듈(140)은 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)을 포함할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장부(175)에 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다.
멀티미디어 모듈(140)은 제어부(110)에 통합될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈(150)은 피사체를 촬영하기 위해 줌 인/줌 아웃을 수행하는 경통부(155), 상기 경통부(155)의 움직임을 제어하는 모터부(154), 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다. 제1 카메라(151)는 상기 휴대 단말(100) 전면에 배치되고, 제2 카메라(152)는 상기 휴대 단말(100)의 후면에 배치될 수 있다. 달리 취한 방식으로, 제1 카메라(151)와 제2 카메라(152)는 상기 휴대 단말(100)의 전면 및 후면 중 어느 한 면에 인접(예를 들어, 제1 카메라(151)와 제2 카메라(152)의 간격이 1cm 보다 크고, 8cm 보다는 작은)하게 배치되어 3차원 정지 이미지 또는 3차원 동영상을 촬영할 수도 있다.
또한, 제1 및 제2 카메라(151, 152)는 각각 렌즈계, 이미지 센서 등을 포함할 수 있다. 제1 및 제2 카메라(151, 152)는 각각 렌즈계를 통해 입력되는(또는 촬영되는) 광신호를 전기적인 이미지 신호로 변환하여 제어부(110)로 출력하고, 사용자는 이러한 제1 및 제2 카메라(151, 152)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다.
입/출력 모듈(160)은 적어도 하나의 버튼(161), 적어도 하나의 마이크(162), 적어도 하나의 스피커(163), 적어도 하나의 진동 소자(164), 커넥터(165), 키패드(166), 이어폰 연결잭(167) 및 입력 유닛(168) 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈(160)은 이에 국한되지 않으며, 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 터치 스크린(190) 상의 커서의 움직임을 제어하기 위해 제공될 수 있다.
버튼(161)은 상기 휴대 단말(100)의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 소리를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 다양한 신호 또는 데이터(예를 들어, 무선 데이터, 방송 데이터, 디지털 오디오 데이터, 디지털 동영상 데이터 등)에 대응되는 소리를 휴대 단말(100)의 외부로 출력할 수 있다. 스피커(163)는 휴대 단말(100)이 수행하는 기능에 대응되는 소리(예를 들어, 전화 통화에 대응되는 버튼 조작음, 통화 연결음, 상대방 사용자의 음성 등)를 출력할 수 있다. 스피커(163)는 상기 휴대 단말(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 소자(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 단말(100)은 다른 장치(도시되지 아니함)로부터 음성 또는 화상 통화가 수신되는 경우, 진동 소자(164)가 동작한다. 진동 소자(164)는 상기 휴대 단말(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 소자(164)는 터치 스크린(190)을 통한 사용자 입력에 대응하여 동작할 수 있다.
커넥터(165)는 상기 휴대 단말(100)과 외부 전자 장치 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)는 커넥터(165)에 연결된 유선 케이블을 통해 휴대 단말(100)의 저장부(175)에 저장된 데이터를 외부 전자 장치로 전송하거나 외부 전자 장치로부터 데이터를 수신할 수 있다. 휴대 단말(100)은 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스로부터 전력을 수신하거나, 전원 소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 휴대 단말(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 단말(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치 스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 휴대 단말(100)에 형성되는 물리적인 키패드는 휴대 단말(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰(도시되지 아니함)은 이어폰 연결잭(Earphone Connecting Jack, 167)에 삽입되어 상기 휴대 단말(100)에 연결될 수 있다.
입력 유닛(168)은 휴대 단말(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 휴대 단말(100)로부터 인출 또는 분리될 수 있다. 이러한, 입력 유닛(168)이 삽입되는 휴대 단말(100) 내부의 일 영역에는 상기 입력 유닛(168)의 장착 및 탈착에 대응하여 동작하는 탈/부착 인식 스위치(169)가 구비되어 있고, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착 및 분리에 대응하는 신호를 제어부(110)로 출력할 수 있다. 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)의 장착시 직·간접적으로 접촉되도록 구성될 수 있다. 이에 따라, 탈/부착 인식 스위치(169)는 상기 입력 유닛(168)과의 접촉 여부에 기초하여, 상기 입력 유닛(168)의 장착 또는 분리에 대응하는 신호(즉, 입력 유닛(168)의 장착 또는 분리를 통지하는 신호)를 생성하여 제어부(110)로 출력한다.
센서 모듈(170)은 휴대 단말(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 휴대 단말(100)에 대한 접근 여부를 검출하는 근접 센서, 휴대 단말(100) 주변의 빛의 양을 검출하는 조도 센서(도시되지 아니함), 또는 휴대 단말(100)의 동작(예를 들어, 휴대 단말(100)의 회전, 휴대 단말(100)의 가속 또는 진동)을 검출하는 모션 센서(도시되지 아니함), 휴대 단말의 회전 운동을 검출하는 자이로스코프, 휴대 단말의 가속 운동을 검출하는 가속도계, 지구 자기장을 이용해 휴대 단말(100)의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter), GPS 모듈(157) 등의 적어도 하나의 센서를 포함할 수 있다.
GPS 모듈(157)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)으로부터 전파를 수신하고, GPS 위성으로부터 휴대 단말(100)까지의 전파 도달 시간(Time of Arrival)을 이용하여 휴대 단말(100)의 위치를 산출할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 통신 모듈(120), 멀티미디어 모듈(140), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170) 또는 터치 스크린(190)의 동작에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 단말(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 휴대 단말(100)에 장착되는 메모리 카드(예를 들어, SD 카드, 메모리 스틱) 등의 임의의 데이터 저장 장치를 지칭하는 용어로 사용된다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
또한, 저장부(175)는 네비게이션, 화상 통화, 게임, 사용자에게 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 휴대 단말(100)을 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라 모듈(150)에 의해 촬영된 이미지들 등을 저장할 수 있다. 저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM) 중의 적어도 하나를 포함한다.
전원 공급부(180)는 제어부(110)의 제어에 따라 휴대 단말(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전력을 공급할 수 있다. 하나 또는 복수의 배터리는 휴대 단말(100)에 전력을 공급한다. 또한, 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스로부터 입력되는 전원을 휴대 단말(100)로 공급할 수 있다. 또한, 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 휴대 단말(100)로 공급할 수도 있다.
그리고, 휴대 단말(100)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린(190)을 포함할 수 있다.
터치 스크린(190)은 사용자 그래픽 인터페이스에 입력되는 적어도 하나의 사용자 입력에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 유닛(168)(예를 들어, 스타일러스 펜, 전자 펜)을 통해 적어도 하나의 사용자 입력을 수신할 수 있다.
터치 스크린(190)은 하나의 터치의 연속적인 움직임(즉, 드래그 입력)을 수신할 수도 있다. 터치 스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
본 발명에서 터치는 터치 스크린(190)과 손가락 또는 입력 유닛(168)과의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 스크린(190)과의 직접 접촉 없이 사용자 입력 수단을 검출할 수 있는 인식 거리(예를 들어, 1cm) 이내에 사용자 입력 수단이 위치하는 경우)을 포함할 수 있다. 터치 스크린(190)에서 사용자 입력 수단을 인식할 수 있는 거리 또는 간격은 휴대 단말(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 터치 스크린(190)은 사용자 입력 수단과의 접촉에 의한 직접 터치 이벤트와, 간접 터치 이벤트(즉, 호버링 이벤트)를 구분하여 검출 가능하도록, 상기 직접 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 아날로그 값으로 전압 값 또는 전류 값을 포함)이 다르게 출력될 수 있도록 구성될 수 있다.
이러한, 터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 또는 이들의 조합으로 구현될 수 있다.
또한, 터치 스크린(190)은 손가락 및 입력 유닛(168)에 의한 입력을 각각 입력 받을 수 있도록, 손가락 및 입력 유닛(168)의 터치나 접근을 각각 감지할 수 있는 적어도 두 개의 터치 패널을 포함할 수 있다. 적어도 두 개의 터치 패널은 서로 다른 출력 값을 터치 스크린 컨트롤러(195)에 제공하고, 터치 스크린 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치 스크린(190)으로부터의 입력이 손가락에 의한 입력인지, 입력 유닛(168)에 의한 입력인지를 구분할 수 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)으로부터 입력된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)로부터 수신한 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 직접 터치 이벤트 또는 호버링 이벤트에 응답하여 터치 스크린(190)에 표시된 단축 아이콘(도시되지 아니함) 또는 객체가 선택 또는 실행되도록 할 수 있다. 또한, 터치 스크린 컨트롤러(195)는 제어부(110)에 통합될 수도 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 위치뿐만 아니라 호버링 간격 또는 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수도 있다. 또한, 터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 수단이 터치 스크린(190)을 누르는 압력을 검출할 수 있고, 확인된 압력 값을 디지털 신호로 변환하여 제어부(110)로 제공할 수도 있다.
도 2는 본 발명의 실시 예에 따른 휴대 단말의 전면 사시도를 나타낸 도면이고, 도 3은 본 발명의 실시 예에 따른 휴대 단말의 후면 사시도를 나타낸 도면이다.
도 2 및 도 3을 참조하면, 휴대 단말(100)의 전면(101) 중앙에는 터치 스크린(190)이 배치된다. 터치 스크린(190)은 휴대 단말(100)의 전면(101)의 대부분을 차지하도록 크게 형성될 수 있다. 도 2에서는, 상기 터치 스크린(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 휴대 단말(100)의 전원을 켰을 때 터치 스크린(190) 상에 표시되는 첫 화면이다. 또한, 휴대 단말(100)이 여러 페이지의 서로 다른 홈 화면들을 가질 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 애플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인 메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 사용자가 메인 메뉴 전환키(191-4)를 선택하면, 상기 터치 스크린(190)에 메뉴 화면이 표시된다. 또한, 상기 터치 스크린(190)의 상단에는 배터리 충전 상태, 수신 신호의 세기, 현재 시각과 같은 휴대 단말(100)의 상태를 표시하는 상태 바(Status Bar, 192)가 형성될 수도 있다.
상기 터치 스크린(190)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)이 형성될 수 있다.
홈 버튼(161a)은 터치 스크린(190)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 터치 스크린(190)에 상기 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴 화면이 표시된 상태에서, 상기 홈 버튼(161a)이 선택되면, 터치 스크린(190)에 메인 홈 화면이 표시될 수 있다. 또한, 터치 스크린(190) 상에서 애플리케이션들이 실행되는 도중 홈 버튼(161a)이 선택되면, 상기 터치 스크린(190) 상에는 도 2에 도시된 메인 홈 화면이 디스플레이될 수 있다. 또한 홈 버튼(161a)은 상기 터치 스크린(190) 상에 최근에(recently) 사용된 애플리케이션들을 표시하도록 하거나, 태스크 매니저(Task Manager)를 표시하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 터치 스크린(190) 상에 표시될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나, 가장 최근에 사용된 애플리케이션을 종료시키는 경우에 사용될 수 있다.
휴대 단말(100)의 전면(101)의 가장자리에는 제1 카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 휴대 단말(100)의 후면(103)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
휴대 단말(100)의 측면(102)에는 예를 들어 전원/잠금 버튼(161d), 볼륨 증가 버튼(161f) 및 볼륨 감소 버튼(161g)을 갖는 볼륨 버튼(161e), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. 상기 DMB 안테나(141a)는 휴대 단말(100)에 고정되거나, 착탈 가능하게 형성될 수도 있다.
또한, 휴대 단말(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 휴대 단말(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
또한, 휴대 단말(100)의 하단 측면에는 입력 유닛(168)이 장착될 수 있다. 입력 유닛(168)은 휴대 단말(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 휴대 단말(100)로부터 인출 및 분리될 수 있다.
도 4는 본 발명의 실시 예에 따른 터치 스크린을 나타낸 도면이다.
도 4에 도시된 바와 같이, 터치 스크린(190)은 위에서부터 아래로 손가락 입력을 감지하기 위한 제1 터치 패널(240), 화면 표시를 위한 표시 패널(250), 펜 입력을 감지하기 위한 제2 터치 패널(260)이 서로 밀착되거나 일부 이격 되어 차례로 적층된 구성을 갖는다. 이때, 제1 터치 패널(240)은 표시 패널(250)의 아래에 배치될 수도 있다.
표시 패널(250)은 다수의 픽셀들(pixels)을 구비하고, 상기 픽셀들을 통해 영상을 표시한다. 상기 표시 패널(250)로는 액정표시장치(Liquid Crystal Display: LCD), 유기발광다이오드(Organic Light Emitting Diodes: OLED), LED 등을 사용할 수 있다. 표시 패널(250)은 휴대 단말(100)의 각종 동작 상태, 애플리케이션 또는 서비스 실행 등에 따른 다양한 영상과, 복수의 객체들을 표시한다.
제1 터치 패널(240)은 휴대 단말(100)의 전면에 노출되는 윈도우와, 손가락 입력의 정보(위치, 세기 등)를 파악하기 위해 윈도우의 하면에 적층된 센서 층을 포함할 수 있다. 센서 층은 상기 윈도우의 표면에 손가락이 접촉하면 그 위치를 파악하기 위한 센서를 구성하며, 이를 위하여 센서 층은 기설정된 패턴들을 갖는다. 상기 센서 층은 선형 격자형 패턴, 다이아몬드 패턴 등 다양한 패턴을 가질 수 있다. 센서 기능을 수행하기 위해, 센서 층에는 기설정된 파형의 스캔 신호가 인가되고, 손가락이 상기 윈도우의 표면에 접촉하면, 센서 층과 손가락 사이의 정전용량에 기인하여 파형이 변경된 감지 신호가 발생하고, 제어부(110)는 이러한 감지 신호를 분석하여 손가락의 접촉 여부 및 접촉 위치를 파악하게 된다.
다른 예로서, 제1 터치 패널(240)은 윈도우의 양면에 얇은 금속 전도성 물질(예를 들면, ITO(Indium Tin Oxide:산화 인듐주석) 막 등)을 코팅하여 윈도우 표면에 전류가 흐르도록 하고 전하를 저장할 수 있는 유전체로 코팅된 패널일 수 있다. 제1 터치 패널(240)의 표면에 손가락이 터치되면 정전기에 의해 일정량의 전하가 터치된 위치로 이동하고, 제1 터치 패널(240)은 전하의 이동에 따른 전류의 변화량을 인식해서 터치된 위치를 감지하게 된다.
제1 터치 패널(240)을 통해서는 정전기를 발생시킬 수 있는 모든 터치의 감지가 가능하다.
제2 터치 패널(260)은 EMR(Electromagnetic Resonance) 방식의 터치 패널로서, 복수의 루프 코일이 서로 교차하는 그리드 구조를 가지는 전자 유도 코일 센서와, 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부를 포함할 수 있다. 이러한 제2 터치 패널(260)의 루프 코일 근방에 공진 회로를 내장하는 입력 유닛(168)이 존재하면, 루프 코일로부터 송신되는 신호가 입력 유닛(168) 내의 공진 회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이러한 전류를 기초로 하여, 입력 유닛(168) 내의 공진 회로는 유도 신호를 생성 및 출력하고, 제2 터치 패널(260)은 유도 신호를 루프 코일을 이용하여 검출함으로써 입력 유닛(168)의 입력 위치(즉, 호버링(Hovering) 입력 위치 또는 직접 터치 위치)한다. 또한, 제2 터치 패널(260)은 유도 신호의 세기에 근거하여 터치 스크린(190)의 표면으로부터 입력 유닛(168)의 펜촉(230)까지의 높이(h)를 감지할 수도 있다. 또한, 입력 유닛(168)으로부터 출력되는 유도 신호는 입력 유닛(168)의 펜촉(230)이 터치 스크린(190)의 표면을 누르는 압력에 따라 그 주파수가 달라질 수 있으며, 이러한 주파수에 근거하여 입력 유닛(168)의 압력(즉, 펜 압)을 감지할 수도 있다. 이와 마찬가지로, 제2 터치 패널(260)은 유도 신호의 세기에 근거하여 터치 스크린(190)의 표면으로부터 입력 유닛(168)의 지우개(210)까지의 높이를 감지할 수도 있다. 또한, 입력 유닛(168)으로부터 출력되는 유도 신호는 입력 유닛(168)의 지우개(210)가 터치 스크린(190)의 표면을 누르는 압력에 따라 그 주파수가 달라질 수 있으며, 이러한 주파수에 근거하여 입력 유닛(168)의 압력(즉, 지우개 압)을 감지할 수도 있다.
제2 터치 패널(260)을 통해서는 전자기 유도에 기초한 전류를 발생시킬 수 있는 입력 수단의 감지가 가능하다.
도 5는 본 발명의 바람직한 실시 에에 따른 입력 유닛을 나타낸 도면이다.
도 5를 참조하면, 본 발명의 실시 예에 따른 입력 유닛(예: 터치용 펜)은 펜대, 펜촉(230), 제1 코일(310), 지우개(210), 제2 코일(315), 버튼(220), 진동 소자(320), 제어부(330), 근거리 통신부(340), 배터리(350) 및 스피커(360)를 포함하여 구성될 수 있다.
펜촉(230)은 펜대의 일단에 배치되고, 제1 코일(310)은 펜촉(230)에 인접된 영역의 펜대 내부에 배치되고 펜 입력에 따른 제1 유도 신호를 출력한다.
지우개(210)는 펜대의 타단에 배치되고, 제2 코일(315)은 지우개(210)에 인접된 영역의 펜대 내부에 배치되고 지우개 입력에 따른 제2 유도 신호를 출력한다.
버튼(220)은 사용자의 작동(즉, 버튼 누름)에 따라 제1 코일 (310)에 의해 발생하는 전자기 유도 값을 변경할 수 있다.
제어부(330)는 휴대 단말(100)로부터 수신되는 제어 신호를 분석하고, 이에 따른 진동 소자(320)의 진동 세기, 진동 주기를 제어한다.
근거리 통신부(340)는 휴대 단말(100)과 근거리 통신을 수행하고, 배터리(350)는 입력 유닛(168)의 진동을 위한 전원을 공급한다.
스피커(360)는 입력 유닛(168)의 진동 주기 및/또는 진동 세기에 대응하는 소리를 출력한다.
스피커(360)는 제어부(330)의 제어에 따라 휴대 단말(100)에 구비된 이동통신 모듈(120), 서브통신 모듈(130) 또는 멀티미디어 모듈(140)로부터 다양한 신호(예: 무선신호, 방송신호, 디지털 오디오 파일, 또는 디지털 동영상 파일 등)에 대응되는 사운드를 출력할 수 있다. 또한, 스피커(360)는 휴대 단말(100)이 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있으며, 상기 입력 유닛(168)의 하우징의 적절한 위치에 하나 또는 복수로 형성될 수 있다.
제어부(530)는 펜 촉(230) 또는 지우개(210)가 터치 스크린(190) 상에 접촉하거나 호버링이 감지될 수 있는 위치(예를 들어, 3cm 이내)에 놓이게 되면, 근거리 통신부(340)를 통해 휴대 단말(100)로부터 수신된 적어도 하나의 제어 신호를 분석하고, 분석된 제어 신호에 따라 입력 유닛(168)에 구비된 진동 소자(320)의 진동 주기, 진동 세기 등을 제어할 수 있다. 상기 근거리 통신부(340) 및 진동 소자(320)는 제어 신호를 수신하기 전에 활성화되어 있다. 그리고, 제어 신호는 휴대 단말(100)이 송신한 신호이며, 미리 정해진 주기(예: 5ms) 마다 반복적으로 입력 유닛(168)으로 전송될 수 있다. 즉, 휴대 단말(100)은 펜 촉(230) 또는 지우개가 터치 스크린(190)에 접촉하면, 펜 촉(230) 또는 지우개(210)가 가리키는 터치 스크린(190)상의 터치 또는 호버링 위치를 파악하고, 이러한 펜 입력 또는 지우개 입력에 대응하는 프로그램 동작을 수행한다. 이때, 제1 코일(310)이 출력하는 제1 유도 신호의 주파수, 데이터 패턴 등은 제2 코일(315)이 출력하는 제2 유도 신호의 주파수, 데이터 패턴 등과 다르고, 제어부(330)는 이러한 차이에 근거하여 펜 입력 및 지우개 입력을 구분하여 인식할 수 있다.
이와 같은 구성을 가지는 입력 유닛(168)은 정전유도 방식을 지원하는 구성이다. 그리고, 코일(310, 315)에 의하여 터치 스크린(190)의 일정 지점에 자기장이 형성되면, 터치 스크린(190)은 해당 자기장 위치를 검출하여 터치 지점을 인식할 수 있도록 구성된다. 휴대 단말(100)은 펜 촉(230) 또는 지우개(210)가 터치 스크린(190)에 인접하거나 터치하여 사용자 입력 이벤트가 발생하면, 사용자 입력 위치에 대응하는 객체를 식별하고, 식별된 객체에 설정된 햅틱 패턴을 나타내는 제어 신호를 입력 유닛(168)으로 전송할 수 있다
본 발명은 지우개 입력에 따라 휴대 단말(100)이 제공하는 다양한 아이템들 중에서 사용자가 선택한 아이템을 삭제하는 방법을 제공한다.
아이템 삭제 명령은 지우개(210)에 의한 선택, 지우개(210)에 의한 미리 설정된 터치 패턴의 입력에 의해 구현될 수 있다.
본 발명에서 아이템의 삭제는 화면에 표시된 아이템의 삭제를 의미하고, 이에 더하여 저장부에 저장된 아이템 관련 데이터(즉, 휴대 단말에 설치되어 있는 애플리케이션 및 애플리케이션 관련 설정)의 삭제를 의미할 수 있다.
또한, 본 발명은 아이템 삭제, 삭제 취소, 복구를 사용자가 직관적으로, 용이하게 실행할 수 있도록 하는 방법을 제공한다.
제어부(110)는 휴대 단말(100)의 전반적인 동작을 제어하며, 제어부(110)는 휴대 단말(100) 내 다른 구성 소자들을 제어하여 아이템 삭제 방법을 수행한다.
도 6은 본 발명의 바람직한 실시 에에 따른 아이템 삭제 방법을 나타내는 흐름도이다.
본 발명의 삭제 대상은 전술한 임의의 아이템일 수 있다.
S110 단계는 지우개 터치를 확인하는 단계로서, 제어부(110)는 터치 스크린(190)에 표시된 아이템에 대한 사용자 터치를 인식하고, 이러한 사용자 터치가 지우개 터치인지, 아니면 비지우개 터치(즉, 펜촉 터치 또는 손가락 터치)인지를 판단한다. 제어부(110)는 지우개 터치인 경우에 S120 단계를 수행하고, 지우개 터치가 아닌 경우에 S115 단계를 수행한다.
S115 단계는 비지우개 터치를 처리하는 단계로서, 제어부(110)는 비지우개 터치의 위치, 터치 종류(예를 들어, 싱글 터치(또는 클릭, 탭), 더블 터치, 다지점 터치, 드래그 터치, 호버링 등), 터치 패턴 등에 따라 아이템의 선택, 실행, 저장, 변경 등을 수행한다.
S120 단계는 지우개 터치가 드래그 터치인지의 여부를 확인하는 단계로서, 제어부(110)는 지우개 터치가 드래그 터치인지, 아니면 비드래그 터치(즉, 싱글 터치, 더블 터치, 다지점 터치 또는 호버링)인지를 판단한다. 사용자는 터치 스크린(190)에 접촉한 상태로 지우개(210)를 이동시킴으로써 드래그 터치를 수행할 수 있다. 본 발명에서 드래그 터치의 종료는 지우개(210)의 이동을 미리 설정된 시간 동안 멈추거나 지우개를 터치 스크린(190)으로부터 이격하는 경우를 말한다. 제어부(110)는 드래그 터치인 경우에 S130 단계를 수행하고, 드래그 터치가 아닌 경우에 S125 단계를 수행한다. 제어부(110)는 지우개(210)의 드래그 궤적을 인식하고, 터치 위치를 계속적으로 저장하면서 드래그 터치의 종료 여부를 계속적으로 판단한다. 즉, 제어부(110)는 지우개(210)의 드래그 동안에 터치 위치를 계속적으로 추적하면서 터치 위치 또는 좌표를 저장하고, 드래그 터치의 종료 여부를 계속적으로 판단한다.
S125 단계는 비드래그 터치를 처리하는 단계로서, 제어부(110)는 비드래그 터치의 위치, 비드래그 터치의, 터치 패턴 등에 따라 아이템의 선택, 실행, 저장, 변경 등을 수행한다.
S130 단계는 드래그 패턴이 미리 설정된 제1 삭제 조건을 만족하는지의 여부를 확인하는 단계로서, 제어부(110)는 드래그 터치의 패턴이 저장부(175)에 미리 저장된 제1 삭제 조건을 만족하는지의 여부를 판단한다. 이러한 제1 삭제 조건은 드래그 패턴을 나타내는 드래그 궤적이 아이템에 포함되거나 이를 지나야 한다는 조건(즉, 드래그 궤적이 아이템과 적어도 일부 오버랩되어야 한다는 조건), 드래그 궤적이 아이템을 둘러싸야 한다는 조건, 드래그 궤적이 미리 설정된 수 이상의 변곡점을 가져야 한다는 조건, 드래그 궤적이 미리 설정된 수 이상의 교차점을 가져야 한다는 조건, 지우개(210)가 아이템을 미리 설정된 비율 이상으로 지워야 한다는 조건 중의 적어도 하나를 포함한다. 제어부(110)는 드래그 패턴이 제1 삭제 조건을 만족하는 경우에 S140 단계를 수행하고, 드래그 패턴이 제1 삭제 조건을 만족하지 않는 경우에 S110 단계로 복귀한다. 드래그 궤적이 아이템에 포함되거나, 이를 지나거나, 이를 둘러싸야 한다는 표현에서, 아이템은 터치 스크린(190)의 표면 또는 화면의 아이템 표시 영역으로 표현할 수도 있다.
S140 단계는 미리 설정된 제2 삭제 조건이 만족되는지의 여부를 확인하는 단계로서, 제어부(110)는 저장부(175)에 미리 저장된 제2 삭제 조건을 만족하는지의 여부를 판단한다. 이러한 제2 삭제 조건은 드래그 종료 이후의 추가적인 사용자 입력(예를 들어, 입력 유닛(168)의 터치)과 관련된다.
이러한 제2 삭제 조건은 드래그 종료 이후 미리 설정된 시간 동안 사용자의 복구(또는 삭제 취소) 명령이 없어야 한다는 조건, 드래그 종료 이후 사용자가 삭제를 승인하여야 한다는 조건 중의 적어도 하나를 포함한다. 드래그 종료 이후 미리 설정된 시간 동안 사용자의 복구(또는 삭제 취소) 명령이 없어야 한다는 조건은, 드래그 종료 이후 타이머의 만료 시간 이내에 사용자가 터치 스크린(190) 또는 아이템을 터치하여야 한다는 조건, 또는 드래그 종료 이후에도 타이머의 만료 시간 동안 사용자가 터치 스크린(190) 또는 아이템의 터치를 유지하여야 한다는 조건 중의 하나를 포함한다.
제어부(110)는 사용자 입력이 제2 삭제 조건을 만족하는 경우에 S150 단계를 수행하고, 사용자 입력이 제2 삭제 조건을 만족하지 않는 경우에 S110 단계로 복귀한다.
S150 단계는 아이템을 삭제하는 단계로서, 제어부(110)는 터치 스크린(190)에 표시된 아이템을 삭제한다. 또한, 제어부(110)는 저장부(175)에 저장된 아이템 관련 데이터를 전부 또는 일부 삭제할 수 있다. 또는, 제어부(110)는 아이템을 휴지통 폴더로 이동하고, 이후 사용자의 휴지통 비우기 명령에 따라 아이템을 저장부(175)에서 완전히 삭제하거나, 사용자의 휴지통 복원 명령에 따라 아이템을 다시 터치 스크린(190)에 표시할 수도 있다.
도 7 및 8은 본 발명의 제1 예에 따른 아이템 삭제 방법을 설명하기 위한 도면들이다.
도 7의 (a)를 참고하면, 휴대 단말(101)의 터치 스크린(190)의 홈 화면(410)에는 뮤직 애플리케이션을 나타내는 뮤직 아이템(424)과, 갤러리 애플리케이션을 나타내는 갤러리 아이템(422)과, 채팅 애플리케이션을 나타내는 채팅 아이템(420)이 표시되어 있다. 사용자는 입력 유닛(168) 또는 손가락으로 채팅 아이템을 터치(즉, 클릭, 탭)함으로써, 채팅 아이템과 연관된(또는 맵핑된) 채팅 애플리케이션을 실행시킬 수 있다.
도 7의 (b)를 참고하면, 사용자는 채팅 아이템을 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 채팅 아이템에 지그재그 형태의 드래그 터치(430)를 수행한다.
도 8의 (a)는 채팅 아이템(420)을 확대하여 나타내고, 채팅 아이템(420) 위에 점선으로 드래그 터치의 패턴(430)(즉, 드래그 궤적)이 표시되어 있다. 드래그 패턴 (430)은 4개의 변곡점들(435)을 갖는다. 이러한 변곡점(435)은 사용자가 일방향으로 드래그를 하다가 일방향과 반대되는 타방향으로 드래그를 한 경우에 발생한다. 제어부(110)는 드래그 패턴(430)의 변곡점들(435)의 수(본 예에서 4)를 미리 설정된 임계값(예를 들어, 2)과 비교하고, 변곡점들(435)의 수가 임계값보다 크면, 드래그 패턴(430)이 제1 삭제 조건을 만족하는 것으로 판단한다.
도 8의 (b)를 참고하면, 제어부(110)는 메시지 창(440)을 터치 스크린(190)에 표시하고, 표시되는 메시지 창(440)은 “선택한 아이템을 삭제할까요?”라는 안내 문구(442)와, 아이템의 삭제를 승인하기 위한 “예”라고 표시된 승인 버튼(444)과, 아이템의 삭제를 취소하기 위한 “아니오”라고 표시된 취소 버튼(446)을 포함한다. 메시지 창(440)은 아이템 관련 데이터의 삭제를 위한 체크 박스를 더 포함할 수도 있으며, 아이템 관련 데이터의 삭제를 위한 별도의 메시지 창이 터치 스크린(190)에 표시될 수도 있다.
도 8의 (c)를 참고하면, 사용자가 승인 버튼(444)을 터치하면, 제어부(110)는 제2 삭제 조건이 만족된 것으로 판단하고, 선택된 아이템(420)을 홈 화면(410a)에서 삭제한다. 사용자가 취소 버튼(446)을 터치하면, 제어부(110)는 제2 삭제 조건이 만족되지 못한 것으로 판단하고, 선택된 아이템(420)의 삭제를 취소한다.
도 9는 본 발명의 다양한 제1 삭제 조건들을 설명하기 위한 도면이다.
도 9의 (a)를 참고하면, 사용자는 채팅 아이템(510)을 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 채팅 아이템(510)을 가로지르는 드래그 터치를 수행한다. 제어부(110)는 드래그 패턴(520)이 채팅 아이템(510)을 가로지른 것을 인식하고, 드래그 패턴(520)이 제1 삭제 조건을 만족하는 것으로 판단한다. 예를 들어, 제어부(110)는 채팅 아이템(510)에 설정된 제1 지시선(512) 및 제2 지시선(514)을 드래그 패턴(520)이 통과하는지를 판단하고, 드래그 패턴(520)이 제1 및 제2 지시선(512, 514)을 통과한 경우에, 드래그 패턴(520)이 제1 삭제 조건을 만족하는 것으로 판단할 수 있다.
도 9의 (b)를 참고하면, 사용자는 채팅 아이템(530)을 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 채팅 아이템(530)에 적어도 하나의 교차점을 갖는 드래그 터치를 수행한다. 드래그 패턴(540)은 2개의 교차점들(550, 555)을 갖는다. 제어부(110)는 드래그 패턴(540)의 교차점들(550, 555)의 수(본 예에서 2)를 미리 설정된 임계값(예를 들어, 1)과 비교하고, 교차점들(550, 555)의 수가 임계값 이상이면, 드래그 패턴(540)이 제1 삭제 조건을 만족하는 것으로 판단한다.
도 9의 (c)를 참고하면, 사용자는 채팅 아이템(560)을 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 채팅 아이템(560)을 문지르는 드래그 터치를 수행한다. 이때, 지우개(210)에 의해 지워진 채팅 아이템(560)의 부분(570)은 점선으로 표시되어 있다. 제어부(110)는 채팅 아이템(560)의 지워진 부분(570)의 면적이 전체 채팅 아이템(560)의 면적에서 차지하는 비율을 미리 설정된 임계값(예를 들어, 3/1)과 비교하고, 상기 비율이 임계값보다 크면 제1 삭제 조건을 만족하는 것으로 판단한다.
도 10은 복수의 아이템을 동시에 삭제하는 방법을 설명하기 위한 도면이다.
도 10의 (a)를 참고하면, 사용자는 뮤직 아이템(424), 갤러리 아이템(422) 및 채팅 아이템(420)을 동시에 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 뮤직 아이템(424), 갤러리 아이템(422) 및 채팅 아이템(420)을 가로지르는 드래그 터치를 수행한다. 제어부(110)는 드래그 패턴(610)이 뮤직 아이템(424), 갤러리 아이템(422) 및 채팅 아이템(420)을 가로지른 것을 인식하고, 드래그 패턴(610)이 제1 삭제 조건을 만족하는 것으로 판단한다.
도 10의 (b)를 참고하면, 사용자는 뮤직 아이템(424) 및 갤러리 아이템(422)을 동시에 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 뮤직 아이템(424) 및 갤러리 아이템(422)을 둘러싸는 드래그 터치를 수행한다. 제어부(110)는 드래그 패턴(620)이 뮤직 아이템(424) 및 갤러리 아이템(422)을 둘러싼 것을 인식하고, 드래그 패턴(620)이 제1 삭제 조건을 만족하는 것으로 판단한다.
도 11은 본 발명의 제2 예에 따른 아이템 삭제 방법을 나타내는 도면이다.
도 11의 (a)를 참고하면, 사용자는 채팅 아이템(420)을 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 채팅 아이템(420)에 지그재그 형태의 드래그 터치를 수행한다. 제어부는 드래그 패턴(430)의 변곡점들의 수(본 예에서 4)를 미리 설정된 임계값(예를 들어, 2)과 비교하고, 변곡점들의 수가 임계값보다 크므로, 드래그 패턴(430)이 제1 삭제 조건을 만족하는 것으로 판단한다.
도 11의 (b)를 참고하면, 사용자가 지우개(210)를 터치 스크린(190)으로부터 이격시키면, 제어부(110)는 미리 설정된 만료 시간을 갖는 타이머를 작동하고, 사용자가 선택된 아이템의 삭제가 진행되고 있음을 알 수 있도록 만료 시간 동안에 채팅 아이템(420)에 미리 설정된 시각 효과를 제공한다.
도 11의 (b)에는 시각 효과가 부여된 채팅 아이템(420a)이 점선으로 표시되어 있다. 이러한 시각 효과는 채팅 아이템이 점점 희미해지는 효과, 채팅 아이템이 깜빡거리는 효과, 채팅 아이템이 점점 지워지는 효과, 타이머의 잔여 시간이 표시되는 효과, 채팅 아이템이 점점 작아지는 효과 등이거나, 이들의 조합일 수 있다.
도 12는 본 발명의 다양한 시각 효과들을 설명하기 위한 도면이다.
도 12의 (a)를 참고하면, 채팅 아이템(710) 위에 타이머의 잔여 시간(720)이 숫자로 표시되는 것을 나타낸다. 제어부(110)는 타이머의 잔여 시간을 만료 시간으로부터 카운트하고, 잔여 시간이 0이 될 때까지 잔여 시간을 업데이트하여 표시하고(예를 들어, 3, 2, 1의 순서), 잔여 시간이 0이 되면 채팅 아이템(710)을 삭제한다.
도 12의 (b)를 참고하면, 채팅 아이템(740) 위에 타이머의 잔여 시간이 상태 바(750)로 표시되는 것을 나타낸다. 제어부(110)는 타이머의 잔여 시간을 만료 시간으로부터 카운트하고, 잔여 시간이 0이 될 때까지 잔여 시간을 업데이트하여 표시하고(예를 들어, 상태 바(750)의 길이가 점차 감소함), 잔여 시간이 0이 되면 채팅 아이템(740)을 삭제한다.
도 12의 (c)를 참고하면, 채팅 아이템(760)의 크기가 점차 감소하는 것을 나타낸다. 도 12의 (c)에는 원래의 채팅 아이템(760)이 점선으로 표시되어 있고, 크기가 감소된 채팅 아이템(770)이 실선으로 표시되어 있다. 제어부(110)는 타이머의 잔여 시간을 만료 시간으로부터 카운트하고, 잔여 시간이 0이 될 때까지 채팅 아이템(760)의 크기를 점차 감소하여 표시하고, 잔여 시간이 0이 되면 채팅 아이템(760)을 삭제한다.
다시 도 11의 (c)를 참고하면, 드래그 종료 이후 만료 시간 이내에 사용자가 지우개(210)로 터치 스크린(190) 또는 채팅 아이템(420)을 터치하면, 채팅 아이템(420)의 삭제를 취소한다. 제어부(110)는 타이머의 잔여 시간을 만료 시간으로부터 카운트하고, 잔여 시간이 0이 될 때까지 채팅 아이템(420)에 시각 효과를 부여하고, 만료 시간 이내에 사용자의 취소 명령이 없으면 채팅 아이템(420)을 삭제한다.
도 13은 본 발명의 제3 예에 따른 아이템 삭제 방법을 나타내는 도면이다.
도 13의 (a)를 참고하면, 사용자는 채팅 아이템(510)을 삭제하기 위해, 입력 유닛(168)의 지우개(210)로 채팅 아이템(510)을 가로지르는 드래그 터치를 수행한다. 제어부(110)는 드래그 패턴(520)이 채팅 아이템(510)을 가로지른 것을 인식하고, 드래그 패턴(520)이 제1 삭제 조건을 만족하는 것으로 판단한다.
도 13의 (b)를 참고하면, 드래그 터치가 종료되면, 제어부(110)는 미리 설정된 만료 시간을 갖는 타이머를 작동하고, 사용자가 선택된 아이템의 삭제가 진행되고 있음을 알 수 있도록 만료 시간 동안에 채팅 아이템(510a)에 미리 설정된 시각 효과를 제공한다. 본 예에서는, 채팅 아이템(510a)에 타이머의 잔여 시간이 숫자로 표시된다.
도 13의 (c)를 참고하면, 제어부(110)는 타이머의 잔여 시간을 만료 시간으로부터 카운트하고, 잔여 시간이 0이 될 때까지 채팅 아이템(510a)에 시각 효과를 부여하고, 만료 시간 이내에 사용자의 취소 명령이 없으면 채팅 아이템(510)을 삭제한다. 즉, 사용자가 드래그 종료 이후 만료 시간 동안 지우개(210)로 터치 스크린(190) 또는 채팅 아이템(510) 계속 터치하고 있으면, 제어부(110)는 채팅 아이템(510)을 삭제한다. 또한, 만료 시간 이내에 사용자가 지우개(210)를 터치 스크린(190) 또는 채팅 아이템(510)으로부터 이격하면, 제어부(110)는 채팅 아이템(510)의 삭제를 취소한다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 휴대 단말은 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 휴대 단말이 기설정된 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 휴대 단말과의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 휴대 단말의 요청 또는 자동으로 해당 프로그램을 상기 휴대 단말로 전송하는 제어부를 포함할 수 있다.
상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.
100: 단말, 110: 제어부, 120: 통신 모듈, 130: 서브 통신 모듈, 140: 멀티미디어 모듈, 150: 카메라 모듈, 157: GPS 모듈, 160: 입/출력 모듈, 168: 입력 유닛, 170; 센서 모듈, 175: 저장부, 180: 전원 공급부, 190: 터치스크린, 195: 터치스크린 컨트롤러

Claims (15)

  1. 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법에 있어서,
    상기 아이템에 대한 상기 터치 스크린 상의 드래그 터치를 인식하는 단계와;
    상기 드래그 터치의 패턴이 제1 삭제 조건을 만족하는지의 여부를 판단하는 단계와;
    상기 제1 삭제 조건이 만족되면, 상기 터치 스크린 상의 사용자 입력과 관련된 제2 삭제 조건이 만족되는지의 여부를 판단하는 단계와;
    상기 제2 삭제 조건이 만족되면, 상기 아이템을 상기 터치 스크린의 화면에서 삭제하는 단계를 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  2. 제1항에 있어서,
    상기 제1 삭제 조건은 상기 드래그 터치의 패턴을 나타내는 드래그 궤적이 상기 아이템과 적어도 일부 오버랩되어야 한다는 조건, 상기 드래그 궤적이 상기 아이템을 둘러싸야 한다는 조건, 상기 드래그 궤적이 미리 설정된 수 이상의 변곡점을 가져야 한다는 조건, 상기 드래그 궤적이 미리 설정된 수 이상의 교차점을 가져야 한다는 조건, 상기 아이템이 미리 설정된 비율 이상으로 지워져야 한다는 조건 중의 적어도 하나를 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  3. 제1항에 있어서,
    상기 제2 삭제 조건은 드래그 종료 이후 미리 설정된 시간 동안 사용자의 삭제 취소 명령이 없어야 한다는 조건, 상기 드래그 종료 이후 상기 사용자가 상기 아이템의 삭제를 승인하여야 한다는 조건 중의 적어도 하나를 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  4. 제1항에 있어서,
    상기 터치 스크린의 화면에 사용자가 상기 아이템의 삭제를 승인 또는 취소할 수 있도록 하기 위한 메시지 창을 표시하는 단계를 더 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  5. 제1항에 있어서,
    상기 제1 삭제 조건이 만족되면, 상기 아이템에 미리 설정된 시각 효과를 부여하는 단계를 더 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  6. 제1항에 있어서,
    상기 시각 효과는 상기 아이템이 점점 희미해지는 효과, 상기 아이템이 깜빡거리는 효과, 상기 아이템이 점점 지워지는 효과, 상기 아이템이 삭제되기까지의 잔여 시간을 표시하는 효과, 상기 아이템이 점점 작아지는 효과 중의 적어도 하나를 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  7. 제1항에 있어서,
    상기 제1 삭제 조건이 만족되면, 미리 설정된 만료 시간을 갖는 타이머를 작동하는 단계와;
    상기 만료 시간 동안에 상기 아이템에 대한 터치가 발생하면 상기 아이템의 삭제를 취소하는 단계를 더 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  8. 제1항에 있어서,
    상기 제1 삭제 조건이 만족되면, 미리 설정된 만료 시간을 갖는 타이머를 작동하는 단계와;
    상기 만료 시간 동안에 입력 유닛이 상기 터치 스크린으로부터 이격되면 상기 아이템의 삭제를 취소하는 단계를 더 포함함을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  9. 제1항에 있어서,
    상기 드래그 터치는 입력 유닛에 부착된 지우개에 의해 수행됨을 특징으로 하는 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 따른 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.
  11. 제10항의 기계로 읽을 수 있는 저장 매체를 포함하는 휴대 단말.
  12. 휴대 단말에 있어서,
    적어도 하나의 아이템을 화면에 표시하는 터치 스크린과;
    제1 및 제2 삭제 조건을 저장하기 위한 저장부와;
    상기 아이템에 대한 상기 터치 스크린 상의 드래그 터치를 인식하고,
    상기 드래그 터치의 패턴이 제1 삭제 조건을 만족하는지의 여부를 판단하고,
    상기 제1 삭제 조건이 만족되면, 상기 터치 스크린 상의 사용자 입력과 관련된 제2 삭제 조건이 만족되는지의 여부를 판단하고,
    상기 제2 삭제 조건이 만족되면, 상기 아이템을 상기 터치 스크린의 화면에서 삭제하도록 구성된 제어부를 포함함을 특징으로 하는 휴대 단말.
  13. 제12항에 있어서,
    상기 제1 삭제 조건은 상기 드래그 터치의 패턴을 나타내는 드래그 궤적이 상기 아이템과 적어도 일부 오버랩되어야 한다는 조건, 상기 드래그 궤적이 상기 아이템을 둘러싸야 한다는 조건, 상기 드래그 궤적이 미리 설정된 수 이상의 변곡점을 가져야 한다는 조건, 상기 드래그 궤적이 미리 설정된 수 이상의 교차점을 가져야 한다는 조건, 상기 아이템이 미리 설정된 비율 이상으로 지워져야 한다는 조건 중의 적어도 하나를 포함함을 특징으로 하는 휴대 단말.
  14. 제12항에 있어서,
    상기 제2 삭제 조건은 드래그 종료 이후 미리 설정된 시간 동안 사용자의 삭제 취소 명령이 없어야 한다는 조건, 상기 드래그 종료 이후 상기 사용자가 상기 아이템의 삭제를 승인하여야 한다는 조건 중의 적어도 하나를 포함함을 특징으로 하는 휴대 단말.
  15. 제12항에 있어서,
    상기 제1 삭제 조건이 만족되면, 상기 아이템에 미리 설정된 시각 효과를 부여하는 단계를 더 포함함을 특징으로 하는 휴대 단말.
KR1020130025721A 2013-03-11 2013-03-11 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말 KR20140111497A (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020130025721A KR20140111497A (ko) 2013-03-11 2013-03-11 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말
RU2015143235A RU2677591C2 (ru) 2013-03-11 2014-03-11 Устройство и способ для удаления элемента на сенсорном дисплее
AU2014230369A AU2014230369A1 (en) 2013-03-11 2014-03-11 Apparatus and method for deleting an item on a touch screen display
US14/204,396 US20140258901A1 (en) 2013-03-11 2014-03-11 Apparatus and method for deleting an item on a touch screen display
PCT/KR2014/001984 WO2014142503A1 (en) 2013-03-11 2014-03-11 Apparatus and method for deleting an item on a touch screen display
CN201480014314.5A CN105190514A (zh) 2013-03-11 2014-03-11 用于在触摸屏显示器上删除项目的装置和方法
EP14764605.3A EP2972733A4 (en) 2013-03-11 2014-03-11 APPARATUS AND METHOD FOR DELETING ARTICLE ON TOUCH SCREEN DISPLAY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130025721A KR20140111497A (ko) 2013-03-11 2013-03-11 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말

Publications (1)

Publication Number Publication Date
KR20140111497A true KR20140111497A (ko) 2014-09-19

Family

ID=51489500

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130025721A KR20140111497A (ko) 2013-03-11 2013-03-11 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말

Country Status (7)

Country Link
US (1) US20140258901A1 (ko)
EP (1) EP2972733A4 (ko)
KR (1) KR20140111497A (ko)
CN (1) CN105190514A (ko)
AU (1) AU2014230369A1 (ko)
RU (1) RU2677591C2 (ko)
WO (1) WO2014142503A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017192008A1 (ko) * 2016-05-04 2017-11-09 홍대건 다단계 메뉴 선택을 위한 방법 및 그 방법을 수행하는 전자 기기

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD618248S1 (en) 2008-09-23 2010-06-22 Apple Inc. Graphical user interface for a display screen or portion thereof
JP5668365B2 (ja) * 2009-11-20 2015-02-12 株式会社リコー 描画処理システム、サーバ装置、ユーザ端末、描画処理方法、プログラム及び記録媒体
US9760187B2 (en) * 2013-03-11 2017-09-12 Barnes & Noble College Booksellers, Llc Stylus with active color display/select for touch sensitive devices
EP2784644A1 (en) * 2013-03-27 2014-10-01 Océ-Technologies B.V. A method for cancelling a user action to be applied to a digital object
USD741874S1 (en) 2013-06-09 2015-10-27 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD745893S1 (en) * 2013-09-03 2015-12-22 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
AP00649S1 (en) * 2013-09-03 2014-12-10 Samsung Electronics Co Ltd Icons for display screens or portions thereof
US20150338939A1 (en) * 2014-05-23 2015-11-26 Microsoft Technology Licensing, Llc Ink Modes
USD753711S1 (en) 2014-09-01 2016-04-12 Apple Inc. Display screen or portion thereof with graphical user interface
KR102274944B1 (ko) 2014-09-24 2021-07-08 삼성전자주식회사 오브젝트를 식별하는 전자 장치 및 방법
CN104407788B (zh) * 2014-10-29 2017-06-16 小米科技有限责任公司 图像删除方法及装置
US10042439B2 (en) * 2014-12-11 2018-08-07 Microsft Technology Licensing, LLC Interactive stylus and display device
JP6085630B2 (ja) * 2015-03-10 2017-02-22 レノボ・シンガポール・プライベート・リミテッド タッチペンシステム及びタッチペン
CN105117245A (zh) * 2015-08-04 2015-12-02 小米科技有限责任公司 卸载应用程序的方法和装置
US10067731B2 (en) 2016-01-05 2018-09-04 Quirklogic, Inc. Method and system for representing a shared digital virtual “absolute” canvas
US10324618B1 (en) * 2016-01-05 2019-06-18 Quirklogic, Inc. System and method for formatting and manipulating digital ink
US10755029B1 (en) 2016-01-05 2020-08-25 Quirklogic, Inc. Evaluating and formatting handwritten input in a cell of a virtual canvas
US10129335B2 (en) 2016-01-05 2018-11-13 Quirklogic, Inc. Method and system for dynamic group creation in a collaboration framework
JP6735574B2 (ja) * 2016-03-08 2020-08-05 キヤノン株式会社 情報処理装置、情報処理システム、それらの制御方法、およびプログラム
US20170262157A1 (en) * 2016-03-11 2017-09-14 Motorola Solutions, Inc. Deleting a system resource
CN105955756A (zh) * 2016-05-18 2016-09-21 广州视睿电子科技有限公司 图像擦除方法和系统
CN107015721A (zh) * 2016-10-20 2017-08-04 阿里巴巴集团控股有限公司 一种应用界面的管理方法和装置
WO2018085929A1 (en) * 2016-11-09 2018-05-17 Quirklogic, Inc. Method and system for erasing an enclosed area on an interactive display
USD818037S1 (en) 2017-01-11 2018-05-15 Apple Inc. Type font
US10795571B2 (en) 2017-09-28 2020-10-06 The Toronto-Dominion Bank System and method to perform an undo operation using a continuous gesture
US10761625B2 (en) * 2017-10-31 2020-09-01 Microsoft Technology Licensing, Llc Stylus for operation with a digitizer
CN108388393B (zh) 2018-01-02 2020-08-28 阿里巴巴集团控股有限公司 移动终端点击事件的识别方法和装置
USD898755S1 (en) 2018-09-11 2020-10-13 Apple Inc. Electronic device with graphical user interface
US10712969B2 (en) * 2018-12-06 2020-07-14 Oracle International Corporation Trash commands for storage systems
USD902221S1 (en) 2019-02-01 2020-11-17 Apple Inc. Electronic device with animated graphical user interface
USD900925S1 (en) 2019-02-01 2020-11-03 Apple Inc. Type font and electronic device with graphical user interface
USD900871S1 (en) 2019-02-04 2020-11-03 Apple Inc. Electronic device with animated graphical user interface
CN109901744A (zh) * 2019-02-12 2019-06-18 广州视源电子科技股份有限公司 交互智能平板操控方法、装置、交互智能平板和存储介质
CN110286840B (zh) * 2019-06-25 2022-11-11 广州视源电子科技股份有限公司 可触控设备的手势缩放控制方法、装置和相关设备
CN112706148A (zh) * 2020-12-25 2021-04-27 珠海新天地科技有限公司 一种机器人操作装置及方法
USD983833S1 (en) * 2021-04-26 2023-04-18 The Boeing Company Display screen or portion thereof with animated graphical user interface
USD983227S1 (en) * 2021-04-26 2023-04-11 The Boeing Company Display screen or portion thereof with animated graphical user interface
USD983832S1 (en) * 2021-04-26 2023-04-18 The Boeing Company Display screen or portion thereof with animated graphical user interface
USD1002643S1 (en) 2021-06-04 2023-10-24 Apple Inc. Display or portion thereof with graphical user interface

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4633436A (en) * 1983-12-16 1986-12-30 International Business Machines Corp. Real-time rub-out erase for an electronic handwriting facility
JPH0620185Y2 (ja) * 1988-03-08 1994-05-25 カシオ計算機株式会社 小型電子機器
US5231698A (en) * 1991-03-20 1993-07-27 Forcier Mitchell D Script/binary-encoded-character processing method and system
DE69333096T2 (de) * 1992-04-15 2004-02-12 Xerox Corp. Vorrichtungen und Verfahren zum graphischen Zeichnen und Ausgabe
CA2089784C (en) * 1992-04-15 1996-12-24 William Joseph Anderson Apparatus and method for disambiguating an input stream generated by a stylus-based user interface
US5583542A (en) * 1992-05-26 1996-12-10 Apple Computer, Incorporated Method for deleting objects on a computer display
US5475401A (en) * 1993-04-29 1995-12-12 International Business Machines, Inc. Architecture and method for communication of writing and erasing signals from a remote stylus to a digitizing display
JP3486876B2 (ja) * 1994-01-28 2004-01-13 ソニー株式会社 手書き入力装置および方法
US5570113A (en) * 1994-06-29 1996-10-29 International Business Machines Corporation Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system
US5793360A (en) * 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
JPH08335134A (ja) * 1995-06-07 1996-12-17 Canon Inc 情報処理装置
US5990875A (en) * 1995-10-16 1999-11-23 Packard Bell Nec Double pen up event
US6730862B1 (en) * 1995-12-27 2004-05-04 Lsi Logic Corporation Erase feature in pen-based computing
US6232962B1 (en) * 1998-05-14 2001-05-15 Virtual Ink Corporation Detector assembly for use in a transcription system
US6434269B1 (en) * 1999-04-26 2002-08-13 Adobe Systems Incorporated Smart erasure brush
EP1098244A3 (en) * 1999-11-02 2001-06-13 CANAL + Société Anonyme Graphical user interface
US6850230B1 (en) * 2001-10-16 2005-02-01 Hewlett-Packard Development Company, L.P. Electronic writing and erasing pencil
US7221376B2 (en) * 2002-08-15 2007-05-22 Microsoft Corporation Space tool feedback by changing the displayed visual appearance of objects to be moved before deletion of displayed objects occurs
US7609278B1 (en) * 2003-07-31 2009-10-27 Adobe Systems Incorporated Detecting backward motion represented by a path
US7427984B2 (en) * 2003-10-26 2008-09-23 Microsoft Corporation Point erasing
US8392377B2 (en) * 2004-11-23 2013-03-05 Hewlett-Packard Development Company, L.P. Method for performing a fine-grained undo operation in an interactive editor
US7486282B2 (en) * 2006-01-27 2009-02-03 Microsoft Corporation Size variant pressure eraser
US8312372B2 (en) * 2006-02-10 2012-11-13 Microsoft Corporation Method for confirming touch input
US7661068B2 (en) * 2006-06-12 2010-02-09 Microsoft Corporation Extended eraser functions
US7934156B2 (en) * 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
US20080149401A1 (en) * 2006-12-20 2008-06-26 3M Innovative Properties Company Untethered stylus employing separate communication channels
US7900142B2 (en) * 2007-01-15 2011-03-01 Microsoft Corporation Selective undo of editing operations performed on data objects
US8139039B2 (en) * 2007-07-31 2012-03-20 Kent Displays, Incorporated Selectively erasable electronic writing tablet
US20090144667A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
TW200925944A (en) * 2007-12-12 2009-06-16 Mitac Int Corp Touch pen with erasure function
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US20100162179A1 (en) * 2008-12-19 2010-06-24 Nokia Corporation Method and Apparatus for Adding or Deleting at Least One Item Based at Least in Part on a Movement
US20110314423A1 (en) * 2009-03-12 2011-12-22 Panasonic Corporation Image display device and image display method
US20100333027A1 (en) * 2009-06-26 2010-12-30 Sony Ericsson Mobile Communications Ab Delete slider mechanism
US8407613B2 (en) * 2009-07-13 2013-03-26 Apple Inc. Directory management on a portable multifunction device
KR101646254B1 (ko) * 2009-10-09 2016-08-05 엘지전자 주식회사 이동 통신 단말기에서의 아이콘 삭제 방법 및 이를 적용한 이동 통신 단말기
KR101640464B1 (ko) * 2009-10-26 2016-07-18 삼성전자 주식회사 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
US8427454B2 (en) * 2010-06-08 2013-04-23 Waltop International Corporation Electromagnetic pen with a multi-functions tail part
US20110307840A1 (en) * 2010-06-10 2011-12-15 Microsoft Corporation Erase, circle, prioritize and application tray gestures
US20120004033A1 (en) * 2010-06-30 2012-01-05 Martin Lyons Device and method for replicating a user interface at a display
KR20120126254A (ko) * 2011-05-11 2012-11-21 삼성전자주식회사 아이템 삭제 기능의 gui제공 방법 및 장치
KR101820410B1 (ko) * 2011-05-16 2018-03-02 삼성전자주식회사 디지타이저 시스템에서 디지타이저 펜의 지우개 기능을 지원하기 위한 장치 및 방법
US9268416B2 (en) * 2011-08-05 2016-02-23 Htc Corporation Touch control pen, touching control apparatus and touching detection method with image delete function thereof
KR20130023954A (ko) * 2011-08-30 2013-03-08 삼성전자주식회사 휴대용 단말기에서 아이콘 편집 과정을 수행하기 위한 장치 및 방법
US8542207B1 (en) * 2011-09-27 2013-09-24 Cosmin Truta Pencil eraser gesture and gesture recognition method for touch-enabled user interfaces
US20130227454A1 (en) * 2012-02-24 2013-08-29 Simon Martin THORSANDER Method and Apparatus for Providing an Option to Undo a Delete Operation
US8856669B2 (en) * 2012-07-02 2014-10-07 International Business Machines Corporation Method for selective erasure based on historical input
US9792038B2 (en) * 2012-08-17 2017-10-17 Microsoft Technology Licensing, Llc Feedback via an input device and scribble recognition
US8584049B1 (en) * 2012-10-16 2013-11-12 Google Inc. Visual feedback deletion
US8914751B2 (en) * 2012-10-16 2014-12-16 Google Inc. Character deletion during keyboard gesture
CN102929555B (zh) * 2012-10-29 2015-07-08 东莞宇龙通信科技有限公司 终端和应用程序卸载方法
CN103064613A (zh) * 2012-12-13 2013-04-24 鸿富锦精密工业(深圳)有限公司 触摸屏内容擦除的方法及装置
US20140173427A1 (en) * 2012-12-19 2014-06-19 Mediatek Inc. Undo delete method of text editor supporting non-character-based delete function in electronic device and related machine-readable medium
US20140215409A1 (en) * 2013-01-31 2014-07-31 Wal-Mart Stores, Inc. Animated delete apparatus and method
KR102120772B1 (ko) * 2013-06-28 2020-06-17 삼성전자주식회사 전자칠판용 영상 지우개 디바이스 및 그 제어방법, 디스플레이장치 및 그 제어방법, 전자칠판 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017192008A1 (ko) * 2016-05-04 2017-11-09 홍대건 다단계 메뉴 선택을 위한 방법 및 그 방법을 수행하는 전자 기기

Also Published As

Publication number Publication date
WO2014142503A1 (en) 2014-09-18
US20140258901A1 (en) 2014-09-11
EP2972733A4 (en) 2016-11-02
CN105190514A (zh) 2015-12-23
AU2014230369A1 (en) 2015-08-13
EP2972733A1 (en) 2016-01-20
RU2015143235A (ru) 2017-04-17
RU2015143235A3 (ko) 2018-03-14
RU2677591C2 (ru) 2019-01-17

Similar Documents

Publication Publication Date Title
KR20140111497A (ko) 터치 스크린의 화면에 표시된 아이템을 삭제하는 방법, 저장 매체 및 휴대 단말
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
US9946345B2 (en) Portable terminal and method for providing haptic effect to input unit
KR102035305B1 (ko) 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102092132B1 (ko) 호버링 입력 효과를 제공하는 전자 장치 및 그 제어 방법
KR102264444B1 (ko) 전자 장치에서 기능 실행 방법 및 장치
US20140285453A1 (en) Portable terminal and method for providing haptic effect
KR101815720B1 (ko) 진동 제어 방법 및 장치
KR102155836B1 (ko) 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법
KR20140140957A (ko) 화면 데이터의 미러링 방법, 저장 매체 및 전자 장치
KR20140105328A (ko) 터치 스크린에 디스플레이되는 아이콘을 제어하는 휴대 단말 및 방법
KR20140104709A (ko) 휴대 단말에 의해 촬영된 이미지들을 합성하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR20140142081A (ko) 그룹 리코딩 방법, 저장 매체 및 전자 장치
US20150106706A1 (en) Electronic device and method for controlling object display
KR102118091B1 (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
KR20150007577A (ko) 데이터 병합을 제어하는 휴대 단말 및 방법
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
KR20140137629A (ko) 이어폰 연결을 감지하는 휴대 단말 및 방법
KR20140092106A (ko) 터치 스크린 상의 사용자 입력을 처리하는 방법 및 단말과 저장 매체
KR20140122491A (ko) 터치 입력을 처리하는 방법, 저장 매체 및 전자 장치
KR20150012544A (ko) 전자 장치의 방향 기능 입력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application