KR20140081423A - 키 입력 방법, 키 입력 방법이 적용된 장치, 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체 - Google Patents

키 입력 방법, 키 입력 방법이 적용된 장치, 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체 Download PDF

Info

Publication number
KR20140081423A
KR20140081423A KR1020120151153A KR20120151153A KR20140081423A KR 20140081423 A KR20140081423 A KR 20140081423A KR 1020120151153 A KR1020120151153 A KR 1020120151153A KR 20120151153 A KR20120151153 A KR 20120151153A KR 20140081423 A KR20140081423 A KR 20140081423A
Authority
KR
South Korea
Prior art keywords
input
touch
gesture
character
key input
Prior art date
Application number
KR1020120151153A
Other languages
English (en)
Other versions
KR102007651B1 (ko
Inventor
김유나
이상협
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120151153A priority Critical patent/KR102007651B1/ko
Priority to US14/107,317 priority patent/US9851890B2/en
Priority to PCT/KR2013/011749 priority patent/WO2014098452A1/en
Priority to JP2013262716A priority patent/JP6328921B2/ja
Priority to EP13198374.4A priority patent/EP2746925B1/en
Priority to CN201310718865.7A priority patent/CN103885705B/zh
Publication of KR20140081423A publication Critical patent/KR20140081423A/ko
Application granted granted Critical
Publication of KR102007651B1 publication Critical patent/KR102007651B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0235Character input methods using chord techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/02Devices for Braille writing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/02Devices for Braille writing
    • G09B21/025Devices for Braille writing wherein one tactile input is associated to a single finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

본 발명에 따른 터치스크린 디스플레이를 구비한 단말의 키 입력 방법은 키 입력을 위해 설정된 수의 제1터치 입력을 확인하는 과정과, 상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하는 과정과, 상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 과정을 포함한다.

Description

키 입력 방법, 키 입력 방법이 적용된 장치, 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체{APPARATUS AND METHOD FOR KEY INPUT AND COMPUTER READABLE MEDIA STORING PROGRAM FOR METHOD THEREFOR}
본 발명은 키 입력 방법 및 장치에 관한 것으로써, 특히 터치스크린 디스플레이를 사용하는 키 입력 방법 및 장치에 관한 것이다.
최근 모바일(mobile) 장치에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대되고 있다. 이러한 모바일 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 모바일 장치에서 실행 가능한 다양한 어플리케이션들이 개발되고 있다.
모바일 장치에는 해당 장치의 제조사에 의해 제작되어 해당 장치에 설치되는 기본 어플리케이션들과, 인터넷을 통하여 어플리케이션 판매 웹사이트로부터 다운로드되는 추가 어플리케이션들 등이 저장되고 실행될 수 있다. 상기 추가 어플리케이션들은 일반 개발자들에 의해 개발되고, 상기 판매 웹사이트에 등록될 수 있다. 따라서, 누구든지 자신이 개발한 어플리케이션들을 상기 어플리케이션 판매 웹사이트를 통하여 자유롭게 상기 모바일 장치의 사용자에게 판매할 수 있다. 이에 따라 현재 모바일 장치에는 그 제품에 따라 수만에서 수십만개의 어플리케이션들이 무료 또는 유료로 제공되고 있다.
이에 따라, 최근 스마트폰 및 태블릿 PC와 같은 모바일 장치 내에는 적어도 수십에서 수백 개의 어플리케이션들이 저장되어 있으며, 상기 어플리케이션들 각각을 실행시키기 위한 단축키들(shortcut keys)이 아이콘 형태로 모바일 장치의 터치스크린 디스플레이 상에 표시된다. 이에 따라 사용자는 터치스크린 디스플레이 상에 표시된 아이콘들 중 어느 하나를 터치함으로써 원하는 어플리케이션을 상기 모바일 장치에서 실행시킬 수 있다.
나아가, 스마트폰 및 태블릿 PC와 같은 모바일 장치는 터치스크린 디스플레이 상에 가상 키보드를 형성하고, 가상 키보드를 통해 문자 등과 같은 키 입력을 처리하도록 구성하고 있다. 이러한 가상 키보드의 구성은 사용자의 편의와 키 입력의 속도 등을 향상시킬 수 있는 다양한 방식이 연구 및 개발되고 있다.
본 발명은 전술한 점을 고려하여 안출된 것으로써, 사용자에 의해 터치 입력되는 영역을 기반으로, 보다 정확하게 문자를 입력할 수 있는 키 입력 방법 및 장치를 제공하는데 그 목적이 있다.
또한, 사용자에 의해 터치 입력되는 영역에 각각 가상 키보드를 형성하여, 가상 키보드를 보지 않는 상황에서도 키 입력의 오류를 줄일 수 있는 키 입력 방법 및 장치를 제공하는데 또 다른 목적이 있다.
또한, 사용자에 의해 터치 입력되는 영역에 점자 입력을 위한 가상 키보드를 형성하여, 가상 키보드를 보지 않는 상태에서도 입력버튼의 위치를 보다 용이하게 인식할 수 있는 방법 및 장치를 제공하는데 또 다른 목적이 있다.
또한, 사용자에 의해 터치 입력되는 영역에 점자 입력을 위한 가상 키보드를 형성함으로써, 가상 키보드를 보지 않는 상황에서도 보다 정확하게 가상 키보드의 버튼을 입력할 수 있는 방법 및 장치를 제공하는데 또 다른 목적이 있다.
본 발명의 일 측면에 따른 터치스크린 디스플레이를 구비한 단말의 키 입력 방법은 키 입력을 위해 설정된 수의 제1터치 입력을 확인하는 과정과, 상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하는 과정과, 상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 과정을 포함한다.
또한, 본 발명의 다른 측면에 따른 단말 장치는, 터치스크린 디스플레이부,
적어도 하나의 제어부, 및 적어도 키 입력 프로그램을 저장하는 메모리부를 포함하되, 상기 키 입력 프로그램은, 상기 제어부에 의해 실행되도록 구성되며, 키 입력을 위해 설정된 수의 제1터치 입력을 확인하고, 상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하고, 상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 명령어를 포함한다.
또한, 본 발명의 또 다른 측면에 따른 컴퓨터로 읽을 수 있는 저장 매체는, 적어도 하나의 프로그램을 저장하되, 상기 적어도 하나의 프로그램은, 키 입력을 위해 설정된 수의 제1터치 입력을 확인하고, 상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하고, 상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 명령어를 포함한다.
본 발명에 따르면, 다음과 같은 유리한 효과가 있다.
첫째, 사용자에 의해 터치 입력되는 영역에 입력 버튼을 형성하고, 이 입력 버튼으로부터 문자를 입력받음으로써, 보다 정확하게 문자를 입력할 수 있다.
둘째, 사용자에 의해 터치 입력되는 영역에 각각 가상 키보드를 형성하여, 가상 키보드를 보지 않는 상태에서도 키 입력의 오류를 줄일 수 있다.
셋째, 사용자에 의해 터치 입력되는 영역에 점자 입력을 위한 가상 키보드를 형성함으로써, 사용자는 가상 키보드를 보지 않는 상태에서도 입력버튼의 위치를 보다 용이하게 인식할 수 있다.
넷째, 사용자에 의해 터치 입력되는 영역에 점자 입력을 위한 가상 키보드를 형성함으로써, 가상 키보드를 보지 않는 상황에서도 보다 정확하게 가상 키보드의 버튼을 입력할 수 있다.
다섯째, 점자를 입력하기 위한 추가적인 하드웨어 장치의 연결없이, 사용자가 휴대하는 휴대용 단말을 사용하여 보다 간편하게 점자 입력을 실현할 수 있다.
도 1a는 본 발명의 일 실시예에 따른 휴대용 단말을 나타내는 개략적인 블록도,
도 1b는 본 발명의 일 실시예에 따른 휴대용 단말의 전면 사시도,
도 1c는 본 발명의 일 실시예에 따른 휴대용 단말의 후면 사시도,
도 2는 본 발명의 일 실시예에 따른 키 입력 방법의 동작 순서를 도시하는 흐름도,
도 3a 내지 도 3d는 본 발명의 일 실시예에 따른 키 입력 방법의 제1터치 입력을 확인하는 단계에서 확인된 영역의 예시도,
도 4a 및 도 3b는 본 발명의 일 실시예에 따른 키 입력 방법에서 구비되는 입력 버튼의 일 예시도,
도 5는 본 발명의 일 실시예에 따른 키 입력 방법에 의해 구비되는 입력버튼과 매칭되는 6점자의 일 예시도,
도 6a 내지 6c는 본 발명의 일 실시예에 따른 키 입력 방법에 의해 입력 버튼에 할당되는 문자의 일 예시도,
도 7은 본 발명의 일 실시예에 따른 키 입력 방법에 의해 구비되는 입력버튼과 매칭되는 8점자의 일 예시도,
도 8a 및 8b는 본 발명의 일 실시예에 따른 키 입력 방법에 의해 입력 버튼에 할당되는 문자의 다른 예시도,
도 9는 본 발명의 일 실시예에 따른 키 입력 방법에 포함되는 입력 제스처 처리 동작을 위한 단계의 동작 순서를 도시하는 흐름도,
도 10은 본 발명의 일 실시예에 따른 키 입력 방법에 의해 설정되는 입력 제스처의 일 예시도,
도 11a 내지 11c는 본 발명의 일 실시예에 따른 키 입력 방법에서 발생될 수 있는 모션 제스처의 예시도,
도 12a 내지 12h는 본 발명의 일 실시예에 따른 키 입력 방법에서 발생될 수 있는 터치 제스처의 일 예시도,
도 13a 및 13b는 본 발명의 일 실시예에 따른 키 입력 방법에서 발생될 수 있는 터치 제스처의 다른 예시도.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
도 1a는 본 발명의 일 실시예에 따른 모바일 장치를 나타내는 개략적인 블록도이다. 도 1a를 참조하면, 장치(100)는 서브통신 모듈(130), 커넥터(165), 및 이어폰 연결잭(167)과 같은 외부 장치 연결부를 이용하여 외부 장치(도시되지 아니함)와 연결될 수 있다. “외부 장치”는 상기 장치(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들을 포함할 수 있다. 또한 상기 "외부 장치"는 근거리 통신에 의하여 무선으로 상기 장치(100)에 연결될 수 있는 블루투스 통신 장치, NFC(Near Field Communication) 장치와 같은 근거리 통신 장치, 및 WiFi Direct 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 또한, 상기 외부 장치는 다른 장치, 휴대폰, 스마트폰, 태블릿PC, 데스크탑 PC, 및 서버를 포함할 수 있다.
도 1a를 참조하면, 장치(100)는 표시부(190) 및 디스플레이 컨트롤러(195)를 포함한다. 또한, 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함한다.
제어부(110)는 CPU(111), 장치(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 표시부(190), 및 디스플레이 컨트롤러(195)를 제어할 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 장치(100)와 화상형성장치(도시되지 아니함)사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
또한, 멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)로 구성될 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수도 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))을 포함할 수 있다. 제1 카메라(151)는 상기 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 장치(100)의 후면에 배치될 수 있다. 달리 취한 방식으로, 제1 카메라(151)와 제2 카메라(152)는 인접(예, 제1 카메라(151)와 제2 카메라(152)의 간격이 1 cm 보다 크고, 8 cm 보다는 작은)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함)을 포함할 수 있다. 또한, 버튼(161)은, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
나아가, 전술한 버튼(161)은 일반적으로 상기 장치(100)의 하우징의 외부에 별도로 하드웨어적으로 마련된 버튼인 것을 예시하고 있으나, 본 발명이 이를 한정하는 것은 아니다.
나아가, 전술한 버튼(161)은 상기 표시부(190)의 일 영역에 아이콘이나 UI 형태로 디스플레이 되고, 해당 영역의 선택에 의해 미리 할당된 기능을 수행하도록 구성된 가상 버튼으로 구비될 수도 있음은 물론이다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 장치(100) 외부로 출력할 수 있다. 스피커(163)는 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 상기 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 표시부(190) 상을 터치하는 사용자의 터치 동작 및 표시부(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 상기 장치(100)와 외부 장치(도시되지 아니함)또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 상기 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 상기 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 표시부(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(도시되지 아니함)이 삽입되어 상기 장치(100)에 연결될 수 있다.
스타일러스 펜(168)은 장치(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 장치(100)로부터 인출 및 탈착될 수 있다.
스타일러스 펜(168)이 삽입되는 장치(100) 내부의 일 영역에는 상기 스타일러스 펜(168)의 장착 및 탈착에 대응하여 동작하는 펜 탈부착 인식 스위치(169)가 구비되어, 제어부(100)로 상기 스타일러스 펜(168)의 장착 및 탈착에 대응하는 신호를 제공할 수 있다. 펜 탈부착 인식 스위치(169)는 스타일러스 펜(168)이 삽입되는 일 영역에 마련되어, 상기 스타일러스 펜(168)의 장착시 직·간접적으로 접촉되도록 구비된다. 이에 따라, 펜 탈부착 인식 스위치(169)는 상기 스타일러스 펜(168)과의 직·간접적으로 접촉에 기초하여, 상기 스타일러스 펜(168)의 장착이나 탈착에 대응하는 신호를 생성하고, 제어부(110)에 제공한다.
센서 모듈(170)은 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 장치(100)에 대한 접근여부를 검출하는 근접센서, 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 장치(100)의 동작(예, 장치(100)의 회전, 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 아니함), 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 표시부(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD)또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
특히, 저장부(175)는 본 발명의 일 실시예에 따른 키 입력 방법에 포함된 단계들, 즉, 키 입력을 위해 설정된 수의 영역에서 제1터치 입력을 확인하는 단계와, 상기 제1터치 입력이 발생된 부분에 대응하는 영역에 각각 가상 버튼으로 구성된 입력 버튼을 생성하는 단계와, 상기 입력 버튼에서 발생되는 제2터치 입력에 대응하는 키 입력을 처리하는 단계들을 처리하기 위한 프로그램 명령을 저장할 수 있다. 그리고, 제어부(110)는, 이러한 본 발명의 일 실시예에 따른 키 입력 방법을 처리하기 위한 상기 프로그램 명령을 저장부(175)로부터 읽어들이고, 상기 프로그램 명령에 대응하여, 장치(100)에 포함된 하드웨어 구성요소들을 제어한다. 또한, 제어부(110)는, 상기 프로그램 명령을 실행하면서 발생되는 데이터를 일시 또는 지속적으로 저장부(175)에 저장하고, 본 발명의 일 실시예에 따른 키 입력 방법의 실행에 필요한 UI를 표시부(190)를 통해 출력하거나, 상기 출력되는 UI를 통한 입력을 수신할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 장치(100)로 공급할 수 있다. 또한, 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 장치(100)로 공급할 수도 있다.
디스플레이 컨트롤러(195)는 제어부(110)에서 처리되는 다양한 정보(예, 통화, 데이터 전송, 방송, 사진촬영을 수행하기 위해 생성되는 정보 등)를 입력받고, 상기 입력받은 다양한 정보를 표시부(190)에서 디스플레이할 수 있는 데이터로 변환하여, 상기 표시부(190)에 제공한다. 그리고, 표시부(190)는 상기 디스플레이 컨트롤러(195)로부터 수신된 데이터를 디스플레이 한다. 예를 들어, 표시부(190)는, 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 디스플레이할 수 있다. 표시부(190)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다.
또한, 표시부(190)는 출력 장치뿐 아니라 입력 장치로서도 사용될 수 있으며, 이를 위해, 터치스크린 패널을 포함하여 구성될 수 있다. 그리고, 표시부(190)는 UI(User Interface) 또는 GUI(Graphic User Interface)를 통해 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 디스플레이 컨트롤러(195)로 전송할 수 있다. 상기 표시부(190)는 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 입력되는 적어도 하나의 터치를 검출할 수 있다. 또한, 상기 표시부(190)는 적어도 하나의 터치 중에서, 터치의 연속적인 움직임을 입력받을 수 있고, 상기 터치의 연속적인 움직임에 대응되는 아날로그 신호를 디스플레이 컨트롤러(195)로 전송할 수 있다. 이러한, 상기 표시부(190)는, 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 적어도 하나의 터치를 검출할 수 있도록 구현될 수 있다.
나아가, 본 발명에서의 터치는 표시부(190)와 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 표시부(190)와 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격이 1 mm 이하)을 포함할 수 있다. 상기 표시부(190)에서 검출 가능한 간격은 장치(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 상기 표시부(190)는 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)을 다르게 출력할 수 다. 더 나아가, 표시부(190)는 호버링 이벤트가 발생되는 공간과의 거리에 따라, 검출되는 값(예컨대, 전류값 등)을 다르게 출력하는 것이 바람직하다.
한편, 디스플레이 컨트롤러(195)는 표시부(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X좌표와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 디스플레이 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 표시부(190)를 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 표시부(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 디스플레이 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
더 나아가, 디스플레이 컨트롤러(195)는 표시부(190)를 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 표시부(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다.
나아가, 장치(100)의 구현 형태에 따라, 장치(100)는 표시부(190)를 2개 이상 포함하여 구성할 수도 있다.
또한, 표시부(190)는 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 디스플레이 컨트롤러(195)에 제공하고, 디스플레이 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분할 수 있다.
도 1b는 본 발명의 일 실시예에 따른 모바일 장치의 전면 사시도이고, 도 1c는 본 발명의 일 실시예에 따른 모바일 장치의 후면 사시도이다. 도 1b 및 1c를 참조하면, 장치(100)의 전면(100a) 중앙에는 표시부(190)가 배치된다. 상기 표시부(190)는 장치(100)의 전면(100a)의 대부분을 차지하도록 구성될 수 있다. 도 1b 는, 상기 표시부(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 장치(100)의 전원을 켰을 때 또는 화면잠금이 해제된 이후에 표시되는 화면으로써, 상기 표시부(190) 상에 표시되는 첫 화면이다. 또한 상기 장치(100)가 여러 페이지의 서로 다른 홈 화면들을 갖고 있을 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 또는 미리 설정된 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 어플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 상기 메인메뉴 전환키(191-4)는 상기 표시부(190) 상에 메뉴 화면을 표시한다. 또한, 상기 표시부(190)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각과 같은 장치(100)의 상태를 나타내는 상태바(Status Bar, 192)가 표시될 수도 있다.
또한, 상기 제어부(110)는 어플리케이션의 동작 시 문자 또는 숫자 등의 입력이 요구되는 기능(예컨대, 통화 어플리케이션의 발신 번호 입력, 문자 메시지 어플리케이션의 문자 입력, IM(Instant Message) 어플리케이션의 문자 입력, 검색 어플리케이션의 문자(또는 숫자) 입력 등)이 실행됨에 따라, 본 발명의 일 실시예에 따른 키 입력 방법에서 제공하는 UI, 가상 버튼, 또는 키 입력창 등을 표시부(190)로 제공할 수 있고, 이에 대응하여 표시부(190)는 상기 키 입력 방법에서 제공하는 UI, 가상 버튼, 또는 키 입력창 등을 표시할 수 있다.
나아가, 상기 표시부(190)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)이 표시될 수 있다. 본 발명의 일 실시예에서, 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)은 도 1b에서와 같이, 표시부(190)의 하부에 별도의 하드웨어 키로 마련되는 것을 예시하고 있으나, 본 발명이 이를 한정하는 것은 아니다. 예컨대, 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)은 상기 표시부(190)의 일 영역, 예컨대, 전술한 단축 아이콘들(191-1, 191-2, 191-3)의 하부 영역에 홈 버튼(161a), 메뉴 버튼(161b), 및 뒤로 가기 버튼(161c)의 기능을 수행하도록 구성된 아이콘 또는 UI 등이 가상 버튼으로 구비될 수도 있다.
홈 버튼(161a)은 표시부(190)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 표시부(190)에 상기 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴화면이 표시된 상태에서, 상기 홈 키(161a)가 입력되면, 표시부(190)에 메인 홈 화면이 디스플레이될 수 있다. 또한, 표시부(190) 상에서 어플리케이션들이 실행되는 도중 홈 버튼(161a)이 입력되면, 상기 표시부(190)상에는 도 1b에 도시된 메인 홈 화면이 디스플레이될 수 있다. 또한 홈 버튼(161a)은 상기 표시부(190) 상에 최근에(recently) 사용된 어플리케이션들을 디스플레이하도록 하거나, 태스크 매니저(Task Manager)를 디스플레이하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 표시부(190) 상에서 사용될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 디스플레이하거나, 가장 최근에 사용된 어플리케이션을 종료시킬 수 있다.
장치(100)의 전면(100a) 가장자리에는 제1 카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 장치(100)의 후면(100c)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
장치(100)의 측면(100b)에는 예를 들어 전원/리셋 버튼(160a), 음량 버튼(161b), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. 상기 DMB 안테나(141a)는 장치(100)에 고정되거나, 착탈 가능하도록 구성될 수도 있다.
또한, 장치(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 장치(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
또한, 장치(100)의 하단 측면에는 스타일러스 펜(168)과 상기 스타일러스 펜(168)을 보관하는 홀이 포함될 수 있다. 스타일러스 펜(168)은 장치(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 장치(100)로부터 인출 및 탈착될 수 있다.
이하, 본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다.
또한, 본 발명의 예시적 실시예에 따른 방법들은 전술한 장치(100)의 저장부(175)에 프로그램 명령 형태로 구현되어 저장될 수 있으며, 상기 프로그램 명령은, 본 발명의 예시적 실시예에 따른 방법들의 실행을 위해 제어부(110) 내에 포함된 램(RAM, 113)에 일시적으로 저장될 수 있다. 이에 따라, 제어부(110)는, 본 발명의 예시적 실시예에 따른 방법들에 따른 상기 프로그램 명령에 대응하여, 장치(100)에 포함된 하드웨어 구성요소들의 제어를 수행하고, 본 발명의 예시적 실시예에 따른 방법들을 실행하면서 발생되는 데이터를 일시 또는 지속적으로 저장부(175)에 저장하고, 본 발명의 예시적 실시예에 따른 방법들의 실행에 필요한 UI를 디스플레이 컨트롤러(195)에 제공할 수 있다.
도 2는 본 발명의 일 실시예에 따른 키 입력 방법의 동작 순서를 도시하는 흐름도이다. 도 2를 참조하면, 본 발명에 따른 키 입력 방법은 키 입력을 위해 설정된 수의 영역에서 제1터치 입력을 확인하는 단계(S201)와, 상기 제1터치 입력이 발생된 부분에 대응하는 영역에 각각 입력 버튼을 생성하는 단계(S202)와, 상기 입력 버튼에서 발생되는 제2터치 입력에 대응하는 키 입력을 처리하는 단계(S203)를 포함한다.
상기 S201단계에서, 단말은, 터치스크린 디스플레이 상에 터치 입력 매체(예컨대, 사용자의 손가락)에 의한 제1터치 입력이 발생되면, 본 발명에 따른 키 입력 방법의 동작을 개시하도록 한다. 그리고, 단말은 상기 제1터치 입력이 발생되는 영역의 수가, 키 입력을 위해 설정된 수에 대응하는 만큼 발생되는 지를 확인한다. 만약, 키 입력을 위해 설정된 수에 대응하는 만큼 상기 제1터치 입력이 발생됨에 따라, 단말은 상기 제1터치 입력이 발생된 영역의 좌표를 확인한다.
예컨대, S201단계에서, 단말은 도 3a 및 도 3b에 예시되는 영역(311a~b, 312a~b, 313a~b, 314a~b, 315a~b, 316a~b), 또는 도 3c 및 도 3d에 예시되는 영역(311c~b, 312c~b, 313c~b, 314c~b, 315c~b, 316c~b, 317c~d, 318c~d)에서 상기 제1터치 입력이 발생되는 것을 확인하고, 상기 제1터치 입력이 발생된 영역의 수가, 점자 입력을 위해 미리 정해진 수(예컨대, 6개 또는 8개)에 대응되는 것을 확인하여, 상기 제1터치 입력이 발생된 영역의 좌표값을 검출한다.
다음으로, S202단계에서, 단말은, 특정 계층의 사용자가 점자 입력을 좀 더 정확하게 진행할 수 있도록, 상기 제1터치 입력이 발생된 영역에 대응하여 입력 버튼을 설정한다. 예컨대, 단말은 도 4a에 예시되는 바와 같이, 제1터치 입력이 발생된 점(401)을 중심으로, 미리 정해진 반경(400)까지의 영역에 입력 버튼(411)을 생성한다. 그리고, 제1터치 입력이 발생된 복수의 점(401, 402, 403, 404, 405, 406) 각각에 대해서도, 이와 같은 방식을 적용하여, 복수의 입력 버튼(411, 412, 413, 414, 415, 416)을 생성하게 된다. 이러한, 입력 버튼(411)은 터치스크린 디스플레이에 사용자의 제1터치 입력에 대응하여 가변적으로 생성되는 것으로, 소정의 프로그램 명령에 의해 형성되는 UI 또는 아이콘 등의 가상 버튼으로 구현될 수 있다.
나아가, 전술한 설명에서, 단말이 입력 버튼(411, 412, 413, 414, 415, 416)을 제1터치 입력이 발생된 점(401, 402, 403, 404, 405, 406)을 중심으로 미리 정해진 반경(400)까지의 영역으로 설정하는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니며, 본 발명에서 이루고자 하는 동기, 즉, 시각 장애인과 같은 특정 계층의 사용자가, 단말의 제조 단계에서 미리 설정되는 점자 영역을 별도로 감지하거나, 인식하지 않고도, 점자 입력을 보다 정확하게 진행할 수 있을 정도로 설정하면 충분하다. 예컨대, 제1터치 입력이 발생된 점(401)을 중심으로 미리 정해진 반경(400)까지의 원 형태의 영역 외에, 사용자의 터치 입력의 특성을 고려하여, 사각형의 형상이거나, 소정의 방향성을 갖는 타원의 형태가 될 수도 있다. 또한, 도 4b에 예시되는 바와 같이, 제1터치 입력이 발생된 점(401, 402, 403, 404, 405, 406)을 기준으로, 터치스크린 디스플레이 영역을 제1터치 입력이 발생된 수로 분할하고, 제1터치 입력이 발생된 점(401, 402, 403, 404, 405, 406)이 포함되는 영역을 각각 입력 버튼(421, 422, 423, 424, 425, 426)으로 설정할 수도 있다. 또한, 설정된 입력 버튼의 영역 형태 또는 위치가 사용자의 제3터치 입력 또는 수차례의 터치 입력에 따라 변경될 수도 있다. 사용자가 터치 입력을 계속함에 따라, 특정 입력 버튼에 대한 터치 입력의 위치가 이동될 수 있고, 단말은 휴리스틱 알고리즘 등을 이용하여 터치 입력의 위치 이동을 트래킹하고 설정된 입력 버튼의 영역 형태 또는 위치를 다양하게 변경할 수도 있다.
더 나아가, S202단계에서, 단말은 사용자가 상기 입력 버튼을 용이하게 식별할 수 있도록, 상기 입력 버튼에 대응하는 영역을 단말 배경 화면과 구별되게 설정하여 표시할 수 있다. 또한, 단말은 상기 입력 버튼에 대응하는 영역에 적절한 진동 피드백, 또는 음성 피드백을 제공함으로써 사용자가 입력을 확인할 수 있도록 할 수 있다.
이로써, 전술한 본 발명의 키 입력 방법에 구비된 S202단계를 통해, 단말은 사용자가 원하는 영역에 발생된 제1터치 입력을 기반으로하여, 대응되는 영역에 입력 버튼을 생성하므로, 사용자가 미리 정해진 키 영역을 확인할 필요 없이, 사용자가 원하는 영역에서 보다 편리하고, 정확하게 키를 입력할 수 있는 환경을 제공할 수 있다.
한편, 일반적으로 점자를 사용하는 사용자는 일반인들보다 상대적으로 시력이 낮은 특정 계층(예컨대 시각 장애인 등)의 사용자가 사용할 가능성이 높은데, 이러한 특정 계층의 사용자는 터치스크린 디스플레이 상에 표시되는 정보를 모두 볼 수 없을 수 있다. 따라서, 상대적으로 시력이 낮은 특정 계층의 사용자는 단말의 터치스크린 디스플레이를 확인하면서 단말의 키 입력을 위한 모드(특히, 점자 입력 모드 등)를 활성화하는데 어려움이 있을 수 있다. 따라서, 상기 S201단계에서, 단말은 사용자가 점자 입력을 위해 터치스크린 디스플레이 상에 터치 입력 매체(예컨대, 사용자의 손가락)를 사용하여, 제1터치 입력을 발생시키는 동작만으로도, 점자 입력을 위한 점자 입력 모드로 전환하도록 키 입력 방법을 구성할 수 있다. 즉, 단말은 터치스크린 디스플레이 상에 제1터치 입력이 발생함에 따라, 상기 제1터치 입력이 발생되는 영역의 수가, 점자 입력을 위해 설정된 수에 대응하는 만큼 발생되는 지를 확인하고, 점자 입력을 위해 설정된 수에 대응하는 만큼 상기 제1터치 입력이 발생됨에 따라, 단말의 동작을 점자 입력을 위한 모드(점자 입력 모드)로 자동으로 전환할 수 있다. 이로써, 상대적으로 시력이 낮은 특정 계층의 사용자는 복잡한 동작 없이 보다 편리하게 키 입력을 진행할 수 있다.
또한, 단말이 터치스크린 디스플레이 상에 점자 입력 버튼을 구비한 고정적으로 미리 설정된 점자 입력 가상 키보드를 구성하더라도, 이러한 특정 계층의 사용자는 상기 설정된 점자 영역을 구분하는데 어려움이 있어, 터치스크린 디스플레이에 구현되는 고정적으로 미리 설정된 점자 입력 가상 키보드만으로 점자 입력이 정확하게 진행되지 못할 가능성이 높다. 그러나, 본 발명의 키 입력 방법에 구비된 S202 단계는, 상기 제1터치 입력이 발생된 영역을 중심으로 가상의 터치 입력 버튼을 생성한다. 이에 따라, 시각 장애인과 같은 특정 계층의 사용자는, 단말의 제조 단계에서 미리 설정되는 점자 영역을 별도로 감지하거나, 인식하지 않고도, 점자 입력을 보다 편리하고 정확하게 진행할 수 있다.
한편, 본 발명의 일 실시예에 따르면, 단말은 미리 설정된 소정의 입력 방식에 기초하여, 상기 키 입력을 미리 설정하여 저장할 수 있다. 그리고, 단말은 상기 입력 버튼에 제2터치 입력이 발생되면, 상기 미리 설정된 키 입력에 기초하여, 해당하는 키 입력을 처리할 수 있다(S203).
전술한 S201 및 S202단계에서, 제1터치 입력은 사용자의 양손 손가락에 의해 이루어지므로, 6개, 8개, 또는 10개의 터치 입력이 동시에 발생될 수 있고, 상기 제1터치 입력이 발생된 영역에 입력 버튼이 생성되므로, 상기 입력 버튼이 6개, 8개, 또는 10개 등으로 구성될 수 있다. 따라서, 상기 미리 설정된 소정의 입력 방식은 6개, 8개, 또는 10개 등의 복수의 입력 버튼을 다양하게 조합할 수 있는 방식이면 충분하다. 나아가, 시각 장애인의 문자 입식과 같은 특수한 목적으로 구성된 점자는 일반적으로 6점자 또는 8점자를 사용하여 구성되므로, 바람직하게 상기 미리 설정된 소정의 입력 방식은 6점자 또는 8점자를 사용한 점자 입력 방식이 될 수 있다.
예컨대, S201 및 S202단계에서 설정된 입력 버튼이 6개인 경우, 단말은 상기 미리 설정된 소정의 입력 방식을 6점자 입력 방식으로 결정할 수 있다. 즉, S202단계에서, 단말은, 상기 설정된 입력 버튼(예컨대, 411, 412, 413, 414, 415, 416)을 6점자 입력 영역에 포함된 제1점자 내지 제6점자 영역(511, 512, 513, 514, 515, 516)(도 5참조)으로 매칭한다. 예컨대, 단말은 도 6a 내지 도 6c와 같이 설정할 수 있다. 여기서, 입력 버튼이 설정될 때마다 위치가 매번 달라지므로, 단말은 설정된 입력 버튼 각각의 상대적 위치 또는 배치 형태를 판단하여 점자 영역과 매칭할 수 있다. 또한, 단말은 설정된 입력 버튼과 점자 영역의 매칭이 되었는지 여부, 또는 매칭된 상태 등을 사용자에게 피드백할 수도 있다. 예를 들어, 단말이 6점자 입력 방식이 설정되었습니다라고 음성 안내를 할 수 있고, 단말은 사용자에게 'a'를 입력해 보세요라고 음성 안내를 통해, 입력 버튼과 점자 영역의 매칭이 바로 되었는지 확인을 요청할 수 있다. 음성 안내에 따라 사용자가 'a'를 입력하였을 때, 기존 매핑에 따른 키입력이 'a'가 아니었던 경우 점자 영역을 회전하여 입력 버튼과 매핑을 다시 설정할 수도 있다. 가령, 단말이 입력 버튼과 점자 영역을 임의 매핑한 후 사용자로부터 수신한 'a'의 입력이 제1점자 입력-511에 대응하는 것이 아니라, 제6점자 입력-516에 대응하는 것이라면, 입력 버튼의 위치는 그대로 두고 점자 영역을 180도 회전된 형상에 다시 매핑할 수 있다. 또한, 단말이 입력 버튼과 점자 영역의 매핑을 자동으로 수정할 수도 있지만, 사용자의 조작에 따라 수정될 수도 있다. 이후, 사용자에 의해 터치스크린 디스플레이 상에, 제2터치 입력 이벤트가 발생됨에 따라, 상기 제2터치 입력 이벤트가 발생된 점이 6점자 입력 영역의 제1점자 내지 제6점자 영역(제1점자-511, 제2점자-512, 제3점자-513, 제4점자-514, 제5점자-515, 제6점자-516) 중, 어느 키 입력에 해당되는 지를 확인한다. 그리고, 상기 제2터치 입력이 발생된 영역이, 6점자 입력 방식(도 6a 내지 도 6c)의 어느 키 입력에 대응되는 지를 확인한다. 예컨대, 상기 제2터치 입력이 제1점자(511)에 대응되는 입력 버튼(즉, 411)에서만 발생된 경우, 단말은 문자 'a'의 입력을 확인하고, 제1점자(511)에 대응되는 입력 버튼(411)과 및 제3점자(513)에 대응되는 입력 버튼(413)에서 발생된 경우, 문자 'b'의 입력을 확인한다.
또 다른 예로써, S202단계에서 설정된 키 입력 영역이 8개인 경우, 단말은 상기 미리 설정된 소정의 입력 방식을 8점자 입력 방식으로 설정할 수 있다. 즉, 단말은, S202단계에서 설정된 입력 버튼을 8점자 입력 영역에 포함된 제1점자 내지 제8점자 영역(711, 712, 713, 714, 715, 716, 717, 718)(도 7참조)으로 매칭한다. 그리고, 사용자에 의해 터치스크린 디스플레이 상에, 제2터치 입력 이벤트가 발생되면, 단말은, 상기 제2터치 입력 이벤트가 발생된 점이 8점자 입력 영역의 제1점자 내지 제8점자 영역(제1점자-711, 제2점자-712, 제3점자-713, 제4점자-714, 제5점자-715, 제6점자-716, 제7점자-717, 제8점자-718) 중, 어느 영역에 해당되는 지를 확인하여, 해당 키 입력을 확인한다(도 8a 및 도 8b). 예컨대, 단말은 상기 제2터치 입력이 제1점자(711)에 대응되는 입력 버튼에서 발생된 경우, 문자 'a'의 입력을 확인하고, 제1점자(711)에 대응되는 입력버튼 및 제7점자(717)에 대응되는 입력버튼에서 발생된 경우, 문자 'A'의 입력을 확인한다.
나아가, 본 발명의 실시예에서 예시한, 점자 입력 방식은 복수의 모드로 이루어질 수 있으며, 각 모드에 따라, 키 입력을 다르게 인식하여 처리할 수 있다. 예컨대, 6점자 입력 방식은 영문 입력 모드, 숫자/특수 문자 입력 모드, 및 한글 입력 모드를 포함할 수 있다. 그리고, 단말은 상기 제2터치 입력이 제1점자(511)에 대응되는 입력 버튼(즉, 411)에서만 발생된 경우, 영문 입력 모드에서는 문자 'a'가 입력된 것으로, 숫자/특수 문자 입력 모드에서는 '1'이 입력된 것으로 확인하여 처리할 수 있다.
이와 같이, 복수의 모드로 이루어진 점자 입력 방식은, 점자 입력 방법의 동작 시, 기본 모드(예컨대, 영문 모드)가 설정되어 동작하고, 하기에 후술되는 제스처 입력 등에 의해 복수의 모드 사이에서의 변경이 처리될 수 있다.
본 발명의 일 실시예에 따른 키 입력 방법은 입력 제스처 처리 동작을 위한 단계를 더 포함할 수 있다. 입력 제스처 처리 동작은 S201단계에서 키 입력 모드로 전환된 후부터 본 발명의 키 입력 방법이 종료되기 전까지의 동작 과정 사이에 수행될 수 있으며, 입력 제스처의 수행을 위해 미리 설정된 제스처 입력에 의해 그 동작이 개시될 수 있다.
도 9는 본 발명의 일 실시예에 따른 키 입력 방법에 포함되는 입력 제스처 처리 동작을 위한 단계의 동작 순서를 도시하는 흐름도이다. 도 9를 참조하면, 우선, S901 단계에서, 단말은 미리 정해진 패턴의 입력 제스처 이벤트의 발생을 확인하고, 입력 제스처 처리 동작을 개시한다.
상기 미리 정해진 패턴의 입력 제스처는 단말의 모션 센서를 기반으로 확인되는 모션 제스처, 또는 단말에 구비된 터치스크린 디스플레이를 통해 입력되는 터치 제스처 일 수 있다. 따라서, S901 단계에서, 단말은 모션 센서로부터 입력되는 센서 값이 미리 설정된 모션 제스처 임계값 이상이 검출되면, 모션 제스처 이벤트가 발생된 것으로 결정한다. 또한, 터치스크린 디스플레이를 통해 입력되는 드래그 제스처의 이동 변위가 미리 설정된 터치 제스처 임계값 이상이 검출되면, 터치 제스처 이벤트가 발생된 것으로 결정한다.
다음으로, S902단계에서, 단말은 상기 입력 제스처가 상기 미리 정해진 패턴에 대응되는지 확인한다. 예컨대, 상기 미리 정해진 패턴은 도 10의 표에 예시되는 바와 같은 모션 제스처 및 터치 제스처를 포함할 수 있다.
모션 제스처는 단말의 틸팅, 이동, 회전 등을 포함할 수 있다. 틸팅은 도 11a에 예시되는 바와 같이, 단말이 상부 모서리 영역이 밀어지는 제1방향(1101), 상부 모서리 영역이 당겨지는 제2방향(1102), 좌측 모서리 영역이 당겨지는 제3방향(1103), 및 우측 모서리 영역이 당겨지는 제4방향(1104)으로 움직이는 제스처를 포함할 수 있다. 이동은, 도 11b에 예시되는 바와 같이, 단말이 지면과 반대되는 방향(예컨대, 상부 방향)(1111), 지면이 위치하는 방향(예컨대, 하부 방향)(1112), 좌측 방향(1113), 및 우측 방향(1114)으로 움직이는 제스처를 포함할 수 있다. 또한, 회전은, 도 11c에 예시되는 바와 같이, 단말이 시계방향(1121) 또는 반 시계방향(1122)으로 움직이는 제스처를 포함할 수 있다.
한편, 터치 제스처는 싱글 터치 드래그 및 멀티 터치 드래그 등을 포함할 수 있다. 싱글 터치 드래그는 도 12a 내지 도 12d에 예시되는 바와 같이, 단일의 터치 입력에 의한 드레그 제스처 입력을 포함할 수 있고, 멀티 터치 드래그는 도 12e 내지 도 12j에 예시되는 바와 같이, 복수의 터치 입력이 동일한 방향으로 이동되는 드레그 제스처 입력(도 12e 내지 도 12h 참조)이나, 복수의 터치 입력이 서로 다른 방향으로 이동되는 드래그 제스처 입력(도 12i 및 도 12j 참조)을 포함할 수 있다.
상기 입력 제스처가, 도 10의 표에 예시되는 제스처에 대응되는 경우, S903단계에서, 단말을 상기 입력 제스처에 대응되는 키 입력을 확인하여, 해당 키 입력의 처리를 수행하는 동작을 진행한다.
예컨대, 단말은 제1방향(1101)으로 기울이는 동작에 의한 틸팅 모션 제스처가 발생되면 엔터키 입력을 처리하고, 제2방향(1102)으로 기울이는 동작에 의한 틸팅 모션 제스처가 발생되면 입력모드(예컨대, 영문 입력 모드, 숫자/특수 문자 입력 모드, 및 한글 입력 모드)를 변경하는 입력을 처리할 수 있다. 또한, 단말은 제3방향(1103)으로 기울이는 동작에 의한 틸팅 모션 제스처가 발생되면 스페이스 키 입력을 처리하고, 제4방향(1104)으로 기울이는 동작에 의한 틸팅 모션 제스처가 발생되면 백스페이스 키 입력을 처리할 수 있다. 그리고, 단말은, 단말 이동에 의한 모션 제스처가 발생되면, 단말이 이동되는 방향과, 이동 변위의 크기에 비례하여, 문자 입력창 내에서 커서의 위치를 이동시킨다.
한편, 단말은, 싱글 터치 드래그가 발생하면, 단말은 문자 입력창 내에서, 싱글 터치의 드래그 방향에 대응되는 방향으로, 커서를 이동하여 표시하되, 이동된 변위의 크기에 비례하여 커서의 이동 정도를 반영하여 표시할 수 있다. 예컨대, 도 12a와 같이, 싱글 터치(1200a)가 좌측방향(1201a)으로 드래그 됨에 따라, 단말은, 문자 입력창(1205a)에 존재하는 커서를 상기 드래그 방향에 대응되는 좌측 방향(1202a)으로 이동시키고, 상기 커서가 이동되는 정도(1204a)를 상기 싱글 터치(1200a) 드래그가 입력된 길이(1203a)에 비례하여 결정하여 표시할 수 있다. 이와 마찬가지로, 도 12b에서도, 싱글 터치(1200b)가 우측방향(1201b)으로 드래그 됨에 따라, 단말은, 문자 입력창(1205a)에 존재하는 커서를 우측 방향(1202b)으로 이동시키고, 상기 싱글 터치(1200a) 드래그가 입력된 길이(1203b)에 비례하여 상기 커서가 이동되는 정도(1204b)를 결정하여 표시할 수 있다. 나아가, 본 발명의 실시예에서, 단말은 싱글 터치 드래그가 터치스크린 디스플레이의 길이 방향으로 입력되는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니며, 다양한 방향으로 입력될 수 있고, 다양한 방향으로 입력되는 싱글 터치 드래그에 대응하여 상기 커서를 이동하여 표시할 수 있다. 예컨대, 도 12c 및 도 12d에 예시되는 바와 같이 싱글 터치 드래그(1200c, 1200d)가 대각선 방향으로 입력되더라도, 단말은 상기 싱글 터치 드래그의 진행 방향(1201c, 1201d)과 진행 길이(1203c, 1203d)에 대응하여 전술한 방식과 같이 문자 입력창(1205c, 1205d) 내에서 커서(1202c, 1202d)를 이동하혀 표시할 수 있다.
또한, 단말은 동일한 방향으로 이동되는 멀티 터치 드래그가 발생하면, 문자 입력창 내에서, 멀티 터치의 드래그 방향에 대응되는 방향으로, 커서를 이동하면서 해당 영역에 존재하는 문자를 삭제하도록 표시할 수 있다. 예컨대, 도 12e에 예시되는 바와 같이, 단말은, 멀티 터치(1200e)가 좌측방향(1201e)으로 드래그 됨에 따라, 문자 입력창(1205e)에 존재하는 커서를 상기 드래그 방향에 대응되는 좌측 방향(1202e)으로 이동하면서, 대응되는 영역에 존재하는 입력 문자를 삭제하여 표시할 수 있다. 이때, 단말은, 상기 멀티 터치(1200e) 드래그가 입력된 길이(1203e)에 비례하여 입력창 내에서 상기 커서가 이동되는 정도(1204e)를 결정하여 표시할 수 있다. 이와 마찬가지로, 도 12f에서도, 단말은, 멀티 터치(1200f)가 우측방향(1201f)으로 드래그 됨에 따라, 문자 입력창(1205f)에 존재하는 커서를 우측 방향(1202f)으로 이동하면서, 상기 멀티 터치(1200f) 드래그가◎입력된 길이(1203f)에 비례하여 상기 커서가 이동되는 정도(1204f)를 반영하고, 대응되는 영역에 존재하는 입력 문자를 삭제하여 표시할 수 있다. 나아가, 본 발명의 실시예에서, 멀티 터치 드래그가 터치스크린 디스플레이의 길이 방향으로 입력되는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니며, 다양한 방향으로 입력되는 멀티 터치 드래그에 대응하여 상기 커서를 이동시킬 수 있다. 예컨대, 도 12g 및 도 12h에 예시되는 바와 같이 멀티 터치 드래그(1200g, 1200h)가 대각선 방향으로 입력되더라도, 단말은, 상기 멸티 터치 드래그의 진행 방향(1201g, 1201h)과 진행 길이(1203g, 1203h)에 대응하여 전술한 방식과 같이 문자 입력창(1205g, 1205h) 내에서 입력 문자를 삭제하여 표시할 수 있다.
또한, 단말은 서로 다른 방향으로 이동되는 멀티 터치 드래그가 입력되는 것에 대응하여, 본 발명에 따른 키 입력 방법을 종료할 수 있다. 예컨대, 도 13a에 예시되는 바와 같이, 제1멀티 터치 입력(1301a)이 제1방향(1303a)으로 드래그되고, 제2멀티 터치 입력(1302a)이 제1방향(1303a)과 반대되는 방향인 제2방향(1303a)으로 드래그되는 입력이 발생함에 따라, 단말은 본 발명에 따른 키 입력 방법을 종료하도록 구성할 수 있다. 또한, 이와 유사하게, 도 13b에 예시되는 바와 같이, 단말은, 제1멀티 터치 입력(1301b)이 제1방향(1303b)으로 드래그되고, 제2멀티 터치 입력(1302b)이 제1방향(1303b)과 서로 다른 방향인 제2방향(1303b)으로 드래그 됨에 따라, 본 발명에 따른 키 입력 방법을 종료할 수도 있다. 본 발명의 일 실시예에서 멀티 터치 드래그가 서로 반대되는 방향으로 입력되는 것을 예시하고 있으나, 본 발명이 이를 한정하는 것은 아니며, 다양하게 변경되어 적용될 수 있음은 물론이다. 예컨대, 도 13a에서, 제1멀티 터치 입력(1301a)과 제2멀티 터치 입력(1302a)이 터치스크린 디스플레이의 중심영역을 향하도록 서로 마주보는 방향으로 입력되거나, 도 13b에서, 제1멀티 터치 입력(1301b)과 제2멀티 터치 입력(1302b)이 터치스크린 디스플레이의 중심 영역을 향해 서로 교차되도록 입력됨에 따라, 단말이 본 발명에 따른 키 입력 방법을 종료할 수도 있다.
이와 같이, 본 발명의 실시예에서, 입력 제스처에 의한 키 입력을 예시하고 있으나, 본 발명이 이를 한정하는 것은 아니다. 입력 제스처에 의한 키 입력은 사용자의 편의성이나, 오 동작 발생 가능성 등을 고려하여, 본 발명의 기술분야에서 통상의 지식을 가진 자에 의해 다양하게 변경될 수 있음은 물론이다.
본 발명의 실시예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 키 입력 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명의 키 입력 방법은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 휴대용 단말은 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 기설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 유선 또는 무선 통신을 수행하기 위한 통신부와, 프로그램의 전송을 제어하는 제어부를 포함할 수 있다. 상기 프로그램 제공 장치는 상기 휴대용 단말로부터 상기 프로그램의 제공 요청을 수신할 경우, 상기 휴대용 단말에 상기 프로그램을 유선 또는 무선으로 제공할 수 있다. 또한, 상기 프로그램 제공 장치는 상기 휴대용 단말로부터 상기 프로그램의 제공 요청이 없는 경우에도, 예를 들어 상기 휴대용 단말이 특정 장소내에 위치할 경우, 상기 휴대용 단말에 상기 프로그램을 유선 또는 무선으로 제공하도록 형성될 수도 있다.

Claims (23)

  1. 터치스크린 디스플레이를 구비한 단말의 키 입력 방법에 있어서,
    키 입력을 위해 설정된 수의 제1터치 입력을 확인하는 과정과,
    상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하는 과정과,
    상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 과정을 포함함을 특징으로 하는 키 입력 방법.
  2. 제1항에 있어서,
    영문 입력 모드, 및 숫자 입력 모드를 포함하는 문자 입력 모드를 설정하는 과정을 더 포함함을 특징으로 하는 키 입력 방법.
  3. 제1항에 있어서,
    상기 키 입력을 위해 설정된 수 및 입력 버튼은 점자 입력 방식에 기초하여 설정되는 것을 특징으로 하는 키 입력 방법.
  4. 제1항에 있어서,
    상기 키 입력은 점자 입력 방식에 대응하여 할당된 문자인 것을 특징으로 하는 키 입력 방법.
  5. 제1항에 있어서,
    사용자의 입력 제스처를 확인하는 과정과,
    상기 입력 제스처에 대응하는 키 입력을 처리하는 과정을 더 포함함을 특징으로 하는 키 입력 방법.
  6. 제5항에 있어서, 상기 입력 제스처는,
    상기 단말의 틸팅, 회전, 및 이동을 포함하는 단말 모션 제스처, 및 상기 터치스크린 디스플레이의 터치 입력을 포함하는 터치 제스쳐, 중 적어도 하나인 것을 특징으로 하는 키 입력 방법.
  7. 제6항에 있어서, 상기 입력 제스처에 대응하는 키 입력을 처리하는 과정은,
    입력할 문자의 종류를 변경하는 문자 입력 모드 변경 기능, 커서의 위치를 이동시키는 커서 이동 기능, 각각의 문자 입력의 완료를 지시하는 문자 입력 완료 기능, 입력된 문자를 삭제하는 문자 삭제 기능, 및 문자 입력의 종료를 지시하는 입력 종료 기능, 중 적어도 하나의 기능을 처리하는 과정인 것을 특징으로 하는 키 입력 방법.
  8. 제6항에 있어서,
    상기 터치 제스쳐는, 적어도 하나의 터치 입력의 드래그 제스처이고,
    상기 입력 제스처에 대응하는 키 입력을 처리하는 과정은, 상기 터치 드래그 제스처의 이동 방향 및 변위의 크기에 따라 커서의 위치를 이동하는 과정인 것을 특징으로 하는 키 입력 방법.
  9. 제6항에 있어서,
    상기 터치 제스쳐는, 복수의 터치 입력이 동일한 방향으로 이동되는 드래그 제스처이고,
    상기 입력 제스처에 대응하는 키 입력을 처리하는 과정은, 상기 터치 드래그 제스처의 이동 방향 및 변위에 대응하는 위치의 입력 문자를 삭제하는 과정인 것을 특징으로 하는 키 입력 방법.
  10. 제6항에 있어서,
    상기 터치 제스쳐는, 복수의 터치 입력이 서로 다른 방향으로 이동되는 드래그 제스처이고,
    상기 입력 제스처에 대응하는 키 입력을 처리하는 과정은, 키 입력의 종료를 처리하는 과정인 것을 특징으로 하는 키 입력 방법.
  11. 제10항에 있어서,
    상기 터치 제스쳐는, 복수의 터치 입력이 서로 반대되는 방향으로 이동되는 드래그 제스처인 것을 특징으로 하는 키 입력 방법.
  12. 단말 장치에 있어서,
    터치스크린 디스플레이부,
    적어도 하나의 제어부, 및
    적어도 키 입력 프로그램을 저장하는 메모리부를 포함하되,
    상기 키 입력 프로그램은, 상기 제어부에 의해 실행되도록 구성되며,
    키 입력을 위해 설정된 수의 제1터치 입력을 확인하고,
    상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하고,
    상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 명령어를 포함함을 특징으로 하는 단말 장치.
  13. 제12항에 있어서, 상기 키 입력 프로그램은,
    영문 입력 모드, 및 숫자 입력 모드를 포함하는 문자 입력 모드를 설정하는 명령어를 더 포함하는 것을 특징으로 하는 단말 장치.
  14. 제12항에 있어서,
    상기 키 입력을 위해 설정된 수 및 입력 버튼은 점자 입력 방식에 기초하여 설정되는 것을 특징으로 하는 단말 장치.
  15. 제12항에 있어서, 상기 키 입력 프로그램은,
    사용자의 입력 제스처를 인식하고,
    상기 입력 제스처에 대응하는 입력을 처리하는 것을 특징으로 하는 단말 장치.
  16. 제15항에 있어서,
    상기 단말 장치의 틸팅, 회전, 및 이동을 포함하는 단말 모션 제스처를 검출하는 모션 센서를 더 포함하며,
    상기 입력 제스처는,
    상기 단말 모션 제스처를 포함함을 특징으로 하는 단말 장치.
  17. 제15항에 있어서, 상기 입력 제스처는,
    상기 터치스크린 디스플레이의 터치 입력을 포함하는 터치 제스쳐를 포함함을 특징으로 하는 단말 장치.
  18. 제16항 또는 제17항에 있어서, 상기 입력 제스처에 대응하는 입력은,
    입력할 문자의 종류를 변경하는 문자 모드 변경, 커서의 위치를 이동시키는 커서 이동, 각각의 문자 입력의 완료를 지시하는 문자 입력 완료, 입력된 문자를 삭제하는 문자 삭제, 및 문자 입력의 종료를 지시하는 입력 종료, 중 적어도 하나인 것을 특징으로 하는 단말 장치.
  19. 제17항에 있어서,
    상기 터치 제스쳐는, 적어도 하나의 터치 입력의 드래그 제스처이고,
    상기 입력 제스처에 대응하는 키 입력의 처리는, 상기 터치 드래그 제스처의 이동 방향 및 변위의 크기에 따라 커서의 위치를 이동하는 것임을 특징으로 하는 단말 장치.
  20. 제17항에 있어서,
    상기 터치 제스쳐는, 복수의 터치 입력이 동일한 방향으로 이동되는 드래그 제스처이고,
    상기 입력 제스처에 대응하는 키 입력의 처리는, 상기 터치 드래그 제스처의 이동 방향 및 변위에 대응하는 위치의 입력 문자를 삭제하는 것임을 특징으로 하는 단말 장치.
  21. 제17항에 있어서,
    상기 터치 제스쳐는, 복수의 터치 입력이 서로 다른 방향으로 이동되는 드래그 제스처이고,
    상기 입력 제스처에 대응하는 키 입력의 처리는, 키 입력의 종료를 처리하는 것임을 특징으로 하는 단말 장치.
  22. 제21항에 있어서,
    상기 터치 제스쳐는, 복수의 터치 입력이 서로 반대되는 방향으로 이동되는 드래그 제스처인 것을 특징으로 하는 단말 장치.
  23. 적어도 하나의 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체에 있어서,
    상기 적어도 하나의 프로그램은,
    키 입력을 위해 설정된 수의 제1터치 입력을 확인하고,
    상기 제1터치 입력에 대응하는 영역에 입력 버튼을 설정하고,
    상기 입력 버튼에 제2터치 입력이 발생함에 대응하여, 해당 키 입력을 처리하는 명령어를 포함함을 특징으로 하는 컴퓨터로 읽을 수 있는 저장 매체.
KR1020120151153A 2012-12-21 2012-12-21 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체 KR102007651B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020120151153A KR102007651B1 (ko) 2012-12-21 2012-12-21 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체
US14/107,317 US9851890B2 (en) 2012-12-21 2013-12-16 Touchscreen keyboard configuration method, apparatus, and computer-readable medium storing program
PCT/KR2013/011749 WO2014098452A1 (en) 2012-12-21 2013-12-17 Input method, terminal apparatus applying input method, and computer-readable storage medium storing program performing the same
JP2013262716A JP6328921B2 (ja) 2012-12-21 2013-12-19 入力方法、入力方法を適用する端末装置、及びこれを実行するプログラムを格納するコンピュータで読み取り可能な記憶媒体
EP13198374.4A EP2746925B1 (en) 2012-12-21 2013-12-19 Braille input method and terminal apparatus applying input method
CN201310718865.7A CN103885705B (zh) 2012-12-21 2013-12-23 输入方法、应用该方法的终端装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120151153A KR102007651B1 (ko) 2012-12-21 2012-12-21 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체

Publications (2)

Publication Number Publication Date
KR20140081423A true KR20140081423A (ko) 2014-07-01
KR102007651B1 KR102007651B1 (ko) 2019-08-07

Family

ID=49886695

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120151153A KR102007651B1 (ko) 2012-12-21 2012-12-21 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체

Country Status (6)

Country Link
US (1) US9851890B2 (ko)
EP (1) EP2746925B1 (ko)
JP (1) JP6328921B2 (ko)
KR (1) KR102007651B1 (ko)
CN (1) CN103885705B (ko)
WO (1) WO2014098452A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160030816A (ko) * 2014-09-11 2016-03-21 최한솔 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법
WO2016039538A3 (ko) * 2014-09-11 2016-05-06 최한솔 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법
KR101898194B1 (ko) * 2017-03-23 2018-09-12 최한솔 점자 입력을 위한 터치스크린 장치의 동작 방법
KR20190009985A (ko) * 2017-07-20 2019-01-30 최한솔 점자 인식이 가능한 하이브리드 워치
KR101944632B1 (ko) * 2017-10-13 2019-01-31 조돈우 점자 생성 시스템 및 이의 제어 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101936090B1 (ko) * 2012-08-29 2019-01-08 삼성전자주식회사 키 입력 제어 장치 및 방법
USD746862S1 (en) * 2013-06-12 2016-01-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US9684448B2 (en) * 2014-02-11 2017-06-20 Sumit Dagar Device input system and method for visually impaired users
TWI543064B (zh) * 2014-05-14 2016-07-21 和冠股份有限公司 快速移動感應方法、控制電路與電磁式感測裝置
WO2016018062A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing content
EP3002669A1 (en) * 2014-09-30 2016-04-06 Advanced Digital Broadcast S.A. System and method for controlling a virtual input interface
DE102014224674A1 (de) * 2014-12-02 2016-06-02 Siemens Aktiengesellschaft Benutzerschnittstelle und Verfahren zur Bedienung eines Systems
US9846505B2 (en) * 2015-01-07 2017-12-19 Honeywell International Inc. Customizable user interface
DE102015011649A1 (de) * 2015-09-11 2017-03-30 Audi Ag Bedienvorrichtung mit Zeicheneingabe und Löschfunktion
RU2015145559A (ru) * 2015-10-22 2017-04-25 Федор Валентинович Беломоев Устройство и способ приема и передачи информации с использованием шрифта брайля
MY202195A (en) * 2015-11-23 2024-04-16 Verifone Inc Systems and methods for authentication code entry in touch-sensitive screen enabled devices
JP6500830B2 (ja) * 2016-04-27 2019-04-17 京セラドキュメントソリューションズ株式会社 手書き文字入力装置、画像形成装置及び手書き文字入力方法
CN106355394A (zh) * 2016-08-22 2017-01-25 广西咪付网络技术有限公司 一种基于移动智能终端传感器控制支付的方法
CN107300986B (zh) * 2017-06-30 2022-01-18 联想(北京)有限公司 输入法切换方法及装置
US10705731B2 (en) * 2017-08-17 2020-07-07 The Boeing Company Device operational control systems and methods
CN107767939A (zh) * 2017-09-30 2018-03-06 深圳市易特科信息技术有限公司 适于盲人使用的中医体质辨识仪
CN208065158U (zh) * 2017-09-30 2018-11-09 深圳市易特科信息技术有限公司 带有微型控制盘的中医体质辨识仪
CN108255314A (zh) * 2018-01-15 2018-07-06 南京特殊教育师范学院 一种基于注音提示多点触摸手势识别的盲文输入法
CN111221405A (zh) * 2018-11-23 2020-06-02 东莞市易联交互信息科技有限责任公司 一种手势控制方法及设备
US11587412B1 (en) * 2019-02-14 2023-02-21 Block, Inc. Self-centering user interface for inputting information
KR20200125244A (ko) * 2019-04-26 2020-11-04 삼성전자주식회사 터치 센서를 포함하는 표시 장치를 포함하는 전자 장치
WO2020240578A1 (en) * 2019-05-24 2020-12-03 Venkatesa Krishnamoorthy Method and device for inputting text on a keyboard
US11341496B2 (en) 2020-06-03 2022-05-24 Fiserv, Inc. Hardware device for entering a PIN via tapping on a touch screen display
EP4350498A1 (en) 2022-10-07 2024-04-10 Thales Dis France Sas Method and device for capturing a numerical code

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062867A (ja) * 2002-06-03 2004-02-26 Fuji Xerox Co Ltd 機能制御装置およびその方法
US20110012716A1 (en) * 2009-07-14 2011-01-20 Sony Computer Entertainment America Inc. Method and apparatus for multitouch text input
KR20120017851A (ko) * 2010-08-20 2012-02-29 삼성전자주식회사 휴대용 단말기의 터치 입력 장치 및 방법
WO2012048380A1 (en) * 2010-10-14 2012-04-19 University Of Technology, Sydney Virtual keyboard

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5993089A (en) * 1997-02-03 1999-11-30 Burrell, Iv; James William 8-bit binary code for use as an 8-dot braille arrangement and data entry system and method for 8-key chordic binary keyboards
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
WO2000017739A1 (fr) * 1998-09-22 2000-03-30 Yasufumi Mase Processeur de donnees pour personne atteinte de troubles visuels et peripherique tactile entree/sortie
JP2002341991A (ja) 2001-05-17 2002-11-29 Sony Corp 情報表示装置
CA2460836A1 (en) 2001-09-18 2003-03-27 Karen Gourgey Tactile graphic-based interactive overlay assembly and computer system for the visually impaired
US7190351B1 (en) * 2002-05-10 2007-03-13 Michael Goren System and method for data input
US7461356B2 (en) 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
US7171364B2 (en) * 2002-09-12 2007-01-30 Kabushiki Kaisha Toshiba Voice assistant apparatus inputting a key
US20040218451A1 (en) * 2002-11-05 2004-11-04 Said Joe P. Accessible user interface and navigation system and method
US20050079472A1 (en) * 2003-10-10 2005-04-14 Askk Co., Ltd. Braille display system
JP4546164B2 (ja) * 2004-06-17 2010-09-15 セイコーエプソン株式会社 文字情報処理装置、文字情報処理装置の情報処理方法、プログラムおよび記憶媒体
JP2006128788A (ja) 2004-10-26 2006-05-18 Yamaha Corp 携帯情報端末
US20120176320A1 (en) * 2005-03-18 2012-07-12 Burrell Iv James W Touchscreen keyboard displays, alphanumeric input keyboards and control means
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
WO2008010024A1 (en) * 2006-07-16 2008-01-24 Cherradi I Free fingers typing technology
CN101325768B (zh) 2007-06-14 2012-05-30 鸿富锦精密工业(深圳)有限公司 移动通信装置及其按键输入方法
CN100478855C (zh) 2007-09-07 2009-04-15 中国科学院计算技术研究所 一种盲文计算机点字输入系统和装置以及方法
US9110590B2 (en) * 2007-09-19 2015-08-18 Typesoft Technologies, Inc. Dynamically located onscreen keyboard
US8090885B2 (en) * 2008-01-14 2012-01-03 Microsoft Corporation Automatically configuring computer devices wherein customization parameters of the computer devices are adjusted based on detected removable key-pad input devices
US8358277B2 (en) * 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
CN101339467B (zh) 2008-07-04 2011-01-12 中国科学院计算技术研究所 一种盲文计算机点字输入系统及方法
US8388346B2 (en) * 2008-08-30 2013-03-05 Nokia Corporation Tactile feedback
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
US20100182242A1 (en) * 2009-01-22 2010-07-22 Gregory Fields Method and apparatus for braille input on a portable electronic device
US8686951B2 (en) * 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
EP2437213A1 (en) 2009-06-16 2012-04-04 Intel Corporation Camera applications in a handheld device
US20110020771A1 (en) 2009-07-23 2011-01-27 Rea Ryan M Electronic braille typing interface
JP4823342B2 (ja) * 2009-08-06 2011-11-24 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型コンピュータ
US20110074692A1 (en) * 2009-09-30 2011-03-31 At&T Mobility Ii Llc Devices and Methods for Conforming a Virtual Keyboard
JP2011227854A (ja) 2009-09-30 2011-11-10 Aisin Aw Co Ltd 情報表示装置
US9747813B2 (en) * 2009-11-12 2017-08-29 Apple Inc. Braille mirroring
US20110143321A1 (en) * 2009-12-10 2011-06-16 Nghia Xuan Tran Portable multifunctional communication and environment aid for the visually handicapped
US8451240B2 (en) * 2010-06-11 2013-05-28 Research In Motion Limited Electronic device and method of providing tactile feedback
WO2011158701A1 (ja) * 2010-06-14 2011-12-22 株式会社ソニー・コンピュータエンタテインメント 端末装置
JP4700758B1 (ja) * 2010-08-23 2011-06-15 敬三 森川 入力装置
JP2012064066A (ja) 2010-09-17 2012-03-29 Shinano Kenshi Co Ltd 携帯端末
KR101726607B1 (ko) 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US8587547B2 (en) * 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
KR101314262B1 (ko) 2010-11-11 2013-10-14 (주) 에스엔아이솔라 시각 장애인에 의한 객체 조작이 가능한 터치스크린 장치 및 그 장치에서의 객체 조작 방법
US8666444B2 (en) * 2010-11-19 2014-03-04 Padmanabhan Mahalingam Multiple-mode input keypad
KR101123212B1 (ko) 2011-03-31 2012-03-20 (주) 에스엔아이솔라 시각 장애인을 위한 터치스크린 장치 및 그 장치에서 문자 입력 방법
US9430145B2 (en) * 2011-04-06 2016-08-30 Samsung Electronics Co., Ltd. Dynamic text input using on and above surface sensing of hands and fingers
KR20120136900A (ko) * 2011-06-10 2012-12-20 삼성전자주식회사 터치 스크린을 구비한 기기에서 점자 입력을 위한 장치 및 방법
US20120327013A1 (en) * 2011-06-22 2012-12-27 Lee Jeffery T Method and apparatus for initiating operations on a touch device
US9448724B2 (en) * 2011-07-11 2016-09-20 International Business Machines Corporation Dynamically customizable touch screen keyboard for adapting to user physiology
US20130016042A1 (en) * 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
US20130249821A1 (en) * 2011-09-27 2013-09-26 The Board of Trustees of the Leland Stanford, Junior, University Method and System for Virtual Keyboard
CN102629164B (zh) * 2012-02-28 2017-06-27 南京中兴软件有限责任公司 一种多点触摸设备及信息显示方法及应用处理装置
US20130222247A1 (en) * 2012-02-29 2013-08-29 Eric Liu Virtual keyboard adjustment based on user input offset
CN102650909B (zh) * 2012-04-16 2015-01-21 杨林 字符输入装置及字符输入方法
JP5977101B2 (ja) 2012-07-05 2016-08-24 京セラ株式会社 携帯端末、点字入力方法および点字入力プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062867A (ja) * 2002-06-03 2004-02-26 Fuji Xerox Co Ltd 機能制御装置およびその方法
US20110012716A1 (en) * 2009-07-14 2011-01-20 Sony Computer Entertainment America Inc. Method and apparatus for multitouch text input
KR20120017851A (ko) * 2010-08-20 2012-02-29 삼성전자주식회사 휴대용 단말기의 터치 입력 장치 및 방법
WO2012048380A1 (en) * 2010-10-14 2012-04-19 University Of Technology, Sydney Virtual keyboard

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160030816A (ko) * 2014-09-11 2016-03-21 최한솔 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법
WO2016039538A3 (ko) * 2014-09-11 2016-05-06 최한솔 점자 지원 기능이 구비된 터치스크린 장치 및 그 제어방법
US10181269B2 (en) 2014-09-11 2019-01-15 Han Sol Choi Touch screen device having braille support function and control method therefor
KR101898194B1 (ko) * 2017-03-23 2018-09-12 최한솔 점자 입력을 위한 터치스크린 장치의 동작 방법
KR20190009985A (ko) * 2017-07-20 2019-01-30 최한솔 점자 인식이 가능한 하이브리드 워치
KR101944632B1 (ko) * 2017-10-13 2019-01-31 조돈우 점자 생성 시스템 및 이의 제어 방법

Also Published As

Publication number Publication date
EP2746925A2 (en) 2014-06-25
US9851890B2 (en) 2017-12-26
EP2746925A3 (en) 2015-05-27
JP2014123949A (ja) 2014-07-03
KR102007651B1 (ko) 2019-08-07
WO2014098452A1 (en) 2014-06-26
JP6328921B2 (ja) 2018-05-23
EP2746925B1 (en) 2018-08-22
US20140181722A1 (en) 2014-06-26
CN103885705A (zh) 2014-06-25
CN103885705B (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
KR102007651B1 (ko) 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체
AU2019246927B2 (en) Electronic device for providing hovering input effects and method for controlling the same
AU2014208041B2 (en) Portable terminal and method for providing haptic effect to input unit
KR102139526B1 (ko) 전자 장치의 화면상에 표시되는 복수의 객체들을 실행하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
KR102264444B1 (ko) 전자 장치에서 기능 실행 방법 및 장치
US20140055395A1 (en) Method and apparatus for controlling scrolling
KR102102157B1 (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
US20150241970A1 (en) Method and apparatus for providing haptic effect
KR20140076261A (ko) 펜을 이용한 사용자 인터페이스 제공 단말 및 방법
US20150026638A1 (en) Apparatus and method of controlling external input device, and computer-readable recording medium
KR101936090B1 (ko) 키 입력 제어 장치 및 방법
KR20140089976A (ko) 라이브 박스를 관리하는 방법 및 장치
KR102022050B1 (ko) 패럴랙스 스크롤 기능을 가지는 모바일 장치 및 그 제어 방법
KR102123406B1 (ko) 멀티 터치 입력을 지원하는 터치스크린을 구비한 모바일 단말기 및 그의 제어 방법
KR20140029608A (ko) 좌표 측정 장치 및 그 제어 방법
KR20140111089A (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
KR20140131051A (ko) 압력 센서를 포함하는 전자 장치 및 그 제어 방법
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR20140089714A (ko) 상태 바를 변경하는 모바일 장치 및 그 제어 방법
KR102218507B1 (ko) 라이브 박스를 관리하는 방법 및 장치
KR20140089870A (ko) 사용자 인터페이스 제공 방법 및 그 장치
US20150067493A1 (en) Method of modifying text input from user and electronic device therefor

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant