KR20150057080A - 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 - Google Patents

입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 Download PDF

Info

Publication number
KR20150057080A
KR20150057080A KR1020130139939A KR20130139939A KR20150057080A KR 20150057080 A KR20150057080 A KR 20150057080A KR 1020130139939 A KR1020130139939 A KR 1020130139939A KR 20130139939 A KR20130139939 A KR 20130139939A KR 20150057080 A KR20150057080 A KR 20150057080A
Authority
KR
South Korea
Prior art keywords
input
input tool
tool
touch
length
Prior art date
Application number
KR1020130139939A
Other languages
English (en)
Other versions
KR102206053B1 (ko
Inventor
윤성진
조표제
홍유진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130139939A priority Critical patent/KR102206053B1/ko
Priority to US14/546,547 priority patent/US10545663B2/en
Publication of KR20150057080A publication Critical patent/KR20150057080A/ko
Application granted granted Critical
Publication of KR102206053B1 publication Critical patent/KR102206053B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 전자 장치의 동작 방법에 있어서, 터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하는 과정; 상기 감지된 입력도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환하는 과정; 및 상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정을 그 구성상의 특징으로 하는 입력 수단에 따라 입력 모드를 변경하는 전자 장치 및 방법에 관한 것이다.

Description

입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법{APPARATAS AND METHOD FOR CHANGING A INPUT MODE ACCORDING TO INPUT METHOD IN AN ELECTRONIC DEVICE}
본 발명은 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법에 관한 것이다.
전자 장치에서는 별도의 입력 버튼을 구비하여 사용자로부터 다양한 명령어 및 텍스트 등을 입력받을 수 있다. 예를 들면, 전자 장치는 사용자의 손의 형태와 유사한 모양의 자판을 구비하여 사용자로부터 손쉽게 텍스트를 입력받을 수 있게 되었고, 다양한 입력을 받기 위하여 입력 모드를 변경할 수 있는 별도의 버튼을 구비하고 있다.
본 발명의 다양한 실시 예는 감지된 입력 도구의 개수에 따라 설정된 입력 모드로 전환할 수 있어, 입력 모드를 전환하기 위한 별도의 동작이 요구되지 않아, 사용자의 인터랙션을 감소시켜 줄 수 있는 장치 및 방법을 제안하고자 한다.
본 발명의 다양한 실시 예는 설정된 어느 하나의 입력 모드로 전환된 경우, 해당 입력 모드의 키 패드를 디스플레이하지 않고도 사전에 정의된 텍스트를 입력받을 수 있어, 사용자의 편의성을 향상시켜 줄 수 있는 장치 및 방법을 제안하고자 한다.
본 발명의 다양한 실시 예는 설정된 개수의 입력 도구를 감지한 후, 어느 하나의 입력 수단으로부터 터치 입력을 받아 디스플레이된 컨텐츠의 레이아웃을 손쉽게 변경할 수 있어, 사용자의 다양한 욕구를 충족시켜 줄 수 있는 장치 및 방법을 제안하고자 한다.
본 발명의 실시 예들에 따르면, 전자 장치의 동작 방법에 있어서, 터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하는 과정; 상기 감지된 입력도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환하는 과정; 및 상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정을 그 구성상의 특징으로 한다.
상기 터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하는 과정은, 상기 입력도구가 상기 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 상기 입력도구의 개수를 감지할 수 있다.
상기 전환된 입력 모드에 따라 설정된 키 패드를 상기 입력도구에 의하여 호버링이 감지되는 영역에 디스플레이하는 과정을 더 포함할 수 있다.
상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 입력도구에 의하여 호버링이 감지되는 영역에 상기 디스플레이된 키 패드가 함께 이동됨을 확인하는 과정을 더 포함할 수 있다.
상기 전환된 입력 모드에 따라 상기 감지된 각각의 입력도구의 설정된 영역을 연결하는 가상의 기준선을 설정하는 과정을 더 포함할 수 있다.
상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 설정된 가상의 기준선이 함께 이동됨을 확인하는 과정을 더 포함할 수 있다.
상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정은, 상기 감지된 입력도구 중 어느 하나의 입력도구로부터 터치 입력을 받는 과정; 상기 터치 입력을 받은 입력도구와 상기 터치 입력을 받은 입력도구를 제외한 나머지 입력도구의 상대적인 길이 변화를 비교하는 과정; 및 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화에 따라 어느 하나의 컨텐츠를 입력받는 과정을 포함할 수 있다.
상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화에 따라 어느 하나의 컨텐츠를 입력받는 과정은, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하는 과정; 상기 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨을 확인하는 과정; 및 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 과정을 포함할 수 있다.
상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화에 따라 어느 하나의 컨텐츠를 입력받는 과정은, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하는 과정; 상기 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지됨을 확인하는 과정; 및 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 과정을 포함할 수 있다.
상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화에 따라 어느 하나의 컨텐츠를 입력받는 과정은, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하는 과정; 상기 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨을 확인하는 과정; 및 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 과정을 포함할 수 있다.
상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정은, 상기 감지된 입력도구 중 어느 하나의 입력도구로부터 터치 입력을 받는 과정; 상기 입력도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하는 과정; 상기 입력도구가 상기 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 레이아웃이 변경됨을 확인하는 과정을 포함할 수 있다.
상기 입력도구가 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 레이아웃이 변경됨을 확인하는 과정은, 상기 디스플레이된 컨텐츠의 서체, 폰트 크기, 굵기, 색상, 투명도 및 표기 타입 중 적어도 하나가 변경됨을 확인할 수 있다.
본 발명의 실시 예들에 따르면, 전자 장치에 있어서, 터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하고, 상기 감지된 입력도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환하며, 상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 프로세서; 및 상기 프로세서에서 제어된 데이터를 저장하는 메모리를 그 구성상의 특징으로 한다.
상기 프로세서는, 상기 입력도구가 상기 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 상기 입력도구의 개수를 감지할 수 있다.
상기 전환된 입력 모드에 따라 설정된 키 패드를 상기 입력도구에 의하여 호버링이 감지되는 영역에 디스플레이하는 디스플레이 모듈을 더 포함할 수 있다.
상기 프로세서는, 상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 입력도구에 의하여 호버링이 감지되는 영역에 상기 디스플레이된 키 패드가 함께 이동됨을 확인할 수 있다.
상기 프로세서는, 상기 전환된 입력 모드에 따라 상기 감지된 각각의 입력도구의 설정된 영역을 연결하는 가상의 기준선을 설정할 수 있다.
상기 프로세서는, 상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 설정된 가상의 기준선이 함께 이동됨을 확인할 수 있다.
상기 감지된 입력도구 중 어느 하나의 입력도구로부터 터치 입력을 받고, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화에 따라 어느 하나의 컨텐츠를 입력받는 디스플레이 모듈을 더 포함하고, 상기 프로세서는, 상기 터치 입력을 받은 입력도구와 상기 터치 입력을 받은 입력도구를 제외한 나머지 입력도구의 상대적인 길이 변화를 비교할 수 있다.
상기 프로세서는, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 상기 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨을 확인하고, 상기 디스플레이 모듈은, 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받을 수 있다.
상기 프로세서는, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 상기 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지됨을 확인하고, 상기 디스플레이 모듈은, 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받을 수 있다.
상기 프로세서는, 상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 상기 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨을 확인하고, 상기 디스플레이 모듈은, 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받을 수 있다.
상기 감지된 입력도구 중 어느 하나의 입력도구로부터 터치 입력을 받는 디스플레이 모듈을 더 포함하고, 상기 프로세서는, 상기 입력도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하고, 상기 입력도구가 상기 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 레이아웃이 변경됨을 확인할 수 있다.
상기 프로세서는, 상기 디스플레이된 컨텐츠의 서체, 폰트 크기, 굵기, 색상, 투명도 및 표기 타입 중 적어도 하나가 변경됨을 확인할 수 있다.
본 발명의 다양한 실시 예는 감지된 입력 도구의 개수에 따라 설정된 입력 모드로 전환할 수 있어, 입력 모드를 전환하기 위한 별도의 동작이 요구되지 않아, 사용자의 인터랙션을 감소시켜 줄 수 있다.
도 1은 본 발명에 따른 전자 장치의 블록도.
도 2는 본 발명의 일 실시 예에 따른 하드웨어의 블록도.
도 3은 본 발명의 일 실시 예에 따른 프로그래밍 모듈의 블록도.
도 4는 본 발명에 따른 전자 장치에서 감지된 입력 도구의 개수에 따라 설정된 텍스트를 입력받는 제1 실시 예를 도시한 도면.
도 5는 본 발명에 따른 전자 장치에서 디스플레이된 컨텐츠의 레이아웃을 조절하는 제1 실시 예를 도시한 도면.
도 6은 본 발명에 따른 전자 장치에서 디스플레이된 컨텐츠의 레이아웃을 조절하는 제2 실시 예를 도시한 도면.
도 7은 본 발명에 따른 전자 장치에서 감지된 입력 도구의 개수에 따라 설정된 텍스트를 입력받는 제2 실시 예를 도시한 도면.
도 8은 본 발명에 따른 전자 장치에서 감지된 입력 도구의 개수에 따라 설정된 텍스트를 입력받는 제3 실시 예를 도시한 도면.
도 9는 본 발명의 일 실시 예에 따른 입력 도구에 따라 입력 모드를 변경하는 전자 장치의 동작 순서를 도시한 순서도.
도 10은 본 발명의 일 실시 예에 따른 전자 장치의 방법의 흐름도.
이하, 첨부된 도면을 참조하여 본 발명을 설명한다. 본 발명은 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있으나, 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 따라서, 본 발명은 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용되었다.
본 발명에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 카메라(camera), 웨어러블 장치(wearable device), 전자 시계(electronic clock), 손목 시계(wrist watch), 스마트 가전(smart white appliance)(예: 냉장고, 에어컨, 청소기, 인공 지능 로봇, TV, DVD(digital video disk) 플레이어, 오디오, 오븐, 전자레인지, 세탁기, 공기 청정기, 전자 액자 등), 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 전자 사전, 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(electronic equipment for ship, 예를 들면, 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 전자 의복, 전자 키, 캠코더(camcorder), 게임 콘솔(game consoles), HMD(head-mounted display), 평판표시장치(flat panel display device), 전자 앨범, 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device) 또는 프로젝터(projector) 등의 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 발명에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
도 1은 본 발명에 따른 전자 장치의 블록도이다. 도 1을 참조하면, 전자장치(100)는 버스(110), 프로세서(120), 메모리(130), 사용자 입력 모듈(140), 디스플레이 모듈(150), 또는 통신 모듈(160)을 포함할 수 있다.
버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
프로세서(120)는, 예를 들면, 버스(110)를 통해 전술한 다른 구성요소들(예: 메모리(130), 사용자 입력 모듈(140), 디스플레이 모듈(150), 통신 모듈(160) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 프로세서(120) 또는 다른 구성요소들(예: 상기 사용자 입력 모듈(140), 디스플레이 모듈(150), 통신 모듈(160) 등)로부터 수신되거나 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리(130)는, 예를 들면, 커널(131), 미들웨어(132), 어플리케이션 프로그래밍 인터페이스(API: application programming interface, 133) 또는 애플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어(132), API(133) 또는 애플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120) 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(131)은 미들웨어(132), API(133) 또는 애플리케이션(134)에서 전자 장치(100)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(132)는 API(133) 또는 애플리케이션(134)이 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(132)는 (다수의) 애플리케이션들(134)로부터 수신된 작업 요청들과 관련하여, 예를 들면, (다수의) 애플리케이션들(134) 들 중 적어도 하나의 애플리케이션에 전자 장치(100)의 시스템 리소스(예: 버스(110), 프로세서(120) 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.
API(133)는 애플리케이션(134)이 커널(131) 또는 미들웨어(132)에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다.
사용자 입력 모듈(140)은, 예를 들면, 사용자로부터 명령 또는 데이터를 입력받아 버스(110)를 통해 프로세서(120) 또는 메모리(130)에 전달할 수 있다. 디스플레이 모듈(150)은 사용자에게 화상, 영상 또는 데이터 등을 표시할 수 있다.
통신 모듈(160)은 다른 전자 장치(102)와 전자 장치(100) 간의 통신을 연결할 수 있다. 통신 모듈(160)은 소정의 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 소정의 네트워크 통신(162)(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)을 지원할 수 있다. 전자 장치(102, 104) 각각은 전자 장치(100)와 동일한 (예: 같은 타입의) 장치이거나 또는 다른 (예: 다른 타입의) 장치일 수 있다.
도 2는 본 발명의 일 실시 예에 따른 하드웨어의 블록도이다. 상기 하드웨어(200)는, 예를 들면, 도 1에 도시된 전자 장치(100)일 수 있다. 도 2를 참조하면, 하드웨어(200)는 하나 이상의 프로세서(210), SIM(subscriber identification module) 카드(214), 메모리(220), 통신 모듈(230), 센서 모듈(240), 사용자 입력 모듈 250, 디스플레이 모듈 260, 인터페이스 270, 오디오 코덱 280, 카메라 모듈(291), 전력관리 모듈(295), 배터리(296), 인디케이터(297) 또는 모터(298)를 포함할 수 있다.
프로세서(210) (예: 프로세서 120)는 하나 이상의 애플리케이션 프로세서(AP: application processor, 211) 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor, 213)를 포함할 수 있다. 프로세서(210)는, 예를 들면, 도 1에 도시된 프로세서(120)일 수 있다. 도 2에서는 상기 AP(211) 및 CP(213)가 프로세서(210) 내에 포함된 것으로 도시되었으나, AP(211)와 CP(213)는 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 일 실시 예에서는 AP(211) 및 CP(213)는 하나의 IC 패키지 내에 포함될 수 있다. 본 발명에서 프로세서((210)는 터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하고, 감지된 입력도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환하며, 감지된 입력도구 중 터치 입력받은 입력도구 및 터치 입력받은 입력도구의 상대적인 길이 변화에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경할 수 있다. 또한, 프로세서(210)는, 입력도구가 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력도구의 개수를 감지할 수 있다. 또한, 프로세서(210)는, 감지된 입력도구의 이동이 확인될 경우, 입력도구가 이동될 때마다 입력도구에 의하여 호버링이 감지되는 영역에 디스플레이된 키 패드가 함께 이동됨을 확인할 수 있다. 또한, 프로세서(210)는, 전환된 입력 모드에 따라 감지된 각각의 입력도구의 설정된 영역을 연결하는 가상의 기준선을 설정할 수 있다. 또한, 프로세서(210)는, 감지된 입력도구의 이동이 확인될 경우, 입력도구가 이동될 때마다 설정된 가상의 기준선이 함께 이동됨을 확인할 수 있다. 또한, 프로세서(210)는, 터치 입력을 받은 입력도구와 터치 입력을 받은 입력도구를 제외한 나머지 입력도구의 상대적인 길이 변화를 비교할 수 있다. 또한, 프로세서(210)는, 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 터치 입력을 받은 입력도구의 길이가 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨을 확인할 수 있다. 또한, 프로세서(210)는, 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 터치 입력을 받은 입력도구의 길이가 나머지 입력도구의 길이와 동일하게 감지됨을 확인할 수 있다. 또한, 프로세서(210)는, 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 터치 입력을 받은 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨을 확인할 수 있다. 또한, 프로세서(210)는, 입력도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하고, 입력도구가 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 레이아웃이 변경됨을 확인할 수 있다. 또한, 프로세서(210)는, 디스플레이된 컨텐츠의 서체, 폰트 크기, 굵기, 색상, 투명도 및 표기 타입 중 적어도 하나가 변경됨을 확인할 수 있다.
AP(211)는 운영체제 또는 응용 프로그램을 구동하여 AP(211)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP(211)는, 예를 들면, SoC(system on chip)로 구현될 수 있다. 일 실시 예에 따르면, 프로세서(210)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
CP(213)는 하드웨어(200)를 포함하는 전자 장치(예: 전자 장치 100)와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. CP(213)는, 예를 들면, SoC로 구현될 수 있다. 일 실시 예에 따르면, CP(213)는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. CP(213)는, 예를 들면, 가입자 식별 모듈(예: SIM 카드 214)을 이용하여 통신 네트워크 내에서 단말의 구별 및 인증을 수행할 수 있다. 또한, CP(213)는 사용자에게 음성 통화, 영상 통화, 문자 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다.
또한, CP(213)는 통신 모듈(230)의 데이터 송수신을 제어할 수 있다. 도 2에서는, CP(213), 전력관리 모듈(295) 또는 메모리(220) 등의 구성요소들이 AP(211)와 별개의 구성요소로 도시되어 있으나, 일 실시 예에 따르면, AP(211)가 전술한 구성요소들의 적어도 일부(예: CP(213))를 포함하도록 구현될 수 있다.
일 실시 예에 따르면, AP(211) 또는 CP(213)는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP(211) 또는 CP(213)는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
SIM 카드(214)는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드(214)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(220)는 내장 메모리(222) 또는 외장 메모리(224)를 포함할 수 있다. 메모리(220)는, 예를 들면, 도 1에 도시된 메모리(130)일 수 있다. 내장 메모리(222)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 내장 메모리(222)는 Solid State Drive (SSD)의 형태를 취할 수도 있다. 외장 메모리(224)는, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 memorystick 등을 더 포함할 수 있다.
통신 모듈(230)은 무선 통신 모듈(231) 또는 RF 모듈(234)을 포함할 수 있다. 통신 모듈(230)은, 예를 들면, 도 1에 도시된 통신 모듈(160)일 수 있다. 무선 통신 모듈(231)은, 예를 들면, WiFi(233), BT(bluetooth, 235), GPS(237) 또는 NFC(near field communication, 239)를 포함할 수 있다. 예를 들면, 무선 통신 모듈(231)은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 무선 통신 모듈(231)은 하드웨어(200)를 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.
RF 모듈(234)은 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자 신호의 송수신을 담당할 수 있다. RF 모듈(234)은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈(234)은 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.
센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), RGB(red, green, blue) 센서(240H), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K) 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 센서 모듈(240)은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로/대체적으로, 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
사용자 입력 모듈(250)은 터치 패널(touch panel, 252), (디지털) 펜 센서(pen sensor, 254), 키(key, 256) 또는 초음파 입력 장치(258)를 포함할 수 있다. 사용자 입력 모듈(250)은, 예를 들면, 도 1에 도시된 사용자 입력 모듈(140)일 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널(252)은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 직접 터치뿐만 아니라 근접 인식도 가능하다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널(252)은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키(256)로서, 예를 들면, 키패드 또는 터치 키가 이용될 수 있다. 초음파 입력 장치(258)는 초음파 신호를 발생하는 펜을 통해, 단말에서 마이크(예: 마이크(288))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 일 실시 예에 따르면, 하드웨어(200)는 통신 모듈(230)를 이용하여 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 모듈(260)은 패널(262) 또는 홀로그램(264)을 포함할 수 있다. 디스플레이 모듈(260)은, 예를 들면, 도 1에 도시된 디스플레이 모듈(150)일 수 있다. 패널(262)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램(264)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(260)은 패널(262) 또는 홀로그램(264)을 제어하기 위한 제어회로를 더 포함할 수 있다. 본 발명에서 디스플레이 모듈(260)은, 전환된 입력 모드에 따라 설정된 키 패드를 입력도구에 의하여 호버링이 감지되는 영역에 디스플레이할 수 있다. 또한, 디스플레이 모듈(260)은, 감지된 입력도구 중 어느 하나의 입력도구로부터 터치 입력을 받고, 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 터치 입력을 받은 입력도구와 나머지 입력도구와의 상대적인 길이 변화에 따라 어느 하나의 컨텐츠를 입력받을 수 있다. 또한, 디스플레이 모듈(260)은, 설정된 적어도 둘 이상의 컨텐츠 중 입력도구의 길이가 나머지 입력도구의 길이보다 상대적으로 더 길게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받을 수 있다. 또한, 디스플레이 모듈(260)은, 설정된 적어도 둘 이상의 컨텐츠 중 입력도구의 길이가 나머지 입력도구의 길이와 동일하게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받을 수 있다. 또한, 디스플레이 모듈(260)은, 설정된 적어도 둘 이상의 컨텐츠 중 입력도구의 길이가 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받을 수 있다. 또한, 디스플레이 모듈(260)은, 감지된 입력도구 중 어느 하나의 입력도구로부터 터치 입력을 받을 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface, 272), USB(universal serial bus, 274), 프로젝터(276) 또는 D-sub(D-subminiature, 278)를 포함할 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다.
오디오 코덱(280)은 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 코덱(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286) 또는 마이크(288) 등을 통해 입력 또는 출력되는 음성 정보를 변환시킬 수 있다.
카메라 모듈(291)은 화상 및 동영상을 촬영할 수 있는 장치로서, 일 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.
전력관리 모듈(295)은 하드웨어 200의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력관리 모듈(295)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 일 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 상기 배터리(296)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리(296)는 전기를 생성하여 전원을 공급할 수 있고, 예를 들면, 충전식 전지(rechargeable battery)일 수 있다.
인디케이터(297)는 하드웨어(200) 혹은 그 일부(예: 상기 AP 211)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있다. MCU (299)은, 센서 모듈(240)을 제어할 수 있다.
도시되지는 않았으나, 하드웨어(200)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명에 따른 하드웨어의 전술한 구성요소들의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명에 따른 하드웨어는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명에 따른 하드웨어의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 프로그래밍 모듈의 블록도이다. 프로그래밍 모듈(300)은 도 1에 도시된 전자 장치(100)(예: 메모리(130))에 포함(예:저장)될 수 있다. 프로그래밍 모듈(300)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. 프로그래밍 모듈(300)은 하드웨어(예: 하드웨어(200))에 구현되어 전자 장치(예: 전자 장치(100))에 관련된 자원을 제어하는 운영체제(OS: operation system) 또는 운영체제상에서 구동되는 다양한 애플리케이션(예: 애플리케이션(370))을 포함할 수 있다. 예를 들면, 운영체제는 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 등이 될 수 있다. 도 3을 참조하면, 프로그래밍 모듈(300)은 커널(310), 미들웨어 (330), API(application programming interface, 360) 또는 애플리케이션(370)을 포함할 수 있다.
커널(310)(예: 커널(131))은 시스템 리소스 매니저(311) 또는 디바이스 드라이버(312)를 포함할 수 있다. 시스템 리소스 매니저(311)는, 예를 들면, 프로세스관리부(313), 메모리관리부(315) 또는 파일시스템 관리부(317) 등을 포함할 수 있다. 시스템 리소스 매니저(311)는 시스템 리소스의 제어, 할당 또는 회수 등을 수행할 수 있다. 디바이스 드라이버(312)는, 예를 들면, 디스플레이 드라이버(314), 카메라 드라이버(316), 블루투스 드라이버(318), 공유 메모리 드라이버(320), USB 드라이버(322), 키패드 드라이버(324), WiFi 드라이버(326) 또는 오디오 드라이버(328)를 포함할 수 있다. 또한, 일 실시 예에 따르면, 디바이스 드라이버(312)는 IPC (inter-process communication, 미도시) 드라이버를 포함할 수 있다.
미들웨어(330)는 애플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함할 수 있다. 또한, 미들웨어(330)는 애플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API(360)를 통해 기능을 제공할 수 있다. 예를 들면, 도 3에 도시된 바와 같이, 미들웨어(330)(예: 미들웨어(132))는 런타임 라이브러리(335), 어플리케이션 매니저(application manager, 341), 윈도우 매니저(window manager, 342), 멀티미디어 매니저(multimedia manager, 343), 리소스 매니저(resource manager, 344), 파워 매니저(power manager, 345), 데이터베이스 매니저(database manager, 346), 패키지 매니저(347), 연결 매니저(connectivity manager, 348), 통지 매니저(notification manager, 349), 위치 매니저(location manager, 350), 그래픽 매니저(graphic manager, 351) 또는 보안 매니저(security manager, 352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 애플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 일 실시 예에 따르면, 런타임 라이브러리(335)는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
애플리케이션 매니저(341)는, 예를 들면, 애플리케이션(370) 중 적어도 하나의 애플리케이션의 생명주기(life cycle)를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저(344)는 상기 애플리케이션(370) 중 적어도 어느 하나의 애플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저(345)는 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저(346)는 애플리케이션(370) 중 적어도 하나의 애플리케이션에서 사용할 데이터베이스를 생성, 검색 또는 변경할 수 있도록 관리할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 애플리케이션의 설치 또는 업 데이트를 관리할 수 있다.
연결 매니저(348)는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저(349)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저(350)는 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 일 실시 예에 따르면, 전자 장치(예: 전자 장치(100))가 전화 기능을 구비한 경우에는, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager, 미도시)를 더 포함할 수 있다.
미들웨어(330)는 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수 있다. 미들웨어(330)는 차별화된 기능을 제공하기 위해 운영체제의 종류별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 따라서, 본 발명의 실시 예에 기재된 구성요소를 일부 생략하거나 다른 구성요소를 더 구비하거나 또는 유사한 기능을 수행하는 다른 명칭을 갖는 구성요소로 대체할 수 있다.
API(360)(예: API(133))는 API 프로그래밍 함수들의 집합으로, 운영체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 IOS의 경우, 예를 들면, 플랫폼별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다.
애플리케이션(370)(예: 상기 애플리케이션(134))은, 예를 들면, 프리로드 어플리케이션(preloaded Application) 또는 제 삼자 어플리케이션(third party application)을 포함할 수 있다.
프로그래밍 모듈(300)의 적어도 일부는 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서(210))에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(260)가 될 수 있다. 프로그래밍 모듈(300)의 적어도 일부는, 예를 들면, 프로세서(210)에 의해 구현(implement) (예: 실행)될 수 있다. 프로그래밍 모듈(300)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
본 발명에 따른 프로그래밍 모듈(예: 프로그래밍 모듈(300))의 구성요소들의 명칭은 운영체제의 종류에 따라서 달라질 수 있다. 또한, 본 발명에 따른 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다.
도 4는 본 발명에 따른 전자 장치에서 감지된 입력 도구의 개수에 따라 설정된 텍스트를 입력받는 제1 실시 예를 도시한 도면이다. 먼저, 전자 장치는 전자 장치의 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다. 보다 구체적으로, 전자 장치는 입력도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 복수의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다. 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 5개인 경우 영문 또는 한글 키 패드를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우에 대하여 살펴보자.
상술한 예에서, 전자 장치에서 사용자의 손가락 3개가 설정된 높이 이하 및 설정된 시간 이상 터치 스크린상에 위치하고 있다고 판단한 경우, 전자 장치는 숫자 키를 입력할 수 있는 키 패드를 디스플레이할 수 있다. 여기서, 전자 장치는 입력 도구에 의하여 호버링이 감지되는 영역에 설정된 키 패드를 디스플레이할 수 있다. 예를 들면, 도 4의(a)에 도시된 바와 같이, 전자 장치는 사용자의 손가락에 의하여 호버링이 감지되는 영역에 설정된 입력 모드로 전환할 수 있는 숫자 키 패드를 디스플레이할 수 있다.
또한, 전자 장치는 감지된 입력 도구의 이동이 확인될 경우, 입력 도구가 이동될 때마다 입력 도구에 의하여 호버링이 감지되는 영역에 디스플레이된 키 패드가 함께 이동됨을 확인할 수 있다. 예를 들면, 도 4의(a) 및 (b)에 도시된 바와 같이, 전자 장치는 최초 터치 스크린의 우측 부분에 디스플레이하던 키 패드를 사용자의 손가락이 좌측으로 이동됨에 따라 터치 스크린의 좌측 부분에 키 패드가 함께 이동됨을 확인할 수 있다. 즉, 전자 장치는 입력 도구가 이동됨에 따라 입력 도구에 의하여 호버링이 감지되는 영역에 디스플레이된 키 패드를 함께 이동시켜 줄 수 있다. 같은 의미로, 사용자의 입장에서는 입력 도구가 임의의 방향으로 이동되는 경우에도 설정된 키 패드가 입력 도구의 이동 방향으로 함께 이동되기 때문에 사용자의 편의성을 향상시켜 줄 수 있다.
이후, 전자 장치는 감지된 복수의 입력 도구 중 적어도 하나의 입력 도구로부터 터치 입력을 받아, 터치 입력을 받은 입력 도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 터치 입력을 받은 입력 도구와 나머지 입력 도구와의 상대적인 길이 변화 및 이동방향에 따라 어느 하나의 컨텐츠를 입력받을 수 있다.
예를 들면, 도 4의(a) 및 (b)에 도시된 바와 같이, 전자 장치는 제1 입력 도구(401)로부터 1, 4 및 7의 텍스트를 입력받을 수 있고, 제2 입력 도구(402)로부터 2, 5, 8 및 0의 텍스트를 입력받을 수 있으며, 제3 입력 도구(403)로부터 3, 6 및 9의 텍스트를 입력받을 수 있는 경우를 설명해 보자.
상술한 예에서, 전자 장치에서 최초 세 개의 입력 도구(401, 402, 403)가 동일한 길이에 위치하고 있다가 첫 번째 입력 도구(401)가 설정된 길이만큼 아래로 이동함과 동시에 아래로 이동된 영역의 터치 입력을 감지한 경우, 전자 장치는 설정된 텍스트인 7이라는 숫자를 입력받을 수 있다.
같은 의미로, 전자 장치에서 최초 세 개의 입력 도구(401, 402, 403)가 동일한 길이에 위치하고 있다가 첫 번째 입력 도구(401)가 설정된 길이만큼 위로 이동함과 동시에 위로 이동된 영역의 터치 입력을 감지한 경우, 전자 장치는 설정된 텍스트인 1이라는 숫자를 입력받을 수 있다. 결론적으로, 전자 장치는 각각의 입력 도구(401, 402, 403)마다 설정된 텍스트를 입력받을 수 있음을 확인함과 동시에 각각의 입력 도구(401, 402, 403) 상대적인 길이 변화에 따라 어느 하나의 텍스트를 입력받을 수 있다.
또한, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구의 설정된 영역을 연결하는 가상의 기준선을 설정할 수도 있다. 예를 들면, 도 4의(c)에 도시된 바와 같이, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구(401, 402, 403)의 외각 부분을 연결하는 가상의 기준선(404)을 설정할 수도 있다. 여기서, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 키 패드를 디스플레이하지 않고, 가상의 기준선(404)을 디스플레이할 수 있다. 즉, 본 발명에 따른 전자 장치에서는 설정된 입력 모드로 전환한 경우, 설정된 텍스트를 입력받기 위한 설정된 키 패드를 디스플레이할 수도 있으며, 설정된 키 패드를 디스플레이하지 않고, 가상의 기준선(404)을 디스플레이할 수도 있다.
이후, 전자 장치는 감지된 입력 도구의 이동이 확인될 경우, 입력 도구가 이동될 때마다 설정된 가상의 기준선이 함께 이동됨을 확인할 수 있다. 즉, 전자 장치는 입력 도구가 이동됨에 따라 입력 도구에 의하여 호버링이 감지되는 영역에 가상의 기준선을 함께 이동시켜 줄 수 있다. 같은 의미로, 사용자의 입장에서는 입력 도구가 임의의 방향으로 이동되는 경우에도 가상의 기준선이 입력 도구의 이동 방향으로 함께 이동되기 때문에 사용자의 편의성을 향상시켜 줄 수 있다.
이후, 전자 장치는 감지된 복수의 입력 도구 중 적어도 하나의 입력 도구로부터 터치 입력을 받아, 터치 입력을 받은 입력 도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 터치 입력을 받은 입력 도구와 나머지 입력 도구와의 상대적인 길이 변화 및 이동방향에 따라 어느 하나의 컨텐츠를 입력받을 수 있다.
예를 들면, 도 4의(c) 및 (d)에 도시된 바와 같이, 전자 장치는 제1 입력 도구(401)로부터 1, 4 및 7의 텍스트를 입력받을 수 있고, 제2 입력 도구(402)로부터 2, 5, 8 및 0의 텍스트를 입력받을 수 있으며, 제3 입력 도구(403)로부터 3, 6 및 9의 텍스트를 입력받을 수 있는 경우를 설명해 보자.
상술한 예에서, 전자 장치에서 최초 세 개의 입력 도구(401, 402, 403)가 동일한 길이에 위치하고 있다가 세 번째 입력 도구(403)가 가상의 기준선을 기준으로 설정된 길이만큼 위로 이동함과 동시에 위로 이동된 영역의 터치 입력을 감지한 경우, 전자 장치는 설정된 텍스트인 3이라는 숫자를 입력받을 수 있다.
같은 의미로, 전자 장치에서 최초 세 개의 입력 도구(401, 402, 403)가 동일한 길이에 위치하고 있다가 첫 번째 입력 도구(401)가 가상의 기준을 기준으로 설정된 길이만큼 아래로 이동함과 동시에 위로 이동된 영역의 터치 입력을 감지한 경우, 전자 장치는 설정된 텍스트인 7이라는 숫자를 입력받을 수 있다. 결론적으로, 전자 장치는 각각의 입력 도구(401, 402, 403)마다 설정된 텍스트를 입력받을 수 있음을 확인함과 동시에 각각의 입력 도구(401, 402, 403) 상대적인 길이 변화 및 이동방향에 따라 어느 하나의 텍스트를 입력받을 수 있다.
도 5는 본 발명에 따른 전자 장치에서 디스플레이된 컨텐츠의 레이아웃을 조절하는 제1 실시 예를 도시한 도면이다. 먼저, 전자 장치는 전자 장치의 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다. 보다 구체적으로, 전자 장치는 입력도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 복수의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다. 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 4개인 경우 화면의 레이아웃을 조절할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우에 대하여 살펴보자. 또한, 전자 장치의 터치 스크린에는 "ABCDE"라는 텍스트가 디스플레이되어 있고, 전자 장치는 터치 스크린상에 4개의 입력 도구가 위치하고 있음을 감지한 경우에 대하여 살펴보자. 또한, 4개의 입력 도구 중 첫 번째 입력 도구는 컨텐츠의 폰트의 크기를 조절할 수 있는 입력 도구이고, 두 번째 입력 도구는 컨텐츠의 굵기를 조절할 수 있는 입력 도구이며, 세 번째 입력 도구는 컨텐츠의 색상을 조절할 수 있는 입력 도구이며, 네 번째 입력 도구는 컨텐츠의 투명도를 조절할 수 있는 입력 도구인 경우에 대하여 살펴보자.
상술한 예에서, 도 5의(a) 내지 (b)에 도시된 바와 같이, 전자 장치는 4개의 입력 도구(501, 502, 503, 504)가 터치 스크린상에 위치하고 있음을 감지한 후, 4개의 입력 도구(501, 502, 503, 504) 중 첫 번째 입력 도구(501)로부터 터치 입력을 받을 수 있다. 이후, 전자 장치는 첫 번째 입력 도구(501)가 디스플레이된 컨텐츠(ABCDE)의 폰트 크기를 조절할 수 있는 입력 도구임을 확인하여, 터치 스크린의 설정된 위치에 현재 디스플레이되어 있는 컨텐츠의 폰트 크기를 나타내는 가이드 인터페이스를 디스플레이할 수 있다.
이후, 도 5의(c) 및 (d)에 도시된 바와 같이, 전자 장치는 터치 입력받은 첫 번째 입력 도구(501)가 터치 입력을 받은 상태에서 위쪽 방향으로 드래그 됨을 확인할 수 있다. 이와 동시에 전자 장치는 디스플레이된 컨텐츠의 폰트 크기가 최초 10이라는 크기에서 14라는 크기로 변경됨을 확인할 수 있다.
같은 의미로, 도 5에는 도시되지 않았지만, 전자 장치는 첫 번째 입력 도구(501)로부터 터치 입력을 받은 상태에서 아래로 드래그 됨을 확인한 경우, 디스플레이되어 있는 컨텐츠의 폰트 크기를 더 작게 디스플레이할 수 있다.
또한, 전자 장치는 세 번째 입력 도구(503)로부터 터치 입력을 받은 상태에서 위 또는 아래로 드래그 됨을 확인하여, 디스플레이된 컨텐츠의 색상이 변화됨을 확인할 수 있다.
또한, 전자 장치는 네 번째 입력 도구(504)로부터 터치 입력을 받은 상태에서 위 또는 아래로 드래그 됨을 확인하여, 디스플레이된 컨텐츠의 투명도가 변화됨을 확인할 수 있다.
또한, 도 5에는 도시되지 않았지만, 전자 장치는 둘 이상의 입력 도구(501, 502, 503, 504)로부터 디스플레이된 컨텐츠의 둘 이상의 레이아웃을 조절할 수도 있다. 예를 들면, 전자 장치는 첫 번째 입력 도구(501) 및 두 번째 입력 도구(502)로부터 동시에 터치 입력을 받은 상태에서 위쪽 방향 또는 아래쪽 방향으로 드래그 됨을 감지하여, 디스플레이된 컨텐츠의 폰트 크기 및 굵기를 동시에 조절할 수도 있다.
같은 의미로, 전자 장치는 첫 번째 입력도구(501), 두 번째 입력 도구(502) 및 세 번째 입력 도구(503)로부터 동시에 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 감지하여, 디스플레이된 컨텐츠의 폰트 크기, 굵기 및 색상을 동시에 조절할 수도 있다.
같은 의미로, 전자 장치는 첫 번째 입력도구(501), 두 번째 입력 도구(502), 세 번째 입력 도구(503) 및 네 번째 입력도구(504)로부터 동시에 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 감지하여, 디스플레이된 컨텐츠의 폰트 크기, 굵기, 색상 및 투명도를 동시에 조절할 수도 있다.
도 6은 본 발명에 따른 전자 장치에서 디스플레이된 컨텐츠의 레이아웃을 조절하는 제2 실시 예를 도시한 도면이다. 먼저, 전자 장치는 전자 장치의 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다. 보다 구체적으로, 전자 장치는 입력도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 복수의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다. 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 4개인 경우 화면의 레이아웃을 조절할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우에 대하여 살펴보자. 또한, 전자 장치의 터치 스크린에는 "ABCDE"라는 텍스트가 디스플레이되어 있고, 전자 장치는 터치 스크린상에 4개의 입력 도구가 위치하고 있음을 감지한 경우에 대하여 살펴보자. 또한, 4개의 입력 도구 중 첫 번째 입력 도구는 컨텐츠의 폰트의 크기를 조절할 수 있는 입력 도구이고, 두 번째 입력 도구는 컨텐츠의 굵기를 조절할 수 있는 입력 도구이며, 세 번째 입력 도구는 컨텐츠의 색상을 조절할 수 있는 입력 도구이며, 네 번째 입력 도구는 컨텐츠의 투명도를 조절할 수 있는 입력 도구인 경우에 대하여 살펴보자.
상술한 예에서, 도 6의(a) 내지 (b)에 도시된 바와 같이, 전자 장치는 4개의 입력 도구(601, 602, 603, 604)가 터치 스크린상에 위치하고 있음을 감지한 후, 4개의 입력 도구(601, 602, 603, 604) 중 두 번째 입력 도구(602)로부터 터치 입력을 받을 수 있다. 이후, 전자 장치는 두 번째 입력 도구(602)가 디스플레이된 컨텐츠(ABCDE)의 굵기를 조절할 수 있는 입력 도구임을 확인하여, 터치 스크린의 설정된 위치에 현재 디스플레이된 컨텐츠의 굵기를 나타내는 가이드 인터페이스를 디스플레이할 수 있다.
이후, 도 6의(c) 및 (d)에 도시된 바와 같이, 전자 장치는 터치 입력받은 두 번째 입력 도구(602)가 터치 입력을 받은 상태에서 위쪽 방향으로 드래그 됨을 확인할 수 있다. 이와 동시에 전자 장치는 디스플레이된 컨텐츠의 굵기가 최초 5라는 굵기에서 9라는 굵기로 변경됨을 확인할 수 있다.
도 7은 본 발명에 따른 전자 장치에서 감지된 입력 도구의 개수에 따라 설정된 텍스트를 입력받는 제2 실시 예를 도시한 도면이다. 먼저, 전자 장치는 전자 장치의 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다. 보다 구체적으로, 전자 장치는 입력 도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력 도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 복수의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다. 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 8개인 경우 영문 키 패드를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우에 대하여 살펴보자.
상술한 예에서, 전자 장치에서 사용자의 손가락 8개가 설정된 높이 이하 및 설정된 시간 이상 터치 스크린상에 위치하고 있다고 판단한 경우, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구의 설정된 영역을 연결하는 가상의 기준선을 설정할 수도 있다. 즉, 도 7의(a) 및 (b)에 도시된 바와 같이, 전자 장치에서 8개의 입력 도구를 감지한 경우, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구(701 내지 708)의 외각 부분을 연결하는 가상의 기준선(709, 710)을 설정할 수도 있다.
여기서, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 키 패드를 디스플레이하지 않고, 가상의 기준선(709, 710)을 디스플레이할 수 있다. 즉, 본 발명에 따른 전자 장치에서는 설정된 입력 모드로 전환한 경우, 설정된 텍스트를 입력받기 위한 설정된 키 패드를 디스플레이할 수도 있으며, 설정된 키 패드를 디스플레이하지 않고, 가상의 기준선(709, 710)을 디스플레이할 수도 있다.
또한, 전자 장치는 감지된 입력 도구의 이동이 확인될 경우, 입력 도구가 이동될 때마다 설정된 가상의 기준선이 함께 이동됨을 확인할 수 있다. 즉, 전자 장치는 입력 도구가 이동됨에 따라 입력 도구에 의하여 호버링이 감지되는 영역에 가상의 기준선(709, 710)을 함께 이동시켜 줄 수 있다.
이후, 전자 장치는 감지된 복수의 입력 도구 중 적어도 하나의 입력 도구로부터 터치 입력을 받아, 터치 입력을 받은 입력 도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 터치 입력을 받은 입력 도구와 나머지 입력 도구와의 상대적인 길이 변화 및 이동방향에 따라 어느 하나의 컨텐츠를 입력받을 수 있다.
예를 들면, 도 7의(b), (c) 및 (d)에 도시된 바와 같이, 전자 장치는 제1 입력 도구(701)로부터 q, a 및 z의 텍스트를 입력받을 수 있고, 제2 입력 도구(702)로부터 w, s 및 x의 텍스트를 입력받을 수 있고, 제3 입력 도구(703)로부터 e, d 및 c의 텍스트를 입력받을 수도 있으며, 제4 입력 도구(704)로부터 r, f, v, t, g 및 v의 텍스트를 입력받을 수 있는 경우를 설명해 보자.
또한, 전자 장치는 제5 입력 도구(705)로부터 y, h, n, u, j 및 m의 텍스트를 입력받을 수 있고, 제6 입력 도구(706)로부터 i 및 k의 텍스트를 입력받을 수 있고, 제7 입력 도구(707)로부터 o 및 l의 텍스트를 입력받을 수도 있으며, 제8 입력 도구(708)로부터 p의 텍스트를 입력받을 수 있는 경우를 설명해 보자.
상술한 예에서, 전자 장치에서 최초 8개의 입력 도구(701 내지 708)가 동일한 길이에 위치하고 있다가 터치 입력을 받은 첫 번째 입력 도구(701)의 길이가 나머지 입력 도구(702 내지 708)의 길이와 동일하게 감지될 경우 설정된 q, a 및 z의 텍스트 중 a라는 텍스트를 입력받을 수 있다.
같은 의미로, 전자 장치에서 최초 8개의 입력 도구(701 내지 708)가 동일한 길이에 위치하고 있다가 터치 입력을 받은 첫 번째 입력 도구(701)의 길이가 나머지 입력 도구(702 내지 708)의 길이보다 상대적으로 더 길게 감지될 경우 설정된 q, a 및 z의 텍스트 중 q라는 텍스트를 입력받을 수 있다.
같은 의미로, 전자 장치에서 최초 8개의 입력 도구(701 내지 708)가 동일한 길이에 위치하고 있다가 터치 입력을 받은 첫 번째 입력 도구(701)의 길이가 나머지 입력 도구(702 내지 708)의 길이보다 상대적으로 더 짧게 감지될 경우 설정된 q, a 및 z의 텍스트 중 z라는 텍스트를 입력받을 수 있다.
또한, 전자 장치는 복수의 입력 도구(701 내지 708)로부터 동시에 또는 순차적으로 입력받을 수도 있다. 예를 들면, 전자 장치는 제8 입력 도구(708)가 shift키를 입력한 상태에서 제5 입력 도구(705)로부터 "&과 7"을 입력할 수 있는 키를 입력받아, 특수 문자인 "&"을 입력받을 수 있다.
도 8은 본 발명에 따른 전자 장치에서 감지된 입력 도구의 개수에 따라 설정된 텍스트를 입력받는 제3 실시 예를 도시한 도면이다. 먼저, 전자 장치는 전자 장치의 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다. 보다 구체적으로, 전자 장치는 입력 도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력 도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 복수의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다. 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 8개인 경우 한글 키 패드를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우에 대하여 살펴보자.
상술한 예에서, 전자 장치에서 사용자의 손가락 8개가 설정된 높이 이하 및 설정된 시간 이상 터치 스크린상에 위치하고 있다고 판단한 경우, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구의 설정된 영역을 연결하는 가상의 기준선을 설정할 수도 있다. 즉, 도 8의(a) 및 (b)에 도시된 바와 같이, 전자 장치에서 8개의 입력 도구를 감지한 경우, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구(801 내지 808)의 외각 부분을 연결하는 가상의 기준선(809, 810)을 설정할 수도 있다.
여기서, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 키 패드를 디스플레이하지 않고, 가상의 기준선(809, 810)을 디스플레이할 수 있다. 즉, 본 발명에 따른 전자 장치에서는 설정된 입력 모드로 전환한 경우, 설정된 텍스트를 입력받기 위한 설정된 키 패드를 디스플레이할 수도 있으며, 설정된 키 패드를 디스플레이하지 않고, 가상의 기준선(809, 810)을 디스플레이할 수도 있다.
또한, 전자 장치는 감지된 입력 도구의 이동이 확인될 경우, 입력 도구가 이동될 때마다 설정된 가상의 기준선이 함께 이동됨을 확인할 수 있다. 즉, 전자 장치는 입력 도구가 이동됨에 따라 입력 도구에 의하여 호버링이 감지되는 영역에 가상의 기준선(809, 810)을 함께 이동시켜 줄 수 있다.
이후, 전자 장치는 감지된 복수의 입력 도구 중 적어도 하나의 입력 도구로부터 터치 입력을 받아, 터치 입력을 받은 입력 도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 터치 입력을 받은 입력 도구와 나머지 입력 도구와의 상대적인 길이 변화 및 이동방향에 따라 어느 하나의 컨텐츠를 입력받을 수 있다.
예를 들면, 도 8의(b), (c) 및 (d)에 도시된 바와 같이, 전자 장치는 제1 입력 도구(801)로부터 "ㅂ, ㅁ 및 ㅋ"의 텍스트를 입력받을 수 있고, 제2 입력 도구(802)로부터 "ㅈ, ㄴ 및 ㅌ"의 텍스트를 입력받을 수 있고, 제3 입력 도구(803)로부터 "ㄷ, ㅇ 및 ㅊ"의 텍스트를 입력받을 수도 있으며, 제4 입력 도구(804)로부터 "ㄱ, ㄹ, ㅍ, ㅅ, ㅎ 및 ㅠ"의 텍스트를 입력받을 수 있는 경우를 설명해 보자.
또한, 전자 장치는 제5 입력 도구(805)로부터 "ㅛ, ㅗ, ㅜ, ㅕ, ㅓ 및 ㅡ"의 텍스트를 입력받을 수 있고, 제6 입력 도구(806)로부터 "ㅑ 및 ㅏ"의 텍스트를 입력받을 수 있고, 제7 입력 도구(807)로부터 "ㅐ 및 ㅣ"의 텍스트를 입력받을 수도 있으며, 제8 입력 도구(808)로부터 "ㅔ"의 텍스트를 입력받을 수 있는 경우를 설명해 보자.
상술한 예에서, 전자 장치에서 최초 8개의 입력 도구(801 내지 808)가 동일한 길이에 위치하고 있다가 터치 입력을 받은 두 번째 입력 도구(802)의 길이가 나머지 입력 도구(801, 803 내지 808)의 길이와 동일하게 감지될 경우 설정된 "ㅈ, ㄴ 및 ㅌ"의 텍스트 중 "ㄴ"이라는 텍스트를 입력받을 수 있다.
같은 의미로, 전자 장치에서 최초 8개의 입력 도구(801 내지 808)가 동일한 길이에 위치하고 있다가 터치 입력을 받은 두 번째 입력 도구(802)의 길이가 나머지 입력 도구(801, 803 내지 808)의 길이보다 상대적으로 더 길게 감지될 경우 설정된 "ㅈ, ㄴ 및 ㅌ"의 텍스트 중 "ㅈ"이라는 텍스트를 입력받을 수 있다.
같은 의미로, 전자 장치에서 최초 8개의 입력 도구(801 내지 808)가 동일한 길이에 위치하고 있다가 터치 입력을 받은 두 번째 입력 도구(802)의 길이가 나머지 입력 도구(801, 803 내지 808)의 길이보다 상대적으로 더 짧게 감지될 경우 설정된 "ㅈ, ㄴ 및 ㅌ"의 텍스트 중 "ㅌ"이라는 텍스트를 입력받을 수 있다.
도 9는 본 발명의 일 실시 예에 따른 입력 도구에 따라 입력 모드를 변경하는 전자 장치의 동작 순서를 도시한 순서도이다. 먼저, 도 9에 도시된 바와 같이, 전자 장치는 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다(901). 보다 구체적으로, 전자 장치는 입력도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다(902). 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 4개인 경우 화면의 레이아웃을 조절할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우를 설명해 보겠다. 상술한 예에서, 전자 장치가 4개의 입력 도구를 감지한 경우, 전자 장치는 숫자 키를 입력할 수 있는 입력 모드로 전환할 수 있다.
이후, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구의 설정된 영역을 연결하는 가상의 기준선을 설정할 수 있다(903). 예를 들면, 전자 장치에서 입력 도구를 감지한 경우, 전자 장치는 전환된 입력 모드에 따라 감지된 각각의 입력 도구의 외각 부분을 연결하는 가상의 기준선을 설정할 수도 있다.
이후, 전자 장치는 감지된 입력 도구 중 터치 입력받은 입력 도구 및 터치 입력받은 입력 도구의 상대적인 길이 변화 및 이동방향에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경할 수 있다(904). 예를 들면, 전자 장치에서 최초 복수의 입력 도구가 동일한 길이에 위치하고 있다가 터치 입력을 받은 어느 하나의 입력 도구의 길이가 나머지 입력 도구의 길이와 동일하게, 상대적으로 더 길게, 상대적으로 더 짧게 감지될 경우에 따라 각각 설정된 텍스트를 입력받을 수 있다. 또한, 전자 장치는 화면의 레이아웃을 변경하도록 설정된 각각의 입력 도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하여, 화면의 레이아웃을 변경할 수 있다.
도 10은 본 발명의 일 실시 예에 따른 전자 장치의 방법의 흐름도이다. 먼저, 도 10에 도시된 바와 같이, 전자 장치는 터치 스크린상에 위치하고 있는 입력 도구의 개수를 감지할 수 있다(1001). 보다 구체적으로, 전자 장치는 입력도구가 전자 장치의 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 입력도구가 터치 스크린상에 위치하고 있음을 감지할 수 있다.
이후, 전자 장치는 감지된 입력 도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환할 수 있다(1002). 예를 들면, 전자 장치에서 입력 도구의 개수가 3개인 경우 숫자 키를 입력할 수 있는 입력 모드로 전환되도록 설정되어 있고, 입력 도구의 개수가 4개인 경우 화면의 레이아웃을 조절할 수 있는 입력 모드로 전환되도록 설정되어 있는 경우를 설명해 보겠다. 상술한 예에서, 전자 장치가 4개의 입력 도구를 감지한 경우, 전자 장치는 숫자 키를 입력할 수 있는 입력 모드로 전환할 수 있다.
이후, 전자 장치는 감지된 입력 도구 중 터치 입력받은 입력 도구 및 터치 입력받은 입력 도구의 상대적인 길이 변화와 이동방향에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 적어도 하나의 레이아웃을 변경할 수 있다(1003). 예를 들면, 전자 장치에서 최초 복수의 입력 도구가 동일한 길이에 위치하고 있다가 터치 입력을 받은 적어도 하나의 입력 도구의 길이가 나머지 입력 도구의 길이와 동일하게, 상대적으로 더 길게, 상대적으로 더 짧게 감지될 경우에 따라 각각 설정된 텍스트를 입력받을 수 있다. 또한, 전자 장치는 화면의 레이아웃을 변경하도록 설정된 각각의 입력 도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하여, 화면의 레이아웃을 변경할 수 있다.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
100: 전자 장치 102: 전자 장치
104: 전자 장치 110: 버스
120: 프로세서 130: 메모리
131: 커널 132: 미들웨어
133: 애플리케이션 프로그래밍 인터페이스
140: 사용자 입력모듈 150: 디스플레이 모듈
160: 통신 모듈 162: 네트워크
164: 서버 200: 전자 장치
210: 프로세서 211: 애플리케이션 프로세서
213: 커뮤니케이션 프로세서 214: SIM 카드
220: 메모리 222: 내장 메모리
224: 외장 메모리 230: 통신 모듈
231: 무선 통신 모듈 234: RF 모듈
233: WiFi 235: BT
237: GPS 239: NFC
240: 센서 모듈 240A: 제스처 센서
240B: 자이로 센서 240C: 기압 센서
240D: 마그네틱 센서 240E: 가속도 센서
240F: 그립 센서 240G:근접 센서
240H: RGB 센서 240I: 생체 센서
240J: 온/습도 센서 240K: 조도 센서
240M: UV 센서 250: 사용자 입력모듈
252: 터치 패널 254: 펜 센서
256: 키 258: 울트라 소닉
260: 디스플레이 모듈 262: 패널
264: 홀로그램 270: 인터페이스
272: HDMI 274: USB
276: 프로젝터 278: D-SUB
280: 오디오 코덱 282: 스피커
284: 리시버 286: 이어폰
288: 마이크 291: 카메라 모듈
295: 전력 관리 모듈 296: 배터리
297: 인디케이터 298: 모터
300: 전자 장치 310: 커널
311: 시스템 리소스 매니저 312: 디바이스 드라이버
330: 미들웨어 341: 애플리케이션 매니저
342: 윈도우 매니저 343: 멀티미디어 매니저
344: 리소스 매니저 345: 파워 매니저
346: 데이터베이스 매니저 347: 패키지 매니저
348: 연결 매니저 349: 통지 매니저
350: 위치 매니저 351: 그래픽 매니저
352: 보안 매니저 355: 런타임 라이브러리
360: API 370: 애플리케이션
371: 홈 372: 다이얼러
373:SMS/MMS 374: IM
375: 브라우저 376: 카메라
377: 알람 378: 컨텐트
379: 음성 다이얼 380: 이메일
381: 달력 382: 미디어 플레이어
383: 앨범 384: 시계
401 내지 403: 입력 도구 404: 기준선
501 내지 504: 입력 도구 601 내지 604: 입력 도구
701 내지 708: 입력 도구 709: 기준선
710: 기준선 801 내지 808: 입력 도구
809: 기준선 810: 기준선

Claims (24)

  1. 전자 장치의 동작 방법에 있어서,
    터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하는 과정;
    상기 감지된 입력도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환하는 과정; 및
    상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화와 이동방향에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정을 포함하는 방법.
  2. 제1항에 있어서,
    상기 터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하는 과정은,
    상기 입력도구가 상기 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 상기 입력도구의 개수를 감지하는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 전환된 입력 모드에 따라 설정된 키 패드를 상기 입력도구에 의하여 호버링이 감지되는 영역에 디스플레이하는 과정을 더 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 입력도구에 의하여 호버링이 감지되는 영역에 상기 디스플레이된 키 패드가 함께 이동됨을 확인하는 과정을 더 포함하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 전환된 입력 모드에 따라 상기 감지된 각각의 입력도구의 설정된 영역을 연결하는 가상의 기준선을 설정하는 과정을 더 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 설정된 가상의 기준선이 함께 이동됨을 확인하는 과정을 더 포함하는 것을 특징으로 하는 방법.
  7. 제1항에 있어서,
    상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화와 이동방향에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정은,
    상기 감지된 입력도구 중 적어도 하나의 입력도구로부터 터치 입력을 받는 과정;
    상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 터치 입력을 받은 적어도 하나의 입력도구를 제외한 나머지 입력도구의 상대적인 길이 변화를 비교하는 과정; 및
    상기 터치 입력을 받은 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화 및 이동방향에 따라 어느 하나의 컨텐츠를 입력받는 과정을 포함하는 것을 특징으로 하는 방법.
  8. 제7항에 있어서,
    상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화와 이동방향에 따라 어느 하나의 컨텐츠를 입력받는 과정은,
    상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하는 과정;
    상기 터치 입력을 받은 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨을 확인하는 과정; 및
    상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨과 동시에 설정된 이동방향으로 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 과정을 포함하는 것을 특징으로 하는 방법.
  9. 제7항에 있어서,
    상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화와 이동방향에 따라 어느 하나의 컨텐츠를 입력받는 과정은,
    상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하는 과정;
    상기 터치 입력을 받은 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지됨을 확인하는 과정; 및
    상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지됨과 동시에 설정된 이동방향으로 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 과정을 포함하는 것을 특징으로 하는 방법.
  10. 제7항에 있어서,
    상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화와 이동방향에 따라 어느 하나의 컨텐츠를 입력받는 과정은,
    상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하는 과정;
    상기 터치 입력을 받은 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨을 확인하는 과정; 및
    상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨과 동시에 설정된 이동방향으로 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 과정을 포함하는 것을 특징으로 하는 방법.
  11. 제1항에 있어서,
    상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화와 이동방향에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 과정은,
    상기 감지된 입력도구 중 적어도 하나의 입력도구로부터 터치 입력을 받는 과정;
    상기 적어도 하나의 입력도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하는 과정;
    상기 적어도 하나의 입력도구가 상기 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 적어도 하나의 레이아웃이 변경됨을 확인하는 과정을 포함하는 것을 특징으로 하는 방법.
  12. 제11항에 있어서,
    상기 입력도구가 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 적어도 하나의 레이아웃이 변경됨을 확인하는 과정은,
    상기 디스플레이된 컨텐츠의 서체, 폰트 크기, 굵기, 색상, 투명도 및 표기 타입 중 적어도 하나가 변경됨을 확인하는 것을 특징으로 하는 방법.
  13. 전자 장치에 있어서,
    터치 스크린상에 위치하고 있는 입력도구의 개수를 감지하고, 상기 감지된 입력도구의 개수에 따라 설정된 적어도 둘 이상의 입력 모드 중 어느 하나의 입력 모드로 전환하며, 상기 감지된 입력도구 중 터치 입력받은 입력도구 및 상기 터치 입력받은 입력도구의 상대적인 길이 변화와 이동방향에 따라 설정된 컨텐츠를 입력받거나 디스플레이된 컨텐츠의 레이아웃을 변경하는 프로세서; 및
    상기 프로세서에서 제어된 데이터를 저장하는 메모리를 포함하는 장치.
  14. 제13항에 있어서,
    상기 프로세서는, 상기 입력도구가 상기 터치 스크린상에 설정된 높이 이하 및 설정된 시간 이상 위치하고 있을 때 상기 입력도구의 개수를 감지하는 것을 특징으로 하는 장치.
  15. 제13항에 있어서,
    상기 전환된 입력 모드에 따라 설정된 키 패드를 상기 입력도구에 의하여 호버링이 감지되는 영역에 디스플레이하는 디스플레이 모듈을 더 포함하는 것을 특징으로 하는 장치.
  16. 제15항에 있어서,
    상기 프로세서는, 상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 입력도구에 의하여 호버링이 감지되는 영역에 상기 디스플레이된 키 패드가 함께 이동됨을 확인하는 것을 특징으로 하는 장치.
  17. 제13항에 있어서,
    상기 프로세서는, 상기 전환된 입력 모드에 따라 상기 감지된 각각의 입력도구의 설정된 영역을 연결하는 가상의 기준선을 설정하는 것을 특징으로 하는 장치.
  18. 제17항에 있어서,
    상기 프로세서는, 상기 감지된 입력도구의 이동이 확인될 경우, 상기 입력도구가 이동될 때마다 상기 설정된 가상의 기준선이 함께 이동됨을 확인하는 것을 특징으로 하는 장치.
  19. 제13항에 있어서,
    상기 감지된 입력도구 중 적어도 하나의 입력도구로부터 터치 입력을 받고, 상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠 중 상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 나머지 입력도구와의 상대적인 길이 변화와 이동방향에 따라 어느 하나의 컨텐츠를 입력받는 디스플레이 모듈을 더 포함하고,
    상기 프로세서는, 상기 터치 입력을 받은 적어도 하나의 입력도구와 상기 터치 입력을 받은 적어도 하나의 입력도구를 제외한 나머지 입력도구의 상대적인 길이 변화를 비교하는 것을 특징으로 하는 장치.
  20. 제19항에 있어서,
    상기 프로세서는, 상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 상기 터치 입력을 받은 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨을 확인하고,
    상기 디스플레이 모듈은, 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 길게 감지됨과 동시에 설정된 이동방향으로 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 것을 특징으로 하는 장치.
  21. 제19항에 있어서,
    상기 프로세서는, 상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 상기 터치 입력을 받은 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지됨을 확인하고,
    상기 디스플레이 모듈은, 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이와 동일하게 감지됨과 동시에 설정된 이동방향으로 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 것을 특징으로 하는 장치.
  22. 제19항에 있어서,
    상기 프로세서는, 상기 터치 입력을 받은 적어도 하나의 입력도구로부터 입력받을 수 있는 설정된 적어도 둘 이상의 컨텐츠를 확인하고, 상기 터치 입력을 받은 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨을 확인하고,
    상기 디스플레이 모듈은, 상기 설정된 적어도 둘 이상의 컨텐츠 중 상기 적어도 하나의 입력도구의 길이가 상기 나머지 입력도구의 길이보다 상대적으로 더 짧게 감지됨과 동시에 설정된 이동방향으로 감지될 경우 입력받도록 설정된 어느 하나의 컨텐츠를 입력받는 것을 특징으로 하는 장치.
  23. 제13항에 있어서,
    상기 감지된 입력도구 중 적어도 하나의 입력도구로부터 터치 입력을 받는 디스플레이 모듈을 더 포함하고,
    상기 프로세서는, 상기 적어도 하나의 입력도구로부터 터치 입력을 받은 상태에서 설정된 방향으로 드래그 됨을 확인하고, 상기 적어도 하나의 입력도구가 상기 설정된 방향으로 드래그 됨에 따라 디스플레이된 컨텐츠의 적어도 하나의 레이아웃이 변경됨을 확인하는 것을 특징으로 하는 장치.
  24. 제13항에 있어서,
    상기 프로세서는, 상기 디스플레이된 컨텐츠의 서체, 폰트 크기, 굵기, 색상, 투명도 및 표기 타입 중 적어도 하나가 변경됨을 확인하는 것을 특징으로 하는 장치.
KR1020130139939A 2013-11-18 2013-11-18 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 KR102206053B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130139939A KR102206053B1 (ko) 2013-11-18 2013-11-18 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US14/546,547 US10545663B2 (en) 2013-11-18 2014-11-18 Method for changing an input mode in an electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130139939A KR102206053B1 (ko) 2013-11-18 2013-11-18 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20150057080A true KR20150057080A (ko) 2015-05-28
KR102206053B1 KR102206053B1 (ko) 2021-01-21

Family

ID=53174580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130139939A KR102206053B1 (ko) 2013-11-18 2013-11-18 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법

Country Status (2)

Country Link
US (1) US10545663B2 (ko)
KR (1) KR102206053B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US9330030B2 (en) * 2014-06-24 2016-05-03 Google Inc. Bridge decoder for a vehicle infotainment system
KR102221683B1 (ko) * 2018-10-16 2021-03-03 스튜디오씨드코리아 주식회사 디지털 컨텐츠 저작 툴의 작업 화면 자동 모드 전환 방법
US11023067B2 (en) * 2018-12-19 2021-06-01 Intel Corporation Input control using fingerprints
US11150800B1 (en) * 2019-09-16 2021-10-19 Facebook Technologies, Llc Pinch-based input systems and methods
US11194470B2 (en) * 2020-03-29 2021-12-07 Dell Products L.P. Systems and methods for implementing a dynamic and contextual on screen keyboard
WO2021253425A1 (zh) * 2020-06-19 2021-12-23 深圳传音控股股份有限公司 输入法调用方法、装置、设备和存储介质
CN113010221A (zh) * 2021-02-07 2021-06-22 深圳市沃特沃德信息有限公司 智能手表工作模式的切换方法、装置和计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110039929A (ko) * 2009-10-12 2011-04-20 라오넥스(주) 멀티터치 방식 입력제어 시스템
US20110234491A1 (en) * 2010-03-26 2011-09-29 Nokia Corporation Apparatus and method for proximity based input
US20120306769A1 (en) * 2011-06-03 2012-12-06 Microsoft Corporation Multi-touch text input
US20130275907A1 (en) * 2010-10-14 2013-10-17 University of Technology ,Sydney Virtual keyboard

Family Cites Families (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5971636A (en) * 1991-10-23 1999-10-26 Mensick; John Ergonomically improved standard keyboard
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100766627B1 (ko) * 1998-01-26 2007-10-15 핑거웍스, 인크. 수동 입력 통합 방법 및 장치
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
SE519537C2 (sv) * 2000-01-21 2003-03-11 Richard Granberg Elektronisk anordning med tryckkänslig bildskärm och förskjutbart tangentborg
US7138983B2 (en) * 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US7220000B2 (en) * 2002-02-19 2007-05-22 Notal Vision Inc. Methods, devices and systems for assessing eye disease
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
ATE538430T1 (de) * 2002-07-04 2012-01-15 Koninkl Philips Electronics Nv Sich automatisch anpassende virtuelle tastatur
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
TWI227445B (en) * 2003-05-28 2005-02-01 Compal Electronics Inc A method capable of promptly switching operation mode of touch device and device thereof
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
US20050122313A1 (en) * 2003-11-11 2005-06-09 International Business Machines Corporation Versatile, configurable keyboard
US20060132447A1 (en) * 2004-12-16 2006-06-22 Conrad Richard H Method and apparatus for automatically transforming functions of computer keyboard keys and pointing devices by detection of hand location
EP1828874A2 (en) * 2004-12-20 2007-09-05 Kingsbury Hill Fox Limited Computer input device
US20060156249A1 (en) * 2005-01-12 2006-07-13 Blythe Michael M Rotate a user interface
TWM281363U (en) * 2005-08-19 2005-11-21 Elan Microelectronics Corp Internet protocol phone with integral touch panel function
US7612786B2 (en) * 2006-02-10 2009-11-03 Microsoft Corporation Variable orientation input mode
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
US9152241B2 (en) * 2006-04-28 2015-10-06 Zienon, Llc Method and apparatus for efficient data input
US20070256029A1 (en) * 2006-05-01 2007-11-01 Rpo Pty Llimited Systems And Methods For Interfacing A User With A Touch-Screen
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
US9069417B2 (en) * 2006-07-12 2015-06-30 N-Trig Ltd. Hover and touch detection for digitizer
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
KR100835956B1 (ko) * 2006-12-04 2008-06-09 삼성전자주식회사 이동통신 단말기의 이미지 처리 방법
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
KR101342075B1 (ko) * 2007-01-24 2013-12-18 삼성전자 주식회사 휴대용 정보처리장치
JP4899991B2 (ja) * 2007-03-30 2012-03-21 富士ゼロックス株式会社 表示装置及びプログラム
US20090046065A1 (en) * 2007-08-17 2009-02-19 Eric Liu Sensor-keypad combination for mobile computing devices and applications thereof
US20080042979A1 (en) * 2007-08-19 2008-02-21 Navid Nikbin Method and apparatus for executing commands or inputting data based on finger's characteristics and Multi-Finger key
US9110590B2 (en) * 2007-09-19 2015-08-18 Typesoft Technologies, Inc. Dynamically located onscreen keyboard
US9489086B1 (en) * 2013-04-29 2016-11-08 Apple Inc. Finger hover detection for improved typing
KR101352994B1 (ko) * 2007-12-10 2014-01-21 삼성전자 주식회사 적응형 온 스크린 키보드 제공 장치 및 그 제공 방법
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
KR101456490B1 (ko) 2008-03-24 2014-11-03 삼성전자주식회사 터치 스크린 키보드 디스플레이 방법 및 그와 같은 기능을갖는 장치
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
TWI427504B (zh) * 2008-06-02 2014-02-21 Asustek Comp Inc 組態式指向操作裝置與電腦系統
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
WO2010042880A2 (en) * 2008-10-10 2010-04-15 Neoflect, Inc. Mobile computing device with a virtual keyboard
US8384678B2 (en) * 2008-10-20 2013-02-26 Lg Display Co. Ltd. Touch sensing device and method for correcting output thereof
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
JP4666053B2 (ja) * 2008-10-28 2011-04-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101531192B1 (ko) * 2008-11-14 2015-06-25 엘지전자 주식회사 이동 단말기 및 이를 이용한 맵 표시 방법
US8502787B2 (en) * 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
US9041660B2 (en) * 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
US10585493B2 (en) * 2008-12-12 2020-03-10 Apple Inc. Touch sensitive mechanical keyboard
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
US8407606B1 (en) * 2009-01-02 2013-03-26 Perceptive Pixel Inc. Allocating control among inputs concurrently engaging an object displayed on a multi-touch device
US8566044B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
JP2010244302A (ja) * 2009-04-06 2010-10-28 Sony Corp 入力装置および入力処理方法
GB0913734D0 (en) * 2009-08-06 2009-09-16 Binstead Ronald P Masked touch sensors
WO2011033363A2 (en) * 2009-09-16 2011-03-24 Prem Kumar Nair A data entry device (ded)
US8390584B1 (en) * 2009-10-13 2013-03-05 Intuit Inc. Digit aware touchscreen
US20110102333A1 (en) * 2009-10-30 2011-05-05 Wayne Carl Westerman Detection of Gesture Orientation on Repositionable Touch Surface
US20110115719A1 (en) * 2009-11-17 2011-05-19 Ka Pak Ng Handheld input device for finger touch motion inputting
US20110148786A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated Method and apparatus for changing operating modes
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
JP5356272B2 (ja) * 2010-02-05 2013-12-04 パナソニック株式会社 座標入力装置、座標入力方法、座標入力プログラム、及び携帯端末
US8717317B2 (en) * 2010-02-22 2014-05-06 Canon Kabushiki Kaisha Display control device and method for controlling display on touch panel, and storage medium
KR20110109551A (ko) 2010-03-31 2011-10-06 삼성전자주식회사 터치스크린 장치 및 터치스크린 장치의 입력 처리 방법
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US9891821B2 (en) * 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a control region of a computerized device from a touchpad
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
JP2011248401A (ja) * 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および入力方法
KR101638918B1 (ko) * 2010-08-17 2016-07-12 엘지전자 주식회사 이동 단말기 및 이것의 표시 방식 전환 방법
KR101705872B1 (ko) * 2010-09-08 2017-02-10 삼성전자주식회사 모바일 디바이스의 화면상의 영역 선택 방법 및 장치
CN101937313B (zh) * 2010-09-13 2019-11-12 中兴通讯股份有限公司 一种触摸键盘动态生成和输入的方法及装置
US20120144337A1 (en) * 2010-12-01 2012-06-07 Verizon Patent And Licensing Inc. Adjustable touch screen keyboard
US9104308B2 (en) * 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
JP2012133729A (ja) * 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20120162086A1 (en) * 2010-12-27 2012-06-28 Samsung Electronics Co., Ltd. Character input method and apparatus of terminal
US9612743B2 (en) * 2011-01-05 2017-04-04 Autodesk, Inc. Multi-touch integrated desktop environment
US9430128B2 (en) * 2011-01-06 2016-08-30 Tivo, Inc. Method and apparatus for controls based on concurrent gestures
US9116616B2 (en) * 2011-02-10 2015-08-25 Blackberry Limited Portable electronic device and method of controlling same
KR101873787B1 (ko) * 2011-02-10 2018-07-03 삼성전자주식회사 터치스크린 단말기에서 멀티 터치 입력 처리 방법 및 장치
US8982069B2 (en) * 2011-03-17 2015-03-17 Intellitact Llc Keyboard with integrated touch surface
US8553001B2 (en) * 2011-03-22 2013-10-08 Adobe Systems Incorporated Methods and apparatus for determining local coordinate frames for a human hand
US20120266079A1 (en) * 2011-04-18 2012-10-18 Mark Lee Usability of cross-device user interfaces
US9746928B2 (en) * 2011-04-19 2017-08-29 Lg Electronics Inc. Display device and control method thereof
US9261972B2 (en) * 2011-04-21 2016-02-16 Inpris Innovative Products Ltd Ergonomic motion detection for receiving character input to electronic devices
WO2013009413A1 (en) * 2011-06-06 2013-01-17 Intellitact Llc Relative touch user interface enhancements
US8754861B2 (en) * 2011-07-06 2014-06-17 Google Inc. Touch-screen keyboard facilitating touch typing with minimal finger movement
US9582187B2 (en) * 2011-07-14 2017-02-28 Microsoft Technology Licensing, Llc Dynamic context based menus
US20130021242A1 (en) * 2011-07-18 2013-01-24 Motorola Solutions, Inc. Advanced handwriting system with multi-touch features
US9983785B2 (en) * 2011-07-28 2018-05-29 Hewlett-Packard Development Company, L.P. Input mode of a device
KR101951257B1 (ko) * 2011-09-09 2019-02-26 삼성전자주식회사 데이터 입력 방법 및 이를 구현하는 휴대 단말기
TWI442298B (zh) * 2011-10-27 2014-06-21 Novatek Microelectronics Corp 觸控感測方法
US20130113714A1 (en) * 2011-11-06 2013-05-09 Dun Dun (Duncan) Mao Electronic Device Having Single Hand Multi-Touch Surface Keyboard and Method of Inputting to Same
US10082950B2 (en) * 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
WO2013071198A2 (en) * 2011-11-09 2013-05-16 Lapp Joseph T Finger-mapped character entry systems
US20150084913A1 (en) * 2011-11-22 2015-03-26 Pioneer Solutions Corporation Information processing method for touch panel device and touch panel device
US20130169540A1 (en) * 2012-01-04 2013-07-04 Huy Hai Dinh Moving virtual keyboard
US20130215037A1 (en) * 2012-02-20 2013-08-22 Dun Dun Mao Multi-touch surface keyboard with multi-key zones on an adaptable home line and method of inputting to same
CA3051912C (en) * 2012-02-24 2023-03-07 Thomas J. Moscarillo Gesture recognition devices and methods
US20130222247A1 (en) * 2012-02-29 2013-08-29 Eric Liu Virtual keyboard adjustment based on user input offset
US10216286B2 (en) * 2012-03-06 2019-02-26 Todd E. Chornenky On-screen diagonal keyboard
US9285980B2 (en) * 2012-03-19 2016-03-15 Htc Corporation Method, apparatus and computer program product for operating items with multiple fingers
US20130257746A1 (en) * 2012-03-29 2013-10-03 Dmitriy Sergeyevich Cherkasov Input Module for First Input and Second Input
US20130257732A1 (en) * 2012-03-29 2013-10-03 Robert Duffield Adaptive virtual keyboard
KR20130143160A (ko) * 2012-06-20 2013-12-31 삼성전자주식회사 휴대단말기의 스크롤 제어장치 및 방법
CN103513908B (zh) * 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
US9058103B2 (en) * 2012-07-25 2015-06-16 Facebook, Inc. Gestures for keyboard switch
US8819812B1 (en) * 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US20150186004A1 (en) * 2012-08-17 2015-07-02 Google Inc. Multimode gesture processing
CN104737117A (zh) * 2012-10-17 2015-06-24 阿沃森特亨茨维尔公司 用于控制虚拟键盘显示以免遮盖数据输入域的系统和方法
US9589538B2 (en) * 2012-10-17 2017-03-07 Perceptive Pixel, Inc. Controlling virtual objects
US9703389B2 (en) * 2012-12-24 2017-07-11 Peigen Jiang Computer input device
KR20140087731A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 포터블 디바이스 및 사용자 인터페이스 제어 방법
CN205302189U (zh) * 2013-01-08 2016-06-08 李柱协 数据输入装置
US9141211B2 (en) * 2013-01-09 2015-09-22 Lenovo (Singapore) Pte. Ltd. Touchpad operational mode
US20140201685A1 (en) * 2013-01-14 2014-07-17 Darren Lim User input determination
JP6024466B2 (ja) * 2013-01-16 2016-11-16 富士通株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20140208274A1 (en) * 2013-01-18 2014-07-24 Microsoft Corporation Controlling a computing-based device using hand gestures
US9298275B2 (en) * 2013-02-04 2016-03-29 Blackberry Limited Hybrid keyboard for mobile device
KR20140100761A (ko) * 2013-02-07 2014-08-18 한국전자통신연구원 터치식 입력장치에서의 제스처 입력 구분 방법 및 제스처 입력 구분 장치
US9535603B2 (en) * 2013-03-14 2017-01-03 Carl F. Andersen Columnar fitted virtual keyboard
US9026939B2 (en) * 2013-06-13 2015-05-05 Google Inc. Automatically switching between input modes for a user interface
WO2015040020A1 (en) * 2013-09-17 2015-03-26 Koninklijke Philips N.V. Gesture enabled simultaneous selection of range and value
US9436304B1 (en) * 2013-11-01 2016-09-06 Google Inc. Computer with unified touch surface for input
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US9727235B2 (en) * 2013-12-12 2017-08-08 Lenovo (Singapore) Pte. Ltd. Switching an interface mode using an input gesture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110039929A (ko) * 2009-10-12 2011-04-20 라오넥스(주) 멀티터치 방식 입력제어 시스템
US20110234491A1 (en) * 2010-03-26 2011-09-29 Nokia Corporation Apparatus and method for proximity based input
US20130275907A1 (en) * 2010-10-14 2013-10-17 University of Technology ,Sydney Virtual keyboard
US20120306769A1 (en) * 2011-06-03 2012-12-06 Microsoft Corporation Multi-touch text input

Also Published As

Publication number Publication date
US10545663B2 (en) 2020-01-28
US20150143277A1 (en) 2015-05-21
KR102206053B1 (ko) 2021-01-21

Similar Documents

Publication Publication Date Title
US10402065B2 (en) Method and apparatus for operating a virtual keyboard
KR102162836B1 (ko) 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
KR102206053B1 (ko) 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
KR20150054413A (ko) 시선 데이터에 따라 컨텐츠의 위치를 결정하는 전자 장치 및 방법
KR102213190B1 (ko) 홈스크린 구성 방법 및 이를 이용한 전자 장치
EP2869253A1 (en) Method for operating message application and electronic device implementing the same
KR20150051663A (ko) 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치
KR20150025613A (ko) 애플리케이션의 관련 정보를 표시하는 전자 장치 및 방법
KR102157858B1 (ko) 전력 소모를 줄일 수 있는 전자 장치 및 방법
KR102215178B1 (ko) 전자장치에서 사용자 입력 방법 및 장치
EP2844007B1 (en) Method for transmitting contents and electronic device thereof
KR20150115365A (ko) 전자장치에서 사용자 입력에 대응한 사용자 인터페이스 제공 방법 및 장치
KR20150066876A (ko) 사용자 인터페이스 제어 방법 및 그 전자 장치
KR20150073354A (ko) 디스플레이를 통하여 제공되는 오브젝트 처리 방법 및 장치
KR20150051278A (ko) 오브젝트 이동 방법 및 이를 구현하는 전자 장치
KR20150026424A (ko) 디스플레이 제어 방법 및 그 전자 장치
KR20150027934A (ko) 다각도에서 촬영된 영상을 수신하여 파일을 생성하는 전자 장치 및 방법
KR20150019813A (ko) 컨텐츠 무결성 제어 방법 및 그 전자 장치
KR20150117968A (ko) 입력방향에 따라 기능을 전환하는 전자 장치 및 방법
KR20150026257A (ko) 액세서리의 정보를 업 데이트하는 전자 장치 및 방법
US10303351B2 (en) Method and apparatus for notifying of content change
KR20150069155A (ko) 전자 장치의 터치 인디케이터 디스플레이 방법 및 그 전자 장치
KR20150045560A (ko) 업 데이트 된 포스트 정보를 이용하여 컨텐츠를 분류하는 전자 장치 및 방법
EP2869180A1 (en) Multi-language input method and multi-language input apparatus using the same
KR20150029258A (ko) 지문 센서를 이용하여 제어 기능을 수행하는 전자 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right