KR102189787B1 - 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법 - Google Patents

터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법 Download PDF

Info

Publication number
KR102189787B1
KR102189787B1 KR1020130137449A KR20130137449A KR102189787B1 KR 102189787 B1 KR102189787 B1 KR 102189787B1 KR 1020130137449 A KR1020130137449 A KR 1020130137449A KR 20130137449 A KR20130137449 A KR 20130137449A KR 102189787 B1 KR102189787 B1 KR 102189787B1
Authority
KR
South Korea
Prior art keywords
input
touch
item
touch input
application
Prior art date
Application number
KR1020130137449A
Other languages
English (en)
Other versions
KR20150055292A (ko
Inventor
권혁준
신용
신혜영
최우준
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020130137449A priority Critical patent/KR102189787B1/ko
Priority to US14/540,447 priority patent/US9772747B2/en
Publication of KR20150055292A publication Critical patent/KR20150055292A/ko
Priority to US15/714,684 priority patent/US10534509B2/en
Priority to US16/741,212 priority patent/US11392271B2/en
Application granted granted Critical
Publication of KR102189787B1 publication Critical patent/KR102189787B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명은 터치스크린을 통해 사용자 입력을 인식하여 대응되는 기능을 수행하는 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 입력 처리 방법은 어플리케이션의 윈도우와 상기 어플리케이션의 설정 메뉴를 터치스크린에 표시하는 표시 단계와, 상기 설정 메뉴에서 하나의 항목에 대한 선택 및 이에 이용된 입력 도구를 인식하는 제 1 인식 단계와, 상기 입력 도구를 상기 선택된 항목의 기능에 맵핑하는 맵핑 단계와, 상기 어플리케이션의 윈도우에서 상기 입력 도구의 입력을 인식하는 제 2 인식 단계와, 상기 입력에 반응하여 상기 입력 도구에 맵핑된 기능을 실행하는 실행 단계를 포함할 수 있다.

Description

터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법{ELECTRONIC DEVICE HAVING TOUCHSCREEN AND INPUT PROCESSING METHOD THEREOF}
본 발명은 터치스크린을 통해 사용자 입력을 인식하여 대응되는 기능을 수행하는 방법 및 장치에 관한 것이다.
스마트폰, 태블릿 PC 등과 같은 전자 장치는 터치패널을 구비할 수 있다. 터치패널은 전자 장치의 화면에 설치될 수 있다. 전자 장치는 터치패널이 설치된 화면(즉, 터치스크린)을 통해 사용자의 입력을 인식하고, 인식된 입력에 대응되는 기능을 수행할 수 있다. 또한, 전자 장치는 입력에 이용되는 도구(예, 사용자의 손가락이나 펜 등)를 인식할 수 있다. 전자 장치는 펜 입력에 대응되는 기능을 수행할 수 있다. 또한 전자 장치는 손가락 입력에 대응되는 기능을 수행할 수도 있다. 이때, 손가락 입력에 의해 수행되는 기능과 펜 입력에 의해 수행되는 기능은 동일할 수 있다. 한편, 펜 입력과 손가락 입력이 동시에 발생된 경우, 어느 하나(예컨대, 손가락 입력)는 입력으로써 인식되지 않을 수도 있다.
본 발명은 입력 도구들별로 각각 다른 기능을 수행하여 사용자가 전자 장치를 편리하게 조작할 수 있도록 한 방법 및 장치를 제공함을 목적으로 한다. 또한 본 발명은 터치스크린을 통해 서로 다른 입력 도구들의 다중 입력을 인식하고 이에 대응되는 기능을 수행하여 사용자가 전자 장치를 편리하게 조작할 수 있도록 한 방법 및 장치를 제공함을 목적으로 한다.
본 발명의 일 실시예에 따른 입력 처리 방법은 어플리케이션의 윈도우를 표시하는 단계와, 상기 어플리케이션의 설정 메뉴를 표시하는 표시 단계와, 상기 설정 메뉴에서 적어도 하나의 항목에 대한 선택을 수신하는 단계와, 상기 선택을 수행한 입력 오브젝트를 인식(recognize)하는 단계와, 상기 입력 오브젝트에 의해 선택된 상기 적어도 하나의 항목의 기능을 상기 입력 오브젝트에 의한 입력으로 등록하는 단계와, 상기 어플리케이션의 윈도우에서 상기 입력 오브젝트에 의한 입력을 감지(detect)하는 단계와, 상기 입력 오브젝트에 의한 입력에 반응하여 상기 기능을 실행하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 입력 처리 방법은 어플리케이션의 설정 메뉴를 터치스크린에 표시하는 단계와, 상기 설정 메뉴에 대한 사용자 입력에 응답하여 상기 어플리케이션의 기능들 각각에 적어도 하나의 입력 도구 및 그 입력 패턴을 설정하는 단계와, 상기 설정된 정보를 저장하는 단계와, 상기 어플리케이션의 윈도우를 표시하는 단계와, 상기 윈도우에 대한 사용자 입력 및 이에 이용된 입력 도구를 인식하는 단계와, 상기 저장된 정보를 참조하여 상기 인식된 입력 및 그 오브젝트에 등록된 기능을 확인하는 단계와, 상기 확인된 기능을 실행하는 단계를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 입력 처리 방법은 카메라의 이미지를 터치스크린에 표시하는 단계와, 상기 표시된 이미지에 대한 제 1 입력 오브젝트의 입력에 응답하여 캡처 영역을 설정하는 단계와, 상기 표시된 이미지에 대한 제 2 입력 오브젝트의 입력에 응답하여 상기 캡처 영역에 해당되는 이미지를 저장하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자 장치는 표시부; 상기 표시부의 화면에 대한 입력을 감지하는 터치패널; 및 어플리케이션의 윈도우와 상기 어플리케이션의 설정 메뉴를 표시하도록 상기 표시부를 제어하고, 상기 설정 메뉴에서 적어도 하나의 항목에 대한 선택을 상기 터치패널로부터 수신하고, 상기 선택을 수행한 입력 오브젝트를 인식하고, 상기 입력 오브젝트에 의해 선택된 상기 적어도 하나의 항목의 기능을 상기 입력 오브젝트에 의한 입력으로 등록하고, 상기 어플리케이션의 윈도우에서 상기 입력 오브젝트의 입력을 상기 터치패널로부터 수신하고, 상기 입력 오브젝트에 의한 입력에 반응하여 상기 기능을 실행하는 제어부를 포함할 수 있다.
본 발명의 다른 실시예에 따른 전자 장치는 표시부; 상기 표시부의 화면에 대한 입력에 응답하여 감지 정보를 생성하는 터치패널; 메모리; 및 어플리케이션의 설정 메뉴를 표시하도록 상기 표시부를 제어하고, 상기 설정 메뉴에 대한 입력에 응답하여 상기 어플리케이션의 기능들 각각에 적어도 하나의 입력 오브젝트 및 그 입력 패턴을 설정하고, 상기 설정된 정보를 상기 메모리에 저장하고, 상기 어플리케이션의 윈도우를 표시하도록 상기 표시부를 제어하고, 상기 윈도우에 대한 입력 및 이에 이용된 입력 오브젝트를 인식하고, 상기 메모리에 저장된 정보를 참조하여 상기 인식된 입력 및 그 오브젝트에 등록된 기능을 확인하고, 상기 확인된 기능을 실행하는 제어부를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치는 표시부; 상기 표시부의 화면에 대한 입력에 응답하여 감지 정보를 생성하는 터치패널; 카메라; 메모리; 및 상기 카메라의 이미지를 표시하고, 상기 표시된 이미지에 대한 제 1 입력 오브젝트의 입력에 응답하여 캡처 영역을 설정하고, 상기 표시된 이미지에 대한 제 2 입력 오브젝트의 입력에 응답하여 상기 캡처 영역에 해당되는 이미지를 상기 메모리에 저장하는 제어부를 포함할 수 있다.
본 발명에 따른 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법은 어플리케이션을 편리하게 운영할 수 있는 인터페이스를 사용자에게 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자 장치의 블록 구성도이다.
도 2는 본 발명에 따른 사용자 입력 처리의 일례를 설명하기 위한 흐름도이다.
도 3a, 도 3b, 도 3c, 도 3d 및 도 3e는 도 2의 프로세스가 메모 어플리케이션에 응용된 일례를 설명하기 위한 화면들이다.
도 4a 및 도 4b는 도 2의 프로세스가 이북 어플리케이션에 응용된 일례를 설명하기 위한 화면들이다.
도 5는 본 발명에 따른 사용자 입력 설정의 일례를 설명하기 위한 흐름도이다.
도 6a, 도 6b 및 도 6c는 도 5의 프로세스가 메모 어플리케이션에 응용된 일례를 설명하기 위한 화면들이다.
도 7은 본 발명에 따른 사용자 입력 처리의 다른 예를 설명하기 위한 흐름도이다.
도 8은 도 7의 프로세스가 메모 어플리케이션의 선 그리기에 응용된 일례를 설명하기 위한 화면이다.
도 9는 도 7의 프로세스가 메모 어플리케이션의 브러시 그리기에 응용된 일례를 설명하기 위한 화면이다.
도 10a 및 도 10b는 도 7의 프로세스가 메모 어플리케이션의 지우기에 응용된 일례를 설명하기 위한 화면들이다.
도 11a 및 도 11b는 도 7의 프로세스가 메모 어플리케이션의 화면 스크롤에 응용된 일례를 설명하기 위한 화면들이다.
도 12a 및 도 12b는 도 7의 프로세스가 메모 어플리케이션의 메모 변경에 응용된 일례를 설명하기 위한 화면들이다.
도 13은 도 7의 프로세스가 메모 어플리케이션의 메모 첨부에 응용된 일례를 설명하기 위한 화면이다.
도 14는 도 7의 프로세스가 메모 어플리케이션의 메모 삭제에 응용된 일례를 설명하기 위한 화면이다.
도 15는 도 7의 프로세스가 웹 브라우저의 링크 선택에 응용된 일례를 설명하기 위한 화면이다.
도 16은 도 7의 프로세스가 웹 브라우저의 화면 스크롤에 응용된 일례를 설명하기 위한 화면이다.
도 17은 본 발명에 따른 사용자 입력 처리가 카메라 어플리케이션에 응용된 일례를 흐름도이다.
도 18a 및 도 18b는 도 17의 프로세스를 설명하기 위한 화면들이다.
도 19는 본 발명에 따른 사용자 입력 처리가 아이콘에 응용된 일례를 흐름도이다.
본 발명에 따른 전자 장치는 터치스크린을 구비한 컴퓨팅 장치로써 예컨대, 스마트폰, 카메라, 태블릿 PC, 노트북 PC, 데스트탑 PC, 미디어 플레이어(예, MP3 플레이어), PDA, 게임용 단말, 착용 컴퓨터(wearable computer; 예, 시계) 등이 될 수 있다. 또한, 본 발명에 따른 전자 장치는 이러한 컴퓨팅 장치가 내재된 가전 기기(예, 냉장고, TV, 세탁기 등)가 될 수도 있다.
이하, 본 발명의 다양한 실시 예들을 첨부된 도면에 의거하여 상세히 설명한다. 실시 예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 그 설명이 생략될 수 있다. 또한, 실질적으로 동일한 구성과 기능을 가진 구성 요소들에 대해서는 상세한 설명이 생략될 수 있다. 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자 장치의 블록 구성도이다.
도 1을 참조하면, 전자 장치(100)는 표시부(110), 키입력부(120), 무선통신부(130), 오디오 처리부(140), 스피커(141), 마이크(142), 카메라(150), 메모리(160) 및 제어부(170)를 포함할 수 있다.
표시부(110)는 제어부(170) 특히, 어플리케이션 프로세서(Application Processor; AP)의 제어 하에 다양한 정보를 화면에 표시할 수 있다.
표시부(110)는 제어부(170)의 제어 하에, 어플리케이션 윈도우를 화면 전체에 또는 화면 일부에 표시할 수 있다. 어플리케이션 윈도우는 해당 어플리케이션의 실행에 따라 화면에 표시되는 이미지로써, 예컨대, 사진, 웹 페이지, 메모창, 이북(e-book)의 페이지, 카메라(150)의 프리뷰 이미지 등이 될 수 있다.
표시부(110)는 제어부(170)의 제어 하에, 어플리케이션의 설정 메뉴를 화면에 표시할 수 있다. 이러한 설정 메뉴는 해당 어플리케이션의 사용 환경을 설정하기 위한 다양한 항목들을 포함할 수 있다. 특히, 설정 메뉴는 입력 오브젝트 및 그 입력 패턴을 기능에 매핑하기 위한 항목을 포함할 수 있다.
표시부(110)는 제어부(170)의 제어 하에, 어플리케이션의 설정 메뉴 특히, 퀵 메뉴를 해당 어플리케이션 윈도우의 일부의 위에 표시할 수 있다. 여기서 퀵 메뉴는 해당 어플리케이션의 기능들 중 일부를 사용자가 설정할 수 있도록 하기 위한 항목을 포함할 수 있다. 특히, 퀵 메뉴는 입력 오브젝트 및 그 입력 패턴을 기능에 매핑하기 위한 항목을 포함할 수 있다. 설정 메뉴는 해당 어플리케이션 윈도우의 일부의 위에 표시될 경우, 반투명하게 표시될 수도 있다. 표시부(110)는 설정 메뉴를 별도의 표시 영역에(즉, 설정 메뉴와 윈도우가 서로 중첩되지 않게) 표시할 수도 있다.
표시부(110)는 액정 표시 장치(Liquid Crystal Display: LCD), AMOLED(Active Matrix Organic Light Emitted Diode), 플랙서블 디스플레이(Flexible display) 또는 투명 디스플레이로 이루어질 수 있다.
터치패널(111)은 표시부(110)의 화면에 설치된다. 터치패널(111)은 화면에 대한 사용자 입력을 감지할 수 있다. 터치 패널(111)은 사용자 입력에 응답하여 감지 정보를 생성하고, 이를 제어부(170)로 전달할 수 있다. 즉 표시부(110)는 사용자 입력부의 하나로써 터치패널(111)을 구비할 수 있다. 예컨대, 터치패널(111)은 표시부(110)의 화면에 위치하는 애드 온 타입(add-on type)이나 표시부(110) 내에 삽입되는 온 셀 타입(on-cell type) 또는 인 셀 타입(in-cell type)으로 구현될 수 있다.
터치패널(111)은 정전용량 방식의 제 1 터치패널을 포함할 수 있다. 제 1 터치패널은 복수의 스캔 입력포트(이하 스캔포트)들과 복수의 감지 출력포트(이하 감지포트)들을 포함할 수 있다. 터치패널은 스캔포트로 입력되는 제어부(170)의 터치스크린 컨트롤러의 스캔 제어 신호에 의해 도전 물체(예, 손가락)의 터치에 반응하여 감지 정보(예, 정전용량의 변화량)를 생성하고, 감지 정보를 감지포트를 통해 터치스크린 컨트롤러로 전달할 수 있다.
터치패널(111)은 전자 유도 방식(Electro-Magnetic Resonance; EMR)의 제 2 터치패널을 포함할 수도 있다. 이러한 제 2 터치패널은 자기장을 형성할 수 있도록 특수 제작된 펜의 간접터치(즉, 호버링(hovering))이나 터치에 반응하여 감지 정보를 생성하고, 이를 제어부(170)의 터치스크린 컨트롤러로 전달할 수 있다. 여기서 펜은 버튼을 구비할 수 있다. 예컨대, 사용자가 버튼을 내리누르면, 펜의 코일에서 발생되는 자기장이 변화될 수 있다. 제 2 터치패널은 자기장의 변화에 반응하여 감지 정보를 생성하고, 이를 제어부(170)의 터치스크린 컨트롤러로 전달할 수 있다. 한편, 펜은 두 개의 코일을 구비할 수 있다. 여기서 두 개의 코일은 각각 안테나로써 동작할 수 있다. 두 개의 코일은 제 2 터치패널로부터 무선 신호를 수신하고, 무선 신호의 수신에 반응하여 각각 다른 주파수 대역의 무선 신호를 제 2 터치패널로 송신할 수 있다. 두 개의 코일 중 하나의 코일은 펜촉에 위치하고, 다른 하나의 코일은 그 반대편에 위치할 수 있다. 이러한 두 개의 코일은 각각 다른 기능들에 응용될 수 있다. 예컨대, 사용자는 펜촉을 터치스크린에 접촉하여 글씨를 쓰고, 그 반대편을 터치스크린에 접촉하여 글씨를 지울 수 있다.
한편, 터치패널(111)은 상기 방식들 외에, 저항막 방식, 적외선 방식 또는 초음파 방식의 터치패널을 포함할 수도 있다.
키입력부(120)는 터치키를 포함할 수 있다. 이러한 터치키는 정전용량 방식, 전자 유도 방식, 저항막 방식, 적외선 방식 또는 초음파 방식이 될 수 있다. 터치키는 입력 오브젝트의 터치에 반응하여 키이벤트를 생성하고, 이를 제어부(170)로 전달할 수 있다. 키입력부(120)는 터치키 외에 다른 키를 더 포함할 수 있다. 예컨대, 키입력부(120)는 돔(dome) 키를 포함할 수 있다. 사용자가 돔 키를 내리누르면, 돔 키가 변형되어 인쇄회로기판에 접촉되고, 이에 따라 인쇄회로기판에서 키이벤트가 발생되어 제어부(170)로 전달될 수 있다. 한편 키입력부(120)의 키는 하드 키(hard key)라 하고 표시부(110)에 표시되는 키는 소프트 키(soft key)로 지칭될 수 있다.
무선통신부(130)는 제어부(170)의 제어 하에, 네트워크를 통해 외부 장치와 음성 통화, 화상 통화 또는 데이터 통신을 수행할 수 있다. 예컨대, 무선통신부(130)는 외부로부터 통화 요청 메시지, 문자 메시지 등을 수신하여 제어부(170)로 전달할 수 있다. 한편, 무선 통신부(130)는 이동 통신 모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5(3.5-Generation)세대 이동통신모듈 또는 4(4-Generation)세대 이동통신모듈 등), 디지털 방송 모듈(예컨대, DMB 모듈) 및 근거리 통신 모듈(예, 와이파이(Wi-Fi) 모듈, 블루투스(bluetooth) 모듈, NFC(Near Field Communication) 모듈))을 포함할 수 있다.
오디오 처리부(Audio Processor; 140)는 스피커(141) 및 마이크(142)과 결합하여 음성 인식, 음성 녹음, 음성 변조, 디지털 레코딩(recording) 및 통화를 위한 오디오 신호(예, 음성 데이터)의 입력 및 출력을 수행한다. 오디오 처리부(140)는 제어부(170)로부터 오디오 신호(예, 음성 데이터)를 수신하고, 수신한 오디오 신호를 아날로그로 D/A 변환하고 증폭한 후 스피커(141)로 출력할 수 있다. 오디오 처리부(140)는 리시버 및 이어폰과도 결합할 수 있는 바, 증폭된 신호를 스피커(141)가 아닌 리시버나 이어폰으로 출력할 수도 있다. 여기서, 이어폰은 이어잭을 통해 전자장치(100)에 연결 및 분리가 가능하다. 이어폰이 오디오 처리부(140)에 연결되면, 오디오 처리부(140)는 이어폰에 오디오 신호를 출력할 수 있다. 통화 모드가 스피커 모드인 경우 오디오 처리부(140)는 오디오 신호를 스피커(141)로 출력할 수 있다. 통화 모드가 리시버 모드인 경우 오디오 처리부(140)는 오디오 신호를 리시버로 출력할 수 있다. 스피커(141), 리시버 및 이어폰은 오디오 처리부(140)로부터 수신한 오디오 신호를 음파(sound wave)로 변환하여 출력한다. 마이크(142)는 사람이나 기타 소리원(sound source)들로부터 전달된 음파를 오디오 신호로 변환한다. 한편, 이어폰은 4극 이어폰 즉, 마이크를 구비한 이어폰일 수도 있다. 오디오 처리부(140)는 마이크(142) 또는 이어폰의 마이크로부터 수신한 오디오 신호를 디지털로 A/D 변환한 후 제어부(170)로 전달한다.
카메라(150)는 제어부(170)의 제어 하에, 피사체를 촬영한다. 촬영된 피사체의 영상 정보는 제어부(170)에 의해 메모리(160)에 저장될 수 있고 표시부(110)에 표시될 수 있다. 카메라(150)는 빛을 모으기 위한 렌즈와, 이렇게 수광된 빛을 전기적인 신호로 변환하는 이미지 센서와, 이미지 센서로부터 입력되는 전기 신호를 로우 데이터(raw data)로 처리하여 제어부(170)로 출력하는 이미지 신호 처리부(Image Signal Processor; ISP)를 포함할 수 있다. ISP는 로우 데이터를 프리뷰(preview) 이미지로 가공하여 제어부(170)로 출력하는 모듈과, 로우 데이터를 압축 이미지로 가공하여 제어부(170)로 출력하는 모듈을 포함할 수 있다. 여기서 프리뷰 이미지는 화면에 표시되는 이미지로써 로우 데이터를 화면의 크기에 맞게 리사이징한 것을 의미할 수 있다. 즉 프리뷰 이미지는 고해상도의 로우 데이터를 저해상도의 데이터로 크기를 줄인 것일 수 있다. 압축 이미지는 저장용으로써, 로우 데이터를 JPEG 등의 포맷으로 압축한 데이터를 의미할 수 있다.
메모리(160)는 제어부(170)의 제어 하에, 전자장치(100)의 운영에 따라 발생되거나 무선통신부(130)를 통해 외부 장치로부터 수신한 데이터를 저장할 수 있다. 메모리(160)는 데이터 임시 저장소로써 버퍼를 포함할 수도 있다. 메모리(160)는 전자장치(100)의 사용 환경을 설정하기 위한 다양한 설정 정보들(예, 화면 밝기, 터치 발생 시 진동 여부, 화면의 자동 회전 여부 등)을 저장할 수 있다. 제어부(170)는 이러한 설정 정보들을 참조하여 전자장치(100)를 운영할 수 있다. 특히, 메모리(160)는 터치스크린에 대한 사용자 입력을 어떻게 처리할 것인지를 나타내는 입력 설정 정보(161)를 포함할 수 있다. 이러한 입력 설정 정보(161)는 입력 오브젝트 및 그 입력패턴별로 실행되는 기능 정보들을 포함할 수 있다. 또한 입력 설정 정보(161)는 어플리케이션별로 구비될 수 있다. 다음 표 1은 메모 어플리케이션의 입력 설정 정보에 대한 하나의 예시이다.
메모 어플리케이션의 기능 정보 입력 오브젝트 및 입력 패턴
선 그리기 펜 터치
지우기 손가락 터치
화면 스크롤 손가락 드래그 + 펜 버튼 누름
브러시(붓글씨) 손가락 터치 + 펜 이동
다음 메모로 이동 손가락 패턴 1(
Figure 112013103277907-pat00001
)
이전 메모로 이동 손가락 패턴 2(
Figure 112013103277907-pat00002
)
메모 첨부 손가락 패턴 3(
Figure 112013103277907-pat00003
)
메모 삭제 손가락 패턴 4(
Figure 112013103277907-pat00004
)
다음 표 2는 카메라 어플리케이션의 입력 설정 정보에 대한 하나의 예시이다.
카메라 어플리케이션의 기능 정보 입력 오브젝트 및 입력 패턴
프리뷰 이미지에서 캡처 영역 설정 펜 터치
캡처 영역 저장 손가락 터치
다음 표 3은 어플리케이션 아이콘의 입력 설정 정보에 대한 하나의 예시이다.
어플리케이션 아이콘 입력 오브젝트 및 입력 패턴
해당 어플리케이션 실행 손가락 터치
해당 어플리케이션의 설정 메뉴(예, 실행 버튼, 삭제 버튼, 자동 업데이트 설정 버튼 등을 포함) 표시 펜 터치
다음 표 4는 웹 브라우저의 입력 설정 정보에 대한 하나의 예시이다.
웹 브라우저의 기능 정보 입력 오브젝트 및 입력 패턴
링크 선택 펜 터치
화면 스크롤 손가락 드래그
메모리(160)는 전자 장치(100)의 운영을 위한 다양한 프로그램들 예컨대, 부팅 프로그램과, 하나 이상의 운영체제와, 메모 어플리케이션, 웹 브라우저, 이북 어플리케이션, 카메라 어플리케이션, 캘린더 어플리케이션, 갤러리 어플리케이션, 연락처 어플리케이션, 통화 어플리케이션 등과 같은 다양한 어플리케이션들을 저장할 수 있다. 또한, 메모리(160)는 입력 처리 모듈(162)을 저장할 수 있다.
입력 처리 모듈(162)은 터치스크린에 대한 사용자 입력을 처리하는 프로세스를 제어부(170)가 수행하도록 설정된 프로그램일 수 있다. 이러한 입력 처리 모듈(162)은 운영체제의 일부 구성이거나 별도의 어플리케이션일 수 있다. 또한 입력 처리 모듈(162)은 어플리케이션(예컨대, 메모 어플리케이션, 카메라 어플리케이션, 이북 어플리케이션, 웹 브라우저 등)의 일부 구성일 수 있다. 또한 입력 처리 모듈(162)은 제어부(170) 특히, 어플리케이션 프로세서의 내부 메모리(예, 롬, 플래시메모리 또는 EPROM)에 내재되어 그 동작을 어플리케이션 프로세서가 수행하도록 하는 펌웨어(firmware)일 수도 있다.
입력 처리 모듈(162)은 어플리케이션 윈도우 및 그 설정 메뉴(특히, 퀵 메뉴)를 표시하는 동작과, 설정 메뉴의 항목들 중 하나에 대한 선택을 수신하는 동작과, 상기 선택을 수행한 입력 오브젝트를 인식하는 동작과, 상기 입력 오브젝트에 의해 선택된 항목의 기능을 상기 입력 오브젝트에 의한 입력으로 등록하는 동작과, 어플리케이션 윈도우에서 상기 입력 오브젝트에 의한 입력을 수신하는 동작과, 상기 입력 오브젝트에 의한 입력에 반응하여 상기 입력 오브젝트에 등록된 기능을 실행하는 동작을 수행하도록 설정될 수 있다.
또한 입력 처리 모듈(162)은 어플리케이션의 설정 메뉴를 표시하는 동작과, 어플리케이션의 기능들 각각에 적어도 하나의 입력 오브젝트 및 그 입력 패턴을 설정하는 동작과, 입력 설정 정보를 메모리(160)에 저장하는 동작을 수행하도록 설정될 수 있다. 또한 입력 처리 모듈(162)은 어플리케이션 윈도우를 표시하는 동작과, 입력 오브젝트의 입력을 인식하는 동작과, 미리 저장된 입력 설정 정보를 참조하여, 인식된 입력 및 그 오브젝트에 등록된 기능을 확인하는 동작과, 등록된 기능을 실행하는 동작을 수행하도록 설정될 수 있다.
또한 입력 처리 모듈(162)은 카메라(150)를 구동하여 프리뷰 이미지를 화면에 표시하는 동작과, 프리뷰 이미지에서 제 1 입력 오브젝트의 입력을 인식하는 동작과, 제 1 입력 오브젝트의 입력에 응답하여 프리뷰 이미지에서 캡처 영역을 설정하는 동작과, 캡처 영역에 대한 제 2 입력 오브젝트의 입력을 인식하는 동작과, 제 2 입력 오브젝트의 입력에 응답하여 캡처 영역을 메모리(160)에 저장하는 동작을 수행하도록 설정될 수 있다.
또한 입력 처리 모듈(162)은 화면에 표시된 아이콘들 중 하나의 선택 및 그 선택에 이용된 입력 오브젝트를 인식하는 동작과, 미리 저장된 입력 설정 정보를 참조하여, 인식된 입력 오브젝트에 등록된 기능을 확인하는 동작과, 인식된 입력 오브젝트가 제 1 입력 오브젝트인 경우 해당 어플리케이션을 실행하는 동작과, 인식된 입력 오브젝트가 제 2 입력 오브젝트인 경우 다른 기능을 실행(예, 해당 어플리케이션의 설정 메뉴 표시)하는 동작을 수행하도록 설정될 수 있다.
메모리(160)는 메인 메모리(main memory)와 보조 메모리(secondary memory)를 포함할 수 있다. 메인 메모리는 예컨대, 램(RAM) 등으로 구현될 수 있다. 보조 메모리는 디스크, 램(RAM), 롬(ROM) 또는 플래시 메모리 등으로 구현될 수 있다. 메인메모리는 보조 메모리로부터 로딩된 각종 프로그램 예컨대, 부팅 프로그램, 운영체제 및 어플리케이션들을 저장할 수 있다. 제어부(170)로 배터리의 전원이 공급되면 먼저 부팅 프로그램이 메인메모리로 로딩(loading)될 수 있다. 이러한 부팅 프로그램은 운영체제를 메인메모리로 로딩할 수 있다. 운영체제는 어플리케이션을 메인메모리로 로딩할 수 있다. 제어부(170)(예컨대, AP(Applicatoin Processor))는 메인메모리에 액세스하여 프로그램의 명령어(루틴)를 해독하고, 해독 결과에 따른 기능을 실행할 수 있다. 즉 각종 프로그램들은 메인메모리로 로드되어 프로세스로써 동작할 수 있다.
제어부(170)는 전자장치(100)의 전반적인 동작 및 전자장치(100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행하고, 배터리에서 상기 구성들로의 전원 공급을 제어한다. 제어부(170)는 터치스크린 컨트롤러(171) 및 어플리케이션 프로세서(Application Processor; AP)(162)를 포함할 수 있다.
터치스크린 컨트롤러(171)는 터치스크린 패널(111)로부터 감지 정보를 수신하고, 이를 분석하여 사용자 입력(예, 터치, 호버링, 펜 버튼의 누름 등)이 발생됨을 인식할 수 있다. 터치스크린 컨트롤러(171)는 호버링에 응답하여 터치스크린에서 호버링 영역을 결정하고, 호버링 영역에서 호버링 좌표(x_hovering, y_hovering)를 계산할 수 있다. 터치스크린 컨트롤러(171)는 계산된 호버링 좌표를 포함하는 호버링 이벤트를 AP(Application Processor)(172)로 전달할 수 있다. 또한 호버링 이벤트는 깊이 값을 포함할 수 있다. 예컨대, 호버링 이벤트는 3차원 호버링 좌표 (x, y, z)를 포함할 수 있다. 여기서, z 값이 깊이를 의미할 수 있다. 터치스크린 컨트롤러(171)는 터치에 응답하여 터치스크린에서 터치 영역을 결정하고, 터치 영역에서 터치 좌표(x_touch, y_touch)를 계산할 수 있다. 터치스크린 컨트롤러(171)는 계산된 터치 좌표를 포함하는 터치이벤트를 어플리케이션 프로세서(172)로 전달할 수 있다. 터치스크린 컨트롤러(171)는 펜 버튼의 누름에 응답하여 펜 버튼 이벤트를 어플리케이션 프로세서(172)로 전달할 수 있다.
어플리케이션 프로세서(172)는 터치스크린 컨트롤러(171)로부터 터치스크린 이벤트(예, 호버링 이벤트, 터치이벤트, 펜 버튼 이벤트 등)를 수신하고, 터치스크린 이벤트에 대응되는 기능을 수행할 수 있다.
어플리케이션 프로세서(172)는 터치스크린 컨트롤러(171)로부터 호버링 좌표가 수신될 경우, 입력 오브젝트가 터치스크린에 호버링된 것으로 결정하고 터치패널(111)로부터 호버링 좌표가 수신되지 않을 경우 터치스크린으로부터 입력 오브젝트의 호버링이 해제(release)된 것으로 결정할 수 있다. 또한 어플리케이션 프로세서(172)는 호버링 좌표가 변화되고 그 변화량이 미리 설정된 이동 임계치를 초과할 경우 어플리케이션 프로세서(172)는 입력 오브젝트의 호버링 움직임이 발생된 것으로 결정할 수 있다. 어플리케이션 프로세서(172)는 입력 오브젝트의 호버링 움직임에 응답하여 입력 오브젝트의 위치변화량(dx, dy), 입력 오브젝트의 이동 속도, 호버링 움직임의 궤적 등을 산출할 수 있다. 또한 어플리케이션 프로세서(172)는 호버링 좌표, 입력 오브젝트의 호버링 해제 여부, 입력 오브젝트의 이동 여부, 입력 오브젝트의 위치변화량, 입력 오브젝트의 이동 속도, 호버링 움직임의 궤적 등을 기반으로, 터치스크린에 대한 사용자 입력을 결정할 수 있다. 여기서, 사용자 입력은 예컨대, 드래그(Drag), 플릭(Flick), 핀치인(pinch in), 핀치아웃(pinch out), 스크롤(scroll) 등을 포함할 수 있다.
어플리케이션 프로세서(172)는 터치스크린 컨트롤러(171)로부터 터치 좌표가 수신될 경우, 입력 오브젝트가 터치패널(111)에 터치된 것으로 결정하고, 터치패널(111)로부터 터치 좌표가 수신되지 않을 경우 터치스크린으로부터 입력 오브젝트의 터치가 해제된 것으로 결정할 수 있다. 또한 어플리케이션 프로세서(172)는 터치 좌표가 변화되고 그 변화량이 미리 설정된 이동 임계치를 초과할 경우, 입력 오브젝트의 터치 움직임이 발생된 것으로 결정할 수 있다. 어플리케이션 프로세서(172)는 입력 오브젝트의 터치 움직임에 응답하여 입력 오브젝트의 위치변화량(dx, dy), 입력 오브젝트의 이동 속도, 터치 움직임의 궤적 등을 산출할 수 있다. 또한, 어플리케이션 프로세서(172)는 터치 좌표, 입력 오브젝트의 터치 해제 여부, 입력 오브젝트의 이동 여부, 입력 오브젝트의 위치변화량 및 입력 오브젝트의 이동 속도, 터치 움직임의 궤적 등을 기반으로, 터치스크린에 대한 사용자 입력을 결정할 수 있다. 여기서, 사용자 입력은 터치, 멀티 터치, 탭(Tap), 더블 탭(Double Tap), 롱 탭(Long tap), 드래그(Drag), 플릭(Flick), 프레스(Press), 핀치인(pinch in), 핀치아웃(pinch out), 스크롤(scroll) 등을 포함할 수 있다.
어플리케이션 프로세서(172)는 키입력부(120)로부터 키이벤트를 수신하고 키이벤트에 대응되는 기능을 수행할 수 있다.
어플리케이션 프로세서(172)는 메모리(160)에 저장된 각종 프로그램들을 실행할 수 있다. 즉 어플리케이션 프로세서(172)는 각종 프로그램들을 보조메모리에서 메인메모리로 로드하여 프로세스로써 운영할 수 있다. 특히, 어플리케이션 프로세서(172)는 입력 처리 모듈(162)을 프로세스로써 실행할 수 있다. 또한 어플리케이션 프로세서(172)는 프로그램들을 동시에 프로세싱(즉, 멀티 프로세싱)할 수도 있다.
한편, 제어부(170)는 어플리케이션 프로세서(172) 이외에 다양한 프로세서를 더 포함할 수 있다. 예컨대, 제어부(170)는 그래픽 처리를 담당하는 그래픽처리유닛(Graphic Processing Unit; GPU)을 포함할 수도 있다. 또한 제어부(170)는, 전자장치(100)가 이동통신모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5세대(3.5-Generation) 이동통신모듈 또는 4세대(4-Generation) 이동통신모듈 등)을 구비한 경우, 이동 통신의 처리를 담당하는 커뮤니케이션 프로세서(Communication Processor; CP)를 더 포함할 수도 있다. 상술한 프로세서들은 각각, 두 개 이상의 독립 코어(예, 쿼드 코어(quad-core))가 단일 집적 회로로 이루어진 하나의 패키지(package)로 통합될 수 있다. 예컨대, 어플리케이션 프로세서(172)는 하나의 멀티 코어 프로세서로 통합된 것일 수 있다. 상술한 프로세서들은 하나의 칩으로 통합(SoC; System on Chip)된 것일 수 있다. 또한 상술한 프로세서들은 멀티 레이어(multi layer)로 패키징(packaging)된 것일 수도 있다.
한편, 전자장치(100)는 GPS 수신 모듈, 진동 모터, 적외선 센서, 가속도 센서, 자이로 센서, 근접 센서 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수도 있다.
도 2는 본 발명에 따른 사용자 입력 처리의 일례를 설명하기 위한 흐름도이다.
도 2를 참조하면, 단계 210에서 제어부(170)는 어플리케이션 윈도우 및 어플리케이션의 설정 메뉴를 화면에 표시하도록 표시부(110)를 제어할 수 있다. 여기서 설정 메뉴는 어플리케이션 윈도우의 일부의 위에 표시될 수 있다. 또한, 설정 메뉴는 어플리케이션 윈도우와 중첩되지 않게 표시될 수도 있다. 단계 220에서 제어부(170)는 설정 메뉴의 항목들 중 하나에 대한 선택(예, 탭)을 상기 터치패널(111)로부터 수신하고, 선택을 수행한 입력 오브젝트를 인식할 수 있다. 단계 230에서 제어부(170)는 선택된 항목의 기능을 상기 인식된 입력 오브젝트의 입력으로 메모리(160)에 등록할 수 있다. 단계 240에서 제어부(170)는 어플리케이션 윈도우에서 입력 오브젝트의 입력을 터치패널(110)로부터 수신할 수 있다. 단계 250에서 제어부(170)는 입력에 반응하여 입력 오브젝트에 맵핑된 기능을 실행할 수 있다.
도 3a, 도 3b, 도 3c, 도 3d 및 도 3e는 도 2의 프로세스가 메모 어플리케이션에 응용된 일례를 설명하기 위한 화면들이다.
도 3a를 참조하면, 표시부(110)는 메모창(310)과 설정 메뉴(320)를 표시할 수 있다. 여기서 설정 메뉴(320)는 새창 만들기(321), 키패드를 이용한 텍스트 입력(322), 브러시 그리기(323), 지우기(324), 되돌리기(325), 다시 실행(326), 저장(327) 및 취소(328)와 같은 기능들에 각각 대응되는 항목들로 구성될 수 있다. 사용자는 설정 메뉴(320)에서 브러시(323)에 대응되는 항목을 펜(330)으로 선택(예, 탭)할 수 있다. 이러한 탭에 응답하여 제어부(170)는 브러시 그리기를 펜(330)에 의한 입력으로 등록할 수 있다. 이때 브러시의 속성들(예, 굵기, 투명도, 색상)은 미리 정해진 값으로 설정될 수 있다. 이와 같이 항목의 기능을 항목의 선택을 수행한 입력 오브젝트에 의한 입력으로 등록될 수 있다. 한편, 설정 메뉴(320)는 상기 항목들 외에도, 선 그리기, 하이라이트 및 도형 그리기 등과 같은 기능들에 각각 대응되는 항목들을 더 포함할 수도 있다.
도 3b를 참조하면, 사용자는 펜(330)을 메모창(310)에 터치한 상태에서 이동할 수 있다. 그러면, 제어부(170)는 펜(330)에 등록된 기능이 브러시임을 확인하고, 펜(330)이 이동한 궤적을 인식하고, 인식된 궤적에 브러시(311)를 표시하도록 표시부(110)를 제어할 수 있다.
도 3c를 참조하면, 사용자는 설정 메뉴(320)에서 지우기 항목(324)를 손가락(340)으로 탭할 수 있다. 이에 응답하여 제어부(170)는 지우기(324)를 손가락(340)에 의한 입력으로 등록할 수 있다. 만약, 사용자가 펜(330)으로 지우기 항목(324)을 탭한 경우, 지우기(324)에는 펜(330)이 등록될 수 있다. 또한, 브러시(311)에 등록되는 입력 오브젝트는 펜(330)에서 손가락(340)으로 자동으로 변경될 수도 있다.
도 3d를 참조하면, 사용자는 손가락(340)을 메모창(310)에 터치한 상태에서 이동할 수 있다. 그러면, 제어부(170)는 손가락(340)에 등록된 기능이 지우기임을 인식하고, 브러시(311)에서 손가락(340)이 지나간 부분을 제거할 수 있다.
도 3a 내지 도 3d를 참조하여 설명한 바와 같이, 제어부(170)는 기능을 입력 오브젝트들마다 다르게 등록할 수 있다. 또한, 제어부(170)는 기능과 관련된 속성(예, 색상, 굵기, 투명도 등)을 입력 오브젝트들마다 다르게 등록할 수도 있다.
도 3e를 참조하면, 사용자가 브러시 항목(323)을 펜으로 선택(예, 롱 탭)하면, 제어부(170)는 브러시 항목(323)과 관련된 서브 설정 메뉴(350)(예컨대, 굵기 조절 바(351), 투명도 조절바(352) 및 색상 표(353) 포함)를 표시하도록 표시부(110)를 제어할 수 있다. 사용자가 색상 표(353)에서 임의의 색상을 펜으로 선택(예, 탭)하면, 제어부(170)는 선택된 색상을 펜에 의한 입력의 속성으로 등록할 수 있다. 사용자가 브러시 항목(323)을 손가락으로 선택(예, 롱 탭)하면, 제어부(170)는 서브 설정 메뉴(350)를 표시하도록 표시부(110)를 제어할 수 있다. 사용자가 색상 표(353)에서 임의의 색상을 손가락으로 선택(예, 탭)하면, 제어부(170)는 선택된 색상을 손가락에 의한 입력의 속성으로 등록할 수 있다. 이후, 사용자가 손가락을 화면에 터치한 상태에서 이동하면, 제어부(170)는 손가락이 이동한 궤적을 인식하고, 인식된 궤적에 해당 색상(예, 파란색)의 브러시를 표시하도록 표시부(110)를 제어할 수 있다. 또한, 사용자가 펜으로 화면을 터치한 상태에서 이동하면, 제어부(1700는 펜이 이동한 궤적을 인식하고, 인식된 궤적에 해당 색상(예, 빨간색)의 브러시를 표시하도록 표시부(110)를 제어할 수 있다.
도 4a 및 도 4b는 도 2의 프로세스가 이북 어플리케이션에 응용된 일례를 설명하기 위한 화면들이다.
도 4a를 참조하면, 표시부(110)는 페이지(310)의 일부의 위에 설정 메뉴(420)를 표시할 수 있다. 여기서 설정 메뉴(420)는 하이라이트(421), 지우기(422) 및 페이지 넘김(423)과 같은 항목들로 구성될 수 있다. 사용자는 설정 메뉴(420)에서 하이라이트(421)를 펜(430)으로 탭할 수 있다. 이에 응답하여 제어부(170)는 하이라이트(421)를 펜(430)에 의한 입력으로 등록할 수 있다.
도 4b를 참조하면, 사용자는 펜(430)을 페이지(410)에 터치한 상태에서 이동할 수 있다. 그러면, 제어부(170)는 펜(430)에 등록된 기능이 하이라이트임을 확인하고, 펜(430)이 이동한 궤적을 인식하고, 인식된 궤적에 형광색(411)을 표시하도록 표시부(110)를 제어할 수 있다.
도 5는 본 발명에 따른 사용자 입력 설정의 일례를 설명하기 위한 흐름도이다.
도 5를 참조하면, 단계 510에서 제어부(170)는 어플리케이션의 설정 메뉴를 표시하도록 표시부(110)를 제어할 수 있다. 예컨대, 어플리케이션 윈도우가 화면에 표시되고 있는 상태에서 사용자는 키입력부(120)의 메뉴 키를 누를 수 있다. 이에 응답하여 제어부(170)는 해당 어플리케이션의 설정 메뉴를 표시하도록 표시부(110)를 제어할 수 있다. 단계 520에서 제어부(170)는 사용자 입력에 응답하여 어플리케이션의 기능들 각각에 적어도 하나의 입력 오브젝트와 그 입력 패턴을 설정할 수 있다. 단계 530에서 제어부(170)는 입력 설정 정보를 메모리(160)에 저장할 수 있다.
도 6a, 도 6b 및 도 6c는 도 5의 프로세스가 메모 어플리케이션에 응용된 일례를 설명하기 위한 화면들이다.
도 6a 및 6b를 참조하면, 표시부(110)는 메모 어플리케이션의 설정 메뉴(610)를 표시할 수 있다. 도 6a에 도시된 바와 같이 설정 메뉴(610)를 통해 설정 가능한 기능들은 선 그리기, 지우기, 화면 스크롤, 브러시, 다음 메모로 이동, 이전 메모로 이동, 메모 첨부 및 메모 삭제를 포함할 수 있다. 사용자는 설정 메뉴(610)에서 화면스크롤의 항목(611)을 입력 오브젝트 예컨대, 손가락(620)으로 탭할 수 있다. 이에 응답하여 제어부(170)는 도 6b에 도시된 바와 같은 입력 리스트(630)를 표시하도록 표시부(110)를 제어할 수 있다.
도 6b 및 도 6c를 참조하면, 사용자는 입력 리스트(630)에서 어느 하나의 항목 예컨대, '손가락 터치'를 손가락(620)으로 터치할 수 있다. 그러면, 도 6c에 도시된 바와 같이 화면 스크롤에 손가락 터치가 설정될 수 있다.
도 7은 본 발명에 따른 사용자 입력 처리의 다른 예를 설명하기 위한 흐름도이다.
도 7을 참조하면, 단계 710에서 제어부(170)는 어플리케이션 윈도우를 화면에 표시하도록 표시부(110)를 제어할 수 있다. 단계 720에서 제어부(170)는 터치패널(111)로부터 수신된 감지 정보를 분석하여, 어플리케이션 윈도우에서 입력 오브젝트의 입력을 인식할 수 있다. 단계 730에서 제어부(170)는 메모리(160)에 미리 저장된 입력 설정 정보를 읽어 오고, 읽어 온 입력 설정 정보를 참조하여, 인식된 입력 및 그 오브젝트에 등록된 기능을 확인할 수 있다. 단계 740에서 제어부(170)는 등록된 기능을 실행할 수 있다.
도 8은 도 7의 프로세스가 메모 어플리케이션의 선 그리기에 응용된 일례를 설명하기 위한 화면이다.
도 8을 참조하면, 표시부(110)는 메모창(810)을 표시할 수 있다. 사용자는 메모창(810)에 펜(820)을 터치할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여 펜 터치에 설정된 기능이 '선 그리기'임을 인식한다. 사용자는 터치를 유지한 상태에서 펜(820)을 이동할 수 있다. 그러면, 제어부(170)는 펜(820)이 이동한 궤적을 인식하고, 인식된 궤적에 선을 표시하도록 표시부(110)를 제어할 수 있다.
도 9는 도 7의 프로세스가 메모 어플리케이션의 브러시 그리기에 응용된 일례를 설명하기 위한 화면이다.
도 9를 참조하면, 사용자는 메모창(910)에 손가락(920)을 터치하고, 메모창(910)에 펜(930)을 터치한 상태에서 이동할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여 손가락 터치 및 펜 이동에 설정된 기능이 '브러시 그리기'임을 인식한다. 이에 따라 제어부(170)는 펜(930)이 이동한 궤적을 인식하고, 인식된 궤적에 브러시(911)를 표시하도록 표시부(110)를 제어할 수 있다.
도 10a 및 도 10b는 도 7의 프로세스가 메모 어플리케이션의 지우기에 응용된 일례를 설명하기 위한 화면들이다.
도 10a를 참조하면, 표시부(110)는 메모창(1010)을 표시할 수 있다. 사용자는 메모창(1010)에 펜(1020)을 터치할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여 펜 터치에 설정된 기능이 '선 그리기'임을 인식한다. 사용자는 터치를 유지한 상태에서 펜(1020)을 이동할 수 있다. 그러면, 제어부(170)는 펜(1020)이 이동한 궤적을 인식하고, 인식된 궤적에 선(1011)을 표시하도록 표시부(110)를 제어할 수 있다.
도 10b를 참조하면, 사용자는 메모창(1010)에 손가락(1030)을 터치할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여 손가락 터치에 설정된 기능이 '지우기'임을 인식할 수 있다. 사용자는 터치를 유지한 상태에서 손가락(1030)을 이동할 수 있다. 그러면, 제어부(170)는 손가락(1030)이 이동한 궤적을 인식하고, 인식된 궤적에 위치한 선(1011)을 제거할 수 있다.
도 11a 및 도 11b는 도 7의 프로세스가 메모 어플리케이션의 화면 스크롤에 응용된 일례를 설명하기 위한 화면들이다.
도 11a를 참조하면, 표시부(110)는 메모창의 일부(1110)를 표시할 수 있다. 사용자는 펜(1120)에 구비된 버튼을 누른 상태에서 손가락(1130)을 위로 드래그할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여 사용자 입력(펜 버튼 누름 및 손가락 드래그)에 설정된 기능이 '화면 스크롤'임을 인식할 수 있다. 도 11b를 참조하면, 제어부(170)는 사용자 입력에 응답하여 메모창의 다른 일부(1140)를 표시하도록 표시부(110)를 제어할 수 있다.
도 12a 및 도 12b는 도 7의 프로세스가 메모 어플리케이션의 메모 변경에 응용된 일례를 설명하기 위한 화면들이다.
도 12a를 참조하면, 표시부(110)는 메모창(1210)을 화면에 표시할 수 있다. 사용자는 메모창(1210)을 터치(또는 호버링)한 상태에서 손가락(1220)으로 "
Figure 112013103277907-pat00005
"와 같은 제스처를 취할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여, "
Figure 112013103277907-pat00006
" 입력 패턴에 설정된 기능이 '다음 메모로 이동'임을 인식할 수 있다. 도 12b를 참조하면, 제어부(170)는 사용자 입력에 응답하여 다음 메모창(1230)을 표시하도록 표시부(110)를 제어할 수 있다.
도 13은 도 7의 프로세스가 메모 어플리케이션의 메모 첨부에 응용된 일례를 설명하기 위한 화면이다.
도 13을 참조하면, 사용자는 메모창(1310)을 터치(또는 호버링)한 상태에서 손가락(1320)으로 "
Figure 112013103277907-pat00007
"와 같은 제스처를 취할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여, "
Figure 112013103277907-pat00008
" 입력 패턴에 설정된 기능이 '메모 첨부'임을 인식할 수 있다. 이에 따라 제어부(170)는 사용자 입력에 응답하여 첨부 대상 어플리케이션 목록(1330)을 표시하도록 표시부(110)를 제어할 수 있다.
도 14는 도 7의 프로세스가 메모 어플리케이션의 메모 삭제에 응용된 일례를 설명하기 위한 화면이다.
도 14를 참조하면, 사용자는 메모창(1410)을 터치(또는 호버링)한 상태에서 손가락(1420)으로 "
Figure 112013103277907-pat00009
"와 같은 제스처를 취할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여, "
Figure 112013103277907-pat00010
" 입력 패턴에 설정된 기능이 '메모 삭제'임을 인식할 수 있다. 이에 따라 제어부(170)는 사용자 입력에 응답하여 메모 삭제 여부를 묻는 팝업창(1430)을 표시하도록 표시부(110)를 제어할 수 있다.
도 15는 도 7의 프로세스가 웹 브라우저의 링크 선택에 응용된 일례를 설명하기 위한 화면이다.
도 15를 참조하면, 사용자는 웹 페이지(1510)에서 임의의 오브젝트(1511)를 펜(1520)으로 터치할 수 있다. 그러면 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여 펜 터치에 설정된 기능이 '링크 선택'임을 인식할 수 있다. 이에 따라 제어부(170)는 사용자 입력에 응답하여 터치된 오브젝트(1511)에 링크된 웹 페이지를 다운로드하도록 무선통신부(130)를 제어하고, 무선통신부(130)로부터 수신된 해당 웹 페이지를 표시하도록 표시부(110)를 제어할 수 있다.
도 16은 도 7의 프로세스가 웹 브라우저의 화면 스크롤에 응용된 일례를 설명하기 위한 화면이다.
도 16을 참조하면, 표시부(110)는 웹 페이지의 일부(1610)를 표시할 수 있다. 제어부(170)는 터치패널(110)로부터 수신된 감지 정보를 분석하여 손가락(1620)의 드래그(1621)를 인식할 수 있다. 그러면, 제어부(170)는 메모리(160)에 저장된 입력 설정 정보를 확인하여, 손가락 드래그에 설정된 기능이 '화면 스크롤'임을 인식할 수 있다. 이에 따라 제어부(170)는 웹 페이지의 다른 일부를 표시하도록 표시부(110)를 제어할 수 있다.
도 17은 본 발명에 따른 사용자 입력 처리가 카메라 어플리케이션에 응용된 일례를 흐름도이다. 도 18a 및 도 18b는 도 17의 프로세스를 설명하기 위한 화면들이다.
도 17을 참조하면, 단계 1710에서 제어부(170)는 카메라(150)로부터 프리뷰 이미지를 수신하고, 수신된 프리뷰 이미지(1810; 도 18a 참조)를 표시하도록 표시부(110)를 제어할 수 있다. 단계 1720에서 제어부(170)는 터치패널(111)로부터 수신된 감지 정보를 분석하여, 프리뷰 이미지에서 제 1 입력 오브젝트 예컨대, 펜(1820; 도 18a 참조)의 입력을 인식할 수 있다. 단계 1730에서 제어부(170)는 제 1 입력 오브젝트의 입력에 응답하여 프리뷰 이미지(1810)에서 캡처 영역(1811)을 설정할 수 있다. 예컨대, 펜(1820)의 입력 패턴이 도시된 바와 같이 폐곡선(1821)일 경우, 폐곡선(1821) 내부에 위치한 프리뷰 이미지의 부분이 캡처 영역(1811)으로 설정될 수 있다. 단계 1740에서 제어부(170)는 터치패널(111)로부터 수신된 감지 정보를 분석하여, 캡처 영역(1811)에 대한 제 2 입력 오브젝트 예컨대, 손가락(1830; 도 18b 참조)의 입력(예, 탭)을 인식할 수 있다. 단계 1750에서 제어부(170)는 제 2 입력 오브젝트의 입력에 응답하여 캡처 영역(1811)에 해당되는 영상 정보를 메모리(160)에 저장할 수 있다. 구체적으로, 제어부(170)는 카메라(150)의 ISP로부터 수신된 로우 데이터에서 캡처 영역(1811)에 해당되는 부분을 추출하고, 추출된 부분을 JPEG 등의 포맷으로 압축하여 메모리(160)에 저장할 수 있다.
도 19는 본 발명에 따른 사용자 입력 처리가 아이콘에 응용된 일례를 흐름도이다.
도 19를 참조하면, 단계 1910에서 제어부(170)는 화면(예컨대, 홈 화면, 잠금 화면, 어플리케이션 실행 화면 등)에 표시된 아이콘들 중 하나의 선택을 터치패널(111)로부터 수신하고, 그 선택을 수행한 입력 오브젝트를 인식할 수 있다. 단계 1920에서 제어부(170)는 메모리(160)에 액세스하여 입력 설정 정보를 확인할 수 있다. 단계 1930에서 제어부(170)는 확인된 입력 설정 정보를 참조하여 인식된 도구가 어플리케이션 실행을 위한 제 1 입력 오브젝트(예컨대, 손가락)인지 여부를 결정할 수 있다. 인식된 도구가 제 1 입력 오브젝트인 경우 단계 1940에서 제어부(170)는 선택된 아이콘의 해당 어플리케이션을 실행할 수 있다. 인식된 도구가 제 1 입력 오브젝트가 아닌 제 2 입력 오브젝트(예, 펜)인 경우 단계 1950에서 제어부(170)는 다른 기능을 수행(예, 설정 메뉴 표시)할 수 있다.
상술한 바와 같은 본 발명에 따른 방법은 다양한 컴퓨터를 통하여 수행될 수 있는 프로그램 명령으로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 여기서 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 포함할 수 있다. 또한 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 또한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media)와, CD-ROM, DVD와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 롬(ROM)과, 램(RAM)과, 플래시 메모리 등과 같은 하드웨어가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드가 포함될 수 있다.
본 발명에 따른 방법 및 장치는 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.
100: 전자 장치
110: 표시부 111: 터치패널
120: 키입력부 130: 무선통신부
140: 오디오 처리부 141: 스피커
142: 마이크 150: 카메라
160: 메모리 161: 입력 설정 정보
162: 입력 처리 모듈 170: 제어부
171: 터치스크린 컨트롤러 172: 어플리케이션 프로세서

Claims (19)

  1. 터치스크린을 포함한 전자 장치를 동작하는 방법에 있어서,
    어플리케이션의 드로잉 속성들에 각각 관련된 복수의 항목들을 상기 터치스크린에 표시하는 동작;
    손가락 터치를 검출하는 제 1 방식에 의해 인식되고 상기 항목들 중 제 1 항목과 관련된 제 1 터치 입력을 상기 터치스크린으로부터 수신하는 동작;
    전기적인 펜 터치를 검출하는 제 2 방식에 의해 인식되고 상기 항목들 중 제 2 항목과 관련된 제 2 터치 입력을 상기 터치스크린으로부터 수신하는 동작;
    상기 제 1 터치 입력의 수신에 반응하여, 상기 제 1 항목에 대응하는 제 1 드로잉 속성을 상기 손가락 터치와 관련되도록 설정하는 동작;
    상기 제 2 터치 입력의 수신에 반응하여, 상기 제 2 항목에 대응하는 제 2 드로잉 속성을 상기 펜 터치와 관련되도록 설정하는 동작;
    상기 터치스크린으로부터 제 3 터치 입력을 수신하는 동작;
    상기 제 3 터치 입력이 상기 제 1 방식에 의해 인식된 경우, 상기 제 3 터치 입력에 상기 제 1 드로잉 속성을 적용하는 동작; 및
    상기 제 3 터치 입력이 상기 제 2 방식에 의해 인식된 경우, 상기 제 3 터치 입력에 상기 제 2 드로잉 속성을 적용하는 동작을 포함하는 방법.
  2. 제 1 항에 있어서,
    상기 항목들은,
    선 그리기, 브러시 그리기, 지우기, 하이라이트 및 도형 그리기 중 적어도 하나의 기능에 대응되는 항목을 포함하는 방법.
  3. 제 1 항에 있어서,
    상기 제 1 항목 또는 상기 제 2 항목과 관련된 설정 메뉴를 표시하는 동작; 및
    상기 설정 메뉴에서 속성에 대한 선택을 수신하는 동작을 더 포함하고,
    상기 제 1 드로잉 속성 또는 상기 제 2 드로잉 속성을 적용하는 동작은,
    상기 설정 메뉴에서 선택된 속성에 대응하는 기능을 실행하는 동작을 포함하는 방법.
  4. 제 3 항에 있어서,
    상기 설정 메뉴는,
    굵기, 색상 및 투명도 중 적어도 하나와 관련된 정보를 포함하는 방법.
  5. 제 3 항에 있어서,
    상기 기능은,
    선 그리기, 브러시 그리기, 지우기, 하이라이트 및 도형 그리기 중 하나인 방법.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 전자 장치에 있어서,
    표시부;
    상기 표시부의 터치스크린에 대한 터치 입력을 감지하는 터치패널;
    어플리케이션을 저장하는 메모리; 및
    상기 표시부, 상기 터치패널, 및 상기 메모리에 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 어플리케이션의 드로잉 속성들에 각각 관련된 복수의 항목들을 상기 터치스크린에 표시하고,
    손가락 터치를 검출하는 제 1 방식에 의해 인식되고 상기 항목들 중 제 1 항목과 관련된 제 1 터치 입력을 상기 터치패널로부터 수신하고,
    전기적인 펜 터치를 검출하는 제 2 방식에 의해 인식되고 상기 항목들 중 제 2 항목과 관련된 제 2 터치 입력을 상기 터치패널로부터 수신하고,
    상기 제 1 터치 입력의 수신에 반응하여, 상기 제 1 항목에 대응하는 제 1 드로잉 속성을 상기 손가락 터치와 관련되도록 설정하고,
    상기 제 2 터치 입력의 수신에 반응하여, 상기 제 2 항목에 대응하는 제 2 드로잉 속성을 상기 펜 터치와 관련되도록 설정하고,
    상기 터치패널로부터 제 3 터치 입력을 수신하고,
    상기 제 3 터치 입력이 상기 제 1 방식에 의해 인식된 경우, 상기 제 3 터치 입력에 상기 제 1 드로잉 속성을 적용하고,
    상기 제 3 터치 입력이 상기 제 2 방식에 의해 인식된 경우, 상기 제 3 터치 입력에 상기 제 2 드로잉 속성을 적용하도록 구성된 전자 장치.
  10. 제 9 항에 있어서,
    상기 항목들은,
    선 그리기, 브러시 그리기, 지우기, 하이라이트 및 도형 그리기 중 적어도 하나의 기능에 대응되는 항목을 포함하는 전자 장치.
  11. 제 9 항에 있어서,
    상기 프로세서는,
    상기 제 1 항목 또는 상기 제 2 항목과 관련된 설정 메뉴를 표시하고, 상기 설정 메뉴에서 속성에 대한 선택을 상기 터치패널로부터 수신하고, 상기 제 1 드로잉 속성 또는 상기 제 2 드로잉 속성을 적용하는 동작의 일부로서, 상기 선택된 속성에 대응하는 기능을 실행하도록 구성된 전자 장치.
  12. 제 11 항에 있어서,
    상기 설정 메뉴는,
    굵기, 색상 및 투명도 중 적어도 하나와 관련된 정보를 포함하는 전자 장치.
  13. 제 11 항에 있어서,
    상기 기능은,
    선 그리기, 브러시 그리기, 지우기, 하이라이트 및 도형 그리기 중 하나인 전자 장치.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제 9 항에 있어서,
    상기 프로세서는, 사진, 웹 페이지, 메모, 이북(e-book), 및 카메라에 의해 캡처된 이미지 중 하나를 포함한 페이지와 함께 상기 항목들을 상기 터치스크린에 표시하도록 구성된 전자 장치.
  18. 제 17 항에 있어서,
    상기 프로세서는, 상기 제 3 터치 입력에 반응하여 상기 제 1 드로잉 속성 또는 상기 제 2 드로잉 속성에 대응하는 기능을 실행함으로써 상기 페이지를 편집하도록 구성된 전자 장치.
  19. 제 18 항에 있어서,
    상기 프로세서는 상기 편집된 페이지를 상기 메모리에 저장하도록 구성된 전자 장치.
KR1020130137449A 2013-11-13 2013-11-13 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법 KR102189787B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130137449A KR102189787B1 (ko) 2013-11-13 2013-11-13 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법
US14/540,447 US9772747B2 (en) 2013-11-13 2014-11-13 Electronic device having touchscreen and input processing method thereof
US15/714,684 US10534509B2 (en) 2013-11-13 2017-09-25 Electronic device having touchscreen and input processing method thereof
US16/741,212 US11392271B2 (en) 2013-11-13 2020-01-13 Electronic device having touchscreen and input processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130137449A KR102189787B1 (ko) 2013-11-13 2013-11-13 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법

Publications (2)

Publication Number Publication Date
KR20150055292A KR20150055292A (ko) 2015-05-21
KR102189787B1 true KR102189787B1 (ko) 2020-12-11

Family

ID=53044951

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130137449A KR102189787B1 (ko) 2013-11-13 2013-11-13 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법

Country Status (2)

Country Link
US (3) US9772747B2 (ko)
KR (1) KR102189787B1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD746862S1 (en) * 2013-06-12 2016-01-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
CN105278847A (zh) * 2014-06-21 2016-01-27 陈娅冰 可提高输入便利性的电子设备
WO2016007192A1 (en) 2014-07-10 2016-01-14 Ge Intelligent Platforms, Inc. Apparatus and method for electronic labeling of electronic equipment
KR102407623B1 (ko) 2014-09-29 2022-06-10 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
KR101625455B1 (ko) * 2014-12-10 2016-05-30 (주)와이솔 단말에 포함된 전압 공급 회로
USD810125S1 (en) * 2014-12-22 2018-02-13 Adtile Technologies Inc. Display screen with motion-activated graphical user interface
KR102457143B1 (ko) * 2015-08-10 2022-10-21 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101928550B1 (ko) * 2016-04-21 2018-12-12 주식회사 씨케이머티리얼즈랩 촉각 메시지 제공 방법 및 촉각 메시지 제공 장치
US10845987B2 (en) * 2016-05-03 2020-11-24 Intelligent Platforms, Llc System and method of using touch interaction based on location of touch on a touch screen
US11079915B2 (en) 2016-05-03 2021-08-03 Intelligent Platforms, Llc System and method of using multiple touch inputs for controller interaction in industrial control systems
US10871880B2 (en) * 2016-11-04 2020-12-22 Microsoft Technology Licensing, Llc Action-enabled inking tools
CN107831989A (zh) * 2017-11-28 2018-03-23 维沃移动通信有限公司 一种应用程序参数调整方法及移动终端
KR102576909B1 (ko) 2018-08-08 2023-09-11 삼성전자 주식회사 드로잉 환경을 제공하는 전자 장치 및 방법
CN115185445A (zh) * 2019-04-17 2022-10-14 华为技术有限公司 一种添加批注的方法及电子设备

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0974473A (ja) * 1995-09-05 1997-03-18 Canon Inc 色記録装置
JPH1051618A (ja) * 1996-07-29 1998-02-20 Minolta Co Ltd 画像編集装置
JPH1141452A (ja) * 1997-07-23 1999-02-12 Minolta Co Ltd 画像形成装置
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP2006350838A (ja) * 2005-06-17 2006-12-28 Fujitsu Ltd 情報処理装置およびプログラム
EP2071436B1 (en) 2006-09-28 2019-01-09 Kyocera Corporation Portable terminal and method for controlling the same
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
KR20100020389A (ko) * 2008-08-12 2010-02-22 주식회사 케이티테크 접촉 지점의 크기를 이용한 입력 방법 및 장치
US8610744B2 (en) * 2009-07-10 2013-12-17 Adobe Systems Incorporated Methods and apparatus for natural media painting using proximity-based tablet stylus gestures
KR101608774B1 (ko) * 2009-08-11 2016-04-04 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP4846857B2 (ja) * 2010-03-03 2011-12-28 株式会社東芝 情報処理装置及び入力制御方法
JP2011198382A (ja) 2011-06-06 2011-10-06 Kyocera Corp タッチパネル付き無線端末の制御方法及びタッチパネル付き無線端末
KR101789626B1 (ko) * 2011-10-10 2017-10-25 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US9256620B2 (en) * 2011-12-20 2016-02-09 Amazon Technologies, Inc. Techniques for grouping images
KR101153977B1 (ko) 2012-01-26 2012-06-08 이양식 휴대 단말기용 입력 시스템
US9250768B2 (en) * 2012-02-13 2016-02-02 Samsung Electronics Co., Ltd. Tablet having user interface
KR101898952B1 (ko) * 2012-02-16 2018-09-14 삼성전자 주식회사 복합 터치 패널 운용 방법과 시스템 및 이를 지원하는 단말기
US8994698B2 (en) * 2012-03-02 2015-03-31 Adobe Systems Incorporated Methods and apparatus for simulation of an erodible tip in a natural media drawing and/or painting simulation
US9088728B2 (en) * 2012-05-10 2015-07-21 Intel Corporation Gesture responsive image capture control and/or operation on image
KR101911251B1 (ko) * 2012-07-13 2018-10-24 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US9448719B2 (en) * 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
JP2014153936A (ja) * 2013-02-08 2014-08-25 Japan Display Inc タッチ位置検出装置およびタッチ位置検出方法
KR20150026649A (ko) * 2013-09-03 2015-03-11 삼성전자주식회사 전자 장치에서 제스처를 설정하는 장치 및 방법
KR102131828B1 (ko) * 2013-12-03 2020-07-09 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US9971500B2 (en) * 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
KR102352172B1 (ko) * 2015-04-08 2022-01-17 삼성전자주식회사 전자 장치들의 연동 방법 및 장치
US20190012045A1 (en) * 2017-07-05 2019-01-10 Motorola Solutions, Inc. Seamless workflow between mobile applications on portable device

Also Published As

Publication number Publication date
US20180018067A1 (en) 2018-01-18
US9772747B2 (en) 2017-09-26
US10534509B2 (en) 2020-01-14
US20150135129A1 (en) 2015-05-14
US11392271B2 (en) 2022-07-19
US20200150833A1 (en) 2020-05-14
KR20150055292A (ko) 2015-05-21

Similar Documents

Publication Publication Date Title
KR102189787B1 (ko) 터치스크린을 가지는 전자 장치 및 이의 입력 처리 방법
KR102090964B1 (ko) 터치 스크린에 디스플레이되는 아이콘을 제어하는 휴대 단말 및 방법
KR102010955B1 (ko) 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
KR102264444B1 (ko) 전자 장치에서 기능 실행 방법 및 장치
KR102003255B1 (ko) 다중 입력 처리 방법 및 장치
US9880642B2 (en) Mouse function provision method and terminal implementing the same
KR20150032392A (ko) 지문 인식기를 구비한 단말 및 이 지문 인식기를 통한 사용자 입력의 처리 방법
US10579248B2 (en) Method and device for displaying image by using scroll bar
EP2770422A2 (en) Method for providing a feedback in response to a user input and a terminal implementing the same
EP2746924B1 (en) Touch input method and mobile terminal
KR20140025754A (ko) 터치스크린을 구비하는 단말에서 홈 화면의 구성 방법 및 장치
EP2770421A2 (en) Electronic device having touch-sensitive user interface and related operating method
US10481790B2 (en) Method and apparatus for inputting information by using on-screen keyboard
KR101932086B1 (ko) 카메라 제어 방법 및 휴대 장치
EP2808774A2 (en) Electronic device for executing application in response to user input
US20150007102A1 (en) Method of displaying page and electronic device implementing the same
US20150128031A1 (en) Contents display method and electronic device implementing the same
US20150106706A1 (en) Electronic device and method for controlling object display
US20140223298A1 (en) Method of editing content and electronic device for implementing the same
KR102118091B1 (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
KR101985888B1 (ko) 전자 게시판 제공 방법 및 장치
KR20140029827A (ko) 이미지 처리 방법 및 휴대 단말

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant