KR20150020778A - 펜을 갖는 사용자 기기의 화면 제공 방법 - Google Patents

펜을 갖는 사용자 기기의 화면 제공 방법 Download PDF

Info

Publication number
KR20150020778A
KR20150020778A KR20130097637A KR20130097637A KR20150020778A KR 20150020778 A KR20150020778 A KR 20150020778A KR 20130097637 A KR20130097637 A KR 20130097637A KR 20130097637 A KR20130097637 A KR 20130097637A KR 20150020778 A KR20150020778 A KR 20150020778A
Authority
KR
South Korea
Prior art keywords
pen
input
guide
display module
user
Prior art date
Application number
KR20130097637A
Other languages
English (en)
Other versions
KR102187843B1 (ko
Inventor
임새미
정진홍
황수지
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130097637A priority Critical patent/KR102187843B1/ko
Priority to US14/458,362 priority patent/US10037132B2/en
Priority to EP14181114.1A priority patent/EP2840467A1/en
Publication of KR20150020778A publication Critical patent/KR20150020778A/ko
Application granted granted Critical
Publication of KR102187843B1 publication Critical patent/KR102187843B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Abstract

본 발명의 다양한 실시예에 따른 방법은, 전자 장치의 표시 모듈에 데이터를 표시하는 동작; 상기 전자 장치를 통하여 펜 입력을 획득하는 동작; 상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하는 동작; 상기 판단 결과에 대응하는 가이드를 표시하는 동작; 및 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하는 동작을 포함할 수 있다.

Description

펜을 갖는 사용자 기기의 화면 제공 방법{METHOD FOR CHANGING SCREEN IN A USER DEVICE TERMINAL HAVING PEN}
본 개시의 다양한 실시예는 사용자 기기의 화면을 제공하기 위한 방법에 관한 것으로, 예컨대 펜을 갖는 사용자 기기에서 화면을 제공하기 위한 방법에 관한 것이다.
전자기술이 발전하면서 다양한 부가 기능을 갖는 사용자 기기들이 등장했다. 이러한 사용자 기기들로 스마트폰, 태블릿 컴퓨터(Tablet computer), 스마트 텔레비전 등 다양한 형태의 사용자 기기들이 우리 생활 속에 침투해 있다. 또한 사용자 기기들을 보다 편리하게 사용하기 위해 기존에 손가락만을 이용하던 방식에서 벗어나 음성 지원 및 펜을 이용하는 사용자 기기들이 사용되고 있다.
어떤 예에서는, 사용자 기기들에서 사용자의 편의를 위해 제공하고 있는 기능들 중 하나로 화면의 확대(zoom in) 또는 화면의 축소(zoom out) 등의 부가 기능이 제공되고 있다. 화면의 확대 및 축소 기능은 사용자가 휴대하는 스마트폰 및 태블릿 컴퓨터 등에서 주로 유용하게 사용되고 있다.
사용자 기기에서 일반적으로 사용되는 화면의 확대 및 축소 방법을 살펴보면, 서로 다른 2개의 손가락을 화면상에 터치한 상태에서 두 손가락의 위치가 멀어지는 경우 화면을 확대하고, 서로 다른 2개의 손가락을 화면상에 터치한 상태에서 두 손가락의 위치가 가까워지는 경우 화면을 축소한다.
어떤 예에서는, 휴대용 사용자 기기들에서는 사용자의 편의를 위해 펜 등을 이용하여 그림을 그리거나 문서의 입력, 화면의 캡처 등 다양한 동작을 지원하는 형태가 등장했다.
펜을 사용하는 휴대용 사용자 기기에서 앞서 설명한 바와 같이 화면의 확대 또는 축소를 사용하는 경우 사용에 불편함을 줄 수 있다. 이를 예를 들어 좀 더 상세히 살펴보자. 펜을 사용하는 사용자가 화면을 확대 또는 축소하고자 하는 경우 사용하던 펜의 사용을 중지한 상태에서 손가락으로 멀티터치(서로 다른 2개의 손가락을 화면상에 터치)하여 화면을 확대하거나 축소해야만 한다. 예컨대, 펜을 손에 쥐거나 다른 곳으로 두고 손가락을 이용해 화면 확대를 해야만 한다. 이처럼 펜을 사용하는 경우 화면의 확대 및 축소에 사용자가 사용자 기기를 이용하는데 불편함을 초래할 수 있다. 사용자가 펜을 이용하는 사용자들을 위해 보다 편리한 화면의 확대 및 축소 방법이 요구된다.
따라서 본 개시의 다양한 실시예는 펜을 사용하는 사용자 기기에서 화면을 제공하기 위한 방법을 제공한다.
또한 본 개시의 다양한 실시예는 펜을 사용하는 사용자 기기에서 펜을 이용하여 화면을 확대 또는 축소하기 위한 방법을 제공한다.
또한 본 개시의 다양한 실시예는 펜을 사용하는 사용자 기기에서 사용자를 인식해 사용자의 요구에 따라 화면을 변환하기 위한 방법을 제공한다.
본 발명의 다양한 실시 예에 따른 방법은, 전자 장치의 표시 모듈에 데이터를 표시하는 동작; 상기 전자 장치를 통하여 펜 입력을 획득하는 동작; 상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하는 동작; 상기 판단 결과에 대응하는 가이드를 표시하는 동작; 및 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 다른 장치는, 데이터를 표시하기 위한 표시 모듈; 상기 표시 모듈에 대응하는 펜 입력을 획득하기 위한 입력 센서 모듈; 및 상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하고, 상기 판단 결과에 기반하여 상기 표시 모듈에 확대 또는 축소 중 적어도 하나에 대응하는 가이드를 표시하고, 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하도록 제어하기 위한 제어 모듈을 포함할 수 있다.
다양한 실시예에 따른 사용자 기기를 사용하여 화면을 변경하고자 하는 경우 펜을 이용하여 화면을 쉽게 변경할 수 있다. 예컨대, 화면의 확대 또는 축소를 펜의 파지 상태를 변경하지 않고도 지원할 수 있는 방법을 있으며, 사용자 기기에서 화면을 제공하는 모드 예를 들어 가로 화면 제공 모드 또는 세로 화면 제공 모드에 맞춰 화면의 확대 및 축소하는 방법을 제공할 수 있다. 이를 통해 펜을 사용하는 사용자 기기에서 화면 확대 또는 축소를 위해 펜의 사용을 중지해야 하는 불편함을 해소할 수 있다.
도 1은 다양한 실시예에 따른 사용자 기기의 블록 구성도로, 펜을 제외한 구성도.
도 2는 본 발명의 다양한 실시예에 따른 스마트폰에서 펜으로 화면의 확대 및 축소 시 제어 흐름도.
도 3a 및 도 3b는 본 발명의 다양한 실시예에서 설명하는 호버링 상태를 도시한다.
도 4a 및 도 4b는 본 발명의 다양한 실시예에 따라 펜에서 줌 모드가 요청되어 표시 모듈 상에 가이드가 표시된 상태를 도시한다.
이하 첨부된 도면을 참조하여 본 발명의 다양한 실시예를 살펴보기로 한다. 이하에 첨부된 도면은 이해를 돕기 위해 제공되는 것으로, 도면에 예시된 형태 또는 배치 등에 본 발명이 제한되지 않음에 유의해야 한다. 또한 첨부된 도면에 대한 부가적인 실시예에 대한 균등 또는 확장은 도면을 참조한 설명을 통해 이해되어야 할 것이다.
도 1은 본 발명의 다양한 실시예에 따른 사용자 기기의 블록 구성도로, 펜을 제외한 구성도이다.
사용자 기기 100의 내부에는 통신 모듈 110, 카메라부 103, 센서부 104, 메모리 105, 표시 모듈 106, 터치 입력부 107, 펜 감지부 108 및 제어부 111을 포함할 수 있다. 또한 본 개시의 다양한 실시예에 따른 사용자 기기는 펜을 포함하며, 도 1의 구성에서는 펜을 도시하지 않았음에 유의해야 한다. 아울러, 사용자 기기는 도 1에 도시한 구성 이외의 다른 구성을 더 포함할 수도 있다. 도 1에 도시한 실시예에서는 도 1에 도시한 구성만을 살펴보기로 한다.
그러면 통신 모듈 110의 구성을 살펴보기로 한다. 통신 모듈 110에는 안테나 ANT, 무선부 101, 모뎀 102, 마이크 MIC 및 스피커 SPK를 포함할 수 있다. 안테나 ANT는 스마트폰이 통신에 필요한 주파수 신호를 송신 및 수신하기 위한 대역에 맞춰 제작된 것으로 무선부 101과 연결된다.
무선부 101은 기지국 또는 다른 무선 통신 장비와 음성 또는/및 데이터 통신을 위해 송신할 데이터를 대역 상승 변환하고, 수신한 데이터의 대역 하강 변환을 수행한다. 예컨대, 무선부 111은 데이터 송신을 위해 기저대역의 데이터를 대역 상승하여 안테나 ANT를 통해 해당하는 네트워크로 송신하고, 안테나 ANT를 통해 해당하는 네트워크로부터 무선 신호를 수신하여 대역 하강 변환함으로써, 기저대역 신호로 변환한다.
모뎀 102는 송/수신 데이터의 변조, 복조, 부호화, 복호화와 같은 일련의 데이터 처리를 수행한다. 도 1은 일반적인 사용자 기기인 경우를 가정하였으므로 모뎀 102는 음성신호의 변복조와 부호화/복호화를 수행하기 위한 보코더를 포함할 수 있다. 모뎀 102는 마이크 MIC로부 전기적인 음성신호를 수신하여 디지털 음성 신호로 변환한다. 또한 모뎀 102는 출력할 디지털 음성 신호를 아날로그의 전기적 음성 신호로 변환하여 스피커SPK을 통해 출력할 수 있다. 또한 모뎀 102는 그 외에 사용되는 데이터의 경우 제어부 111의 제어에 의해 변조, 복조, 부호화, 복호화 등의 일련의 동작을 처리한다.
카메라부 103은 피사체로부터 반사된 반사광을 렌즈를 통해 수광하여 피사체로부터의 반사광을 전기적인 신호로 변환함으로써 정지 영상 또는 동영상 데이터를 획득할 수 있다. 카메라부 103은 이처럼 획득된 정지 영상 또는 동영상의 데이터를 제어부 111에서 처리 가능한 형태로 변환되어 제어부 111로 제공할 수 있다.
센서부 104는 지자계 센서, 적외선 센서, 가속 센서 등을 포함할 수 있다. 센서부 104는 스마트폰의 놓여 있는 상태, 회전, 사용자의 위치 등을 검출하고, 검출 신호를 생성하여 제어부 111로 제공한다.
메모리 105는 롬ROM 또는/및 램RAM 등의 저장 매체로, 스마트폰의 동작에 필요한 각종 제어 데이터를 저장할 수 있으며, 본 개시의 다양한 실시예에 따른 동작을 위한 제어 데이터를 저장한다. 뿐만 아니라 메모리 105는 사용자 데이터를 저장하기 위한 영역들을 포함할 수 있다.
표시 모듈 106은 LCD 판넬 또는 LED 판넬 등의 형태로 구성되며, 제어부 111의 제어에 의해 사용자 기기의 동작에 필요한 동작 및 대기 상태에서 사용자 기기의 상태를 표시할 수 있다. 또한 표시 모듈 106은 본 개시의 다양한 실시예에 따라 확대 또는/및 축소된 화면을 표시할 수 있다.
터치 입력부 107은 사용자의 터치 동작을 감지하여 이를 사용자 입력 신호로 변환한 후 이를 제어부 111로 제공한다. 예를 들어 터치 입력부 107은 사용자가 한 개의 손가락을 터치하였는지, 두 개의 손가락을 터치하였는지 등에 따른 터치 다운 신호와 터치 상태에서의 이동(Move) 및 터치 업(릴리스) 등의 일련의 동작 정보를 수집하여 제어부 111로 제공할 수 있다. 이때, 터치 입력부 107은 손가락의 터치 다운 신호, 이동 및 터치 업 신호 검출 시 좌표 값을 함께 검출하여 제어부 111로 제공할 수 있다.
펜 감지부 108은 펜의 터치, 터치 상태에서의 이동, 터치 업 등의 정보와 펜의 호버링(hovering) 상태, 호버링 상태에서의 이동, 펜에 구비된 버튼의 클릭 입력, 버튼의 클릭 입력 상태에서의 이동, 펜이 구비된 버튼의 클릭 해제 등의 정보를 수집하여 제어부 111로 제공할 수 있으며, 동시에 해당하는 이벤트가 발생한 좌표 값을 함께 제어부111으 제공할 수 있다.
어떤 예에서는, 터치 입력부 107은 경우에 따라 펜 감지부 108에서 수행하는 펜의 터치 다운, 이동, 터치 업 등의 이벤트 검출과 이벤트가 발생한 해당 좌표의 검출을 수행할 수도 있다. 이러한 경우 펜 감지부 108은 해당 기능을 제외하여 구성할 수도 있다. 다만, 이하의 설명에서는 이해의 편의를 돕기 위해 펜 감지부 108과 터치 입력부 107이 별도로 구성된 경우를 가정하여 설명하기로 한다.
또한 앞서 설명한 도 1의 구성에서 사용자 기기의 표시 모듈 106과 터치 입력부 107, 펜 감지부 108은 중첩된 형태와 같이 이해될 수 있다. 예를 들어 표시 모듈 106에 표시된 그림들 중 하나를 선택하기 위해 소정의 그림 위치를 사용자가 손으로 터치하거나 또는 펜으로 터치하는 경우 터치 입력부 107 또는 펜 감지부 108은 해당 그림이 표시된 위치에 대한 좌표 또는 터치 입력에 대한 좌표를 검출할 수 있다. 따라서 이하의 설명에서 표시 모듈 106에 표시된 영역 중 특정 위치를 손으로 터치 또는 펜으로 터치하는 경우 터치 입력부 107 또는 펜 감지부 108은 해당 위치의 좌표를 획득하여 제어부 111로 출력할 수 있다.
펜의 호버링의 경우도 위에서 설명한 바와 동일하게 이해될 수 있다. 예컨대, 펜이 표시 모듈 106의 상단부에 미리 결정된 간격 이내로 이격되어 위치하는 경우 표시 모듈 106의 상단부에 위치한 펜의 첨두(尖頭) 좌표를 획득하고, 이를 제어부 111로 제공한다.
도 2는 본 발명의 다양한 실시예에 따른 사용자 기기에서 펜으로 화면의 확대 및 축소 시 제어 흐름도이다.
도 2의 제어 흐름도는 다양한 실시예에 따라 펜을 갖는 사용자 기기에서 화면의 확대 및 축소 시의 제어 흐름도로, 펜을 이용한 화면의 확대 또는/및 축소만을 고려하였음에 유의해야 한다. 또한 화면의 확대 또는 축소는 표시 모듈 106에 특정한 데이터를 표시한 상태에서 표시된 데이터의 확대 또는/및 축소를 위한 동작으로, 표시 모듈 106이 활성화되어 있는 모든 상태에서의 동작을 의미한다.
이를 예를 들어 살펴보면, 인터넷에 접속해 특정한 웹 페이지의 일부 또는 전부를 화면으로 출력하여 표시한 상태이거나 또는/및 메모리 105로부터 다이어리 데이터를 불러와 다이어리 데이터의 전부 또는 일부를 표시 모듈 106에 화면으로 출력한 상태이거나 또는/및 워드 문서 등을 메모리 105으로부터 불러와 해당 문서의 전부 또는 일부를 표시 모듈 106에 화면으로 출력한 상태이거나 또는/및 스마트폰의 특정 어플리케이션이하 '앱'이라 함에서 제공하는 데이터 표시한 상태이거나 또는/및 특정 앱을 이용하여 그림 그리기를 수행하는 상태 등의 화면으로 데이터를 출력하고 있는 모든 상태를 포함할 수 있다. 예컨대, 표시 모듈 106에 특정한 데이터를 화면으로 출력한 모든 상태에서 본 발명이 수행될 수 있다.
동작 200에서 제어부 111은 표시 모듈 106에 표시할 데이터를 생성하여 표시 모듈 106에 화면으로 출력할 수 있다. 예컨대, 앞에서 설명한 바와 같이 어떠한 데이터를 표시한 상태라도 무방하다. 다만 이하의 설명에서는 설명의 편의를 위해 특정한 웹(web) 페이지가 표시된 상태로 가정하여 설명하기로 한다.
동작 202에서 제어부 111은 동작 200에서 표시할 데이터를 표시 모듈 106에 화면으로 출력한 상태에서 호버링이 감지되는가를 검사한다. 동작 202의 검사결과 호버링이 감지되는 경우 제어부 111은 204 동작으로 진행하여 표시 모듈 106에 화면으로 출력되고 있는 화면 출력 데이터에 부가하여 호버링 표시점을 추가로 표시하고, 이후 추가 이벤트가 발생하기를 대기한다. 하지만 호버링이 감지되지 않은 경우 제어부 111은 200 동작의 화면 출력 상태를 유지한다.
여기서 먼저 호버링(hovering)에 대해 살펴보기로 한다. 호버링이란, 펜을 사용하는 사용자 기기에서 펜을 화면상에 터치하지 않고, 미리 설정된 간격 이내로 이격시킨 상태를 의미한다. 예컨대, 호버링은 표시 모듈 106에서 일정한 간격만큼 이격된 위치, 예를 들어 1~2cm 정도 이격된 위치에 펜의 첨단부(尖端部)가 위치하는 경우이다.
펜 감지부 108은 펜이 표시 모듈 106에 미리 결정된 일정 간격 이내로 이격된 상태가 유지되는 경우 호버링 상태임을 알림과 동시에 펜의 위치 좌표를 검출하여 제어부 111로 제공할 수 있다. 그러면 제어부 111은 표시 모듈 106에 현재 화면으로 출력하고 있는 화면상에 수신된 좌표에 대응하여 호버링 상태를 알리기 위한 표시를 부가한 화면을 구성하여 표시 모듈 106으로 출력할 수 있다. 이를 통해 표시 모듈 106은 사용자에게 호버링 상태를 포함하는 화면 출력을 제공할 수 있다. 또한 제어부 111은 204 동작에서 이처럼 호버링 상태를 포함하는 화면을 출력하면서 추가 이벤트의 수신을 대기한다.
그러면 첨부된 도 3a 및 도 3b를 이용하여 호버링 상태 및 호버링 상태를 표시 모듈 106에 표시하여 사용자에게 알리는 경우를 좀 더 상세히 살펴보기로 하자.
도 3a 및 도 3b는 본 개시의 다양한 실시예에 따른 호버링 상태를 설명하기 위한 개념도이다.
호버링은 펜 310이 사용자 기기 300의 표시 모듈 106 상에 미리 정해진 간격 이내로 이격된 상태이다. 도 3a 및 도 3b는 펜 310의 호버링(hovering) 동작이 이루어진 상태의 측면도 및 조감도이다.
이처럼 펜 310이 사용자 기기 300의 표시 모듈 106에서 일정 간격 이내로 이격된 상태가 미리 설정된 시간t만큼 유지되는 경우 펜 감지부 108은 표시 모듈 106 상에서 펜 310의 첨두(尖頭) 311의 위치에 대한 좌표를 검출하고, 검출된 좌표를 제어부 111로 제공할 수 있다. 그러면 제어부 111은 표시 모듈 106에 표시하고 있는 데이터에 펜 310의 첨두 위치를 추가로 표시하여 줄 수 있고, 표시 모듈 106을 통해 화면으로 출력하도록 제어할 수 있다. 이처럼 표시 모듈 106에 표시된 데이터에 펜 310의 첨두 위치가 추가되어 표시된 상태는 도 3a 및 도 3b에서 참조부호 301로 표시하였다. 이하의 설명에서 참조부호 301과 같이 호버링 상태를 알리기 위한 표시를 "호버링 표시점"이라 칭하기로 한다.
일반적으로 도 3a에 도시한 바와 같이 펜 310의 첨두 311이 사용자 기기 300의 표시 모듈 106 상에서 호버링될 때, 펜 310의 첨두 311에 대한 좌표는 펜 310의 첨두 311과 표시 모듈 106의 면간 직각으로 만나는 점이 될 수 있다. 이 점은 표시 모듈 106의 위치에 대응하는 x, y의 좌표로 계산할 수 있으며, 이 지점에 호버링 표시점이 위치할 수 있다.
다시 도 2를 참조하면, 동작 202에서 호버링이 감지되어 호버링 표시점을 부가하여 표시 모듈 106에 표시한 상태에서 제어부 111은 204 동작으로 진행하여 추가 이벤트를 대기할 수 있다. 204 동작의 추가 이벤트 대기 중 특정 이벤트가 발생하면, 제어부 111은 206 동작으로 진행하여 발생한 이벤트가 호버링 해제인가를 검사한다. 동작 206의 검사결과 호버링이 해제된 경우 제어부 111은 호버링 표시점을 제거하고, 200 동작으로 진행하여 표시할 데이터를 화면으로 구성하여 표시 모듈 106으로 출력할 수 있다.
반면에 발생된 이벤트가 호버링 해제가 아닌 경우 제어부 111은 208 동작으로 진행하여 줌 모드(zoom mode)가 요구되었는가를 검사한다. 이러한 줌 모드의 요구는 펜에 부가되어 있는 버튼이 눌린 경우일 수 있다. 펜에 부가된 버튼이 눌려지거나 또는 추가적인 입력 장치 예컨대, 레버, 휠, 터치 센서에 의한 입력이 존재하면, 펜 감지부 108은 펜의 버튼 입력으로 인한 주파수 변화 등을 통해서 펜에 부가되어 있는 버튼의 입력을 검출할 수 있다. 펜 감지부 108은 펜이 호버링 상태에서 펜 버튼을 누를 시 펜의 첨두 좌표 정보 및 호버링 정보와 함께 버튼의 입력 정보를 제어부 111로 제공할 수 있다. 이를 통해 제어부 111은 줌 모드가 요구되었는지를 검출할 수 있다. 예컨대, 호버링 상태에서 펜의 스위치가 눌려지면, 줌 모드가 요구된 것으로 검출할 수 있다.
동작 208의 검사결과 줌 모드가 요구된 경우 제어부 111은 212 동작으로 진행하여 표시 모듈 106에 표시한 호버링 표시점을 중점으로 하여 줌 가이드를 표시할 수 있다. 반면에 208동작의 검사결과 줌 모드가 요구되지 않은 경우 제어부 111은 210 동작으로 진행하여 해당 기능을 수행하고 종료한다. 줌 모드가 요청되어 줌 가이드가 표시 모듈 106에 표시되는 경우를 첨부된 도 4a 및 도 4b를 참조하여 살펴보기로 한다.
도 4a 및 도 4b는 본 발명의 다양한 실시예에 따라 펜에서 줌 모드가 요청되어 표시 모듈 상에 줌 가이드가 표시된 상태를 설명하기 위한 개념도이다.
도 4a를 참조하면, 사용자 기기 300의 표시 모듈 106 상에 펜 310의 첨두 311이 호버링된 상태이다. 이처럼 펜 310의 첨두 311이 호버링된 상태에서 펜 310에 부착된 스위치 312를 누르면, 펜 감지부 108은 펜 310의 스위치 312의 눌림을 검출할 수 있다. 이처럼 펜의 눌림이 감지되면, 펜 감지부 108은 펜 310의 스위치 312 눌림 신호를 검출하여 제어부 111로 제공할 수 있다. 펜 감지부 108로부 펜 310이 호버링 상태에서 스위치 312의 눌림 신호를 수신하면, 제어부 111은 줌 모드가 요구된 것으로 판단할 수 있다.
이에 따라 제어부 111은 표시 모듈 106에 웹 페이지와 호버링 표시점을 표시한 상태에서 추가로 줌 가이드를 함께 표시할 수 있다. 줌 가이드는 확대를 위한 줌 인(zoom in) 가이드와 축소를 위한 줌 아웃(zoom out) 가이드로 구분할 수 있다. 도 4b에 줌 인/아웃 가이드가 표시된 상태를 도시한다. 도 4b에 화면의 상단부 방향으로 줌 인 가이드 401을 표시하며, 화면의 하단부 방향으로 줌 아웃 가이드 402를 표시한 상태를 도시한다. 줌 가이드는 호버링 표시점을 중점으로 하며, 미리 결정된 크기의 원을 구성하고, 구성된 원의 상단부와 하단부로 2등분 할 수 있다. 여기서 원의 상단부와 하단부의 구분은 사용자 기기에서 데이터를 표시하고 있는 방향성 또는/및 사용자의 위치 또는/및 펜의 위치와 각도 등을 이용할 수 있다. 일반적으로는 데이터를 표시하고 있는 방향을 기준으로 상단과 하단을 구분할 수 있다.
예컨대, 이처럼 구분된 원의 상단부와 하단부는 각각 줌 인 가이드와 줌 아웃 가이드가 되며, 이하의 설명에서는 원의 상단부를 줌 인 가이드로 가정하며, 원의 하단부를 줌 아웃 가이드로 가정한다.
줌 인 가이드 401은 직관적인 이해를 돕기 위해 줌 인 가이드의 내부 영역 또는 외부의 인접 영역에 "+" 표시를 통해 확대를 알리기 위한 표시를 부가할 수 있다. 또한 줌 아웃 가이드 402는 직관적인 이해를 돕기 위해 줌 아웃 가이드 내부 영역 또는 외부의 인접한 영역에 "-" 표시를 통해 축소를 알리기 위한 표시를 부가할 수 있다. 이와 더불어 확대/축소를 좀 더 이해하기 쉽도록 하기 위해 줌 인 가이드 401과 줌 아웃 가이드 402의 내부에 확대/축소를 알리기 위한 적절한 색상을 부가할 수 있다. 적절한 색상은 각 국가 또는 지역마다 또는 개인마다 다를 수 있다. 이러한 색상을 예를 들면, 붉은색 계열을 확대로, 푸른색 계열을 축소로 설정해 표시할 수 있다.
어떤 예에서는, 이상에서의 설명에서는 줌 인/아웃 가이드를 표시하는 경우 화면의 상단에 줌 인 가이드 401을 표시하도록 하고, 화면의 하단에 줌 아웃 가이드 402를 표시하도록 구성했다. 하지만, 이와 반대로 구성할 수도 있다. 또한 화면의 좌/우에 줌 인/아웃 가이드가 표시되도록 할 수도 있다. 줌 인/아웃 가이드의 표시 방법은 다양한 요소를 고려하여 표시할 수 있다.
어떤 실시예에 따르면, 사용자의 위치를 고려하여 줌 인/아웃 가이드를 표시할 수 있다. 예를 들어 둘 이상의 사용자가 사용자 기기를 함께 보고 있는 경우를 가정해 보자. 이러한 경우 한 명의 사용자가 펜을 사용할 수 있다. 이 경우 펜을 가진 사용자의 위치 및 각도와 펜이 손에 쥐어진 상태를 카메라부 103 및 센서부 104를 통해 검출할 수 있다. 또는 펜의 기울기 또는 터치패널에 검출되는 손의 위치와 모양을 측정하여 이를 검출할 수 있다. 제어부 111은 이처럼 검출된 정보를 이용하여 펜을 가진 사용자의 방향을 획득할 수 있다. 따라서 제어부 111은 펜을 가진 사용자의 위치에 따라 줌 인/아웃 가이드를 표시할 수 있다. 예컨대, 사용자에게 가장 편리한 방향 예를 들어 사용자 손이 상/하로 움직임이 편리한 경우 줌 인/아웃 가이드를 화면의 상/하로 표시하고, 사용자의 손이 좌/우로 움직이기 편리한 경우 줌 인/아웃 가이드를 화면의 좌/우로 표시하도록 설정할 수 있다.
어떤 실시예에 따르면, 펜 310이 호버링된 위치에 따라 줌 인/아웃 가이드를 표시할 수 있다. 예를 들어 호버링된 위치가 표시 모듈 106의 상단에 지나치게 치우쳐 있거나 또는 표시 모듈 106의 하단에 지나치게 치우친 상태이고, 좌/우로 움직임이 편리한 경우 화면의 줌 인/아웃 가이드를 좌/우 방향이 되도록 설정할 수 있다. 반대로 호버링된 위치가 표시 모듈 106의 좌측에 지나치게 치우쳐 있거나 또는 표시 모듈 106의 우측에 지나치게 치우쳐 있고, 상/하로 움직임이 편리한 경우 줌 인/아웃 가이드를 상/하 방향이 되도록 설정할 수도 있다.
어떤 실시예에 따르면, 사용자가 임의로 줌 인/아웃 가이드의 방향을 변경할 수도 있다. 예를 들어 사용자가 상/하 움직임이 편하다고 판단해 미리 시스템의 설정에서 호버링 상태에서 줌 인/아웃 가이드 방향을 상/하 방향으로 설정할 수 있다. 다른 방법으로 사용자가 좌/우 방향이 편하다고 판단해 미리 시스템의 설정에서 호버링 상태에서 줌 인/아웃 가이드의 방향을 좌/우 방향이 되도록 설정할 수도 있다. 줌 인/아웃 가이드가 상/하 방향으로 설정된 경우 줌 인/아웃 가이드 중 화면의 위쪽 방향을 화면을 확대하는 방향으로 설정할 수도 있고, 반대로 화면의 위쪽 방향을 화면을 축소하는 방향으로 설정할 수도 있다. 이는 좌/우의 경우에도 마찬가지로 설정할 수도 있다. 이를 통해 사용자의 편의성을 제공할 수 있다. 예컨대, 오른손잡이와 왼손잡이인 경우에도 사용자가 직접 자신에게 편리하게 설정된 방향으로 화면 확대/축소 가이드를 표시하도록 설정할 수 있다.
다시 도 2를 참조하면, 212 동작에서 줌 가이드를 표시한 상태에서 제어부 111은 214 동작으로 진행하여 펜 감지부 108을 통해 펜의 이동이 검출되는가를 검사할 수 있다. 214 동작의 검사결과 펜 감지부 108을 통해 펜의 이동이 감지되는 경우 제어부 111은 218 동작으로 진행하고, 그렇지 않은 경우 216 동작으로 진행한다.
먼저 동작 216으로 진행하면, 제어부 111은 줌(zoom) 모드가 해제되는가를 검사한다. 줌 모드 해제는, 앞서 설명한 줌 모드 요구와 반대의 동작이다. 예컨대, 도 4a에서 설명한 바와 같이 펜 310의 스위치 312가 눌림 상태에서 눌림이 해제되는 상태를 의미한다.
줌 모드의 요구와 해제는 다른 방법으로 설정할 수도 있다. 스위치가 1회 입력된 경우 예컨대, 펜 310에 구비된 스위치 312를 한 번 눌렀다 뗀 경우 줌 모드의 요구로 인식할 수 있다. 이후 미리 결정된 시간이 경과한 후에 펜 310에 구비된 스위치 312를 다시 한 번 눌렀다 뗀 경우 줌 모드 해제 요구로 인식할 수도 있다. 이처럼 줌 모드의 요구와 줌 모드 해제 요구는 2가지 방법을 사용할 수도 있다. 이하의 설명에서는 설명의 편의를 위해 줌 모드 요구 상태를 펜 310에 스위치가 입력된 상태인 경우로 가정하여 설명하기로 한다.
이처럼 줌 모드 해제가 요구되면, 제어부 111은 218 동작으로 진행하여 표시 모듈 106에 줌 가이드와 호버링 표시점 301을 제거한 후 200 동작으로 진행하여 줌 가이드 및 호버링 표시점이 제거된 상태가 되도록 화면을 구성하여 표시 모듈 106으 출력할 수 있다. 따라서 표시 모듈 106은 줌 가이드 및 호버링 표시점이 제거된 상태를 표시할 수 있다.
줌 모드의 해제가 요구될 시, 경우에 따라서 호버링 표시점 301을 제거하지 않도록 구성할 수도 있다. 예컨대, 호버링 상태는 유지시키는 것이다. 이처럼 호버링 상태를 유지하는 경우라면, 제어부 111은 200 동작이 아닌 204 동작으로 진행하도록 구성하면 된다.
어떤 예에서는, 214 동작에서 펜의 이동이 감지된 경우 제어부 111은 220동작으로 진행하여 펜 감지부 108이 검출한 펜 310의 이동 거리를 수신한다. 이때, 펜 감지부 108이 검출하는 펜 310의 이동 거리는 펜 310의 첨두 311의 이동 거리가 될 수 있다. 제어부 111은 펜 310 첨두 311의 이동 거리와 미리 구비된 배율 테이블을 이용하여 확대/축소 배율을 결정할 수 있다. 배율 테이블을 예를 들면 아래 <표 1>과 같이 예시할 수 있다.
Figure pat00001
<표 1>에 도시한 이동 거리는 호버링 표시점 301으로부터 펜 첨두 311의 이동 거리에 따라 확대와 축소 배율이 결정된다. 이때, 줌 인(확대)의 경우 줌 인 가이드가 표시된 방향으로 펜 첨두의 움직임이 존재하는 경우이며, 줌 아웃(축소)의 경우 줌 아웃 가이드가 표시된 방향으로 펜 첨두의 움직임이 존재하는 경우일 수 있다. 여기서 펜 첨두 311의 이동 거리는 직선거리를 의미할 수 있다.
예컨대, <표 1>에 도시한 바를 다시 살펴보면, 펜 310의 첨두 311이 줌 인(확대) 방향으로 8mm 이동한 경우 기본 배율의 표시 데이터를 150%가 되도록 확대가 요구된 것이다. 반대로 펜 310의 첨두가 줌 아웃(축소) 방향으로 12mm 이동한 경우 기본 배율의 표시 데이터에서 50%가 되도록 축소가 요구된 것이다.
또한 <표 1>의 데이터는 설명의 이해를 돕기 위해 제공한 것이며, 이동 거리는 화면의 전체 크기에 따라 다르게 설정할 수 있다. 예를 들어 표시 모듈 106 전체의 크기가 4인치(inch)인 경우와 표시 모듈 106 전체의 크기가 10인치(inch)인 경우 이동 거리에 따른 배율은 전체 표시 모듈 의 크기에 대응하여 변경할 수 있다. 여기서 표시 모듈 106의 크기를 언급한 이유는 앞서 언급한 바와 같이 터치 입력 부107과 펜 감지부 108의 크기가 표시 모듈 106의 크기와 동일하거나 또는 비례하여 그 크기를 갖기 때문이다.
또한 이동 거리에 따른 배율도, <표 1>과는 다른 값으로 설정할 수도 있으며, 사용자가 테이블의 확대/축소 배율을 결정하도록 할 수도 있다. 또한 사용자가 미리 확대 또는/및 축소되는 배율을 알기 쉽게 하도록 하기 위해 이동 거리에 대응하여 <표 1>에 도시한 배율을 줌 가이드 내에 또는 표시 모듈 106에 표시되는 영역 중 특정 영역에 표시할 수도 있다. 즉, 펜의 이동에 따라 확대/축소 배율 미리 결정된 특정 영역에 표시하는 것이다.
또 다른 방법으로, 테이블을 이용하지 않고, 이동 거리에 대응하여 즉시 배율을 변경하여 표시 모듈 106에 표시하도록 하는 방법을 사용할 수도 있다. 이러한 경우 기본적으로 이동하는 거리를 1mm 단위 또는 3mm 단위 등 기본 이동 거리를 설정하고, 해당 단위만큼 이동될 때마다 제어부 111은 이동 값에 대응하여 미리 설정된 배율로 기본 배율의 표시 데이터를 확대 또는/및 축소하여 표시 모듈 106에 표시할 수도 있다. 예컨대, 3mm 단위로 기본 이동 거리가 설정되어 있는 경우 3mm마다 5% 또는 10%씩 확대/축소하여 표시 모듈 106에 표시할 수도 있다.
이때 확대/축소가 연속적으로 보이도록 하는 경우 확대/축소 비율을 더 세밀히 조정할 수도 있다. 또한 확대/축소 비율을 보다 더 세밀하게 조정하는 경우 기본 이동 거리 또한 3mm 또는 5mm 단위가 아닌 1mm 또는 2mm 등과 같이 보다 세밀하게 조정되어야 한다. 이처럼 확대/축소 배율을 미리 결정된 거리 단위로 갱신하여 표시 모듈 106을 통해 제공하는 경우 화면의 급격한 변화를 주지 않으므로 사용자에게 보다 자연스러운 화상을 제공할 수 있다.
또한 위의 2가지 방법을 함께 사용할 수 있다. 예컨대, 확대/축소 배율을 표시함과 동시에 펜의 이동거리에 대응하여 확대/축소 배율을 결정하고, 이를 표시 모듈 106에 즉시 표시하도록 할 수도 있다.
어떤 예에서는, 여기서 기본 배율의 표시 데이터를 확대/축소 시 기준점은 호버링 표시점을 기준으로 하여 확대/축소할 수 있다. 예컨대, 제어부 111은 기본 배율의 표시 데이터를 확대/축소한 후 호버링 표시점이 확대/축소 후 중앙에 위치하도록 확대/축소된 데이터를 생성하고, 이를 표시 모듈 106으 출력하여 제공할 수 있다.
이와 다른 방법으로 확대/축소와 별도로 기준점을 옮기지 않을 수도 있다. 예를 들어, 호버링 표시점을 중심으로 기본 배율의 표시 데이터를 확대/축소한 후 호버링 표시점의 위치는 최초 위치에 그대로 위치하도록 하는 방법이다. 이러한 경우 호버링 표시점의 변경이 없으므로 표시 모듈 106을 통해 사용자에게 제공되는 화면의 급격한 변화가 없으므로 사용자에게 편안함을 제공할 수 있다.
이후 제어부 111은 222 동작에서 줌 모드 해제가 요구되는지 검사한다. 줌 모드 해제 요구는 앞서 설명한 바와 같이 2가지 방법이 있다. 본 발명의 다양한 실시예들 중 2번째 경우를 예로 설명하고 있으므로, 줌 모드 해제 요구는 펜 310의 스위치 312의 누르는 동작을 해제하는 것이다. 예컨대, 펜 310의 눌려 있던 스위치 312에서 사용자가 누르는 동작을 중지하는 것을 검출하는 것이다. 제어부 111은 222 동작의 검사결과 줌 모드 해제가 요구되면 224 동작으로 진행하여 기본 배율의 표시 데이터를 요구된 배율로 조정 또는 표시된 배율로 결정한 후 200 동작으로 진행하여 배율이 조정된 데이터를 표시 모듈 106에 표시할 수 있다.
반면에 222 동작의 검사결과 줌 모드의 해제가 요구되지 않은 경우 제어부 111은 212 동작으로 진행하여 표시 모듈 106에 줌 가이드를 표시한 상태를 유지할 수 있다.
다양한 실시예에 따르면, 전자 장치 100의 데이터 표시 방법은, 전자 장치의 표시 모듈 106에 데이터를 표시하는 동작, 상기 전자 장치를 통하여 펜의 310 입력을 획득하는 동작, 상기 펜의 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하는 동작, 상기 판단 결과에 대응하는 가이드(예: 401,402)를 표시하는 동작, 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 판단하는 동작은, 상기 펜 310에 구성된 스위치 312의 입력 정보에 기반하여 확대 또는 축소에 대한 입력인지를 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 판단하는 동작은, 상기 펜 310의 호버링 상태에 기반하여 확대 또는 축소에 대한 입력인지를 결정하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 확대 또는 축소하는 동작은, 상기 펜 입력의 이동 정보에 기반하여 확대 또는 축소하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 가이드(예: 401, 402)를 표시하는 동작은, 확대에 대응하는 가이드와 축소에 대응하는 가이드를 적어도 일부가 서로 대칭되도록 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 확대 또는 축소하는 동작은, 상기 펜 입력의 이동 거리 또는 속도 중 적어도 하나에 기반하여 확대 또는 축소하는 배율을 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 배율을 결정하는 동작은, 상기 결정된 배율을 상기 표시 모듈에 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치에 포함된 적어도 하나의 입력 모듈 (예: 103, 104, 107, 108)의 정보 중 적어도 일부에 기반하여, 상기 표시 모듈 106의 방향에 대응하는 사용자의 위치를 획득하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 사용자의 위치를 획득하는 동작은, 상기 전자 장치의 이미지 획득 장치 103를 통해서 획득되는 이미지 정보에 기반하여 상기 사용자의 위치를 획득하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 사용자의 위치에 기반하여, 상기 가이드 401, 402의 방향을 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 방향을 결정하는 동작은, 상기 확대를 위한 가이드 401가 사용자의 위치를 기준으로 상기 축소를 위한 가이드 402보다 먼 곳에 위치하도록 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 펜 입력 정보에 기반하여 상기 가이드를 제거하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 펜에 구성된 스위치의 312눌림 해제, 상기 펜의 접촉 입력(예: 펜 첨두 311가 표시 모듈 106에 접촉되는 경우)의 발생, 상기 펜의 310미감지 중 적어도 하나에 기반하여 상기 가이드를 제거하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치 100는 데이터를 표시하기 위한 표시 모듈 106, 상기 표시모듈에 대응하는 펜 입력을 획득하기 위한 입력 센서 모듈 108, 상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하고, 상기 판단 결과에 기반하여 상기 표시모듈 106에 확대 또는 축소 중 적어도 하나에 대응하는 가이드를 표시하고, 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하도록 제어하기 위한 제어 모듈을 포함할 수 있다.
다양한 실시예에 따르면, 상기 입력 센서 모듈 108은, 상기 표시 모듈에 대한 상기 펜 입력의 접촉(예: 펜 첨두 311가 표시 모듈 106에 접촉되는 경우) 여부에 기반하여 호버링 입력인지 여부를 판단할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치 100는, 상기 판단 결과 호버링 입력인 경우에는, 상기 펜에 구성된 스위치 입력에 기반하여 상기 가이드 제공 여부를 결정할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는, 적어도 하나의 입력 모듈에 기반하여, 상기 표시 모듈의 방향에 대응하는 사용자의 위치를 획득할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는, 상기 사용자의 위치에 기반하여, 상기 가이드를 제공하는 방향을 결정할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 전자 장치의 설정 정보에 기반하여, 상기 표시 모듈의 방향에 대응하는 사용자의 위치에 기반하여 상기 가이드의 방향을 결정할 수 있다.
다양한 실시예에 따르면, 컴퓨터 판독이 가능한 기록 매체는 전자 장치 100의 표시 모듈 106에 데이터를 표시하는 동작, 상기 전자 장치를 통하여 펜 310 입력을 획득하는 동작, 상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하는 동작, 상기 판단 결과에 기반하여 상기 표시 모듈 106에 확대 또는 축소 중 적어도 하나에 대응하는 가이드(예: 401,402)를 표시하는 동작, 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하는 동작을 실행시키기 위한 프로그램을 기록할 수 있다.
101 : 무선부 102 : 모뎀
103 : 카메라부 104 : 센서부
105 : 메모리 106 : 표시 모듈
107 : 터치 입력부 108 : 펜 감지부
110 : 통신 모듈 111 : 제어부
ANT : 안테나 SPK : 스피커
MIC : 마이크 300 : 사용자 기기
301 : 호버링 표시점 310 : 펜
311 : 펜 첨두 312 : 펜 스위치
401 : 줌 인 가이드 402 : 줌 아웃 가이드

Claims (20)

  1. 전자 장치의 표시 모듈에 데이터를 표시하는 동작;
    상기 전자 장치를 통하여 펜 입력을 획득하는 동작;
    상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하는 동작;
    상기 판단 결과에 대응하는 가이드를 표시하는 동작; 및
    상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하는 동작을 포함하는 방법.
  2. 제1항에 있어서, 상기 판단하는 동작은,
    상기 펜에 구성된 스위치의 입력 정보에 기반하여 확대 또는 축소에 대한 입력인지를 결정하는 동작을 포함하는 방법.
  3. 제 2항에 있어서, 상기 판단하는 동작은,
    상기 펜의 호버링 상태에 기반하여 확대 또는 축소에 대한 입력인지를 결정하는 동작을 더 포함하는 방법.
  4. 제1항에 있어서, 상기 가이드를 표시하는 동작은,
    확대에 대응하는 가이드와 축소에 대응하는 가이드를 적어도 일부가 서로 대칭되도록 표시하는 동작을 포함하는 방법.
  5. 제1항에 있어서, 상기 확대 또는 축소하는 동작은,
    상기 펜 입력의 이동 정보에 기반하여 확대 또는 축소하는 동작을 포함하는 방법.
  6. 제1항에 있어서, 상기 확대 또는 축소하는 동작은,
    상기 펜 입력의 이동 거리 또는 속도 중 적어도 하나에 기반하여 확대 또는 축소하는 배율을 결정하는 동작을 포함하는 방법.
  7. 제6항에 있어서, 상기 배율을 결정하는 동작은,
    상기 결정된 배율을 상기 표시 모듈에 표시하는 동작을 포함하는 방법.
  8. 제1항에 있어서,
    상기 전자 장치에 포함된 적어도 하나의 입력 모듈의 정보 중 적어도 일부에 기반하여, 상기 표시 모듈의 방향에 대응하는 사용자의 위치를 획득하는 동작을 더 포함하는 방법.
  9. 제8항에 있어서, 상기 사용자의 위치를 획득하는 동작은,
    상기 전자 장치의 이미지 획득 장치를 통해서 획득된 이미지 정보에 기반하여 상기 사용자의 위치를 결정하는 동작을 포함하는 방법.
  10. 제8항에 있어서, 상기 사용자의 위치를 획득하는 동작은,
    상기 사용자의 위치에 기반하여, 상기 가이드의 방향을 결정하는 동작을 포함하는 방법.
  11. 제10항에 있어서, 상기 방향을 결정하는 동작은,
    상기 확대를 위한 가이드가 사용자의 위치를 기준으로 상기 축소를 위한 가이드보다 먼 곳에 위치하도록 결정하는 동작을 포함하는 방법.
  12. 제1항에 있어서,
    상기 펜 입력 정보에 기반하여 상기 가이드를 제거하는 동작을 더 포함하는 방법.
  13. 제12항에 있어서, 상기 제거하는 동작은,
    상기 펜에 구성된 스위치 눌림의 해제, 상기 표시 모듈에 대한 상기 펜의 접촉 입력의 발생 또는 상기 펜의 미감지 중 적어도 하나에 기반하여 상기 가이드를 제거하는 동작을 포함하는 방법.
  14. 데이터를 표시하기 위한 표시 모듈;
    상기 표시 모듈에 대응하는 펜 입력을 획득하기 위한 입력 센서 모듈; 및
    상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하고, 상기 판단 결과에 기반하여 상기 표시 모듈에 확대 또는 축소 중 적어도 하나에 대응하는 가이드를 표시하고, 상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하도록 제어하기 위한 제어 모듈을 포함하는 전자 장치.
  15. 제14항에 있어서, 상기 입력 센서 모듈은,
    상기 표시 모듈에 대한 상기 펜의 접촉 여부에 기반하여 상기 펜 입력이 호버링 입력인지 여부를 판단하도록 설정된 전자 장치.
  16. 제15항에 있어서, 상기 제어 모듈은,
    상기 펜 입력이 호버링 입력으로 판단된 경우에는, 상기 펜에 부가된 스위치 입력에 기반하여 상기 가이드 제공 여부를 결정하도록 설정된 전자 장치.
  17. 제14항에 있어서, 상기 제어 모듈은,
    적어도 하나의 입력 모듈에 기반하여, 상기 표시 모듈의 방향에 대응하는 사용자의 위치를 획득하도록 설정된 전자 장치.
  18. 제17항에 있어서, 상기 제어 모듈은,
    상기 사용자의 위치에 기반하여, 상기 가이드를 제공하는 방향을 결정하도록 설정된 전자 장치.
  19. 제14항에 있어서, 상기 제어 모듈은,
    상기 전자 장치의 설정 정보 또는 상기 표시 모듈의 방향에 대응하는 사용자의 위치 중 적어도 하나에 기반하여 상기 가이드의 방향을 결정하도록 설정된 전자 장치.
  20. 전자 장치의 표시 모듈에 데이터를 표시하는 동작;
    상기 전자 장치를 통하여 펜 입력을 획득하는 동작;
    상기 펜 입력에 기반하여 상기 데이터의 확대 또는 축소 중 적어도 하나에 대응하는 입력인지 여부를 판단하는 동작;
    상기 판단 결과에 기반하여 상기 표시 모듈에 확대 또는 축소 중 적어도 하나에 대응하는 가이드를 표시하는 동작;
    상기 가이드에 대응하는 펜 입력에 기반하여 상기 데이터를 확대 또는 축소하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독이 가능한 기록 매체.
KR1020130097637A 2013-08-19 2013-08-19 펜을 갖는 사용자 기기의 화면 제공 방법 KR102187843B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130097637A KR102187843B1 (ko) 2013-08-19 2013-08-19 펜을 갖는 사용자 기기의 화면 제공 방법
US14/458,362 US10037132B2 (en) 2013-08-19 2014-08-13 Enlargement and reduction of data with a stylus
EP14181114.1A EP2840467A1 (en) 2013-08-19 2014-08-15 Enlargement and reduction of data with a stylus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130097637A KR102187843B1 (ko) 2013-08-19 2013-08-19 펜을 갖는 사용자 기기의 화면 제공 방법

Publications (2)

Publication Number Publication Date
KR20150020778A true KR20150020778A (ko) 2015-02-27
KR102187843B1 KR102187843B1 (ko) 2020-12-07

Family

ID=51355460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130097637A KR102187843B1 (ko) 2013-08-19 2013-08-19 펜을 갖는 사용자 기기의 화면 제공 방법

Country Status (3)

Country Link
US (1) US10037132B2 (ko)
EP (1) EP2840467A1 (ko)
KR (1) KR102187843B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10459614B2 (en) * 2013-12-04 2019-10-29 Hideep Inc. System and method for controlling object motion based on touch
JP6544791B2 (ja) * 2015-02-20 2019-07-17 株式会社ワコム 位置指示器、信号処理回路、信号供給制御方法及び信号処理方法
CN109701279B (zh) * 2018-12-24 2023-06-02 努比亚技术有限公司 游戏控制方法、移动终端及计算机可读存储介质
JP2021176049A (ja) * 2020-05-01 2021-11-04 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び情報処理方法
TWI740496B (zh) * 2020-05-12 2021-09-21 宏碁股份有限公司 調整墨水物件間距的觸控系統及方法以及電腦可讀取媒體

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040141010A1 (en) * 2002-10-18 2004-07-22 Silicon Graphics, Inc. Pan-zoom tool
US20050140696A1 (en) * 2003-12-31 2005-06-30 Buxton William A.S. Split user interface
US20120154920A1 (en) * 2010-12-16 2012-06-21 Lockheed Martin Corporation Collimating display with pixel lenses
US20120192116A1 (en) * 2011-01-21 2012-07-26 Dell Products, Lp Pinch Zoom Velocity Detent

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
KR20030071080A (ko) 2002-02-27 2003-09-03 주식회사 엘지이아이 개인정보단말기의 화면 확대/축소 장치 및 방법
US20060267966A1 (en) 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
JP2010262415A (ja) * 2009-04-30 2010-11-18 Brother Ind Ltd 処理装置
KR101080676B1 (ko) 2009-05-11 2011-11-08 주식회사 텔레칩스 터치화면상의 원 포인트 터치 동작에 의한 이미지 확대, 축소, 이동 방법
US20110298830A1 (en) 2010-06-07 2011-12-08 Palm, Inc. Single Point Input Variable Zoom
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US20140210797A1 (en) * 2013-01-31 2014-07-31 Research In Motion Limited Dynamic stylus palette
US9261985B2 (en) * 2013-03-11 2016-02-16 Barnes & Noble College Booksellers, Llc Stylus-based touch-sensitive area for UI control of computing device
US9766723B2 (en) * 2013-03-11 2017-09-19 Barnes & Noble College Booksellers, Llc Stylus sensitive device with hover over stylus control functionality
JP5736005B2 (ja) * 2013-06-11 2015-06-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力処理装置、情報処理装置、情報処理システム、入力処理方法、情報処理方法、入力処理プログラム、及び情報処理プログラム
JP2014241005A (ja) * 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040141010A1 (en) * 2002-10-18 2004-07-22 Silicon Graphics, Inc. Pan-zoom tool
US20050140696A1 (en) * 2003-12-31 2005-06-30 Buxton William A.S. Split user interface
US20120154920A1 (en) * 2010-12-16 2012-06-21 Lockheed Martin Corporation Collimating display with pixel lenses
US20120192116A1 (en) * 2011-01-21 2012-07-26 Dell Products, Lp Pinch Zoom Velocity Detent

Also Published As

Publication number Publication date
US20150052477A1 (en) 2015-02-19
EP2840467A1 (en) 2015-02-25
KR102187843B1 (ko) 2020-12-07
US10037132B2 (en) 2018-07-31

Similar Documents

Publication Publication Date Title
US10656824B2 (en) Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method
JP6366309B2 (ja) ユーザ機器のオブジェクト運用方法及び装置
US20080129759A1 (en) Method for processing image for mobile communication terminal
KR102004262B1 (ko) 미디어 시스템 및 이미지와 연관된 추천 검색어를 제공하는 방법
KR102187843B1 (ko) 펜을 갖는 사용자 기기의 화면 제공 방법
AU2014219558A1 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
WO2019201073A1 (zh) 页面显示方法、装置、移动终端以及存储介质
JP2014071812A (ja) 情報処理装置、表示制御方法及びプログラム
CN109656461B (zh) 一种截屏方法和终端
KR101861377B1 (ko) 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말
KR20130061914A (ko) 단말 및 그 단말에서 데이터 표시 방법
JP2012141976A (ja) 携帯用端末機の出力画面制御装置及びその方法
US20160077551A1 (en) Portable apparatus and method for controlling portable apparatus
CN111158575B (zh) 终端执行处理的方法、装置、设备以及存储介质
WO2019003387A1 (ja) 携帯端末
KR101654724B1 (ko) 적어도 하나의 메모리를 포함하는 디바이스의 제어 방법 및 스마트 tv
KR101920864B1 (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
KR101320236B1 (ko) 휴대용 단말기 및 그를 이용한 가상 화면 제어방법
JP2021068482A (ja) 携帯端末の制御方法
CN110784654B (zh) 一种拍照预览方法及电子设备
TWI483175B (zh) 資料分享系統及其資料分享方法
KR101944828B1 (ko) 미디어 시스템, 전자 장치, 원격 제어 장치 및 컨텐츠의 줌을 조절하기 위한 방법
KR101017098B1 (ko) 휴대 단말 장치에서 그래픽 사용자 인터페이스를 위한 이미지를 디스플레이하는 장치 및 방법
JP6457170B2 (ja) 携帯電子機器
JP2021073611A (ja) 携帯端末

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant