KR20160064560A - 전자장치 및 그래픽 오브젝트 표시 방법 - Google Patents

전자장치 및 그래픽 오브젝트 표시 방법 Download PDF

Info

Publication number
KR20160064560A
KR20160064560A KR1020140168323A KR20140168323A KR20160064560A KR 20160064560 A KR20160064560 A KR 20160064560A KR 1020140168323 A KR1020140168323 A KR 1020140168323A KR 20140168323 A KR20140168323 A KR 20140168323A KR 20160064560 A KR20160064560 A KR 20160064560A
Authority
KR
South Korea
Prior art keywords
touch pen
display
graphic object
layer
display unit
Prior art date
Application number
KR1020140168323A
Other languages
English (en)
Other versions
KR102411868B1 (ko
Inventor
박다혜
양필승
원설혜
이진영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140168323A priority Critical patent/KR102411868B1/ko
Priority to US14/942,371 priority patent/US10146341B2/en
Priority to PCT/KR2015/012374 priority patent/WO2016085186A1/en
Priority to EP15863317.2A priority patent/EP3224703B1/en
Priority to CN201580065515.2A priority patent/CN107003807B/zh
Publication of KR20160064560A publication Critical patent/KR20160064560A/ko
Application granted granted Critical
Publication of KR102411868B1 publication Critical patent/KR102411868B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자장치가 개시된다. 전자장치는 터치펜 입력을 감지하고 상기 터치펜 입력에 대응하는 신호를 출력하는 감지부, 제1 및 제2 레이어를 포함하고, 상기 제1 레이어에는 그래픽 오브젝트를 표시하고 상기 제2 레이어에는 상기 터치펜 입력에 기초한 필기(hand writing) 이미지를 표시하는 디스플레이부 및 상기 감지부에서 출력된 신호에 기초하여 상기 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부를 제어하는 제어부를 포함할 수 있다.

Description

전자장치 및 그래픽 오브젝트 표시 방법{ELECTRONIC APPARATUS AND METHOD FOR DISPLAY GRAPHIC OBJECT THE SAME}
본 개시의 다양한 실시 예는 전자장치 및 전자장치의 그래픽 오브젝트 표시 방법에 관한 것이다.
최근 휴대 단말기가 늘어나면서 직관적으로 입/출력 가능한 방법에 대한 사용자의 요구가 증대하고 있다. 그런데, 휴대 단말기와 같은 전자 장치의 경우 휴대의 용이성을 위하여 그 크기가 제한되고 있으며, 결과적으로 정보를 표시하는 표시부의 크기는 일반 TV, 모니터 등에 비하여 상대적으로 작은 특징이 있다. 이로 인하여, 휴대 단말기는 다양한 사용자의 입력을 위하여 전통적인 UI 방식, 예컨대 키보드, 키 패드, 마우스 등의 별도 구성을 이용하는 방식에서 벗어나서, 손가락이나 터치 펜 등을 이용하여 화면을 직접 터치하거나 음성을 이용하여 정보를 입력하는 직관적 UI 방식으로 진화하고 있다. 특히, 사용자는 터치 펜을 가지고 보다 세밀한 터치를 할 수 있으며, 필기를 입력할 수 있다. 사용자가 필기를 입력하는 방향은 그래픽 오브젝트 표시 방향과 다를 수 있다. 이에 따라, 터치 펜을 이용하여 필기를 하는 경우 그래픽 오브젝트 표시 방향과 필기 방향을 자동으로 일치시키기 위한 다양한 방법이 요구되고 있다.
본 개시의 다양한 실시 예들은 상기와 같은 문제점을 해결하기 위해 안출된 것으로 전자장치 및 전자장치의 그래픽 오브젝트 표시 방법을 제공하는데 있다. 특히 터치 펜과 디스플레이부의 각도를 이용하여 필기 방향을 인식하고, 필기 방향에 기초하여 디스플레이부에 표시되는 그래픽 오브젝트의 표시 방향을 수평 또는 수직 방향으로 자동으로 변경하는 방법을 제공한다.
본 개시의 다양한 실시 예들에 따른 전자장치는 외부로부터 신호를 수신하는 통신부(107); 그래픽 오브젝트를 표시하는 디스플레이부(101); 터치펜(201) 입력을 감지하고 상기 터치펜(201) 입력에 대응하는 신호를 출력하는 감지부; 및 상기 감지부에서 출력된 신호에 기초하여 상기 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 결정하는 제어부;를 포함할 수 있다. 상기 제어부는, 상기 신호에 기초하여 상기 터치펜(201)의 기울기 정보를 결정할 수 있다. 또한 상기 제어부는, 상기 통신부(107)를 통해 터치펜(201)으로부터 출력되는 신호를 수신하고, 상기 터치펜(201)으로부터 출력되는 신호에 기초하여 상기 터치펜(201)의 기울기 정보를 결정할 수 있다. 상기 제어부는, 상기 터치펜(201)의 기울기 정보로부터 상기 터치펜(201)이 기울어진 방향을 결정하고, 상기 터치펜(201)이 기울어진 방향에 기초하여 상기 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 상기 제어부는, 상기 터치펜(201)이 기울어진 방향과 상기 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 상기 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부(101)를 제어할 수 있다. 상기 제어부는, 상기 그래픽 오브젝트는 제1 레이어에 표시하고, 상기 터치펜(201) 입력에 기초하여 표시되는 필기(hand writing) 이미지는 제2 레이어에 표시하도록 상기 디스플레이부(101)를 제어할 수 있다. 상기 제어부는, 상기 제2 레이어는 고정하고, 상기 제1 레이어는 상기 펜이 기울어진 방향에 기초하여 상기 표시 방향을 변경하도록 상기 디스플레이부(101)를 제어할 수 있다.
또한 본 개시의 다양한 실시 예들에 따른 전자장치는 터치펜(201) 입력을 감지하고 상기 터치펜(201) 입력에 대응하는 신호를 출력하는 감지부; 제1 및 제2 레이어를 포함하고, 상기 제1 레이어에는 그래픽 오브젝트를 표시하고 상기 제2 레이어에는 상기 터치펜(201) 입력에 기초한 필기(hand writing) 이미지를 표시하는 디스플레이부(101); 및 상기 감지부에서 출력된 신호에 기초하여 상기 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부(101)를 제어하는 제어부;를 포함할 수 있다. 상기 제어부는, 상기 감지부에서 출력된 신호에 기초하여 상기 터치펜(201)이 기울어진 방향을 결정하고, 상기 터치펜(201)이 기울어진 방향에 따라 상기 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부(101)를 제어할 수 있다. 상기 제어부는, 상기 제1 레이어의 방향이 변경되는 경우에도, 상기 제2 레이어의 방향은 변경하지 않도록 상기 디스플레이부(101)를 제어할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 그래픽 오브젝트 표시 방법은 디스플레이부(101)에 그래픽 오브젝트를 표시하는 단계; 감지부를 통해 터치펜(201) 입력을 감지하는 단계; 및 상기 터치펜(201) 입력에 기초하여 상기 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 변경하는 단계;를 포함하며, 상기 표시 방향을 변경하는 단계는, 상기 터치펜 입력에 대응되는 신호에 기초하여 상기 터치펜의 기울기 정보를 결정할 수 있다.
또한, 상기 방법은 상기 터치펜(201)으로부터 출력되는 신호를 수신하는 단계;를 더 포함하고 상기 신호에 기초하여 상기 터치펜(201)의 기울기 정보를 결정할 수 있다. 또한 상기 방법은, 상기 터치펜(201)의 기울기 정보로부터 상기 터치펜(201)이 기울어진 방향을 결정하고, 상기 터치펜(201)이 기울어진 방향에 기초하여 상기 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 또한 상기 방법은, 상기 터치펜(201)이 기울어진 방향과 상기 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 상기 그래픽 오브젝트의 표시 방향을 변경할 수 있다. 또한 상기 방법은, 상기 터치펜(201) 입력에 기초하여 필기 이미지를 표시하는 단계;를 더 포함하되, 상기 그래픽 오브젝트는 제1 레이어에 표시하고, 상기 터치펜(201) 입력에 기초하여 표시되는 필기(hand writing) 이미지는 제2 레이어에 표시할 수 있다. 또한 상기 방법은, 상기 제2 레이어는 고정하고, 상기 제1 레이어는 상기 터치펜(201)이 기울어진 방향에 기초하여 상기 표시 방향을 변경할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 그래픽 오브젝트 표시 방법은 제1 레이어에 그래픽 오브젝트를 표시하는 단계; 터치펜(201) 입력을 감지하는 단계; 상기 터치펜(201) 입력에 기초하여 제2 레이어에 필기(hand writing) 이미지를 표시하는 단계; 및 상기 터치펜(201) 입력에 기초하여 상기 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경하는 단계;를 포함할 수 있다. 상기 표시 방향을 변경하는 단계는, 상기 터치펜(201) 입력에 기초하여 상기 터치펜(201)이 기울어진 방향을 결정하고, 상기 터치펜(201)이 기울어진 방향에 따라 상기 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경하는 것을 특징으로 할 수 있다. 또한 상기 방법은, 상기 그래픽 오브젝트의 표시 방향이 변경되는 경우에도, 상기 제2 레이어의 방향은 변경하지 않는 것을 특징으로 할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 그래픽 오브젝트 표시 방법은 필기 입력 방향에 기초하여 그래픽 오브젝트의 표시 방향을 자동으로 변경함으로써 사용자에게 편리한 경험을 제공한다.
도 1은 전자장치의 블록도이다.
도 2a 내지 도 2b는 터치펜(201)의 기울기 방향에 따라 그래픽 오브젝트의 표시 방향을 변경하는 것을 도시한 도면이다.
도 3a 내지 도 3b는 필기 입력 레이어와 그래픽 오브젝트 표시 레이어를 도시한 도면이다.
도 4a 내지 도 4b는 입력필드가 포함된 컨텐츠에 터치펜(201)을 이용하여 필기를 입력하는 예를 도시한 도면이다.
도 5a 내지 도 5b는 컨텐츠가 표시된 디스플레이부(101)의 엣지 영역을 드래그하여 메모창을 표시하는 것을 도시한 도면이다.
도 6a 내지 도 6b는 필기 이미지 인식을 통한 사용자 식별 및 펜 스타일을 자동으로 설정하는 예를 도시한 도면이다.
도 7a 내지 도 7b는 디스플레이부(101)에 문서이미지가 표시된 상태에서 터치펜(201) 인터렉션 예를 보여주는 도면이다.
도 8은 터치펜(201)의 호버링 인터렉션 예를 설명하는 도면이다.
도 9a 내지 도 9b는 터치펜(201)을 이용하여 서식을 적용하는 방법에 대한 도면이다.
도 10a 내지 도 10b는 서식 적용 방법을 도시한 도면이다.
도 11은 사용자 서식 설정 방법을 도시한 도면이다.
도 12a 내지 도 12c는 화면의 확대 비율에 따라 터치펜(201) 서식 메뉴의 크기가 확대되는 것을 도시한 도면이다.
도 13a 내지 도 13c 는 터치펜(201)에 의한 필기 입력 모드 및 제스처 입력 모드간의 전환하는 방법을 도시한 도면이다.
도 14는 터치펜(201) 입력에 기초하여 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 변경하는 방법에 대한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 개시(present disclosure)를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
개시에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시 가운데 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들이 본 개시의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의‘모듈’ 혹은 복수의‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하, 본 개시의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 전자장치(100)의 블록도이다. 도1 을 참조하면, 전자장치(100)는 디스플레이부(101), 제어부(103), 감지부(105) 및 통신부(107)를 포함할 수 있다. 디스플레이부(101)는 그래픽 오브젝트를 표시할 수 있으며, 전자장치(100)에서 출력되는 출력 정보에 대한 표시 기능을 수행할 수 있다. 그래픽 오브젝트는 동영상, 정지영상, 이북 화면, 웹페이지, 컨텐츠 및 그래픽 사용자 인터페이스(GUI)일 수 있다.
감지부(105)는 사용자에 의한 각종 입력 기능을 수행하며, 손가락, 펜 등의 각종 물체를 이용한 사용자의 싱글 또는 멀티 터치 입력, 드래그 입력, 필기 입력, 드로잉 입력 등의 각종 입력을 감지할 수 있다. 감지부(105)는 디스플레이부(101)에 일체로 형성된 모듈 형태로 제공될 수 있다. 또한 감지부(105)는 손가락 입력 감지 및 터치펜(201) 입력 감지가 모두 가능한 하나의 패널을 이용하여 구현될 수도 있고, 손가락 입력 감지가 가능한 터치 패널과 터치펜(201) 입력 감지가 가능한 터치펜 인식 패널과 같이 두 개의 패널을 이용하여 구현될 수도 있다. 이하, 본 발명의 실시 예에서는 감지부(105)가 손가락 입력 감지가 가능한 터치 패널과 터치펜(201) 입력 감지가 가능한 터치펜 인식 패널과 같이 두 개의 패널을 포함하여 구현되는 경우를 예를 들어 설명한다.
디스플레이부(101)는 LCD, AMOLED 등과 같은 패널이 될 수 있다. 디스플레이부(101)는 전자장치(100)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 화면을 표시할 수 있다. 디스플레이부(101)는 터치 패널을 포함할 수 있다. 터치 패널은 디스플레이부(101)의 하부에 일정 면적, 예를 들면 디스플레이부(101)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다.
터치 패널은 사용자의 터치 입력을 감지할 수 있다. 터치 패널은 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다. 터치 패널은 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력한다. 이때, 감지된 터치 신호에 대응하는 정보가 디스플레이부(101)에 표시될 수 있다. 터치 패널은 다양한 입력 수단에 의하여 사용자의 터치 입력에 의한 조작 신호를 입력 받을 수 있다. 예를 들어, 터치 패널은 사용자의 신체(예를 들어, 손가락)나 물리적인 도구 등을 포함하는 터치 입력을 감지할 수 있다. 본 발명의 실시 예에 따르면 터치 패널은 정전용량 방식 터치 패널로 구성될 수 있다. 정전용량 방식 터치 패널로 구성된 경우 터치 패널은 유리의 양면에 얇은 금속 전도성 물질(예를 들면, ITO(Indium Tin Oxide:산화 인듐주석) 막 등)을 코팅하여 유리표면에 전류가 흐르도록 하고 전하를 저장할 수 있는 유전체로 코팅되어 구성된다. 이러한 터치 패널에 물체에 의해 표면이 터치되면 정전기에 의해 일정량의 전하가 접촉 위치로 이동하고, 터치 패널은 전하의 이동에 따른 전류의 변화량을 인식해서 터치된 위치를 감지하게 되고 터치 이벤트를 추적한다. 여기서 터치 패널에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의해 생성될 수 있으나, 정전용량 변화를 가할 수 있는 다른 물체 예를 들면 정전용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
터치펜 인식 패널은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 터치펜(201)의 근접 입력 또는 터치 입력을 감지하고 감지된 터치펜 근접 이벤트 또는 터치펜 터치 이벤트를 출력한다. 이러한 터치펜 인식 패널은 EMR 방식으로 구현될 수 있으며, 터치펜(201)의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 구체적으로 터치펜 인식 패널은 복수의 루프 코일이 미리 정해진 제1 방향 및 제1 방향과 교차하는 제2 방향에 각각 배치되어 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다. 이러한 터치펜 인식 패널의 루프 코일 근방에 공진회로를 내장하는 터치펜(201)이 존재하면, 해당 루프 코일로부터 송신되는 자계가 터치펜(201) 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 터치펜(201) 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 터치펜 인식 패널은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 터치펜(201)의 접근 위치 또는 터치 위치가 감지된다. 터치펜 인식 패널을 통해서는 전자 유도에 기초한 전류를 발생시킬 수 있는 물체라면 접근 및 터치의 감지가 가능하며, 본 발명의 실시 예에서는 터치펜(201) 근접 또는 터치펜(201) 터치 인식 전용으로 이용되는 것으로 설명한다. 이러한 터치펜 인식 패널은 단말기의 일정 위치에 배치되어 특정 이벤트 발생에 따라 또는 디폴트로 활성화 상태를 가질 수 있다. 그리고 터치펜 인식 패널은 디스플레이부(101)의 하부에 일정 면적, 예를 들면 디스플레이부(101)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다.
통신부(107)는 전자장치(100)의 외부로부터 신호를 수신할 수 있다. 특히 전자장치(100)가 이동통신 기능을 지원하는 경우 통신부(107)는 이동통신 모듈로 구성될 수 있다. 통신부(107)는 통신 기능이 요구되는 전자장치(100)의 특정 기능 예를 들면 채팅 기능, 메시지 송수신 기능, 통화 기능 등을 수행할 수 있다. 또한 통신부(107)는 터치펜(201)과 같은 외부 디바이스로부터 신호를 수신할 수 있다. 터치펜(201)은 터치펜(201)의 기울기와 관련된 정보를 통신부(107)를 통해 전자장치(100)로 전달 할 수 있다.
제어부(103)는 본 개시의 실시 예에 따른 터치펜(201)을 이용하여 필기를 입력 받아 표시하기 위한 다양한 구성들을 포함하며, 이 구성들을 기반으로 필기 입력을 위한 신호 처리와 데이터 처리 및 기능 운용을 제어할 수 있다. 예를 들어, 제어부(103)는 표시 중인 어플리케이션에 필기 입력 레이어를 제공하고, 제공된 필기 입력 레이어 위에서 사용자에 의한 필기 이미지를 텍스트로 전환하여 상기 입력 필드 내에 텍스트를 삽입하여 표시하도록 디스플레이부(101)를 제어할 수 있다.
제어부(103)는 디스플레이부(101)에 입력되는 터치펜 입력에 대응하여 감지부(105)에서 출력된 신호에 기초하여 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 구체적으로 제어부(103)는 감지부(105)에서 출력된 신호에 기초하여 터치펜의 기울기 정보를 결정할 수 있다. 터치펜의 기울기 정보는 디스플레이부와 터치펜이 이루는 각도 및 터치펜이 기울어진 방향일 수 있다.
또한 터치펜은 터치펜의 기울기 각도 및 기울어진 방향에 대한 정보를 신호로 출력할 수 있다. 이 경우, 제어부(103)는 통신부를 통해 터치펜으로부터 출력되는 신호를 수신하고, 터치펜으로부터 출력되는 신호에 기초하여 터치펜의 기울기 정보를 결정할 수 있다.
제어부(103)는 터치펜의 기울기 정보로부터 터치펜이 기울어진 방향을 결정하고, 터치펜이 기울어진 방향에 기초하여 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 또한 제어부는 터치펜이 기울어진 방향과 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 그래픽 오브젝트의 표시 방향을 변경하도록 디스플레이부를 제어할 수 있다.
제어부(103)는 그래픽 오브젝트는 제1 레이어에 표시하고, 터치펜 입력에 기초하여 표시되는 필기 이미지는 제2 레이어에 표시하도록 디스플레이부를 제어할 수 있다.
제어부(103)는 제2 레이어는 고정하고, 제1 레이어는 터치펜이 기울어진 방향에 기초하여 그래픽 오브젝트 표시 방향을 변경하도록 디스플레이부를 제어할 수 있다.
제어부(103)는 감지부에서 출력된 신호에 기초하여 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경하도록 디스플레이부를 제어할 수 있다. 또한 제어부(103)는 감지부에서 출력된 신호에 기초하여 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 또한 제어부(103)는 감지부에서 출력된 신호에 기초하여 터치펜이 기울어진 방향을 결정하고, 터치펜이 기울어진 방향에 따라 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경하도록 디스플레이부를 제어할 수 있다.
도 2a 내지 도 2b는 터치펜(201)의 기울기 방향에 따라 그래픽 오브젝트의 표시 방향을 변경하는 것을 도시한 도면이다. 도 2a를 참조하면 전자장치(100), 디스플레이부(101) 및 터치펜(201)이 도시되어 있다. 터치펜(201)이 디스플레이부(101)에 접촉하면 제어부(103)는 터치펜(201)이 접촉한 위치 및 터치펜(201)과 디스플레이부(101) 사이의 각도(P)(203)를 결정할 수 있다. 즉, 제어부(103)는 터치펜(201)의 기울기 방향을 결정할 수 있다.
도 2b를 참조하면 터치펜(201)의 기울기 방향 및 이에 따른 표시 방향이 도시되어 있다. 제어부(103)는 터치펜(201)이 디스플레이부(101)에 접촉하면 디스플레이부(101)의 중심을 기준으로 터치펜(201)이 상하좌우 4개의 방향(211, 213, 215, 217)중 어느 방향으로 기울어졌는지를 판단하고, 터치펜(201)이 기울어진 방향에 기초하여 그래픽 오브젝트의 표시 방향(219, 221, 223, 225)을 결정하고 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 즉, 제어부(103)는 터치펜(201)이 기울어진 방향에 기초하여 그래픽 오브젝트의 표시 방향을 변경하도록 디스플레이부(101)를 제어할 수 있다.
예를 들면, 터치펜(201)이 a 방향(211)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 1번 방향(219)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 터치펜(201)이 b 방향(213)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 2번 방향(221)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 터치펜(201)이 c 방향(215)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 3번 방향(223)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 터치펜(201)이 d 방향(217)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 4번 방향(225)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다.
또한 제어부(103)는 사용자가 터치펜(201)을 파지한 손이 왼손 또는 오른손인지 여부에 따라 터치펜(201)의 기울기 방향에 따른 표시 방향을 다르게 결정할 수 있다. 예를 들면 사용자가 왼손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 a 방향(211)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 4번 방향(225)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 사용자가 왼손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 b 방향(213)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 1번 방향(219)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 사용자가 왼손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 c 방향(215)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 2번 방향(221)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 사용자가 왼손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 d 방향(217)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 3번 방향(223)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다.
사용자가 오른손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 a 방향(211)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 1번 방향(219)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 사용자가 오른손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 b 방향(213)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 2번 방향(221)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 사용자가 오른손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 c 방향(215)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 3번 방향(223)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다. 사용자가 오른손으로 터치펜(201)을 파지하고 디스플레이부(101)에 접촉할 때, 터치펜(201)이 d 방향(217)으로 기울어진 경우, 제어부(103)는 그래픽 오브젝트의 표시 방향을 4번 방향(225)으로 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다.
사용자는 전자장치(100)를 오른손 모드로 사용할 것인지 또는 왼손 모드로 사용할 것인지를 선택할 수 있다. 사용자가 오른손 모드를 선택하는 경우, 제어부(103)는 사용자가 오른손으로 터치펜(201)을 파지한 것으로 결정하고 이에 따라 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 사용자가 왼손 모드를 선택하는 경우, 제어부(103)는 사용자가 왼손으로 터치펜(201)을 파지한 것으로 결정하고 이에 따라 그래픽 오브젝트의 표시 방향을 결정하고 이를 기준으로 화면을 회전하도록 디스플레이부(101)를 제어할 수 있다.
또한, 사용자의 오른손 모드 또는 왼손 모드의 선택이 없는 경우, 제어부(103)는 터치펜(201)과 디스플레이부(101)가 이루는 각도 및 필기의 진행방향으로부터 오른손 모드 또는 왼손 모드를 결정할 수 있다. 예를 들면 터치펜(201)이 기울어진 방향이 b 방향(213)이고, 필기의 진행 방향이 우측 방향인 경우, 제어부는 왼손 모드로 결정할 수 있다. 터치펜(201)이 기울어진 방향이 a 방향(211)이고, 필기의 진행 방향이 우측 방향인 경우, 제어부는 오른손 모드로 결정할 수 있다.
또한, 제어부(103)는 터치펜(201)과 디스플레이부(101)가 이루는 각도 및 손 접촉 위치로부터 오른손 모드 또는 왼손 모드를 결정할 수 있다.
사용자가 전자장치(100)를 손에 파지하고 세워서 사용하는 경우, 제어부(103)는 중력센서(미도시)로부터 출력되는 신호에 기초하여 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 그러나 전자장치(100)가 테이블위에 눕혀진 상태에 있거나 또는 사용자가 전자장치(100)를 손에 파지했지만 눕힌 상태로 사용하는 경우, 제어부(103)는 중력센서로부터 출력되는 신호에 기초하여 그래픽 오브젝트의 표시 방향을 결정하는 것이 어려울 수 있으므로, 이런 경우에는 터치펜(201)의 기울기 방향에 기초하여 표시 방향을 결정할 수 있다.
도 3a 내지 도 3b는 필기 입력 레이어와 그래픽 오브젝트 표시 레이어를 도시한 도면이다. 도 3a를 참조하면 그래픽 오브젝트 표시 레이어(301), 필기 입력 레이어(303) 및 터치펜(201)이 도시되어 있다. 그래픽 오브젝트 표시 레이어(301)에는 그래픽 문자 및 이미지가 표시될 수 있다. 예를 들면 그래픽 오브젝트 표시 레이어(301)에는 문자, 컨텐츠, 어플리케이션을 실행시키기 위한 아이콘 및 버튼 등이 표시될 수 있다. 필기 입력 레이어(303)에는 터치펜(201) 입력에 기초한 필기 이미지가 표시될 수 있다. 필기 이미지는 사용자가 터치펜(201)을 디스플레이부(101)에 접촉한 상태로 터치펜을 이동시키는 경우 생성될 수 있다. 생성된 필기 이미지는 텍스트로 변환될 수 있다.
필기 입력 레이어(303)는 예를 들어, 투명 또는 반투명으로 제공될 수 있다. 전자장치(100)는 제공된 필기 입력 레이어(303)를 통해 터치펜(201)을 이용한 필기 이미지를 입력 받을 수 있다. 입력된 필기 이미지는 필기 입력 레이어(303)에 표시될 수 있다. 필기 이미지가 그래픽 오브젝트가 표시 레이어(301)와는 다른 레이어(303)에 표시되기 때문에 입력된 필기 이미지는 그래픽 오브젝트와는 독립적으로 처리될 수 있다. 즉, 제어부(103)는 그래픽 오브젝트 표시 레이어(301)에 표시된 필기 이미지를 별도의 오브젝트로 인식하여 처리할 수 있다. 예를 들면 제어부(103)는 필기 이미지만을 독립적으로 지울 수 있다.
도 3b를 참조하면 전자장치(100), 그래픽 오브젝트(101a, 101b), 그래픽 오브젝트 표시 레이어(301), 필기 입력 레이어(303), 필기 이미지(305) 및 터치펜(201)이 도시되어 있다. 그래픽 오브젝트(101b)는 그래픽 오브젝트(101a)가 90도 회전한 것이다.
전자장치(100)는 디스플레이부에 그래픽 오브젝트(101a)를 표시하고, 터치펜(201) 입력을 감지하고, 터치펜(201) 입력에 기초하여 디스플레이부에 표시되는 그래픽 오브젝트의 표시 방향을 변경할 수 있다. 도 3b의 하단 도면은 그래픽 오브젝트의 표시 방향이 변경된 것을 도시한 것이다.
전자장치(100)는 그래픽 오브젝트의 표시 방향을 변경하기 위해 터치펜(201) 입력에 대응되는 신호에 기초하여 터치펜(201)의 기울기 정보를 결정할 수 있다. 터치펜(201) 입력에 대응되는 신호는 터치펜(201)이 디스플레이부에 접촉하는 경우 감지부에서 출력되는 신호일 수 있다. 또한 터치펜(201) 입력에 대응되는 신호는 터치펜(201)으로부터 직접 발생된 신호일 수 있으며, 통신부를 통해 수신될 수 있다. 전자장치(100)는 터치펜 입력에 대응되는 신호를 분석하여 터치펜의 기울기 정보를 결정 할 수 있다.
전자장치(100)는 터치펜(201)의 기울기 정보로부터 터치펜(201)이 기울어진 방향을 결정하고, 터치펜(201)이 기울어진 방향에 기초하여 그래픽 오브젝트의 표시 방향을 결정할 수 있다.
전자장치(100)는 터치펜(201)이 기울어진 방향과 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 그래픽 오브젝트의 표시 방향을 변경할 수 있다.
전자장치(100)는 터치펜(201) 입력에 기초하여 필기 이미지를 디스플레이부에 표시할 수 있다. 이 때 그래픽 오브젝트 및 필기 이미지를 각각 다른 레이어에 표시할 수 있다. 전자장치(100)는 그래픽 오브젝트는 제1 레이어에 표시하고, 터치펜 입력에 기초하여 표시되는 필기 이미지는 제2 레이어에 표시할 수 있다. 제1 레이어는 그래픽 오브젝트 표시 레이어(301)일 수 있다. 제2 레이어는 필기 입력 레이어(303)일 수 있다.
전자장치(100)는 그래픽 오브젝트의 표시 방향을 변경하는 경우, 제2 레이어는 고정하고, 제1 레이어는 터치펜(201)이 기울어진 방향에 기초하여 그래픽 오브젝트의 표시 방향을 변경할 수 있다.
또한 전자장치(100)는 제1 레이어에 그래픽 오브젝트를 표시하고, 터치펜(201) 입력을 감지하고, 터치펜(201) 입력에 기초하여 제2 레이어에 필기 이미지를 표시하고, 터치펜(201) 입력에 기초하여 상기 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경할 수 있다.
전자장치(100)는 그래픽 오브젝트의 표시 방향을 변경하는 경우, 터치펜 입력에 기초하여 터치펜이 기울어진 방향을 결정하고, 터치펜이 기울어진 방향에 따라 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경할 수 있다. 또한 전자장치(100)는 그래픽 오브젝트의 표시 방향이 변경되는 경우에도, 상기 제2 레이어의 방향은 변경하지 않을 수 있다.
도 3b의 상단 도면은 그래픽 오브젝트가 표시된 방향과 필기 이미지가 표시된 방향이 90도 어긋나 있는 상태를 도시한 것이다.
도 3b의 하단 도면은 터치펜의 기울기 방향에 따라 그래픽 오브젝트가 필기 이미지의 표시 방향과 일치되도록 그래픽 오브젝트 표시 방향이 90도 회전되는 상태를 도시한 것이다.
즉, 도 3b의 상단 도면은 디스플레이부에 그래픽 오브젝트(101a)가 A방향(302)을 기준으로 표시된 상태에서 디스플레이부에 터치펜(201)이 접촉하는 상태를 도시한 것이다. 그래픽 오브젝트(101a)는 그래픽 오브젝트 표시 레이어(301)에 표시될 수 있다. 이 때 필기 입력 방향은 B방향(304)을 기준으로 필기가 진행될 수 있으며, 필기 이미지(305)는 필기 입력 레이어(303)에 B방향(304)을 기준으로 표시될 수 있다. 이 경우, 필기 이미지(305)와 그래픽 오브젝트(101a)는 90도 어긋날 수 있다. 그래픽 오브젝트 표시 레이어(301a)의 표시 방향과 필기 입력 레이어(303)의 필기 방향은 일치하지 않고 있으며 90도 어긋나 있다.
디스플레이부에 그래픽 오브젝트(101a)가 표시되어 있는 상태에서 사용자가 터치펜(201)으로 필기를 하면, 필기 입력 레이어(303)에 필기 이미지(305)가 표시될 수 있다. 이 때 그래픽 오브젝트(101a)의 표시 방향은 A방향(302)이다. 필기 입력 레이어(304)의 필기 입력 방향은 B방향(304)이다. 제어부(103)는 필기 입력 방향(304)에 기초하여 그래픽 오브젝트(101a)의 표시 방향을 변경할 수 있다.
즉, 제어부(103)는 터치펜(201)의 기울기 방향 및 필기 이미지의 진행 방향에 기초하여 전자장치(100)의 상단 방향을 결정하고, 그래픽 오브젝트 표시 레이어(301a)에 표시된 그래픽 오브젝트를 전자장치(100)의 반시계 방향으로 90도 회전하여 표시하도록 디스플레이부(101)를 제어할 수 있다. 이 때, 제어부(103)는 필기 입력 레이어(303)에 표시되는 필기 이미지(305)는 회전하지 않고 고정시킬 수 있다. 또는, 제어부(103)는 필기 입력 레이어(303)를 고정시킬 수 있다.
도 3b의 하단에 도시된 그래픽 오브젝트 표시 레이어(301b)는 도 3b의 상단에 도시된 그래픽 오브젝트 표시 레이어(301a)가 반시계 방향으로 90도 회전한 상태를 도시한 것이다. 도 3b 하단 도면에서 디스플레이부에 표시된 그래픽 오브젝트(101b)는 도 3b의 상단 도면에서 그래픽 오브젝트(101a)를 반시계 방향으로 90도 회전한 상태를 도시한 것이다. 그래픽 오브젝트(101a)가 회전되어 표시될 때, 제어부(103)는 필기 입력 위치가 디스플레이부의 중앙에 위치하도록 디스플레이부를 제어할 수 있다. 또한, 그래픽 오브젝트(101a)가 회전되어 표시될 때, 제어부(103)는 상단이 일치하도록 디스플레이부를 제어할 수 있다. 이에 따라, 그래픽 오브젝트(101a)는 폭이 확대되어 표시될 수 있다 .
도 4a 내지 도 4b는 입력필드가 포함된 컨텐츠에 터치펜(201)을 이용하여 필기를 입력하는 예를 도시한 도면이다.
도 4a를 참조하면 디스플레이부(101)에 입력필드(403)를 포함하는 컨텐츠(401)가 도시되어 있다. 사용자가 터치펜(201)으로 입력필드(403)를 터치하거나 또는 입력필드(403) 근처에 터치펜(201)을 근접시키면, 제어부(103)는 입력필드(403)를 확대하여 표시하도록 디스플레이부(101)를 제어할 수 있다. 컨텐츠(401)는 입력필드(403)가 포함된 그래픽 오브젝트 일 수 있다. 디스플레이부(101)에 입력필드(403)가 포함된 컨텐츠(401)가 표시된 상태에서 입력필드(403)에서 터치펜(201)의 접촉 또는 터치펜(201)의 근접(호버링, hovering)이 감지되면, 제어부(103)는 도 4b에 도시된 바와 같이, 입력필드(403)에 대응하는 필기 입력 레이어(403a)를 제공할 수 있다.
도 4b를 참조하면 입력필드를 포함하는 컨텐츠(401), 입력필드에 대응하는 필기 입력 레이어(403a) 및 필기 이미지(403b)가 도시되어 있다. 입력필드(403)에 대응하는 필기 입력 레이어(403a)는 입력필드의 크기와 같거나 클 수 있다. 또한 제어부(103)는 필기 입력 레이어(403a)를 입력필드(403)에 중첩하여 표시하도록 디스플레이부(101)를 제어할 수 있다. 입력필드(403)에 대응하는 필기 입력 레이어(403a)는 반투명 상태로 디스플레이부(101)에 표시될 수 있다. 입력필드(403)에 대응하는 필기 입력 레이어(403a)의 투명도는 미리 결정된 값이거나 또는 사용자가 설정 할 수 있다. 입력필드(403)에 대응하는 필기 입력 레이어(403a)는 그래픽 오브젝트 표시 레이어의 입력필드(403)가 있는 위치에 부분적으로 위치할 수 있다.
입력필드(403)가 포함된 컨텐츠가 표시된 상태에서 입력필드(403)에서 터치 감지 신호를 수신하면, 제어부(103)는 입력필드(403)에 대응되는 필기 입력 레이어(403)를 확대하여 표시하도록 디스플레이부(101)를 제어할 수 있다. 여기서 터치 감지 신호는 터치펜이 디스플레이부(101)에 접촉할 때 감지부(105)에서 출력될 수 있다. 또한 터치 감지 신호는 사용자의 손가락이 디스플레이부(101)에 접촉할 때 감지부(105)에서 출력될 수 있다.
제어부(103)는 그래픽 오브젝트 표시 레이어에 입력필드(403)가 포함된 컨텐츠를 표시된 상태에서 입력필드에 터치펜(201)의 접촉 또는 터치펜(201)의 근접을 감지하고 이에 기초하여 입력필드에 대응하는 위치에 필기 입력 레이어(403a)를 중첩하여 표시하도록 디스플레이부(101)를 제어할 수 있다. 제어부(103)는 미리 결정된 값으로 필기 입력 레이어(403a)의 투명도를 조정할 수 있다. 또한, 제어부(103)는 필기 입력 레이어(403a)의 크기를 입력필드(403)의 크기와 같거나 크게 할 수 있다.
사용자가 필기 입력 레이어(403a)를 통해 입력필드(403)에 필기를 입력하면, 제어부(103)는 입력된 필기 이미지(403b)를 필기 입력 레이어(403a)에 표시하도록 디스플레이부(101)를 제어할 수 있다. 필기 이미지(403b)는 문자 인식 모듈(미도시)에서 텍스트로 변환되어 입력필드(403)에 표시될 수 있다.
도 5a 내지 도 5b는 컨텐츠가 표시된 디스플레이부(101)의 엣지 영역을 드래그하여 메모창을 표시하는 것을 도시한 도면이다.
도 5a를 참조하면 컨텐츠(501) 및 엣지 영역(503)이 도시되어 있다. 엣지 영역(503)은 디스플레이부(101)의 상단, 하단, 좌측단 및 우측단이 될 수 있다. 사용자가 컨텐츠(501)가 표시된 디스플레이부(101)의 엣지 영역(503)을 드래그하면, 제어부(103)는 디스플레이부(101)에 필기를 입력할 수 있는 메모창(505)을 표시하도록 디스플레이부(101)를 제어할 수 있다.
도 5b를 참조하면 디스플레이부(101)에 컨텐츠(501) 및 메모창(505)이 도시되어 있다. 디스플레이부(101)의 엣지 영역(503)에서 터치펜(201)의 드래그 동작이 감지되면, 제어부(103)는 메모창(505)을 표시하도록 디스플레이부(101)를 제어할 수 있다. 사용자는 메모창(505)을 통해 필기를 전자장치(100)로 입력할 수 있다. 메모창(505)을 통해 입력된 필기 이미지는 텍스트로 변환되거나 또는 이미지 형태로 전자장치(100)에 저장될 수 있다. 이때, 필기 이미지와 컨텐츠(501)에 대한 정보가 함께 저장될 수 있다. 컨텐츠(501)는 그래픽 오브젝트 레이어에 표시될 수 있다. 메모창(505)은 필기 입력 레이어에 표시될 수 있다. 필기 입력 레이어는 그래픽 오브젝트 표시 레이어보다 작을 수 있다. 디스플레이부(101)에 그래픽 오브젝트 레이어가 표시된 상태에서 디스플레이부(101)의 엣지 영역에서 사용자 입력이 감지되면, 제어부(103)는 사용자 입력이 감지된 위치에 필기 입력 레이어를 표시하도록 디스플레이부(101)를 제어할 수 있다. 구체적으로, 디스플레이부(101)에 그래픽 오브젝트가 표시된 상태에서 디스플레이부(101)의 엣지 영역에서 펜드래그 제스처에 기초한 신호가 입력되면, 제어부(103)는 엣지 영역에 필기 입력이 가능한 메모창을 표시하도록 디스플레이부(101)를 제어할 수 있다. 펜드래그 제스처는 터치펜을 디스플레이부(101)에 접촉하고 접촉을 유지하면서 터치펜을 이동시키는 동작일 수 있다. 감지부(105)는 펜드래그 제스처에 기초한 신호를 출력할 수 있다.
도 6a 내지 도 6b 는 필기 이미지 인식을 통한 사용자 식별 및 펜 스타일을 자동으로 설정하는 예를 도시한 도면이다.
도 6a를 참조하면 디스플레이부(101)에 컨텐츠(601), 필기 이미지(603, 605, 607, 609)가 도시되어 있다. 제어부(103)는 필기 입력 레이어를 통해 입력되는 필기의 필체를 분석하여 사용자를 구분하고, 필체 분석 결과에 기초하여 펜 스타일을 자동으로 설정할 수 있다. 필기이미지(603, 605, 607, 609) 중 적어도 하나는는 각기 다른 사용자가 입력한 것일 수 있다. 예를 들면, 필기 이미지(603, 607, 609)는 A 사용자가 입력한 것일 수 있다. 필기이미지(605)는 B 사용자가 입력한 것일 수 있다.
제어부(103)는 필기 이미지(603, 607, 609)에 대해서는 빨간색으로 표시하도록 디스플레이부(101)를 제어할 수 있다. 즉, 제어부(103)는 A 사용자가 입력하는 필기 이미지에 대해서는 빨간색으로 표시하도록 디스플레이부(101)를 제어할 수 있다. 제어부(103)는 필기 이미지(605)에 대해서는 노란색으로 표시하도록 디스플레이부(101)를 제어할 수 있다. 즉, 제어부(103)는 B 사용자가 입력하는 필기 이미지에 대해서는 노란색으로 표시하도록 디스플레이부(101)를 제어할 수 있다.
도 6b를 참조하면 디스플레이부(101)에 각기 다른 색으로 표시된 필기이미지(603a, 605a, 607a, 609a)가 도시되어 있다. 필기이미지(603a, 607a, 609a)는 빨간색의 펜스타일이 적용될 수 있다. 필기이미지(605a)는 노란색의 펜스타일이 적용될 수 있다.
또한, 필기이미지(603a, 609a)는 펜스타일이 적용될 수 있다. 필기이미지(605a)는 붓스타일이 적용될 수 있다. 필기이미지(607a)는 연필스타일이 적용될 수 있다.
또한, 필체 분석을 통해 사용자가 식별되면, 제어부(103)는 식별된 사용자에 대해 미리 설정된 문서 편집 권한을 부여할 수 있다. 예를 들면, 필기이미지 분석결과 학생으로 판단되면, 제어부(103)는 문서 편집을 제한 할 수 있다. 필기이미지 분석결과 선생님으로 판단되면, 제어부(103)는 문서 편집을 허용할 수 있다.
즉, 제어부(103)는 필기 입력 레이어에 입력된 필기이미지에 기초하여 그래픽 오브젝트 표시 레이어를 잠금 또는 해제할 수 있다. 또는, 제어부(103)는 필기 입력 레이어에 입력된 필기이미지에 기초하여 그래픽 오브젝트 표시 레이어를 제어할 수 있다.
도 7a 내지 도 7b는 디스플레이부(101)에 문서이미지가 표시된 상태에서 터치펜(201) 인터렉션 예를 보여주는 도면이다.
도 7a를 참조하면 문서이미지(701), 텍스트화된 문서(703), 문서의 일부분(705) 및 부분 문서 이미지(707)가 도시되어 있다. 제어부(103)는 문서이미지(701)를 텍스트화된 문서(703)로 변환할 수 있다. 디스플레이부(101)에 텍스트화된 문서(703)가 표시된 상태에서 사용자가 터치펜(201)을 문서의 일부분(705)에 근접시키거나 또는 터치시키면, 제어부(103)는 문서의 일부분(705)에 대응하는 부분 문서 이미지(707)가 표시하도록 디스플레이부(101)를 제어할 수 있다. 이 때 부분 문서 이미지(707)는 터치가 감지된 위치 근처에 표시될 수 있다.
도 7b 를 참조하면 문서이미지(701), 텍스트화된 문서(715), 문서 이미지의 일부분(711), 밑줄(713) 및 터치펜(201)이 도시되어 있다. 디스플레이부(101)에 문서이미지(701)가 표시되어 있는 상태에서 사용자가 문서 이미지(701)의 일부분을 텍스트로 변환시키기 위해 터치펜(201)의 버튼(201a)을 누른 상태에서 드래그 동작을 수행하면, 제어부(103)는 드래그 동작이 감지된 영역에 있는 문서 이미지(701)의 일부분에 밑줄(713)을 표시하도록 디스플레이부(101)를 제어하고, 문서 이미지(701)의 일부분을 텍스트로 변환할 수 있다. 디스플레이부(101)에 문서이미지(701)가 표시되어 있는 상태에서 터치펜(201)의 접촉 또는 호버링이 감지되는 경우, 제어부(103)는 접촉 또는 호버링이 감지된 위치를 결정할 수 있다. 터치펜(201)이 접촉을 유지한 상태에서 이동되면, 제어부(103)는 이동되는 궤적에 밑줄을 표시하도록 디스플레이부(101)를 제어하고, 밑줄 근처에 있는 문서 이미지를 텍스트로 변환할 수 있다. 제어부(103)는 변환된 텍스트 문서(715)를 디스플레이부(101)에 표시할 수 있다. 이때, 문서 이미지(701)에 포함된 문서 이미지의 일부분(711)만 텍스트로 변환 될 수 있다.
도 7c를 참조하면 문서 이미지(701), 텍스트화된 문서(721), 밑줄(723) 및 부분 문서 이미지(725)가 도시되어 있다. 제어부(103)는 문서이미지(701)를 텍스트화된 문서(721)로 변환할 수 있다. 디스플레이부(101)에 텍스트화된 문서(721)가 표시된 상태에서 사용자가 터치펜(201)을 텍스트의 일부분에 근접(호버링)시키면, 제어부(103)는 텍스트의 일부분에 대응하는 부분 문서 이미지(725)를 표시하도록 디스플레이부(101)를 제어할 수 있다. 이 때 부분 문서 이미지(725)는 터치펜(201)의 호버링이 감지된 위치 근처에 표시될 수 있다. 또한, 텍스트화된 문서(721)가 표시된 상태에서 사용자가 터치펜(201)을 텍스트의 일부분에 터치시키면, 제어부(103)는 텍스트의 일부분에 대응하는 부분 문서 이미지(725)를 표시하도록 디스플레이부(101)를 제어할 수 있다. 이 때 부분 문서 이미지(725)는 터치펜(201)의 접촉이 감지된 위치 근처에 표시될 수 있다.
도 8은 터치펜(201)의 호버링 인터렉션 예를 설명하는 도면이다. 도 8을 참조하면 디스플레이부(101)에 문서(801), 어플리케이션(803) 및 터치펜(201)이 도시되어 있다. 사용자가 디스플레이부(101)에 표시된 문서의 임의의 위치에서 터치펜(201)을 근접하면, 제어부(103)는 문서의 임의의 위치에서 호버링을 감지할 수 있다. 제어부(103)는 호버링이 감지된 위치에 표시된 문자 및 숫자를 추출하고, 추출된 문자 및 숫자에 대응하는 어플리케이션을 호출할 수 있다.어플리케이션이 호출되면, 제어부(103)는 추출된 문자 및 숫자를 어플리케이션(803)에 연결할 수 있다. 즉, 제어부(103)는 추출된 문자 및 숫자를 어플리케이션의 입력으로 사용할 수 있다. 또한 제어부(103)는 추출된 문자 및 숫자를 어플리케이션에 입력하여 실행된 결과를 표시하도록 디스플레이부(101)를 제어할 수 있다.
어플리케이션은 위젯(widget)일 수 있다. 위젯(widget)은 사용자와 어플리케이션 또는 OS와의 상호 작용을 보다 원활하게 지원해주는 그래픽 유저 인터페이스(GUI, Graphic User Interface)중 하나인 미니 어플리케이션을 의미한다. 예를 들어, 사전 위젯, 날씨 위젯, 계산기 위젯, 시계 위젯 및 전화 위젯 등이 있다.
사용자가 디스플레이부(101)에 표시된 문서(801)를 보는 도중 특정 단어(801a)에 터치펜(201)을 근접 시키면, 제어부(103)는 사전 위젯(803)을 표시하도록 디스플레이부(101)를 제어할 수 있다. 그리고, 제어부(103)는 사전 위젯(803)의 검색창에 선택된 단어(801a)를 입력하고 검색된 결과를 위젯(803)에 표시하도록 디스플레이부(101)를 제어할 수 있다. 예를 들면, 사용자가 터치펜(201)을 “round” 라는 단어에 근접시키면, 제어부(103)는 위젯(803)에 “round”가 입력하고, “round”의 뜻을 검색하여 위젯(803)에 표시하도록 디스플레이부(101)를 제어할 수 있다.
또한 사용자가 디스플레이부(101)에 표시된 문서(801)를 보는 도중 숫자에 터치펜(201)을 근접시키면, 제어부(103)는 숫자를 입력으로 활용할 수 있는 어플리케이션 또는 위젯을 실행할 수 있다.
예를 들어, 사용자가 터치펜(201)을 “01032634119” 에 근접시키면, 제어부(103)는 전화 위젯을 표시하도록 디스플레이부(101)를 제어하고, 전화를 연결할 수 있다. 또다른 실시예에서는, 사용자가 디스플레이부(101)에 표시된 문서(801)를 보는 도중 숫자에 터치펜(201)을 근접시키면, 제어부(103)는 계산기 위젯을 디스플레이부(101)에 표시하도록 디스플레이부(101)를 제어할 수 있다.
도 9a 내지 도 9b 는 터치펜을 이용하여 서식을 적용하는 방법에 대한 도면이다. 도 9a를 참조하면 디스플레이부(101)에 문서(901), 제1 영역(903), 제2 영역(905) 및 터치펜(201)이 도시되어 있다. 디스플레이부(101)에 표시된 문서(901)에는 서식이 적용될 수 있다. 제1 영역(903) 및 제2 영역은 문서에서 선택된 일부 영역일 수 있다.
터치펜(201)은 제1 모드 또는 제2 모드로 동작할 수 있다. 터치펜(201)은 버튼을 포함하고 있으며 버튼을 누르지 않고 터치펜(201)을 디스플레이부(101)에 접촉시키면 터치펜(201)은 제1 모드로 동작할 수 있다. 버튼을 누른 상태로 터치펜(201)을 디스플레이부(101)에 접촉시키면 터치펜(201)은 제2 모드로 동작할 수 있다. 터치펜(201)이 제1 모드로 동작하는 경우 제어부(103)는 터치펜(201)으로부터 제1 신호를 수신할 수 있다. 또는 터치펜(201)이 제1 모드로 동작하는 경우, 제어부(103)는 감지부(105)로부터 제1 신호를 수신할 수 있다.
터치펜(201)이 제2 모드로 동작하는 경우, 제어부(103)는 터치펜(201)으로부터 제2 신호를 수신할 수 있다. 또는 터치펜(201)이 제2 모드로 동작하는 경우, 제어부9103)는 감지부(105)로부터 제2 신호를 수신할 수 있다.
디스플레이부(101)에 문서(901)가 표시된 상태에서 사용자가 터치펜(201)의 버튼을 누른채 터치펜(201)을 제1 영역(903)에 접촉시키고 터치펜(201)을 이동시키면, 제어부(103)는 제1 영역을 선택하고, 제1 영역(903)에 적용된 서식을 복사할 수 있다. 이 상태에서 사용자가 터치펜(201)을 제2 영역(905)에 접촉하면, 제어부(103)는 제1 영역(903)에 적용된 서식을 제2 영역(905)에 적용할 수 있다.
디스플레이부(101)에 문서(901)가 표시된 상태에서 터치펜(201)으로부터 제2 신호가 수신되고, 디스플레이부(101)의 제1 영역(903)에서 사용자 입력이 수신되면, 제어부(103)는 제1 영역(903)의 서식을 획득할 수 있다. 제1 영역의 서식이 획득된 상태에서 디스플레이부(101)의 제2 영역(905)에서 사용자 입력이 수신되면, 제어부(103)는 제1 영역(903)의 서식을 제2 영역(905)에 적용할 수 있다.
예를 들면, 디스플레이부(101)에 문서(901)가 표시된 상태에서 사용자가 터치펜(201)의 버튼을 누른 상태로 제1 영역(903)에서 드래그 동작을 수행하면, 제어부(103)는 제1 영역(903)을 선택할 수 있다. 선택된 제1 영역(903)은 반전되어 표시되거나 또는 하이라이트되어 표시될 수 있다. 또한, 선택된 제1 영역(903)의 서식이 추출될 수 있다. 사용자가 터치펜(201)의 버튼을 누른 상태에서 제2 영역(905)에서 드래그 동작을 수행하면, 제어부(103)는 제2 영역(905)에 제1 영역(903)에 적용되었던 서식을 적용할 수 있다. 즉, 제1 영역(903)의 바탕색이 노란색인 경우, 제어부(103)는 제2 영역(905)의 바탕색도 노란색으로 표시하도록 디스플레이부(101)를 제어할 수 있다. 제1 영역(903)의 글자체가 고딕체인 경우, 제어부(103)는 제2 영역(905)의 글자체도 고딕체로 표시하도록 디스플레이부(101)를 제어할 수 있다. 제1 영역(903)이 이탤릭체로 표시된 경우, 제어부(103)는 제2 영역(905)도 이탤릭체로 표시하도록 디스플레이부(101)를 제어할 수 있다.
도9b 를 참조하면 문서(901), 제1 영역(913), 제2 영역(917), 서식리스트(915) 및 터치펜(201)이 도시되어 있다. 디스플레이부(101)에 문서(901)가 표시되어 있는 상태에서 사용자가 터치펜(201)으로 제1 영역(913)을 접촉하면, 제어부(103)는 제1 영역(913)을 선택하고 선택된 영역을 하이라이트 하도록 디스플레이부(101)를 제어할 수 있다. 또한 터치펜(201)이 접촉된 제1 영역(913) 근처에 제1 영역(913)에 적용된 서식 리스트(915)가 표시될 수 있다. 또는 터치펜(201)으로 제1 영역(913)을 접촉하고 터치펜(201)의 버튼을 누르면, 제어부(103)는 터치펜(201)이 접촉된 제1 영역(913) 근처에 제1 영역(913)에 적용된 서식 리스트(915)를 표시하도록 디스플레이부(101)를 제어할 수 있다.
터치펜(201)으로 서식 리스트(915)에 포함된 복수의 서식 중 하나를 선택하고 터치펜(201)을 다른 곳으로 이동시켜 문서(901)의 제2 영역(917)에 접촉시키면, 제어부(103)는 제2 영역(917)에 선택된 서식을 적용할 수 있다. 즉, 제2 영역(917)에는 제1 영역(913)에 적용된 서식이 적용될 수 있다.
디스플레이부(101)에 문서가 표시된 상태에서 터치펜(201)의 접촉 및 터치펜(201)의 이동이 감지되면, 제어부(103)는 터치펜(201)의 이동 거리에 기초하여 제1 영역(913)을 결정할 수 있다. 즉, 문서의 제1 영역(913)에서 터치펜(201)에 의한 드래그 동작을 수신하면, 제어부(103)는 제1 영역(913)에 적용된 서식을 획득하고 제1 영역(913) 근처에 제1 영역(913)에 적용된 서식 리스트(913)를 표시하도록 디스플레이부(101)를 제어할 수 있다.
서식 리스트(913)에서 하나의 서식을 선택하는 사용자 입력을 수신하고 문서(901)의 제2 영역(917)에서 터치펜(201)에 의한 드래그 동작을 수신하면, 제어부(103)는 제2 영역(917)에 선택된 서식을 적용하여 표시하도록 디스플레이부(101)를 제어할 수 있다.
예를 들면, 디스플레이부(101)에 문서(901)가 표시된 상태에서 사용자가 제1 영역(913)에서 드래그 동작을 수행하면 제1 영역(913)에 적용된 서식 리스트(915)가 제1 영역(913) 근처에 표시될 수 있다. 사용자가 터치펜(201)으로 서식 리스트9915) 중 하나의 서식을 터치하면, 제어부(103)는 터치된 서식을 선택할 수 있다. 이 상태에서 사용자가 문서(901)의 제2 영역(917)에서 터치펜(201)으로 드래그 동작을 수행하면, 제어부(103)는 선택된 서식을 제2 영역(917)에 적용할 수 있다. 선택된 서식이 볼드체 일 경우, 제2 영역(917)은 볼드체로 표시될 수 있다.
도 10a 내지 도 10b는 서식 적용 방법을 도시한 도면이다.
도 10a를 참조하면 문서(1001), 서식리스트(1003), 서식(1003a), 선택영역(1005), 서식 적용 영역(1007), 터치펜(201) 및 버튼(201a)이 도시되어 있다.
디스플레이부(101)에 문서(1001) 및 서식리스트(1003)가 표시되어 있는 상태에서 사용자가 터치펜(201)의 버튼(201a)을 누르고, 서식리스트(1003)에서 하나의 서식(1003a)을 선택하고, 서식을 적용하기 원하는 영역(1005)을 선택하면, 제어부(103)는 선택된 서식(1003a)을 적용할 수 있다. 디스플레이부(101)에는 서식이 적용된 영역(1007)이 표시될 수 있다. 사용자가 터치펜(201)의 버튼 누름을 해제하면, 제어부(103)는 선택된 서식(1003a)을 해제할 수 있다. 즉, 터치펜(201)의 버튼(201a)이 눌러진 상태에서만 선택된 서식(1003a)이 적용될 수 있다.
또한, 디스플레이부(101)에 문서(1001) 및 서식리스트(1003)가 표시되어 있는 상태에서 사용자가 서식리스트(1003)에서 하나의 서식(1003a)을 선택하고, 서식을 적용하기 원하는 영역(1005)을 선택하면, 제어부(103)는 선택된 서식(1003a)을 적용할 수 있다. 디스플레이부(101)에는 서식이 적용된 영역(1007)이 표시될 수 있다. 적용된 서식(1003a)은 별도의 해제 명령이 없는 한 계속해서 적용될 수 있다. 사용자가 터치펜(201)으로 필기를 입력하는 경우에도 선택된 서식(1003a)이 적용될 수 있다.
도 10b를 참조하면 문서(1011), 서식리스트(1013), 서식(1013a), 선택영역(1005), 서식 적용 영역(1007), 터치펜(201) 및 버튼(201a)이 도시되어 있다.
디스플레이부(101)에 문서(1011) 및 서식리스트(1013)가 표시되어 있는 상태에서 사용자가 손가락으로 서식리스트(1013)에서 하나의 서식(1013a)을 터치하고 터치를 유지한 상태에서 터치펜(201)으로 서식을 적용하기 원하는 영역(1005)을 선택하면, 제어부(103)는 선택된 서식(1013a)을 적용할 수 있다. 디스플레이부(101)에는 서식이 적용된 영역(1007)이 표시될 수 있다. 사용자가 손가락을 터치 해제하면, 제어부(103)는 선택된 서식(1003a)을 해제할 수 있다. 즉, 사용자가 손가락으로 서식리스트(1013)를 터치하고 터치를 유지하는 경우 선택된 서식이 적용될 수 있다.
디스플레이부의 제1 영역(1013)에서 터치를 감지하고, 터치가 유지된 상태에서 디스플레이부의 제2 영역(1005)에서 터치가 감지되면, 제어부(103)는 제2 영역(1005)에 제1 영역(1013)에서 선택된 서식을 적용할 수 있다. 제1 영역(1013)은 서식리스트일 수 있다. 제2 영역(1005)은 문서의 일 부분일 수 있다.
도 11은 사용자 서식 설정 방법을 도시한 도면이다. 도 11을 참조하면 문서(1101), 사용자 지정 서식리스트(1103), 사용자 선택 서식(1103a), 터치펜(201) 및 버튼(102a)이 도시되어 있다.
사용자는 특정 용도에만 사용하는 터치펜(201)의 서식을 저장하여 관리할 수 있다. 즉, 사용자는 사용자 지정 서식리스트(1103)에 사용자가 지정한 서식을 저장하고 필요시 호출하여 사용할 수 있다.
디스플레이부(101)에 문서(1101)가 표시되어 있는 상태에서 사용자가 사용자 지정 서식리스트(1103)을 호출하면, 제어부(103)는 화면 상단에 사용자 지정 서식리스트(1103)를 표시하도록 디스플레이부(101)를 제어할 수 있다. 사용자 지정 서식리스트(1103)에는 사용자가 자주 사용하는 서식이 포함될 수 있다. 사용자가 사용자 지정 서식리스트(1103)에서 하나의 서식(1103a)을 선택하고 터치펜(201)으로 필기를 하는 경우, 제어부(103)는 사용자가 선택한 서식(1103a)을 적용할 수 있다. 또는 문서(1101)에서 특정 영역을 선택하면, 제어부(103)는 선택된 서식(1103a)을 적용할 수 있다.
도 12a 내지 도 12c는 화면의 확대 비율에 따라 터치펜 서식 메뉴의 크기가 확대되는 것을 도시한 도면이다.
도12a 를 참조하면 문서(1201), 필기 이미지(1203), 서식 리스트(1205) 및 터치펜(201)이 도시되어 있다. 디스플레이부(101)에 문서(1201)가 정상 배율로 표시되어 있다. 제어부(103)는 디스플레이부(101)에 표시된 문서(1201)의 배율에 기초하여 서식 리스트(1205)의 표시 배율을 결정할 수 있다. 디스플레이부(101)에 문서(1201)가 정상 크기로 표시되는 경우, 제어부(103)는 서식 리스트(1205)도 정상 크기로 표시하도록 디스플레이부(101)를 제어할 수 있다. 또한 필기 이미지(1203)도 정상 크기로 표시될 수 있다.
도 12b를 참조하면 문서(1211), 필기 이미지(1213), 서식 리스트(1215) 및 터치펜(201)이 도시되어 있다. 디스플레이부(101)에는 문서(1211)가 정상 배율의 200%로 확대되어 표시될 수 있다. 제어부(103)는 디스플레이부(101)에 표시된 문서(1211)의 배율에 기초하여 서식 리스트(1215)의 표시 배율을 결정할 수 있다. 디스플레이부(101)에 문서(1211)가 정상 배율의 200%로 표시되는 경우, 제어부(103)는 서식 리스트(1211)도 정상배율의 200% 크기로 확대하여 표시하도록 디스플레이부(101)를 제어할 수 있다. 또한 필기 이미지(1203)도 정상 배율의 200%로 확대되어 표시될 수 있다.
도 12c를 참조하면 문서(1221), 필기 이미지(1223), 서식 리스트(1225) 및 터치펜(201)이 도시되어 있다. 디스플레이부(101)에는 문서(1221)가 정상 배율의 50%로 축소되어 표시될 수 있다. 제어부(103)는 디스플레이부(101)에 표시된 문서(1221)의 배율에 기초하여 서식 리스트(1225)의 표시 배율을 결정할 수 있다. 디스플레이부(101)에 문서(1221)가 정상 배율의 50%로 축소 표시되는 경우, 제어부(103)는 서식 리스트(1225)를 50% 크기로 표시하도록 디스플레이부(101)를 제어할 수 있다. 또한 필기 이미지(1223)도 정상 배율의 50%로 축소 표시될 수 있다.
즉, 디스플레이부(101)에 컨텐츠가 표시된 상태에서 터치펜 서식을 표시하는 사용자 입력을 수신하면, 제어부(103)는 디스플레이에 표시된 컨텐츠의 배율을 결정하고, 결정된 배율에 기초하여 터치펜 서식을 표시하도록 디스플레이부(101)를 제어할 수 있다.
도 13a 내지 도 13c는 터치펜(201)에 의한 필기 입력 모드 및 제스처 입력 모드간의 전환하는 방법을 도시한 도면이다. 필기 입력 모드에서는 터치펜(201) 입력이 필기 이미지로 인식될 수 있다. 제스처 입력 모드에서는 터치펜(201) 입력이 특정 기능을 수행하는 명령으로 인식될 수 있다. 예를 들면 필기 입력 모드에서, 사용자가 터치펜(201)으로 디스플레이부에 필기를 입력하면, 제어부(103)는 입력된 필기를 필기 이미지로 인식하고, 대응하는 텍스트로 변환할 수 있다. 제스처 입력 모드에서, 사용자가 터치펜(201)으로 디스플레이부(101)에 삼각형을 그리면, 제어부(103)는 음악을 재생할 수 있다. 음악 재생 도중 사용자가 터치펜(201)으로 디스플레이부(101)에 사각형을 그리면, 제어부(103) 음악을 멈출 수 있다.
도 13a를 참조하면 디스플레이부(101)에 제1 영역(1301) 및 제2 영역(1303)이 도시되어 있다.디스플레이부에서 터치펜(201) 접촉에 기초한 신호를 수신하면, 제어부(103)는 전자장치(100)의 방향에 기초하여 디스플레이부(101)를 제1 영역(1301) 및 제2 영역(1303)으로 구분할 수 있다. 즉, 디스플레이부(101)에서 터치펜(201)에 의한 터치 정보를 수신하면, 제어부(103)는 전자장치(100)의 방향에 기초하여 디스플레이부(101)를 제1 영역(1301) 및 제2 영역(1303)으로 구분할 수 있다.
제어부(103)는 전자장치(100)의 방향에 기초하여 제1 영역(1301) 및 제2 영역(1303)을 결정할 수 있다. 제어부(103)는 디스플레이부(101)의 상단 영역을 제2 영역(1301)으로 결정할 수 있다. 제어부(103)는 제1 영역(1301)에서는 터치펜(201) 접촉에 기초한 신호를 수신하고, 손가락 접촉에 기초한 신호는 수신하지 않거나 무시할 수 있다. 제어부(103)는 제2 영역(1303)에서는 손가락 접촉에 기초한 신호를 수신할 수 있다.
도 13b를 참조하면, 제1 영역(1301), 제2 영역(1303) 및 터치펜(201)이 도시되어 있다.제2 영역(1303)에서 사용자 입력에 기초한 신호가 수신되지 않는 경우, 제어부(103)는 제1 영역(1301)을 제1 모드로 설정할 수 있다. 제1 모드는 필기 입력 모드일 수 있다.제1 모드에서 제1 영역(1301)에 터치펜(201) 입력에 기초한 신호가 수신되면, 제어부(103)는 수신된 신호에 기초한 필기 이미지를 표시하도록 디스플레이부(101)를 제어할 수 있다.
제2 영역(1303)에서 사용자 입력에 기초한 신호가 수신되는 경우, 제어부(103)는 제1 영역(1301)을 제2 모드로 설정할 수 있다. 제2 모드는 제스처 입력 모드일 수 있다.제2 모드에서 제1 영역(1301)에 터치펜(201) 입력에 기초한 신호가 수신되면, 제어부(103)는 수신된 신호에 기초한 제스처를 결정하고, 결정된 제스처에 대응하는 명령 또는 기능을 수행하도록 제어할 수 있다.
도 13c를 참조하면 제1 영역(1301), 제2 영역(1305) 및 터치펜(201)이 도시되어 있다. 제어부(103)는 전자장치(100)의 방향을 고려하여 제1 영역(1301) 및 제2 영역(1305)을 결정할 수 있다. 전자장치(100)가 가로방향인 경우와 세로방향인 경우, 제2 영역(1305)의 위치가 변경될 수 있다.디스플레이부(103)에 터치펜(201) 입력에 기초한 신호가 수신되는 경우, 제어부(103)는 전자장치(100)의 방향에 따라 제1 영역(1301) 및 제2 영역(1305)을 결정할 수 있다. 제어부(103)는 제1 영역(1301)에서는 손가락 터치 입력을 비활성화 하고, 제2 영역(1305)에서는 손가락 터치 입력을 활성화 할 수 있다.
도 14는 터치펜 입력에 기초하여 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 변경하는 방법에 대한 흐름도이다.
도 14를 참조하면 전자 장치(100)는 디스플레이부에 그래픽 오브젝트를 표시한다.(단계 S1401) 이때, 그래픽 오브젝트는 그래픽 오브젝트 표시 레이어에 표시될 수 있다. 그래픽 오브젝트 표시 레이어에는 문자, 컨텐츠 어플리케이션을 실행시키기 위한 아이콘 및 버튼 등이 표시될 수 있다.
전자 장치(100)는 디스플레이부(101)의 터치펜 입력을 감지할 수 있다.(단계 S1403) 디스플레이부(101)에는 그래픽 오브젝트 표시 레이어 및 필기 입력 레이어가 표시될 수 있다. 전자 장치(100)는 터치펜 입력에 기초하여 필기 입력 레이어에 필기 이미지를 표시할 수 있다. 디스플레이부(101)에 그래픽 오브젝트가 표시되어 있는 상태에서 사용자가 터치펜(201)으로 디스플레이부(101)에 필기를 입력하면, 전자 장치(100)는 필기 입력 레이어에 필기 이미지를 표시할 수 있다.
전자 장치(100)는 터치펜 입력에 기초하여 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 변경할 수 있다.(단계 S1405) 사용자가 디스플레이부(101)에 터치펜(201)으로 필기를 하면, 전자 장치(100)는 감지부(105)로부터 터치펜 접촉에 기초한 신호를 수신할 수 있다. 전자 장치(100)는 수신된 신호를 처리하여 터치펜(201)과 디스플레이부(101)가 만드는 각도 및 방향을 결정할 수 있다. 즉, 전자 장치(100)는 터치펜(201)의 기울어진 각도 및 방향을 결정할 수 있다. 터치펜(201)의 기울어진 각도 및 방향은 터치펜(201)의 기울기 정보일 수 있다. 전자 장치(100)는 터치펜(201)의 기울기 정보를 이용하여 터치펜(201)의 필기 입력 방향을 결정하고, 필기 입력 방향을 기준으로 그래픽 오브젝트의 표시 방향을 결정할 수 있다. 즉, 전자 장치(100)는 터치펜(201)의 기울기 정보를 이용하여 디스플레이부(101)에 표시되는 그래픽 오브젝트의 표시 방향을 결정할 수 있다.
또한, 터치펜(201)은 자체적으로 터치펜(201)의 기울기 정보와 같은 상태 정보를 출력할 수 있다. 전자 장치(100)는 터치펜(201)으로부터 출력되는 신호를 수신하고, 수신된 신호에 기초하여 터치펜(201)의 기울기 정보를 결정할 수 있다.
또한, 전자 장치(100)는 터치펜(201)의 기울기 정보로부터 터치펜(201)이 기울어진 방향을 결정하고, 터치펜(201)이 기울어진 방향에 기초하여 그래픽 오브젝트의 표시 방향을 결정할 수 있다.
전자 장치(100)는 터치펜(201)이 기울어진 방향과 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 그래픽 오브젝트의 표시 방향을 회전시킬 수 있다.
전자 장치(100)는 터치펜 입력에 기초하여 제2 레이어에 필기 이미지를 표시할 수 있다. 또한 그래픽 오브젝트는 제1 레이어에 표시하고, 터치펜 입력에 기초하여 표시되는 필기 이미지는 제2 레이어에 표시할 수 있다.
또한 전자 장치(100)는 제2 레이어는 고정하고, 제1 레이어는 터치펜이 기울어진 방향에 기초하여 표시 방향을 회전 또는 고정할 수 있다.
디스플레이부(101)에 표시되는 화면은 제1 레이어 및 제2 레이어를 포함할 수 있다. 제1 레이어는 그래픽오브젝트 표시 레이어일 수 있고, 제2 레이어는 터치펜 입력 레이어일 수 있다. 전자 장치(100)는 제1 레이어에 그래픽 오브젝트를 표시하고, 제2 레이어를 통해 터치펜 입력에 기초한 신호를 수신할 수 있다. 전자 장치(100)는 터치펜 입력에 기초하여 제2 레이어에 필기 이미지를 표시하할 수 있다. 또한 전자 장치(100)는 터치펜 입력에 기초하여 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경할 수 있다.
표시 방향을 변경하는 경우, 전자 장치(100)는 터치펜 입력에 기초하여 터치펜(201)이 기울어진 방향을 결정하고 터치펜(201)이 기울어진 방향에 따라 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경할 수 있다.
또한, 전자 장치(100)는 그래픽 오브젝트의 표시 방향이 변경되는 경우에도 제2 레이어의 방향을 고정할 수 있다.
본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(203)(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
100: 전자장치 101: 디스플레이부
103: 제어부 105: 감지부
107: 통신부 201: 터치펜

Claims (20)

  1. 외부로부터 신호를 수신하는 통신부;
    그래픽 오브젝트를 표시하는 디스플레이부;
    터치펜 입력을 감지하고 상기 터치펜 입력에 대응하는 신호를 출력하는 감지부; 및
    상기 감지부에서 출력된 신호에 기초하여 상기 디스플레이부에 표시되는 그래픽 오브젝트의 표시 방향을 결정하는 제어부;를 포함하는 전자장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 신호에 기초하여 상기 터치펜의 기울기 정보를 결정하는 것을 특징으로 하는 전자장치.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 통신부를 통해 터치펜으로부터 출력되는 신호를 수신하고, 상기 터치펜으로부터 출력되는 신호에 기초하여 상기 터치펜의 기울기 정보를 결정하는 것을 특징으로 하는 전자장치.
  4. 제2항 또는 제3항에 있어서,
    상기 제어부는,
    상기 터치펜의 기울기 정보로부터 상기 터치펜이 기울어진 방향을 결정하고, 상기 터치펜이 기울어진 방향에 기초하여 상기 그래픽 오브젝트의 표시 방향을 결정하는 것을 특징으로 하는 전자장치.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 터치펜이 기울어진 방향과 상기 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 상기 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 그래픽 오브젝트는 제1 레이어에 표시하고, 상기 터치펜 입력에 기초하여 표시되는 필기(hand writing) 이미지는 제2 레이어에 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자장치.
  7. 제6항에 있어서,
    상기 제어부는,
    상기 제2 레이어는 고정하고, 상기 제1 레이어는 상기 터치펜이 기울어진 방향에 기초하여 상기 그래픽 오브젝트 표시 방향을 변경하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자장치.
  8. 전자장치에 있어서,
    터치펜 입력을 감지하고 상기 터치펜 입력에 대응하는 신호를 출력하는 감지부;
    제1 및 제2 레이어를 포함하고, 상기 제1 레이어에는 그래픽 오브젝트를 표시하고 상기 제2 레이어에는 상기 터치펜 입력에 기초한 필기(hand writing) 이미지를 표시하는 디스플레이부; 및
    상기 감지부에서 출력된 신호에 기초하여 상기 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 전자장치.
  9. 제8항에 있어서,
    상기 제어부는,
    상기 감지부에서 출력된 신호에 기초하여 상기 터치펜이 기울어진 방향을 결정하고, 상기 터치펜이 기울어진 방향에 따라 상기 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자장치.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 제1 레이어의 방향이 변경되는 경우에도, 상기 제2 레이어의 방향은 변경하지 않도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자장치.
  11. 디스플레이부에 그래픽 오브젝트를 표시하는 단계;
    터치펜 입력을 감지하는 단계; 및
    상기 터치펜 입력에 기초하여 상기 디스플레이부에 표시되는 그래픽 오브젝트의 표시 방향을 변경하는 단계;를 포함하는 전자장치의 그래픽 오브젝트 표시 방법.
  12. 제11항에 있어서,
    상기 그래픽 오브젝트의 표시 방향을 변경하는 단계는,
    상기 터치펜 입력에 대응되는 신호에 기초하여 상기 터치펜의 기울기 정보를 결정하는 것을 특징으로 전자장치의 그래픽 오브젝트 표시 방법.
  13. 제11항에 있어서,
    상기 방법은,
    상기 터치펜으로부터 출력되는 신호를 수신하는 단계;를 더 포함하고
    상기 신호에 기초하여 상기 터치펜의 기울기 정보를 결정하는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
  14. 제12항 또는 제13항에 있어서,
    상기 그래픽 오브젝트의 표시 방향을 변경하는 단계는,
    상기 터치펜의 기울기 정보로부터 상기 터치펜이 기울어진 방향을 결정하고, 상기 터치펜이 기울어진 방향에 기초하여 상기 그래픽 오브젝트의 표시 방향을 결정하는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
  15. 제14 항에 있어서,
    상기 그래픽 오브젝트의 표시 방향을 변경하는 단계는,
    상기 터치펜이 기울어진 방향과 상기 그래픽 오브젝트의 표시 방향이 서로 반대가 되도록 상기 그래픽 오브젝트의 표시 방향을 변경하는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
  16. 제15 항에 있어서,
    상기 방법은,
    상기 터치펜 입력에 기초하여 필기 이미지를 표시하는 단계;를 더 포함하되,
    상기 그래픽 오브젝트는 제1 레이어에 표시하고, 상기 터치펜 입력에 기초하여 표시되는 필기(hand writing) 이미지는 제2 레이어에 표시하는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
  17. 제16 항에 있어서,
    상기 그래픽 오브젝트의 표시 방향을 변경하는 단계는,
    상기 제2 레이어는 고정하고, 상기 제1 레이어는 상기 터치펜이 기울어진 방향에 기초하여 상기 그래픽 오브젝트의 표시 방향을 변경하는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
  18. 제1 레이어에 그래픽 오브젝트를 표시하는 단계;
    터치펜 입력을 감지하는 단계;
    상기 터치펜 입력에 기초하여 제2 레이어에 필기(hand writing) 이미지를 표시하는 단계; 및
    상기 터치펜 입력에 기초하여 상기 제1 레이어에 표시되는 그래픽 오브젝트의 표시 방향을 변경하는 단계;를 포함하는 전자장치의 그래픽 오브젝트 표시 방법.
  19. 제18 항에 있어서,
    상기 그래픽 오브젝트의 표시 방향을 변경하는 단계는,
    상기 터치펜 입력에 기초하여 상기 터치펜이 기울어진 방향을 결정하고, 상기 터치펜이 기울어진 방향에 따라 상기 제1 레이어에 표시된 그래픽 오브젝트의 표시 방향을 변경하는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
  20. 제19 항에 있어서,
    상기 방법은,
    상기 그래픽 오브젝트의 표시 방향이 변경되는 경우에도, 상기 제2 레이어의 방향은 변경하지 않는 것을 특징으로 하는 전자장치의 그래픽 오브젝트 표시 방법.
KR1020140168323A 2014-11-28 2014-11-28 전자장치 및 그래픽 오브젝트 표시 방법 KR102411868B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140168323A KR102411868B1 (ko) 2014-11-28 2014-11-28 전자장치 및 그래픽 오브젝트 표시 방법
US14/942,371 US10146341B2 (en) 2014-11-28 2015-11-16 Electronic apparatus and method for displaying graphical object thereof
PCT/KR2015/012374 WO2016085186A1 (en) 2014-11-28 2015-11-18 Electronic apparatus and method for displaying graphical object thereof
EP15863317.2A EP3224703B1 (en) 2014-11-28 2015-11-18 Electronic apparatus and method for displaying graphical object thereof
CN201580065515.2A CN107003807B (zh) 2014-11-28 2015-11-18 电子装置及显示它的图形对象的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140168323A KR102411868B1 (ko) 2014-11-28 2014-11-28 전자장치 및 그래픽 오브젝트 표시 방법

Publications (2)

Publication Number Publication Date
KR20160064560A true KR20160064560A (ko) 2016-06-08
KR102411868B1 KR102411868B1 (ko) 2022-06-23

Family

ID=56074658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140168323A KR102411868B1 (ko) 2014-11-28 2014-11-28 전자장치 및 그래픽 오브젝트 표시 방법

Country Status (5)

Country Link
US (1) US10146341B2 (ko)
EP (1) EP3224703B1 (ko)
KR (1) KR102411868B1 (ko)
CN (1) CN107003807B (ko)
WO (1) WO2016085186A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131617A1 (ko) * 2020-12-17 2022-06-23 삼성전자 주식회사 필기 입력을 처리하는 전자 장치 및 그 작동 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462142B (zh) * 2014-06-19 2019-03-29 株式会社牧野铣床制作所 机床的控制装置
JP6557300B2 (ja) * 2017-08-15 2019-08-07 ファナック株式会社 タッチパネルの検査装置、及びタッチパネルの検査方法
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
CN109614178A (zh) * 2018-09-04 2019-04-12 广州视源电子科技股份有限公司 批注显示方法、装置、设备和存储介质
US11797173B2 (en) * 2020-12-28 2023-10-24 Microsoft Technology Licensing, Llc System and method of providing digital ink optimized user interface elements
JP2023044182A (ja) * 2021-09-17 2023-03-30 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100012701A (ko) * 2008-07-29 2010-02-08 엘지전자 주식회사 펜 타입 휴대용 입력 장치 및 그 궤적 보정 방법
KR20140014551A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 클라우드 서비스 기반의 메모 기능 제공 방법 및 시스템과 이를 지원하는 단말기
KR20140099599A (ko) * 2013-02-04 2014-08-13 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3161794B2 (ja) 1992-03-05 2001-04-25 松下電器産業株式会社 ペン入力装置及びペン入力方法
JP2009237836A (ja) 2008-03-27 2009-10-15 Sanyo Electric Co Ltd 手書き入力パネルを備えた車載用電子装置
EP3410280A1 (en) 2010-06-11 2018-12-05 Microsoft Technology Licensing, LLC Object orientation detection with a digitizer
KR101155349B1 (ko) 2011-02-11 2012-06-15 주식회사바이제로 필기이미지입력장치
US8638320B2 (en) 2011-06-22 2014-01-28 Apple Inc. Stylus orientation detection
CN102402360A (zh) * 2011-11-23 2012-04-04 段西京 手写显示屏、手写输入笔及手写输入方法
US20140022218A1 (en) 2012-07-20 2014-01-23 Research In Motion Limited Orientation sensing stylus
US9075464B2 (en) * 2013-01-30 2015-07-07 Blackberry Limited Stylus based object modification on a touch-sensitive display
JP2014241005A (ja) * 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム
JP2015043159A (ja) * 2013-08-26 2015-03-05 シャープ株式会社 タッチパネル装置及び表示装置
US9400570B2 (en) * 2014-11-14 2016-07-26 Apple Inc. Stylus with inertial sensor
JP5939594B2 (ja) * 2014-11-25 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 画像の拡大又は縮小を行う装置並びに方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100012701A (ko) * 2008-07-29 2010-02-08 엘지전자 주식회사 펜 타입 휴대용 입력 장치 및 그 궤적 보정 방법
KR20140014551A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 클라우드 서비스 기반의 메모 기능 제공 방법 및 시스템과 이를 지원하는 단말기
KR20140099599A (ko) * 2013-02-04 2014-08-13 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131617A1 (ko) * 2020-12-17 2022-06-23 삼성전자 주식회사 필기 입력을 처리하는 전자 장치 및 그 작동 방법
US12002275B2 (en) 2020-12-17 2024-06-04 Samsung Electronics Co., Ltd. Electronic device for processing handwriting input, and operation method therefor

Also Published As

Publication number Publication date
EP3224703B1 (en) 2022-01-05
CN107003807B (zh) 2021-06-04
EP3224703A4 (en) 2017-10-04
US20160154474A1 (en) 2016-06-02
US10146341B2 (en) 2018-12-04
CN107003807A (zh) 2017-08-01
KR102411868B1 (ko) 2022-06-23
WO2016085186A1 (en) 2016-06-02
EP3224703A1 (en) 2017-10-04

Similar Documents

Publication Publication Date Title
US20220100368A1 (en) User interfaces for improving single-handed operation of devices
KR102411868B1 (ko) 전자장치 및 그래픽 오브젝트 표시 방법
US10365732B2 (en) Devices and methods for manipulating user interfaces with a stylus
US11762546B2 (en) Devices, methods, and user interfaces for conveying proximity-based and contact-based input events
US9703411B2 (en) Reduction in latency between user input and visual feedback
US10387033B2 (en) Size reduction and utilization of software keyboards
CN106104450B (zh) 选择图形用户界面某一部分的方法
CN102035934A (zh) 双屏便携式电子设备及管理方法
US20120098772A1 (en) Method and apparatus for recognizing a gesture in a display
US20140123051A1 (en) Graphic object selection by way of directional swipe gestures
WO2022143579A1 (zh) 一种反馈方法以及相关设备
US20240004532A1 (en) Interactions between an input device and an electronic device
US20150062015A1 (en) Information processor, control method and program
US9244556B2 (en) Display apparatus, display method, and program
EP2851776A1 (en) Information processing device with a touch screen, control method and program
KR20110093050A (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
KR20150098366A (ko) 가상 터치패드 조작방법 및 이를 수행하는 단말기
KR101692848B1 (ko) 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기
Lee et al. Embodied interaction on constrained interfaces for augmented reality
木谷篤 Menu designs for note-taking applications on tablet devices
KR20140115796A (ko) 터치스크린을 구비한 디바이스에서 화면 표시 방법 및 장치
KR20160107139A (ko) 가상 터치패드 조작방법 및 이를 수행하는 단말기
JP2014053746A (ja) 文字入力装置、文字入力装置の制御方法、制御プログラム、制御プログラムを記録したコンピュータ読み取り可能な記録媒体
KR20160027063A (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right