KR100874044B1 - 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법 - Google Patents

펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법 Download PDF

Info

Publication number
KR100874044B1
KR100874044B1 KR1020070020333A KR20070020333A KR100874044B1 KR 100874044 B1 KR100874044 B1 KR 100874044B1 KR 1020070020333 A KR1020070020333 A KR 1020070020333A KR 20070020333 A KR20070020333 A KR 20070020333A KR 100874044 B1 KR100874044 B1 KR 100874044B1
Authority
KR
South Korea
Prior art keywords
input
window
handwriting
function
pen
Prior art date
Application number
KR1020070020333A
Other languages
English (en)
Other versions
KR20080079830A (ko
Inventor
김명준
김대현
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020070020333A priority Critical patent/KR100874044B1/ko
Priority to PCT/KR2007/002058 priority patent/WO2008105574A1/en
Publication of KR20080079830A publication Critical patent/KR20080079830A/ko
Application granted granted Critical
Publication of KR100874044B1 publication Critical patent/KR100874044B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • B60R11/0235Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/055Padded or energy-absorbing fittings, e.g. seat belt anchors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/387Matching; Classification using human interaction, e.g. selection of the best displayed recognition candidate
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address
    • G09F27/008Sun shades, shades, hoods or louvres on electronic displays to minimise the effect of direct sun light on the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)

Abstract

펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법이 제공된다. 사용자로부터의 필기체 입력기능이 활성화되면, 투명 필기체 입력 윈도우가 현재의 작업 윈도우에 오버랩된 채 디스플레이된다. 그 후, 터치스크린 상에서 사용자로부터 펜입력값이 수신되고, 펜입력값의 인식기능의 활성화에 응답하여 상기 펜입력값이 인식된다. 인식결과는 상기 투명 필기체 입력 윈도우에 디스플레이된다. 상기 인식결과에 대한 입력기능의 활성화에 응답하여, 상기 인식결과는 작업 윈도우의 작업영역으로 이동된다. 결과적으로, 사용자의 펜입력값이 작업영역에 입력된, 작업 윈도우가 얻어진다. 이 때, 사용자로부터 복수의 펜입력값이 순차 입력되고, 이들에 대한 인식이 순차 수행될 때, 이들 인식결과는 각각 서로 독립적인 것이 바람직하다. 상기 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법은 쉬운 필기체 입력을 가능하게 하고, 다양한 부가적 기능의 구현을 가능하게 한다.

Description

펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법{EASY HANDWRITING USER INTERFACE SYSTEM AND METHOD FOR PEN-INPUT DISPLAY}
도 1은 종래의 펜입력 디스플레이용 필기체 사용자 인터페이스의 대표적 예를 보여주는 도면이다.
도 2는 본 발명에 따른 펜입력 디스플레이용 필기체 사용자 인터페이스의 바람직한 구현예를 보여주는 흐름도이다.
도 2 내지 도 4는 본 발명에 따른 펜입력 디스플레이용 필기체 사용자 인터페이스의 바람직한 구현예를 보여주는 도면이다.
도 6은 본 발명에 따른 펜입력 디스플레이용 필기체 사용자 인터페이스를 구비하는 휴대 전자단말의 바람직한 구현예를 보여주는 사시도이다.
본 발명은 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법에 관한 것이다.
소니 바이오 UXTM, 삼성 Q1TM 등과 같은 휴대용 전자단말(Mobile electronic terminal)이 광범위하게 보급되고 있다. 이들 휴대용 개인 컴퓨터는 키보드와 같은 문자입력장치가 별도로 구비되어 있지 않으며, 통상 터치스크린을 통한 펜입력에 의해 문자입력이 수행된다. 도 1은 종래의 펜입력 디스플레이용 필기체 사용자 인터페이스의 대표적 예를 보여주는 도면이다. 도 1(a)은 사용자에 의해 특정 작업 윈도우(10)를 브라우징하는 사용자 인터페이스를 보여준다. 작업 윈도우(10)가 활성화된 상태에서, 펜입력을 통해 작업영역(11)에 특정 문자값의 입력이 요청될 수 있다. 문자값을 입력하기 위해, 사용자로부터의 필기체 입력기능이 활성화되면, 필기체 입력 윈도우(20)가 생성되어 디스플레이된다. 이 때, 도 1(b)에 도시된 바와 같이, 상기 필기체 입력 윈도우(20)는 상기 작업 윈도우(10)의 하부 영역에 일부 중첩되어 디스플레이된다. 이 때, 필기체 입력 윈도우(20)는 불투명한 윈도우로서, 작업 윈도우(10)의 일부 내용을 가린 채 디스플레이된다. 상기 필기체 윈도우(20) 영역 내에, 터치스크린에 기초한 펜입력을 통해 특정 문자를 입력하게 되면, 펜입력값(21)은 필기체 입력 윈도우(20)에 디스플레이된다. 일정시간동안 펜입력이 더 이상 없거나, 또는 "필기체 인식" 메뉴(23)의 선택에 의해, 상기 휴대용 단말에 설치된 필기체 관리 애플리케이션의 작용 하에, 펜입력값에 대한 인식기능이 활성화되고, 도 1(c)에 도시된 바와 같이, 인식결과(22)가 상기 펜입력값(21)을 대체하여 상기 필기체 입력 윈도우(20)에 디스플레이된다. 사용자로부터 "인식결과 입력" 메뉴(24)의 선택에 의해, 인식결과(22)가 상기 작업 윈도우(10)의 작업영역(11) 내에 입력된다.
이러한 필기체 입력 방식은 사용자 인터페이스가 불편하다는 문제점을 안고 있다. 사용자의 시선이 분산된다. 구체적으로, 두 개로 분리된 작업 윈도우(10)와 필기체 입력 윈도우(20) 사이에서, 시선 포커스의 도약(jump of focus of attention)이 요구된다. 필기체 인식률이 점차 향상되고 있다고 하더라도, 10% 정도의 인식 실패가 발생한다. 이 때, 종래의 방식은 필기체 입력 윈도우(20)에 입력된 문자값이 하나의 연산값으로 인식된다. 따라서, 이들에 대한 수정이 용이하지 않다. 수정을 위해서는 삭제키가 활성화되어야 한다. 더 나아가, 때때로 상기 필기체 입력 윈도우(20)는 작업 윈도우(10)의 작업영역(11)을 가린 채, 활성화될 수 있다. 이러한 상황에서는 작업 윈도우(10)의 재조정이 요구된다.
본 발명의 목적은 작업 윈도우에 대한 사용자의 브라우징을 전혀 해하지 않으면서, 간단하고 효율적인 방식으로 펜입력을 가능케하는, 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법을 제공하는 것이다.
본 발명의 다른 목적은 작업 중인 작업 윈도우와 문자입력을 위한 필기체 입력 윈도우 상호간에 사용자 시선의 도약을 야기하지 않는 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 필기체 인식에 의해 얻어진 인식결과가 간단하게 작업 윈도우의 작업영역에 입력될 수 있는 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 복수의 인식결과로부터 사용자가 작업영역에 입력하고자 하는 문자값만이 선택적으로 입력될 수 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법을 제공하는 것이다.
본 발명의 바람직한 구현예에 따르면, a) 사용자로부터의 필기체 입력기능의 활성화에 응답하여, 투명 필기체 입력 윈도우(transparent handwriting window)를 현재의 작업 윈도우에 오버랩시켜 디스플레이시키는 단계, b) 사용자로부터 터치 스크린 상에서의 펜입력값을 수신하고, 상기 펜입력값의 인식기능의 활성화에 응답하여 상기 펜입력값을 인식하는 단계, c) 상기 인식결과를 상기 필기체 입력 윈도우에 디스플레이하는 단계, 및 d) 상기 인식결과에 대한 입력기능의 활성화에 응답하여, 상기 인식결과를 작업 윈도우의 작업영역으로 이동시키는 단계를 포함하여 이루어진, 펜입력 디스플레이용 필기체 문자입력방법이 제공된다.
본 발명의 다른 바람직한 구현예에 따르면, 상기 단계 (b)의 펜입력값의 인식기능의 활성화가 일정시간동안 펜입력이 없을 때 수행되는 펜입력 디스플레이용 필기체 문자입력방법이 제공된다.
본 발명의 보다 바람직한 구현예에 따르면, 상기 단계 (c)의 인식결과가 복수개 존재할 때, 이들 인식결과가 서로 독립적인 객체로서 상기 투명 필기체 입력 윈도우에 디스플레이되는 펜입력 디스플레이용 필기체 문자입력방법이 제공된다.
본 발명의 또 다른 바람직한 구현예에 따르면, 상기 단계 (d)의 인식결과에 대한 입력기능의 활성화가 독립적인 객체로서 디스플레이된 인식결과를 상기 작업 윈도우의 작업영역으로 끌어다 넣기(drag and drop)에 의해 수행되는 펜입력 디스플레이용 필기체 문자입력방법이 제공된다.
본 발명의 또 다른 바람직한 구현예에 따르면, 상기 단계 (a) 내지 단계 (d) 가 필기체 입력기능의 활성화 버튼이 눌러진 상태에서 수행되는 펜입력 디스플레이용 필기체 문자입력방법이 제공된다.
본 발명의 또 다른 바람직한 구현예에 따르면, 상기 필기체 입력기능의 활성화 버튼의 해제에 의해 상기 필기체 입력 윈도우가 종료되는 펜입력 디스플레이용 필기체 문자입력방법이 제공된다.
본 발명의 다른 바람직한 구현예에 따르면, 필기체 입력 기능을 활성화시키는 버튼과; 펜입력을 위한 터치스크린과; 필기체 입력 기능의 활성화에 응답하여, 투명 필기체 입력 윈도우를 현재의 작업 윈도우에 오버랩시켜 디스플레이시키는 기능과, 사용자로부터의 터치스크린에 기초한 펜입력값을 상기 필기체 입력 윈도우 상에 디스플레이시키는 기능과, 사용자에 의한 펜입력이 일정시간동안 없으면, 수신된 펜입력값에 대한 문자인식을 수행하고, 인식결과를 상기 필기체 입력 윈도우 상에 디스플레이시키는 기능과, 상기 인식결과에 대한 입력기능의 활성화에 응답하여, 상기 인식결과를 작업 윈도우의 작업영역으로 이동시키는 기능을 구비하는 필기체 관리 애플리케이션;을 구비하는, 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템이 제공된다. 보다 바람직하게는, 상기 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템이 제공된다. 이 때, 상기 필기체 관리 애플리케이션은, 상기 인식결과가 복수개 존재할 때, 이들 인식결과를 서로 독립된 객체로서 인식하는 기능을 추가로 포함하는 것이 보다 바람직하다.
본 발명의 다른 바람직한 구현예에 따르면, 상기 인식결과에 대한 입력기능의 활성화는 독립적인 객체로서 디스플레이된 인식결과를 상기 작업 윈도우의 작업 영역으로 끌어다 넣기(drag and drop)에 의해 수행되는 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템이 제공된다.
도 2는 펜입력 디스플레이용 필기체 사용자 인터페이스의 바람직한 구현예를 보여주는 흐름도이다. 도 3 내지 도 5는 본 발명에 따른 펜입력 디스플레이용 필기체 사용자 인터페이스의 바람직한 구현예를 보여주는 도면이다.
도 2 내지 도 5를 참조하여 설명하면, 사용자는, 휴대 전자단말의 현재 작업 윈도우(100)가 디스플레이된 상태에서, 작업영역(101)에 검색어 등의 문자 입력을 위해, 필기체 입력기능을 선택하게 된다(S100). 이러한 필기체 입력기능의 활성화에 응답하여, 도 3에 도시된 바와 같이, 투명 필기체 입력 윈도우(200)가 상기 작업 윈도우(100) 상에 오버랩되어 디스플레이된다(S200). 이 때, 필기체 입력기능은 상기 휴대 전자단말(1)에 특정 버튼(도 6의 도면부호 500)에 할당되거나, 통상의 메뉴 방식으로 할당될 수 있다. 바람직하게는, 필기체 입력기능이 특정 버튼(도 6의 도면부호 500)에 할당되는 것이다. 필기체 입력기능이 할당된 버튼(도 6의 도면부호 500)이 눌러진 상태에서 필기체 입력기능이 활성화되고, 해당 버튼(도 6의 도면부호 500)의 누름이 해제되면 상기 필기체 입력기능이 종료된다.
상기 필기체 입력 윈도우(200)는 투명 중간매개 윈도우(intermediate window)로서 작용한다. 본 명세서에서 "투명"이라 함은, 상기 필기체 입력 윈도우(200)가 활성화되어 작업 윈도우(100) 상에 오버랩되더라도, 상기 작업 윈도우(100)의 텍스트 및/또는 이미지가 시각적으로 인식될 수 있음을 의미한다. 통상 투명도는 100 - 50%의 범위내에서 조절할 수 있으며, 이러한 범위내에서는 작업 윈도우(100)의 컨텐츠가 시각적으로 충분히 인식될 수 있다. 결과적으로, 투명 필기체 입력 윈도우(200)가 작업 윈도우(100) 상에 배치되더라도, 작업 윈도우(100)의 컨텐츠를 시각적으로 인식하는 것이 가능하다. 그리고, 상기 필기체 입력기능이 할당된 버튼(도 6의 도면부호 500)의 해제에 의해, 언제든지 상기 작업 윈도우(100)의 브라우징을 수행할 수 있다. 상기 투명 필기체 입력 윈도우(200)의 사이즈는 상기 작업 윈도우(100)와 동일한 크기를 갖는 것이 바람직하다. 이러한 조건에서, 투명 필기체 입력 윈도우(200)는 상기 작업 윈도우(100)를 전면적으로 덮게된다. 도 3에서 미설명된 도면부호 205는 투명 필기체 입력 윈도우(200)의 불활성화 메뉴이고, 206은 창크기조절 메뉴이다. 이들 메뉴 205 및 206은 옵션적 메뉴이다.
도 4에 도시된 바와 같이, 상기 투명 필기체 입력 윈도우(200)가 활성화된 상태에서, 사용자는 터치 스크린(도 6의 도면부호 400)을 통해 특정 문자를 입력할 수 있다(S300). 이러한 펜입력값(201a, 201b 및 201c, 통합하여 "201")은 상기 투명 필기체 입력 윈도우(200)에 디스플레이된다(S400). 이 때, 사용자는 복수의 펜입력값을 순차적으로 입력할 수 있다. 펜입력값 "Garden"(201a), "House"(201b 및 201c)는 이러한 예를 보여준다. 펜입력값 "Garden"(201a)을 입력한 후, 일정시간(통상 1-3초) 동안 펜입력이 더 이상 없으면, 상기 휴대 전자단말에 설치된 필기체 관리 애플리케이션의 제어 하에, 상기 펜입력값에 대한 인식기능이 활성화된다(S500). 대체 방안으로, 상기 투명 필기체 입력 윈도우(200)의 하단에 구비된 "필기체 인식" 메뉴(203)의 선택에 의해, 펜입력값에 대한 인식기능이 활성화될 수 있다. 상기 펜입력값 "Garden"(201a)에 대한 인식결과(202a)는 상기 펜입력값의 가까운 위치에 디스플레이된다(S600). 사용자는 펜입력값 "Garden"(201a) 대신에 "House"가 보다 좋은 검색어라고 판단할 수 있다. 이럴 경우, 사용자는 다시 펜입력을 통해 "House"를 입력하면 된다. 펜입력값 "House"(201b)를 입력한 후, 일정시간 경과하면, 이들에 대한 문자인식이 수행되고 인식결과(202b)가 상기 펜입력값(201b)의 측면에 디스플레이된다. 이 때, 인식 오류가 발생할 수 있다. 인식결과(202b)는 상기 펜입력값(201b)을 "Hauze"로 인식하였음을 보여준다. 이러한 인식오류가 발생한 경우, 종래기술과 동일하게 해당 펜입력값(201b)을 수정할 수도 있으나, 본 발명에 따르면, 단순히 보다 분명하게 "House"(201c)를 다시 입력하면 족하다. 올바른 인식결과(202c)가 상기 펜입력값 "House"(201c)의 측면에 디스플레이된다. 이 때, 복수의 인식결과들이 존재하면(S700), 이들 복수의 인식결과들은 각각 독립된 객체로서 상기 필기체 입력 윈도우(200) 상에 존재한다(S800). 구체적으로, 상기 인식결과들 "Garden"(202a), "Heuze"(202b) 및 "House"(202c)는 각각 독립된 객체로서 상기 필기체 입력 윈도우(200) 상에 존재한다.
사용자는, 상기 인식결과에 대한 입력기능을 활성화시켜, 인식결과들(202a, 202b 및 202c, 통합하여 "202") 중에서 원하는 인식결과를 선택적으로 상기 작업 윈도우(100)의 작업영역(101)에 입력시킬 수 있다(S900). 예를 들면, 마우스를 이용한 인식결과 "House"(202c)의 선택과, 상기 투명 필기체 입력 윈도우(200)의 하단에 구비된 "인식결과 입력" 메뉴(204)의 선택에 의해, 상기 인식결과 "House"(202c)를 작업영역(101)으로 이동시킬 수 있다. 보다 바람직하게는, 인식결 과에 대한 입력기능의 활성화가 독립적인 객체로서 디스플레이된 인식결과를 상기 작업 윈도우의 작업영역으로 끌어다 넣기(drag and drop)에 의해 수행되는 것이다. 구체적으로, 인식결과 "House"(202c)를 작업영역(101)으로 단순히 끌어다 넣기(drag and drop)를 수행하면, 해당 인식결과(202c)가 작업영역(101)으로 이동하는 것이다. 인식결과(202)에 대한 끌어다 넣기(drag and drop)가 수행되면, 상기 필기체 관리 애플리케이션은 "끌어다 넣기(drag and drop)" 기능의 수행과 더불어, 해당 인식결과를 작업 윈도우(100)로의 이동 기능을 자동적으로 수행함으로써 가능하다. 필요할 경우, 상기 필기체 관리 애플리케이션의 제어 하에, 상기 끌어다 넣기가 완료된 후, 추가로 상기 필기체 입력 윈도우(200)의 자동적 종료가 연계될 수 있다. 다른 대안으로, 필기체 입력기능이 할당된 버튼(도 6의 도면부호 500)의 누름이 해제되면 상기 필기체 입력 윈도우(200)가 종료하는 것이다. 끌어다 넣기 기능과 연계된 필기체 입력 윈도우(200)의 종료 또는 필기체 입력기능이 할당된 버튼(도 6의 도면부호 500)의 누름이 해제에 의해, 상기 필기체 입력 윈도우(200)는 종료되고(S1000), 도 5에 도시된 바와 같이, 인식결과 "House"(202c)가 작업영역(101)에 입력된 작업 윈도우(100)가 얻어진다.
도 6은 본 발명에 따른 펜입력 디스플레이용 필기체 사용자 인터페이스를 구비하는 휴대 전자단말의 바람직한 구현예를 보여주는 사시도이다. 도 6에 도시된 바와 같이, 상기 휴대 전자단말(1)은 필기체 입력 애플리케이션(300), 터치스크린(400), 및 필기체 입력기능이 할당된 버튼(500)을 구비한다. 이 외에도, 미들웨어로서 (예: Window OS)가 휴대 전자단말(1)에 설치되어 있다. 사용자가 필기체 입 력기능이 할당된 버튼(500)을 누르면, 상기 필기체 입력 애플리케이션(300)이 활성화되고, 투명 필기체 입력 윈도우(200)가 현재의 작업 윈도우(100) 위에 오버랩되어 디스플레이된다. 본 발명의 바람직한 구현예에 따르면, 상기 버튼(500)의 누른 상태가 지속되면 활성화되었다가, 상기 버튼의 누름을 해제하면 불활성화되도록 구현된다. 이것은 보다 효율적 필기체 입력기능을 보장한다.
도 6에서, 투명 필기체 입력 윈도우(200)가 현재의 작업 윈도우(100)에 부분적으로 오버랩되어 있으나, 이것은 이해를 위한 것이다. 전체적으로 오버랩되어도 무방하다. 전술한 바와 같이, 상기 필기체 입력 윈도우(200)는 투명 중간매개 윈도우이기 때문에, 사용자에 의한 작업 윈도우(100)의 브라우징에는 전혀 영향을 미치지 아니한다. 필기체 입력 윈도우(200)가 활성화된 상태에서, 상기 터치스크린(300)에 기초한 펜입력을 통해, 펜입력값(201)과 이것의 인식결과(202)가 상기 투명 필기체 입력 윈도우(200)에 디스플레이된다. 끌어다 넣기 등에 의해, 인식결과(202)가 상기 작업 윈도우(100)의 작업영역(101)으로 이동할 수 있고, 그 후 상기 투명 필기체 입력 애플리케이션(200)이 불활성화되고, 검색어가 입력된 작업 윈도우(100)가 얻어질 수 있다. 이러한 과정은 상기 필기체 관리 애플리케이션(300)에 의해 수행된다. 이를 위해, 상기 필기체 관리 애플리케이션(300)은 다음의 기능을 구비한다:
i) 사용자로부터 필기체 입력기능의 활성화에 응답하여, 투명 필기체 입력 윈도우를 현재의 작업 윈도우에 오버랩시켜 디스플레이시키는 기능;
ii) 사용자로부터의 터치스크린에 기초한 펜입력값을 상기 필기체 입력 윈도 우 상에 디스플레이시키는 기능;
iii) 사용자에 의한 펜입력이 일정시간동안 없으면, 수신된 펜입력값에 대한 문자인식을 수행하고, 인식결과를 상기 필기체 입력 윈도우 상에 디스플레이시키는 기능;
iv) 상기 인식결과에 대한 입력기능의 활성화에 응답하여, 상기 인식결과를 작업 윈도우의 작업영역으로 이동시키는 기능.
상기 기능들 외에도, 상기 필기체 관리 애플리케이션(300)은 상기 인식결과가 복수개 존재할 때, 이들 인식결과를 서로 독립된 객체로서 인식하는 기능을 추가로 포함하는 것이 바람직하다. 그리고, 마우스(미도시)를 이용하여, 인식결과를 상기 작업 윈도우의 작업영역으로 끌어다 넣기(drag and drop) 기능이 활성화되면, 끌어다 넣기 기능에 연계하여 해당 인식결과에 대한 작업 윈도우(100)로의 자동적 이동 기능을 구비하는 것이 더욱 바람직하다.
본 발명에 따른 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및 방법은 다음의 이점을 제공한다.
첫째, 작업 영역에 대한 시각적 인식에 영향을 주지 않으면서, 필기체 인식영역과 작업영역이 서로 오버랩된다. 따라서, 사용자의 시선 집중을 유발할 수 있다. 종래의 경우, 사용자 시선이 작업영역과 필기체 인식영역 사이의 시선의 도약을 요구하나, 본 발명은 이러한 시선 도약을 야기하지 아니한다.
둘째, 복수의 펜입력값과 이들의 인식결과들이 독립된 객체로서 인식된다. 따라서, 사용자는 이들의 제어를 보다 용이하게 할 수 있다. 인식 오류에 의한 문제점을 단순히 재입력하여 수정할 수 있으며, 복수의 인식결과들에 대한 선택적 제어가 가능해진다.
셋째, 작업 윈도우로의 인식결과 이동 기능을 끌어다 넣기 기능과 연계시킴으로써, 독립적인 객체로서 디스플레이된 인식결과에 대한 제어를 보다 용이하게 수행할 수 있다. 이것은 복수의 인식결과에 대한 선택적 입력을 보다 용이하게 한다.
넷째, 투명 필기체 입력 윈도우는, 이것의 활성화 버튼이 누른 상태가 지속되면 활성화되고, 상기 버튼의 누름이 해제되면 불활성화된다. 이것은 보다 효율적인 필기체 입력을 가능하게 한다.

Claims (10)

  1. a) 사용자로부터의 필기체 입력기능의 활성화에 응답하여, 투명 필기체 입력 윈도우(transparent handwriting window)를 현재의 작업 윈도우에 오버랩시켜 디스플레이시키는 단계,
    b) 사용자로부터 터치 스크린 상에서의 펜입력값을 수신하고, 상기 펜입력값의 인식기능의 활성화에 응답하여 상기 펜입력값을 인식하는 단계,
    c) 상기 인식결과를 상기 투명 필기체 입력 윈도우에 디스플레이하는 단계, 및
    d) 상기 투명 필기체 입력 윈도우에 디스플레이된 인식결과에 대한 작업 윈도우로의 입력기능의 활성화에 응답하여, 상기 인식결과를 작업 윈도우의 작업영역으로 이동시키는 단계를 포함하여 이루어진, 펜입력 디스플레이용 필기체 문자입력방법.
  2. 제1항에 있어서, 상기 단계 (b)의 펜입력값의 인식기능의 활성화가 일정시간동안 펜입력이 없을 때 수행되는 것을 특징으로 하는 방법.
  3. 제1항에 있어서, 상기 단계 (c)의 인식결과가 복수개 존재할 때, 이들 인식결과가 각각 서로 독립적인 객체로서 상기 투명 필기체 입력 윈도우에 디스플레이되는 것을 특징으로 하는 방법.
  4. 제3항에 있어서, 상기 단계 (d)의 인식결과에 대한 입력기능의 활성화가 독 립적인 객체로서 디스플레이된 인식결과를 상기 작업 윈도우의 작업영역으로 끌어다 넣기(drag and drop)에 의해 수행되는 것을 특징으로 하는 방법.
  5. 제1항에 있어서, 상기 단계 (a) 내지 단계 (d)가 필기체 입력기능의 활성화 버튼이 눌러진 상태에서 수행되는 것을 특징으로 하는 방법.
  6. 제5항에 있어서, 상기 필기체 입력기능의 활성화 버튼의 해제에 의해 상기 필기체 입력 윈도우가 종료되는 것을 특징으로 하는 방법.
  7. 필기체 입력 기능을 활성화시키는 버튼과;
    펜입력을 위한 터치스크린과;
    필기체 입력 기능의 활성화에 응답하여, 투명 필기체 입력 윈도우를 현재의 작업 윈도우에 오버랩시켜 디스플레이시키는 기능과, 사용자로부터의 터치스크린에 기초한 펜입력값을 상기 투명 필기체 입력 윈도우 상에 디스플레이시키는 기능과, 사용자에 의한 펜입력이 일정시간동안 없으면, 수신된 펜입력값에 대한 문자인식을 수행하고, 인식결과를 상기 투명 필기체 입력 윈도우 상에 디스플레이시키는 기능과, 상기 인식결과에 대한 입력기능의 활성화에 응답하여, 상기 인식결과를 작업 윈도우의 작업영역으로 이동시키는 기능을 구비하는 필기체 관리 애플리케이션;을 구비하는, 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템.
  8. 제7항에 있어서, 상기 필기체 관리 애플리케이션이, 인식결과가 복수개 존재할 때, 이들 인식결과를 서로 독립된 객체로서 인식하는 기능을 추가로 포함하는, 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템.
  9. 제7항에 있어서, 상기 필기체 관리 애플리케이션이, 인식결과를 상기 작업 윈도우의 작업영역으로 끌어다 넣기(drag and drop) 기능이 활성화되면, 끌어다 넣기 기능에 연계하여 해당 인식결과에 대한 작업 윈도우(100)로의 자동적 이동 기능을 추가로 포함하는, 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템.
  10. 제7항에 있어서, 상기 필기체 입력 윈도우는 상기 버튼의 누른 상태에서 활성화되고, 상기 버튼의 해제에 의해 불활성화되는, 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템.
KR1020070020333A 2007-02-28 2007-02-28 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법 KR100874044B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070020333A KR100874044B1 (ko) 2007-02-28 2007-02-28 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법
PCT/KR2007/002058 WO2008105574A1 (en) 2007-02-28 2007-04-26 Easy handwriting user interface system and method for pen-input display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070020333A KR100874044B1 (ko) 2007-02-28 2007-02-28 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법

Publications (2)

Publication Number Publication Date
KR20080079830A KR20080079830A (ko) 2008-09-02
KR100874044B1 true KR100874044B1 (ko) 2008-12-12

Family

ID=39721391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070020333A KR100874044B1 (ko) 2007-02-28 2007-02-28 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법

Country Status (2)

Country Link
KR (1) KR100874044B1 (ko)
WO (1) WO2008105574A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489126B2 (en) 2013-05-07 2016-11-08 Samsung Electronics Co., Ltd. Portable terminal device using touch pen and handwriting input method thereof
US11328469B2 (en) 2018-08-08 2022-05-10 Samsung Electronics Co., Ltd. Electronic device and method for providing drawing environment

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5350862B2 (ja) * 2009-04-03 2013-11-27 株式会社ソニー・コンピュータエンタテインメント 携帯型情報端末および情報入力方法
KR101639074B1 (ko) 2009-07-31 2016-07-12 삼성전자주식회사 터치스크린을 이용한 문자 인식 및 문자 입력 장치 및 그 방법
KR102204784B1 (ko) * 2014-03-10 2021-01-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010096061A (ko) * 2000-04-17 2001-11-07 김영식 터치스크린을 이용한 단말기에서의 수기 입력 방법
WO2005003944A1 (en) 2003-07-01 2005-01-13 Nokia Corporation Method and device for operating a user-input area on an electronic display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5878226A (ja) * 1981-11-04 1983-05-11 Canon Inc 入力装置
JPS6252630A (ja) * 1985-08-30 1987-03-07 Toshiba Corp 手書き入力表示方式
JP2000123114A (ja) * 1998-10-15 2000-04-28 Casio Comput Co Ltd 手書き文字入力装置及び記憶媒体
JP2005258882A (ja) * 2004-03-12 2005-09-22 Sanyo Electric Co Ltd 文字入力支援方法及び文字入力支援プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010096061A (ko) * 2000-04-17 2001-11-07 김영식 터치스크린을 이용한 단말기에서의 수기 입력 방법
WO2005003944A1 (en) 2003-07-01 2005-01-13 Nokia Corporation Method and device for operating a user-input area on an electronic display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489126B2 (en) 2013-05-07 2016-11-08 Samsung Electronics Co., Ltd. Portable terminal device using touch pen and handwriting input method thereof
US9875022B2 (en) 2013-05-07 2018-01-23 Samsung Electronics Co., Ltd. Portable terminal device using touch pen and handwriting input method thereof
US11328469B2 (en) 2018-08-08 2022-05-10 Samsung Electronics Co., Ltd. Electronic device and method for providing drawing environment

Also Published As

Publication number Publication date
WO2008105574A1 (en) 2008-09-04
KR20080079830A (ko) 2008-09-02

Similar Documents

Publication Publication Date Title
US11010027B2 (en) Device, method, and graphical user interface for manipulating framed graphical objects
JP5734546B2 (ja) オブジェクト表示装置
EP2722752B1 (en) Method and apparatus for processing applications of mobile terminal
US8321810B2 (en) Configuring an adaptive input device with selected graphical images
US8159457B2 (en) Zero-click activation of an application
US20240086047A1 (en) User interfaces for customizing graphical objects
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
KR20130024220A (ko) 휴대단말기의 입력 장치 및 방법
US20130298054A1 (en) Portable electronic device, method of controlling same, and program
CN108228040A (zh) 移动终端及浮屏操作控制方法、装置
KR20140089224A (ko) 터치 입력에 기초하여 동작을 실행하는 디바이스 및 동작 실행 방법
KR20110085189A (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
KR100874044B1 (ko) 펜입력 디스플레이용 필기체 사용자 인터페이스 시스템 및방법
US20240004532A1 (en) Interactions between an input device and an electronic device
KR100381583B1 (ko) 개인용 정보단말기에서의 유저 인터페이스 방법
US20130285924A1 (en) Method and Apparatus Pertaining to the Interpretation of Touch-Based Actions
US20240184441A1 (en) Systems and Methods for Providing Continuous-Path and Delete Key Gestures at a Touch-Sensitive Keyboard
KR102323440B1 (ko) 페이지 운용 방법 및 그 전자 장치
KR101190048B1 (ko) 전자책 장치 및 전자책 장치의 사용자 인터페이스 제공 방법
KR20150111651A (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
KR102296968B1 (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
KR20100041150A (ko) 멀티터치를 이용한 사용자 인터페이스 제어방법
KR102301652B1 (ko) 페이지 운용 방법 및 그 전자 장치
KR20110063412A (ko) 애플리케이션 간의 콘텐츠 전달 방법 및 이를 실행하는 장치
JP6091525B2 (ja) 情報処理装置及び情報入力制御プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130226

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141201

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151204

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170605

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171207

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee