KR100763456B1 - 컴퓨터로 구현되는 사용자 인터페이스 - Google Patents
컴퓨터로 구현되는 사용자 인터페이스 Download PDFInfo
- Publication number
- KR100763456B1 KR100763456B1 KR1020060023959A KR20060023959A KR100763456B1 KR 100763456 B1 KR100763456 B1 KR 100763456B1 KR 1020060023959 A KR1020060023959 A KR 1020060023959A KR 20060023959 A KR20060023959 A KR 20060023959A KR 100763456 B1 KR100763456 B1 KR 100763456B1
- Authority
- KR
- South Korea
- Prior art keywords
- interface
- marking
- interface region
- user
- region
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0227—Cooperation and interconnection of the input arrangement with other functional units of a computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
- G06F3/0321—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Input (AREA)
- Character Discrimination (AREA)
Abstract
컴퓨터로 구현되는, 사용자와의 인터페이싱 방법 및 기기를 개시한다. 표면 상의 기록 기기에 의해 만들어진 마킹에 대해 식별이 이루어진다. 마킹의 위치와 크기를 식별한다. 마킹에 인접한 제1 인터페이스 영역이 계산되며, 컴퓨터 기능은 이 제1 인터페이스 영역과 연관된다.
상호작용, 컴퓨터, 사용자, 인터페이스, 기록 기기, 마킹
Description
도 1은 펜 컴퓨터 시스템의 사용자 인터페이스를 나타낸 도면이다.
도 2는 본 발명의 다양한 실시예를 구현할 수 있는 전자적인 상호작용 기기의 블록도이다.
도 3은 본 발명의 다양한 실시예를 구현할 수 있는 다른 전자적인 상호작용 기기의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 마크의 패턴이 있는 전형적인 종이 시트를 나타낸 도면이다.
도 5는 본 발명의 일 실시에에 따른 종이 시트 상의 마크 패턴의 확대도이다.
도 6a는 활성 영역을 자동으로 생성하기 위한 본 발명의 일 실시예에 따른 펜 컴퓨터 기기용 사용자 인터페이스를 포함하는, 마킹이 기록되어 있는 기록 표면을 나타낸 도면이다.
도 6b는 본 발명의 일 실시예에 따른 펜 기반 컴퓨터 기기용 사용자 인터페이스를 포함하는, 전형적인 마킹이 기록되어 있는 기록 표면을 나타낸 도면이다.
도 7a는 본 발명의 일 실시에에 따른 활성 영역과 각각 연관이 있는 두 개의 전형적인 마킹이 기록되어 있는 기록 표면을 나타낸 것으로, 활성 영역은 각각의 마킹에 따른 높이 및 폭 양자에 의해 크기가 결정된다.
도 7b는 본 발명의 일 실시에에 따른 활성 영역과 각각 연관이 있는 두 개의 전형적인 마킹이 기록되어 있는 표면을 나타낸 것으로, 활성 영역은 각각의 마킹에 따른 높이에 의해 크기가 결정되고 폭은 고정되어 있다.
도 8은 서로 공간적으로 간섭을 일으키는 두 개의 상이한 마킹의 활성 영역을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 마킹이 기록되어 있는 기록 표면과, 자동으로 생성된 4 개의 전형적인 활성 영역을 나타낸 도면이다.
도 10a는 본 발명의 일 실시예에 따른, 사용자의 마킹 기록에 응답하여 기록과 연관된 인터페이스 영역을 자동으로 생성하기 위한 컴퓨터로 구현되는 프로세스의 흐름도이다.
도 10b는 본 발명의 일 실시예에 따른, 사용자의 기존 기록 선택에 응답하여 기록과 연관된 인터페이스 영역을 자동으로 생성하기 위한 컴퓨터로 구현되는 프로세스의 흐름도이다.
도 11은 본 발명의 일 실시예에 따른, 인터페이스 영역 간의 공간적인 간섭을 해소하기 위한 컴퓨터로 구현되는 프로세스의 흐름도이다.
도 12는 본 발명의 일 실시예에 따른, 사용자의 행위(user action)에 가장 가까운 경계를 결정한 후, 경계에 "들어오는(on-the-flow)"의 인터페이스 영역을 계산하기 위한 컴퓨터로 구현되는 프로세스의 흐름도이다.
본 명세서의 실시예는 사용자 상호작용 기기 분야에 관한 것이다. 본 명세서는 동적으로 생성된 기록 표면의 인터페이스 영역과 상호작용함으로써 컴퓨터의 기능성(functionality)을 호출하는 방법 및 시스템을 교시한다.
지난 20년 동안, 데스크톱 컴퓨터 시스템, 랩톱 컴퓨터 시스템, 핸드헬드(handheld) 컴퓨터 시스템, 및 타블렛(tablet) 컴퓨터 시스템과 같은 개인용 컴퓨팅 기기의 사용은 엄청나게 증가하였다. 이러한 개인용 컴퓨팅 기기는 사용자에게 광범위한 상호작용 애플리케이션, 비지니스 유틸리티, 통신 기능(communication ability), 및 엔터테인먼트 기능(entertainment possibility)을 제공한다.
현재의 개인용 컴퓨팅 기기는 사용자 인터페이스를 통해 이러한 상호작용 애플리케이션에 대한 액세스를 제공한다. 일반적인 컴퓨팅 기기는 모니터나 디스플레이 스크린과 같은 디스플레이 기기를 사용하는 사용자에게 정보를 제공하고, 마우스, 키보드, 조이스틱 또는 스타일러스와 같은 입력 기기를 사용하여 사용자로부터 정보를 수신하는 온스크린 그래픽 인터페이스(on-screen graphical interface)를 구비한다.
컴퓨팅 시스템이 더 낫다고 해도, 문명 사회(literate society)에서 펜과 종이는 어디에서나 사용되고 있다. 현재의 컴퓨팅 기기의 그래픽 사용자 인터페이스는 많은 컴퓨팅 애플리케이션과의 효과적인 상호작용을 제공하며, 일반적인 온스크 린 그래픽 사용자 인터페이스는 펜이나 연필 및 종이의 일반적인 사용을 흉내내기 어렵다. 예를 들면, 데스크톱 및 랩탑 컴퓨터 시스템은 일반적으로 펜형(pen-like) 인터페이스를 구비하지 않는다. 또한, 컴퓨터의 입력은 전자적인 디스플레이 상에 표시되고, 종이나 물리적인 표면 상에 기록된 정보처럼 만지거나 접근할 수 없다.
끝으로, 종이 표면 상에 펜형 인터페이스로 그린 이미지와 기록물(writing)은 편의성, 영구성, 및 만질 수 있는 실체성(tangibility)이 있지만, 펜형 인터페이스를 사용하여 일단 기록하고 나면 종이 표면 상의 마킹의 재사용은 쉽게 형용되지 않는다. 다시 말해, 몇몇 펜형 컴퓨터 시스템은 종이 상의 일정한 사용자가 기록한 항목의 인식을 제공하고, 일단 인식되면 몇몇 즉각적인 조치가 펜형 컴퓨터 시스템에 의해 취해진다. 하지만, 사용자가 동일한 컴퓨터 기능을 다시 수행하고자 하면, 해당 항목을 다시 종이 위에 기록해야 한다. 구체적으로, 이러한 펜형 컴퓨터 사용자 인터페이스는 사용자에게 원하는 컴퓨터 기능을 자동으로 호출하기 위한 종이 위에 기록한 항목과의 직접적인 상호작용(예를 들어, 마우스 클릭과 유사한 펜 탭(tap)을 통한 선택)을 허용하지 않는다.
따라서, 기록 표면과 연관된 동적으로 생성된 인터페이스 영역과의 사용자 상호작용에 의해 컴퓨터의 기능성이 호출되는 상호작용 기기를 위한 사용자 인터페이스에 대해 기술한다.
컴퓨터 시스템은 기록 표면 상에 기록된 마킹을 식별하거나, 기존의 기록되어 있는 마킹과의 사용자 상호작용을 인식한다. 마킹에 인접하여, 컴퓨터 시스템은 마킹과 연관된 하나 이상의 인터페이스 영역을 자동으로 생성한다. 인터페이스 영역은 기록 표면의 공간 좌표에 대해 컴퓨터 메모리 내에 규정되며 사용자에게는 보이지 않는다. 이들 영역 중 하나와의 사용자 상호작용은 상호작용이 있는 영역과 관련되고 마킹과 관련된 앞서 설명한 컴퓨터 기능성을 호출한다. 각각의 인터페이스 영역에 의해 상이한 컴퓨터 기능이 호출될 수 있다. 컴퓨터 시스템은 동적으로 인터페이스 영역의 위치를 정하고 연관된 마킹의 위치(및 크기)를 근거로 인터페이스 영역의 크기를 동적으로 정할 수 있다. 복수의 마킹은 각각의 마킹과 연관된 상이한 영역들을 갖는 복수의 영역을 생성한다. 일 실시예에서, 영역들은 기록된 단어의 앞 및/또는 뒤에 설정된다. 영역들은 또한 예를 들어 기록된 단어의 위 및/또는 아래에 설정될 수 있다. 다른 실시예에서, 컴퓨터 시스템은 상호작용 펜 기반 컴퓨터 시스템이다.
특정한 일 실시예에서, 상호작용 펜-기판 컴퓨터 시스템은 표면 상의 기록된 단어를 인식하기 위해 사용될 수 있다. 한 애플리케이션에서, 펜 기반 컴퓨터 시스템은 단어에 대해 하나의 언어에서 다른 언어로의 번역을 제공한다.
단어가 기록된 후(또는 단어가 이미 존재한다면 선택된 후), 컴퓨터 시스템은 공간적으로 단어 앞에 표면 상의 제1 인터페이스 영역을 그리고 공간적으로 단어 뒤의 표면 상의 제2 인터페이스 영역을, 메모리에 자동으로 생성한다. 제1 영역과의 사용자 상호작용은 제1 영역 및 해당 단어와 관련된 제1 컴퓨터 기능성을 호출한다(예를 들어, 해당 단어의 번역이 컴퓨터에 이해 음성의 형태로 표현된다). 제2 영역과의 사용자 상호작용은 제2 영역 및 해당 단어와 관련된 제2 컴퓨터 기능성을 호출한다(예를 들어, 해당 단어의 번역된 버전이 음성의 형태로 한 문자씩 스펠을 출력한다). 인터페이스 영역은 기록된 단어에 인접한 임의의 위치에 위치할 수 있으며, 여기에 기술된 특정한 위치는 단지 예라는 것을 알아야 한다. 일 실시예에서, 영역들은 높이가 기록된 단어의 높이와 비슷하도록 크기가 정해지고, 폭은 고정된 크기 또는 기록된 단어의 크기나 형상에 관련된 것일 수 있다.
본 발명의 실시예들은 또한 상이한 마킹의 상호작용 영역간의 간섭을 해소하기 위한 프로세스를 포함한다. 이들 프로세스는 할당 모델(sharing model), 타임아웃 모델(time-out model), 팝업 모델(pop-up model) 및/또는 경고 모델(warn modle)을 포함한다. 본 발명의 실시예들은 또한 필요에 따라 상호작용 영역들을 자동으로 계산하기 위한 효율적인 프로세스들을 포함하여, 모든 상호작용 영역을 언제나 메모리에 지속적으로는 저장하지 않음으로써 컴퓨터 자원을 절약한다.
또한 실시예들은 컴퓨터로 구현된, 사용자와의 인터페이싱 방법을 포함하는데, 이 방법은 기록 표면 상에 위치되어 있는 기록된 마킹이 사용자에 의해 선택되었는지를 식별하는 단계; 상기 기록된 마킹과 연관된 인터페이스 영역을 메모리로부터 액세스하는 단계; 상기 기록된 마킹에 인정하여 위치되는 제1 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계; 상기 제1 인터페이스 영역을 제1 컴퓨터 기능과 연관시키는 단계; 및 상기 제1 인터페이스에 대한 사용자 선택에 응답하여, 상기 기록된 마킹과 연관된 데이터에 대해 상기 제1 컴퓨터 기능을 실행하는 단계를 포함한다. 실시예들은 또한 위의 단계들과, 상기 마킹에 인접하여 위치되고 상기 제1 인터페이스 영역과 중첩되지 않는 상기 표면의 제2 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계; 상기 제2 인터페이스 영역을 제2 컴퓨터 기능과 연관시키는 단계; 및 상기 제2 인터페이스 영역에 대한 사용자 선택에 응답하여 상기 데이터에 대해 상기 제2 컴퓨터 기능을 실행하는 단계를 더 포함한다. 또한 실시예들은 위의 단계들을 포함하고, 상기 제1 인터페이스 영역은 공간적으로 상기 기록된 마킹의 왼쪽에 위치되고, 또한 상기 제2 인터페이스 영역은 공간적으로 상기 기록된 마킹의 오른쪽에 위치된다.
실시예들은 또한 전술한 내용에 따라 프로그램된 상호작용 기기에 관한 것이다.
본 발명에 따른 다양한 실시예에 대해 상세하게 언급하며, 그 예들이 첨부도면에 도시되어 있다. 본 발명은 이 실시예들에 관하여 설명하지만, 본 발명을 이 실시예들로 한정하고자 하는 것이 아님은 물론이다. 오히려, 본 발명은 첨부된 특허청구범위에 의해 규정된 바와 같이 본 발명의 사상 및 범위 내에 포함되는, 대체물, 변경물 및 등가물도 포함하도록 의도된다. 또한 본 발명에 대해 후술하는 상세한 설명에서는 수많은 구체적인 세부사항을 본 발명에 대한 완전한 이해를 제공하기 위해 설명한다. 하지만, 이 기술분야의 당업자는 이러한 구체적인 세부사항 없이도 본 발명을 실시할 수 있음을 알 것이다. 다른 경우에, 공지의 방법, 절차, 구성요소, 및 회로는 본 발명의 특징을 쓸데없이 불명료하게 하지 않도록 자세하게 설명하지 않는다.
표시법 및 명명법
다음의 상세한 설명의 일부는 절차 단계, 논리 블록, 처리, 및 컴퓨터 메모리에서 실행될 수 있는 데이터 비트에 관한 동작의 다른 심볼 표현에 관해 나타낸다. 예를 들어, 프로세스 500, 500, 600, 및 700이 그것이다. 이들 설명 및 표현은 데이터 처리 기술의 당업자가 다른 기술분야의 당업자에게 자신의 연구 내용을 가장 효과적으로 전달하기 위해 사용하는 수단(means)이다. 절차, 컴퓨터에 의해 수행되는 단계, 논리 블록, 프로세스 등이 있으며, 일반적으로 원하는 결과를 도출하는 자기모순이 없는(self-consistent) 단계나 명령의 시퀀스로 생각된다. 단계들은 물리량의 물리적인 조작을 필요로 하는 것이다. 꼭 그런 것은 아니지만 대개, 이 양은 컴퓨터 시스템에서 저장, 전달, 결합, 비교, 및 조작을 할 수 있는 전기 신호나 자기 신호의 형태를 띤다. 때로는 일반적인 사용의 이유로 이들 신호를 비트(bit), 값(value), 요소(element), 심볼(symbol), 문자(character), 용어(term), 숫자(number) 등으로 나타내는 것이 대체로 편리하다는 것이 입증되었다.
하지만, 이들 모두 및 유사한 용어는 적당한 물리량과 관련될 것이고, 이들 양에 부가된 편의상의 표지(lable)일 뿐이라는 것을 명심하여야 한다. 특별히 언급하지않는 한, 그렇지 않으면 다음의 설명에서 명백한 바와 같이, 본 발명과 설명의 전체 걸쳐, 컴퓨터 시스템의 레지스터와 메모리 내에서 물리(전기)량으로 표현된 데이터를, 컴퓨터 시스템 메모리 또는 레지스터 또는 기타 그러한 정보 저장, 전송 또는 표시 기기 내에서 물리량으로 유사하게 표현되는 다른 데이터로 변환하고 조작하는, 컴퓨터 시스템이나 유사한 전자적인 컴퓨팅 기기의 작용(action) 및 프로세스를 나타내는, "인식하는" 또는 "개시하는" 또는 "전달하는" 또는 "포함하는" 또는 "결합하는" 또는 "액세스하는" 또는 "식별하는" 또는 "수신하는" 또는 "출력하는" 또는 "생성하는" 또는 "결정하는" 또는 "연관시키는" 또는 "저장하는" 등의 용어를 사용하는 것으로 인식된다.
그려진 사용자 인터페이스의 예
도 1은 예를 들어, 기록 가능한 표면 상에 펜 기반 컴퓨터 시스템의 사용자 인터페이스를 구성하는, 사용자가 기록한 전형적인 마킹의 예를 나타낸 것이다. 이 예에서, 컴퓨터 시스템은 예를 들어 하나의 언어(영어)에서 다른 언어(스페인어)로의 언어 번역 애플리케이션 프로그램을 실행하도록 지시를 받았다. 이 애플리케이션은 이 예에서 사용자가 "T" 주위에 원이 그려진 특수한 마킹(2)을 그림으로써 호출될 수 있다. 이 마킹(2) 다음의 선택적인 체크 마크(optional check mark)는 또한 애플리케이션의 파라미터들을 선택하기 위해 사용될 수 있으며; 이들 파라미터는 펜 컴퓨터의 팁(tip)으로 마킹(2) 위를 가볍게 두드리는 사용자의 탭핑(tapping)에 응답하여 스크롤될 수 있다(예를 들어, 순차적인 음성 표현). 원하는 파라미터가 나타난 다음, 사용자는 그것을 선택하기 위해 체크 마크를 그릴 수 있다.
사용자가 기록하는 단어, 예를 들어 "CAT"(4)에 응답하여, 애플리케이션 프로그램은 스페인어 번역 "gato"를 자동으로 나타낸다. 기록된 단어 "DOG"에 대해서도 동일하게 발생된다. 예를 들어 컴퓨터는 "perro"를 나타낸다. 이 애플리케이션에서, 사용자가 번역이 반복되기를 원하면, 사용자가 기록한 인터페이스 항목 (10)을 종이 위에 기록하여야 한다. 사용자가 이 항목(10)을 펜 팁으로 선택하면, 컴퓨터는 가장 최근에 선택된 단어, 예를 들어 CAT(4) 또는 DOG(6)의 번역을 나타낼 것이다. 사용자가 번역된 단어의 철자를 글자로 읽기를 원하면, 기록된 항목(8)의 선택은 이 기능을 수행할 것이다. 다시, 가장 최근에 선택된 단어의 철자를 읽을 것이다.
유감스럽게도, 빈번히 실행되는 기능 또는 핵심 기능인 경우, 이것은 단어를 선택한 다음, 종이의 어떤 다른 부분으로 가서 분리된 그려져 있는 기능 항목, 예를 들어 항목(8) 또는 항목(10)을 선택된 단어에 적용하기 위해 선택하는 것은 사용자를 지겹게 할 수 있다. 이 경우에, 사용자는 종이 위에 일정하게 탭핑하여 번역 및/또는 철자 기능을 시작한다는 것을 스스로 발견할 수 있다. 또한, 사용자가 단지 한 개 또는 두 개의 단어만의 번역을 원하는 경우, 도 1의 예를 실행하는 경우 사용자 인터페이스 오버헤드가 상당히 크게 나타날 수 있다. 예를 들면, 사용자는 번역 애플리케이션을 호출하기 위해 항목(2)를 그려야 하며, 그런 다음 번역(translate) 항목(10)을 그린 후, 선택적으로 철자(spell) 항목(8)을 기록하고, 번역될 단어, 예를 들어 CAT(4)를 쓰고 항목(8) 또는 항목(10) 위를 탭핑한다. 동일한 기능을 달성하지만 사용자가 그린 항목을 적게 요구하는 사용자 인터페이스를 제공하는 것이 유리할 것이다. 끝으로, 컴퓨터 시스템 내에 영속하는 종이 위에 그려진 각 항목은 컴퓨터 자원을 소비할 것이다. 컴퓨터 시스템 메모리를 소비할 필요가 없도록 특수하게 그려질 항목(8) 및 항목 (10)을 요구하지 않는 사용자 인터페이스를 제공하는 것은 유리할 것이다.
이하에서 더 설명하는 바와 같이, 본 발명의 실시예들은 전술한 단점을 없앤 편리한 그려진 항목의 사용자 인터페이스를 제공한다.
본 발명의 실시예를 위한 기기 플랫폼의 예
도 2는 본 발명의 다양한 실시예를 구현할 수 있는 전자적인 상호작용 기기(100)의 블록도이다. 일반적으로, 기기(100)는 펜형상(pen-shaped), 펜기반(pen-base) 또는 펜형(pen-like) 컴퓨터 시스템이나 광학 기기라고 하며, 더욱 구체적으로는 광학 판독기, 광학 펜, 또는 디지털 펜이나 디지털 컴퓨터라고 한다.
도 2의 실시예에서, 기기(100)는 하우징(62) 내부에 프로세서(32)를 포함한다. 일 실시예에서, 하우징(62)은 일반적인 펜 또는 다른 필기 기구(writing utensil) 또는 필기 도구(writing instrument)의 형상 및 형태를 가지고 있다. 프로세서(32)는 기기(100)의 기능을 구현하기 위해 사용되는 정보와 명령어를 처리하도록 동작 가능하며, 이에 대해서는 후술한다. 또한, 프로세서(32)는 기기(100)에 연결되어 있는 임의의 메모리나 카트리지(예: 도면부호 28)와 연관된 기능을 구현하기 위해 사용되는 정보와 명령어를 처리하기 위해 동작 가능하다.
일 실시예에서, 기기(100)는 오디오 출력 기기(36), 디스플레이 기기(40), 또는 프로세서(32)에 연결될 수 있는 오디오 출력 기기와 디스플레이 기기 양자를 모두 포함할 수 있다. 다른 실시예에서, 오디오 출력 기기 및/또는 디스플레이 기기는 선택적이거나 기기(100)로부터 물리적으로 별개이지만, 유선 및/또는 무선 접속을 통해 기기(100)와 통신한다. 무선통신의 경우, 기기(100)는 송신기나 송수신기(33)를 포함할 수 있다. 오디오 출력 기기(36)는 스피커나 오디오 잭(예를 들 어, 이어폰용이나 헤드폰용)을 포함할 수 있다. 디스플레이 기기(40)는 액정 디스플레이(liquid crystal display, LCD) 또는 다른 적당한 타입의 디스플레이일 수 있다.
도 2의 실시예에서, 기기(100)는, 기기(100)를 활성화시키고 제어하기 위해 프로세서(32)에 연결되어 있는 입력 버튼(38)을 포함할 수 있다. 예를 들어, 입력 버튼(38)은 사용자가 기기(100)에 정보 및 커맨드를 입력할 수 있도록 해주거나 기기(100)를 켜거나 끌 수 있도록 해준다. 기기(100)는 또한 배터리와 같은 전원(34)을 포함하지만, 이것으로 한정되지 않는다.
기기(100)는 또한 프로세서(32)에 연결되어 있는 광원이나 광 방출기(44) 및 광 센서나 광 검출기(42)를 포함할 수 있다. 광 방출기(44)는 예를 들어, 발광 다이오드(LED)일 수 있으며, 광 검출기(42)는 예를 들어, 촬상소자(CCD)나 상보형 금속산화물반도체(CMOS) 이미저 어레이(imager array)일 수 있다. 광 방출기(44)는 표면(70) 또는 그 일부분을 조사한다. 표면(70)에서 반사된 광은 광 검출기(42)에 의해 수광되어 기록된다.
일 실시예에서, 마킹의 패턴이 기기(100)와 함께 사용하기 위해 표면(70)에 인쇄되어 있다. 표면(70)은 종이 시트 또는 다른 타입의 표면 등의 마킹의 패턴이 인쇄(형성 또는 배치)될 수 있는, 임의 적당한 표면일 수 있다. 광 방출기(44)와 광 검출기(42)를 보유할 수 있는 기기(100)의 하단(39)은 표면(70)에 대항하거나 가까이에 배치된다. 기기(100)가 표면(70)에 대해 이동될 때, 마킹의 패턴은 광 방출기(44)와 광 검출기(42)에 의해 판독, 기록, 및 식별될 수 있다. 이하에 더욱 자세하게 설명하는 바와 같이, 일 실시예에서, 표면(70) 상의 마킹은 표면(70)에 대한 기기(100)의 위치를 결정하기 위해 사용된다(예: 도 3 및 도 4 참조). 다른 실시예에서, 표면(70) 상의 마킹은 정보를 부호화하기 위해 사용될 수 있으며; 표면(70)의 포착된 이미지는 기기(100)에 의해 분석(처리)되고 마킹을 복호화하여 부호화된 정보를 복원할 수 있다.
도 2의 기기(100)는 또한 프로세서(32)에 연결되어 있는 메모리 유닛(48)을 포함할 수 있다. 일 실시예에서, 메모리 유닛(48)은 메모리 카트리지나 메모리 카드로 구현되는 탈착 가능한 메모리(removable memory) 유닛일 수 있다. 다른 실시예에서, 메모리 유닛(48)은 프로세서(32)를 위해 정보 및 명령어를 저장하는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 예를 들어, 메모리 유닛(48)은 프로세서(32)를 위한 정보 및 명령어를 저장하는 임의 접근 메모리(ROM) 및/또는 판독 전용 메모리(ROM)일 수 있지만, 이것으로 한정되지는 않는다.
도 2의 실시예에서, 기기(100)는 기록 소자(52)를 포함할 수 있는데, 기록 소자(52)는 광 검출기(42)와 광 방출기(44)가 배치되어 있는 기기(100)의 단부(예: 도면부호 39)와 동일한 단부에 배치될 수 있다. 기록 소자(52)는 예를 들어 펜, 연필, 마커, 스타일러스 등일 수 있으며, 접을 수 있거나(retractable) 접을 수 없다. 일정한 애플리케이션에서, 기록 소자(52)는 불필요하다. 다른 애플리케이션에서, 사용자는 표면(70) 상에 글자, 숫자, 심볼, 도안(design) 등과 같은 문자(character)를 포함하는 마크, 마킹을 만들기 위해 기록 소자(52)를 사용할 수 있다. 이들 사용자에 의해 생성된(user-produced) 마크는 기기(100)에 의해 표면 (70) 상의 위치에 따라 스캐닝(예: 이미지화)되어 해석될 수 있다. 사용자에 의해 생성된 마크(이하, 사용자 생성 마크라 함)의 위치는 표면(70) 상에 인쇄되어 있는 마크 패턴을 사용하여 결정될 수 있다(예를 들어, 도 4 및 도 5에 관한 아래의 설명 참조). 일 실시예에서, 사용자 생성 마크의 위치는 손으로 쓴 문자를 인식하는 광학 문자 인식(OCR) 기술을 사용하여 기기(100)에 의해 해석될 수 있다.
표면(70)은 종이 시트일 수 있지만, 종이 이외의 재료로 이루어지는 표면도 사용될 수 있다. 표면(70)은 평판 디스플레이 스크린(flat panel display screen)(예를 들어, LCD) 또는 전자적인 종이(예를 들어, 전자적인 잉크를 사용하여 재구성 가능한 종이)일 수 있다. 또한 표면(70)은 평평하거나 평평하지 않을 수도 있다. 예를 들어, 표면(70)은 구형의 표면으로 구현될 있다. 또한, 표면(70)은 일반적인 종이의 페이지(예를 들어, 8.5×11 인치)보다 작거나 클 수 있다. 일반적으로, 표면(70)은 마킹(예를 들어, 글자, 숫자, 심볼, 문자 등)이 인쇄되거나 그렇지 않으면 배치될 수 있는 임의의 타입의 표면일 수 있다. 다르게는, 표면(70)은 기기(100)에 의한 표면에 대한 작용에 응답하여 표면의 특성이 변화하여 마킹이 눈에 보이에 나타나는, 그런 타입의 표면일 수 있다.
도 2는 또한 본 발명의 여러 실시예에 따라 기기(100)와 결합하여 사용될 수 있는 전형적인 카트리지(28)를 나타낸다. 구체적으로, 카트리지(28)를 기기(100)에 결합(또는 연결)함으로써, 카트리지(28)는 메모리(30)에서 기기(100)의 메모리 유닛(48)으로, 표면(70)의 특정한 부분과 결합하여 사용될 수 있는 하나 이상의 애플리케이션에 대한 복사본의 다운로드를 가능하게 함으로써, 기기(100)의 기능성을 확장시킬 수 있다. 이렇게 하여, 기기(100)는 하나 이상의 애플리케이션을 카트리지(28)로부터 수신하여 사용할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 카트리지(28)는 메모리(30), 기능 로직(fuctional logic), 선택적인 주변 기기(peripherals)(41)과 함께 인터페이스(35)를 포함하며, 카트리지 하우징(31) 내에 모두 배치될 수 있다. 일 실시예에서, 카트리지 하우징(31)은 펜 캡(pen cap) 또는 필기 도구나 필기 기구[예: 기기(100)]의 캡의 형태일 수 있다. 예를 들어, 일 실시예에서, 카트리지 하우징(31)은 기기(100)의 하우징(62)의 상부(29) 및 하부(39) 위에 확실히 끼워지도록 설계될 수 있다. 이와 같이, 카트리지(28)의 하우징(31)은, 펜 캡이 펜에 확실하게 끼워질 때와 마찬가지의 방식으로 기기(100)에 확실하게 끼워질 수 있는 형상일 수 있다. 특히, 카트리지(28)의 하우징(31)은 기기(100)의 하우징(62)의 상부(29)에 확실히 끼워지도록 설계될 수 있다. 또, 카트리지(28)의 하우징(31)은 기기(100)의 하우징(62)의 하부(39)에도 확실하게 끼워지도록 설계될 수 있으므로, 카트리지(28)가 기록 소자(52), 광 검출기(42) 및/또는 광 방출기(44)를 덮는 및/또는 보호하는 기기(100)의 캡(또는 커버)으로 사용될 있도록 해준다. 기기(100)의 하부(39)에 확실하게 끼워질 때, 카트리지(28)가 수동적으로 보관된다는 것을 알아야 한다.
도 2에서, 기기(100)는, 카트리지(예를 들어, 도면부호 28)가 기기(100)에 연결될 수 있도록 하는 인터페이스(37)를 포함할 수 있다.
카트리지(28)의 하우징(31)이 기기(100)의 하우징(62)의 상부(29)에 확실하 게 끼워질 때, 카트리지(28)의 인터페이스(35)는 기기(100)의 인터페이스(37)와 전기적으로 연결된다는 것을 알 수 있다. 이런 식으로 연결되는 경우, 카트리지(28)는 기기(100)의 프로세서(32), 전원(34) 및 메모리 유닛(48)에 연결될 수 있다. 이처럼, 일 실시예에서, 기기(100)의 프로세서(32)는 카트리지(28)의 메모리(30)로부터 임의의 상주하는 애플리케이션의 복사본을 기기(100)의 메모리 유닛(48)으로 자동으로 다운로드하여 저장할 수 있다. 메모리(30)에 의해 저장된 상기한 정보의 전부(또는 일부)에 대한 복사본이 기기(100)의 메모리 유닛(48)으로 다운로드되어 저장될 수 있음을 알 수 있다. 일 실시예에서, 하나 이상의 애플리케이션이 임의의 다른 정보와 함께 카트리지(28)의 메모리(30)로부터 기기(100)의 메모리 유닛(48)에 다운로드된 후, 카트리지(28)는 기기(100)에서 제거(또는 결합 해제)될 수 있으며, 기기(100)는 카트리지(28)로부터 다운로드된 하나 이상의 애플리케이션을 임의의 다른 정보와 함께 여전히 사용할 수 있다는 것에 유의하여야 한다.
카트리지(28)는 또한 선택적으로 하나 이상의 주변 기기(예를 들어, 도면부호 41)을 포함할 수 있으며, 이 주변 기기는 카트리지(28)에 의해 저장된 하나 이상의 애플리케이션과 연관이 있을 수 있다. 예를 들어, 선택적인 주변 기기(41)는 럼블 팩(rumble pack), 발광 다이오드(LED), 업그레이드형 디스플레이, 업그레이드형 스피커 등으로 구현될 수 있지만, 이것으로 한정되지는 않는다. 주변 기기(41)는 카트리지(28)의 인터페이스(35)을 통해 기기(100)에 연결될 수 있다. 카트리지(28)의 메모리(30)는 폭넓고 다양한 방식으로 구현될 수 있음은 물론이다. 예를 들어, 메모리(30)는 플래시 메모리, 프로그램 가능한 판독전용 메모리(PROM), 소거 및 프로그램 가능한 판독전용 메모리(EPROM), 전기적으로 소거 및 프로그램 가능한 판독전용 메모리(EEPROM), 및/또는 오랜 기간 동안 전기적인 소스와의 연결이 끊어진 후에도 데이터를 저장할 수 있는 기타 비휘발성 메모리로 구현될 수 있지만, 이것으로 한정되지 않는다.
도 3은 본 발명의 다양한 실시예를 구현할 수 있는 다른 전자적인 상호작용 기기(200)의 블록도이다. 기기(200)는, 앞서 설명한 바와 같이, 프로세서(32), 전원(34), 오디오 출력 기기(36), 입력 버튼(38), 메모리 유닛(48), 광 검출기(42), 광 방출기(44), 기록 소자(52) 및 인터페이스(37)를 포함한다. 하지만, 도 2의 실시예에서, 광 검출기(42), 광 방출기(44) 및 기록 소자(52)는 하우징(62) 내에 광학 기기(201)로서 통합되며, 프로세서(32), 전원(34), 오디오 출력 기기(36), 입력 버튼(38), 인터페이스(37) 및 메모리 유닛(48)는 하우징(74)을 포함하는 플랫폼(202)으로 통합된다. 본 실시예에서, 광학 기기(201)는 케이블(102)에 의해 플랫폼(202)에 연결되어 있지만, 무선 접속을 대신 사용할 수 있다. 도 3에 도시된 소자는 전술한 것과는 다른 조합으로 광학 기기(201)와 플랫폼(202) 사이에 분포될 수 있다.
또, 도 3은 앞서 설명한 메모리(30), 인터페이스(35), 및 선택적인 주변 기기(41)를 포함할 수 있는 카트리지(28)를 또한 도시하고 있다. 또한, 카트리지(28)는, 카트리지(28)를 플랫폼(202)의 하우징(74)의 측면(204)에 확실하게 결합시킬 수 있는 형상을 갖는 하우징(31')을 포함할 수 있다. 하우징(31')은 도 1의 하 우징(31)의 상이한 형상임에 유의하여야 한다. 일 실시예에서, 인터페이스(37)가 광학 기기(201)의 일부로서 구현되는 경우, 카트리지(28)의 하우징(31')은, 카트리지(28)를 광학 기기(201)에 확실하게 결합시킬 수 있도록 변형될 수 있다.
도 4는 본 발명의 일 실시예에 따른 마크의 패턴이 있는 종이 시트(15)를 나타낸 도면이다.
도 4의 실시예에서, 종이 시트(15)는 마크(18)의 패턴으로 구성되는 광학적으로 판독 가능한 위치 코드(17) 형태로 코딩 패턴(coding pattern)을 구비하고 있다. 도 4의 마크(18)는 분명하게 나타내기 위해 매우 크게 확대한 것이다. 실제로, 마크(18)는 사람의 시각체계로는 쉽게 인식할 수 없으며, 종이 시트(15) 위에 그레이스케일(grayscale)로 나타날 수 있다. 일 실시예에서, 마크(18)는 점으로 구현되지만, 본 발명은 이것으로 한정되지는 않는다. 마크(18)는 표면(70)에 공간 격자(spatial grid)를 생성한다. 펜을 내려 놓으면, 상호작용 기기(100 또는 200)은 펜의 팁 위치 가까이에 있는 마크(18)의 고유한 패턴을 식별할 수 있다. 이 고유한 패턴은 또한 펜 팁이 머무르고 있는, 표면(70) 상의 위치를 식별할 수 있다.
도 5는 본 발명의 일 실시예에 따른, 도 4의 위치 코드(17)의 확대된 부분(19)을 나타낸 것이다. 상호작용 기기(100 또는 200)(도 2 또는 도 3)와 같이 광학 기기는 위치 코드(17)의 영역의 이미지를 기록하도록 배치되어 있다. 일 실시예에서, 광학 기기는 래스터 포인트(raster point)(22)을 가로지르는 래스터 선(21)과 래스터의 형태로 기준 시스템에 마크(18)를 맞춘다. 각각의 마크(18)는 래스터 점(22)과 연관되어 있다. 예를 들어, 마크(23)는 래스터 포인트(24)와 연관 되어 있다. 이미지/래스터 내의 마크에서, 마크와 연관된 래스터 포인트로부터의 마크의 변위(displacement)가 결정된다. 이 변위를 사용하여, 이미지/래스터 내의 패턴을 기준 시스템 내의 패턴과 비교한다. 기준 시스템 내의 각 패턴은 표면(70)의 특정 위치와 연관되어 있다. 따라서, 이미지/래스터 내의 패턴과 기준 시스템 내의 각 패턴을 일치시킴으로써, 표면(70)에 대한 광학 기기의 위치를 결정할 수 있다.
추가적인 정보는, 미국특허 제6,502,756호, 미국특허출원 제10/179,966호(2002년 6월 26일 출원), WO 01/95559, WO 01/71473, WO 01/75723, WO 01/26032, WO 01/75780, WO 01/01670, WO 01/75773, WO 01 /71475, WO 01/73983, 및 WO 01/16691에서 제공받을 수 있으며, 이들 특허 및 특허출원의 내용 전부는 모든 목적으로 참조에 의해 본 명세서에 통합된다. 또한 미국특허출원 제60/456,053호(2003년 3월 19일 출원) 및 미국특허출원 제10/803,803호(2004년 3월 17일 출원)를 참조할 수 있으며, 이들 모두의 내용 전부는 모든 목적으로 참조에 의해 본 명세서에 통합된다.
다시 도 2를 참조하면, 표면(70) 상의 4개의 지점 또는 영역은 글자 A, B, C, D로 나타낸다(이 글자들은 표면(70) 상에 인쇄되어 있지 않지만 표면(70)의 지점을 나타내기 위해 사용된다는 것에 유의하여야 한다). 표면(70) 상에는 이와 같은 영역이 많이 있을 수 있다. 표면(70) 상의 각 영역과 연관된 것은 마크의 고유한 패턴이다. 일부 마크가 중첩되는 영역 사이에서 공유되더라도 영역 내의 마크의 패턴은 해당 영역에 대해 여전히 고유하기 때문에, 표면(70) 상의 영역들은 중 첩될 수 있다.
도 2의 예에서, 기기(100)[구체적으로, 기록 소자(52)]를 사용하여, 사용자는 예를 들어, 표면(70) 상의 지점 A에서 원이 그려진 글자 "M"으로 이루어지는 문자를 생성할 수 있다(일반적으로 사용자는 표면(70) 상의 임의의 지점에 문자를 생성할 수 있다). 사용자는 기기(100)로부터의 프롬프트(예를 들어, 음성 프롬프트)에 응답하여 그러한 문자를 생성할 수 있다. 사용자가 문자를 생성하는 경우, 기기(100)는 문자가 생성된 지점에 고유하게 존재하는 마킹의 패턴을 기록한다. 기기(100)는 막 생성된 문자와 마킹의 패턴을 연관시킨다. 기기(100)가 원이 그려진 문자 "M"에 위에 위치되면, 기기(100)는 그것과 관련된 마크의 패턴을 인식하고, 원이 그려진 "M"과 연관시킴으로써 그 지점을 인식한다. 사실상, 기기(100)는 문자 자체를 인식하는 것이 아니라 문자가 위치되어 있는 지점에서의 마킹의 패턴을 사용하여 문자를 인식한다.
일 실시예에서, 문자는 특정한 커맨드와 연관되어 있다. 방금 설명한 예에서, 사용자는 특정한 커맨드를 식별하는 문자를 생성(예를 들어, 기록)할 수 잇으며, 단순히 기기(100)를 기록된 문자 위에 위치시킴으로써 커맨드를 반복하여 호출할 수 있다. 다시 말해, 사용자는 커맨드를 호출해야 할 때마다 커맨드를 위한 문자를 다시 쓰지 않아도 되며, 대신에 사용자는 커맨드용 문자를 한번 기록하고, 기록된 동일한 문자를 사용(예를 들어, 펜 팁으로 선택)함으로써 커맨드를 반복하여 호출할 수 있다.
도 5는 표면(19)(예를 들어, 종이 시트) 상의 도트(dot) 영역을 나타내며, 본 발명의 일 실시예에 따른 부호화된 정보를 저장하는 데 사용될 수 있다. 이 정보를 판독하기 위해, 펜기반 컴퓨터(100)는 영역의 임의의 부분 상에 놓인다. 도 5의 예는 종이 시트를 나타내지만, 전술한 바와 같이, 본 발명에 따른 실시예는 다양한 타입의 재료로 이루어지는 다른 타입 및 형상의 표면 상에 구현될 수 있다.
영역은 도트와 같은 마크의 패턴을 포함한다. 실시예에서, 패턴은 더 큰 맵 범위 내의 고유한 위치를 얻기 위해 복호화된다. 위치는 (x, y) 좌표 쌍일 수 있다. 이 영역의 표면은 여전히 다른 정보를 포함할 수 있다. 예를 들어, 표면은 도트 패턴과 함께 인쇄된 텍스트기반 또는 이미지기반 정보를 포함할 수 있다. 특수한 예로서, 표면은 하나 이상의 그림(picture)과, 카트리지(28)에 의해 저장된 하나 이상의 애플리케이션과 결합하여 활용될 수 있는 앞서 언급한 마킹의 패턴을 포함할 수 있는 페이지일 수 있다. 영역 내의 마크의 패턴으로 부호화된 정보는 여러 상이한 방식으로 사용될 수 있다. 예를 들어, 복호화된 위치 정보는 그 위치와 연관된 애플리케이션을 식별하기 위해 사용될 수 있다.
본 발명에 따라 그린 사용자 인터페이스
도 6a는 본 발명의 실시예에 따라 기록된 사용자 인터페이스의 일례를 나타낸 것이다. 상호작용 기기는 전술한 바와 같이 도 6a에 도시한 바와 같은 마킹을 생성하기 위해 사용될 수 있다. 예를 들어, 애플리케이션을 호출하기 위해, 사용자는 선택적인 인접한 체크 마크(315)와 함께 마킹(310)(원이 그려진 "T")을 그릴 수 있다. 일 실시예에서, 이것은 번역이나 번역기 애플리케이션을 호출한다. 다른 실시예에서, 애플리케이션은 사전 애플리케이션이거나 사용자가 그린 입력을 받 아들이는 임의의 애플리케이션일 수 있다. 본 발명의 실시예에 따르면, 사용자는 기록 기기를 사용하여 예를 들어 CAT(330)과 같은 마킹이나 단어를 그리거나 쓸 수 있다. 이것에 응답하여, 상호작용 컴퓨터는 기록된 단어(330) 주위에 공간적인 경계(335) 예를 들어, 이 예에서는 직사각형을 생성한다. 이것은 기록된 단어의 공간 범위의 최대 좌표 (x, y)에서 최소 좌표(x, y)까지에 의해 규정되는 직사각형을 계산함으로써 이루어질 수 있다. 그 결과는 길이 L(최대 x - 최소 x)이고 높이 h(최대 y - 최소 y)인 경계(335)이다. 경계(335)는 또한 "단어 영역" 또는 "단어 인터페이스 영역" 또는 "공간 경계"라고도 한다.
본 발명의 일 실시예에 따르면, 상호작용 컴퓨터는 그런 다음 자동으로 메모리에 경계(335)에 인접한[따라서 기록된 워드(330)에 인접한] 눈에 보이지 않는 인터페이스 영역(320a, 320b)을 자동으로 생성한다. 인터페이스 영역(320a, 320b)은 각각 폭 w이고 높이 h이다. 이 예에서, 각 인터페이스 영역의 높이는 경계(335)의 높이와 같도록 규정된다. 일 실시예에서, 폭은 고정된 폭일 수 있거나, 경계(335)의 폭 및/또는 높이에 종속되어 그에 따라 달라질 수 있다. 동일한 기록된 단어의 인터페이스 영역은 공간적으로 상호 중첩되지 않으며, 연관된 경계와도 중첩되지 않는다는 것을 알아야 한다.
각 인터페이스 영역은 거기에 특수한 컴퓨터 기능이 할당되었음을 알아야 한다. 예를 들어, 일 실시예에서, 인터페이스 영역(320a)은 사용자에 의해 선택될 때 관련된 단어(330)가 번역되도록 한다. 이 예에서, 번역은 CAT의 번역을 예를 들어 스페인어 "gato"를 음성으로 발표하는 것을 의미한다(영어를 스페인어로 변역 하는 경우). 일 실시예에서, 인터페이스 영역에 대한 사용자 선택은 사용자가 상호작용 기기의 팁을 해당 영역 내에서 탭핑하는 것을 의미한다. 선택은 또한 사용자가 영역 내에서 이중 탭핑 및/또는 심볼이나 다른 마킹을 기록하는 것을 의미한다. 또, 사용자가 영역(320b)을 선택하는 경우, 이것은 연관된 단어(330)의 철자 "g, "a", "t", 및 "o"를 음성으로 발표하는 것을 의미한다. 따라서, 번역 기능은 인터페이스 영역(320a)과 연관되어 있고, 철자 기능은 인터페이스 영역(320b)과 연관되어 있다. 게다가, 양자의 컴퓨터 기능은 이들 두 인터페이스 영역의 연관된 단어(330)에 대해 자동으로 동작한다. 유사하게 위치한 상이한 단어의 인터페이스 영역은 일반적으로 동일한 컴퓨터 기능성과 연관이 있지만 자신이 연관된 단어에 대해 동작한다는 것을 알아야 한다.
경계 또는 단어 인터페이스 영역(335)은 또한 활성 영역(active region)이다. 다시 말해, 기록된 단어(330)가 다수의 번역이 있으면, 사용자는 인터페이스 영역(335) 내에서 탭핑하여 번역 리스트를 하나씩 회전시킴으로써 적절한 번역을 선택할 수 있다. 이 실시예에서, 각각의 탭핑은 라운드로빈 방식(round-robin fashion)으로 다음 번역이 발표되도록 한다. 이 경우에, 인터페이스 영역(320a, 320b)은 사용자에 의해 선택된 최종 번역에 대해 동작할 것이다.
임의의 기능이 인터페이스 영역과 연관될 수 있으며, 임의의 애플리케이션은 그러한 기능성을 사용하도록 할 수 있다. 예를 들어, 번역 애플리케이션 대신에 사전 애플리케이션이 사용될 수 있다. 이 경우에, 활성 영역은 연관된 단어를 정의한 컴퓨터 기능을 호출하거나 연관된 단어의 반의어, 동의어, 어원, 유사한 단어 를 제공할 수 있다. 이 기능들은 인터페이스 영역(320a, 320b)에 임의의 방식으로 할당될 수 있다.
인터페이스 영역(320a, 320b)은 사용자가 관련 단어(330)를 기록할 때 생성될 뿐만 아니라, 사용자가 예를 들어 경계(335) 내를 탭핑함으로써 단어(330)를 선택할 때, 아무 때나 자동으로 생성될 수 있다는 것을 알아야 한다.
자동으로 생성되는 인터페이스 영역(320a, 320b)의 사용의 한 가지 이점은 사용자가 도 1에 도시된 바와 같이 번역 및/또는 철자 마킹을 별개로 그릴 필요가 없다는 것이다. 그보다는, 일단 목표 단어(330)를 썼으면, 사용자는 단지 단어의 앞 또는 뒤를 가볍게 두드려 원하는 기능성을 호출할 수 있다.
도 6b는 예를 들어 글자의 크기가 일정하지 않을 수 있는 일반적이지 못한 크기의 기록된 단어(330)를 나타낸 것이다. 이 경우에, 마지막 글자 t는 기록된 단어의 나머지 글자들보다 크다. 이 경우에, 단어 활성 영역 또는 공간 경계(335)는 마지막 글자 t를 둘러싸는 높이로 확대된다. 또한 인터페이스 영역(320a, 320b)의 높이 h도 또한 경계(335)의 높이 h와 일치하도록 만들어진다. 또, 인터페이스 영역(320a, 320b)의 폭 w는 고정된 폭(예를 들어, __ 인치 등)이거나 경계(335)의 폭 w나 높이 h에 종속될 수 있다.
도 7a에 도시된 바와 같이, 사용자에 의해 만들어진 기록된 단어 각각에 대해 새로운 인터페이스 영역이 규정된다. 도 7a는 두 개의 기록된 단어, CAT(330)과 DOG(350)을 나타낸다. 동일한 도 6a의 인터페이스 영역(320a, 320b)이 기록된 단어(330)에 대해 도시되어 있다. 하지만, 사용자가 단어 DOG(350)을 기록할 때, 상호작용 컴퓨터는 단어의 경계(355)를 자동으로 규정하고 또한 연관된 단어(350)의 양쪽에 인터페이스 영역(340a, 340b)을 자동으로 생성한다. 전술한 것처럼, 각 인터페이스 영역의 높이 h2는 경계(355)의 높이와 동일하다. 또한 각 인터페이스 영역의 폭 w2는 고정되거나 연관된 경계(355)의 높이 h2나 폭 l2에 따라 달라질 수 있다.
일반적으로 동일한 애플리케이션 프로그램 내에서, 상이한 마킹의 동일한 공간적 위치의 인터페이스 영역은 동일한 컴퓨터 기능성을 가진다는 것을 알아야 한다. 다시 말해, 인터페이스 영역(320a)와 인터페이스 영역(340a) 양자는 동일한 컴퓨터 기능성을 갖지만, 각자의 마킹(330)과 마킹(350)에 대해 동작한다. 더욱 구체적으로는, 일 실시예에 따르면, 동일한 애플리케이션 프로그램 내에서, 동일한 컴퓨터 기능이 도 6a와 관련하여 논의한 바와 같이 인터페이스 영역(340a, 340b)에 할당된다. 다시 말해, 번역기 애플리케이션이 사용중이라고 하면, 번역 기능이 인터페이스 영역(340a)에 할당되고 철자 기능이 인터페이스(340b)에 할당된다. 여기에서의 차이점은, 각각의 컴퓨터 기능이 연관된 단어 DOG(350)에 대해 동작할 수 있을 것이라는 것이다. 인터페이스 영역(340a)가 사용자에 의해 선택되면, 컴퓨터는 DOG에 대한 스페인어 번역 "perro"를 발표한다. 또한, 인터페이스 영역(340b)가 사용자에 의해 선택되면, DOG에 대한 번역은 철자, 예를 들어 "p", "e", "e", "r", 및 "o"로 출력된다.
도 7a의 예에서, 인터페이스 영역의 폭은 관련 단어의 크기에 종속된다. 다시 말해, 기록된 단어 DOG(350)은 기록된 단어 CAT(330)의 크기보다 작다. 따라 서, 인터페이스 영역(340a 340b)의 폭 w2는 인터페이스 영역(320a, 320b)의 폭 w1보다 작다. 본 발명의 실시예에 따르면, 인터페이스 영역의 폭은 연관된 단어의 폭 및/또는 높이나 그 기능 중 어느 것에 종속될 수 있다. 또한, 인터페이스 영역의 높이는 연관된 단어의 높이와 일치하도록 설정된다.
도 7b는 인터페이스 영역의 폭이 고정되고 연관된 단어의 크기에 종속되지 않는 것을 제외하고는 도 7a와 유사한 예를 나타낸 것이다. 여기서, 기록된 단어 CAT(330)이 기록된 단어 DOG(350)보다 크지만, 인터페이스 영역(320a)의 폭은 인터페이스 영역(340a)의 폭과 동일하다. 하지만, 인터페이스 영역의 높이는 h1 및 h2로 도시된 바와 같이, 연관된 단어의 높이와 일치하도록 설정된다. 고정된 폭은 임의의 적당한 크기일 수 있으며, 일 실시에에서는 약 0.25 내지 1.0 인치이지만, 사용자가 표준 필기 도구의 팁 크기로 쉽게 선택할 수 있는 것이라면 임의의 크기일 수 있다.
본 발명의 실시예는 단어 경계(335, 355)를 지속적으로 컴퓨터 메모리에 저장할 수 있지만, 인터페이스 영역(320a 320b, 340a, 340b)은 지속적으로 저장하거나 컴퓨터 자원, 예를 들어 메모리와 처리 전력을 절약하기 위해 지속적으로 저장하지 않을 수 있다. 다시 말해, 일단 단어 경계가 알려져 저장되면, 인터페이스 영역은 필요할 때 신속하게 계산될 수 있으므로, 그것의 목표 애플리케이션이 활성 상태인 동안에 인터페이스 영역을 반드시 지속적으로 메모리에 저장하지 않아도 된다. 일 실시예에서, 연관된 단어의 활성 영역은 사용된 최종 단어에 대해서만 저장되고(예를 들어, 메모리에 유지), 상용된 최종 단어가 아닌 다른 단어와 관련된 인터페이스 영역은 사용자가 해당 단어와 상호작용할 때 신속하게 계산된다. 이런식으로, 몇 개의 인터페이스 영역만 언제나 활성화 상태일 것을 필요로 한다.
도 8은 서로 다른 기록된 워드의 인터페이스 영역이 서로 중첩되는 경우를 나타낸 것이다.
사용자가 중첩되는 범위 내에서 선택하는 경우, 예상되는 컴퓨터 기능에 대해 모호함이 발생할 수 있기 때문에 이것은 피해야되는 상황이다. 이러한 타입의 중첩이 발생되는 것을 허용하면 예상치 못한 결과가 발생할 수 있다. 본 발명의 실시예들은 인터페이스 중첩을 회피하기 위한 많은 해결법을 제공한다. 먼저, 두 번째 기록되는 단어[예를 들어, DOG(350)]가 기존의 기록된 단어[예를 들어, CAT(330)]에 너무 가까이에 기록되고 있으면, 일 실시예에서는 두 번째 단어가 너무 가깝다고, 예를 들어, "기존의 단어에서 더 떨어져 단어를 쓰세요" 또는 "새로운 단어를 더 오른쪽에 쓰세요" 등으로 사용자에게 알린다. 이 경우에, 사용자는 DOG(350)을 중첩을 피해 다른 곳에 쓰도록 지시를 받기 때문에, 중첩하는 인터페이스 영역(340a)은 실제로 결코 생성될 수 없다. 이것이 "경고" 실시예이다.
다른 실시예에서, 상호작용 컴퓨터는 사용자에게 두 번째 단어 DOG(350)의 쓰기를 완성할 수 있도록 하고, 단지 인터페이스 영역(320b, 340a)의 폭(또는 다른 경우에는 높이)을 조정(예를 들어, 축소)하여, 더 이상 중첩하지 않도록, 예를 들어 경계(335)와 경계(355) 사이를 할당하도록 한다. 이것이 "할당(sharing)" 실시예이다.
또 다른 실시예에서, 상호작용 컴퓨터는 최총 기록된 및/또는 선택된 단어 의 인터페이스 영역만을 항상 활성화하기 때문에, 인터페이스 영역의 중첩을 허용한다. 이것은 "팝업(pop-up)" 인터페이스 영역이라 한다. 예를 들어, 일단 사용자가 DOG(350)을 쓰면, 인터페이스 영역(340a, 340b)이 생성되어 활성화된다. 하지만, 기존의 인터페이스 영역(320a, 320b)은 그 후 비활성화된다. 따라서, 활성 인터페이스 영역 중에서, 인터페이스 영역(320b)이 현 시점에서 활성 상태가 아니기 때문에 영역(320b)과 영역(340a) 사이에는 중첩이 존재하지 않는다. 따라서, 영역(340a) 내의 어떤 지점의 선택도 영역(340a)과 연관된 기능을 실행할 것이기 때문에 예상치 못한 컴퓨터 기능을 동작시키지 않을 것이다. 또한 사용자가 다음에 경계(335) 내에서 선택하였으면, 인터페이스 영역(320a, 320b)이 활성화(예를 들어, 표면으로 "팝업")될 것이고, 인터페이스 영역(340a, 340b)은 비활성화될 것이며, 다시 중첩 상황은 잔존하지 않는다.
다른 실시예에서는, 중첩 상황이 발생하면, 마지막에 그려진(최근) 인터페이스 영역이 제어되고 다른 인터페이스 영역은 비활성화된다. 이것인 "Z-순서(Z-ordering)" 실시예이며, 서로 중첩할 때 마지막 Z 값[컴퓨터 그래픽 처리로부터 유추(analogy)]을 갖는 인터페이스 영역이 활성 상태로 남는다. 도 8의 경우에, 인터페이스 영역(340a)은 제어될 수 있으며, DOG(350)이 CAT(330) 다음에 기록되었기 때문에 인터페이스 영역(320b)은 비활성화될 것이다.
다른 실시예에서, 인터페이스 영역은 일정 시간 후에 "타임아웃(time-out)" 된다. 따라서, CAT(330)이 기록되어 인터페이스 영역(320a, 320b)이 생성되어 활성 상태로 남아 있다고 가정하자. 타임아웃 기간이 규정된다. 타임아웃 기간이 경과하도록 인터페이스 영역(320a, 320b) 또는 경계(355)와 상호작용이 발생하지 않으면, 인터페이스 영역(320a, 320b)은 비활성 상태로 된다. 영역(320b)이 타임아웃으로 인해 비활성화된 후에 영역(340a)이 생성되면, 중첩 상황은 존재하지 않는다.
도 9는 기록된 단어의 위와 아래의 영역에 인터페이스 영역이 규정될 수도 있음을 나타낸 것이다. 이 예에서, 인터페이스 영역(430a, 430b)은 기록된 단어 "WHITE"(410) 위와 아래에 규정되어 있다. 이 경우에, 인터페이스 영역(430a, 430b)의 폭은 기록된 단어(410)에 대해 규정된 경계(415)의 폭과 동일하다. 인터페이스 영역(430a, 430b)의 높이는 고정된 크기이거나 연관된 기록된 단어(410)의 높이 및/또는 폭에 종속될 수 있다. 앞서 설명한 바와 같이, 인터페이스 영역은 또한 왼쪽과 오른쪽, 예를 들어 인터페이스 영역(420a, 420b)에 규정될 수도 있다.
이 특정한 예에서, 4개의 인터페이스 영역이 기록된 워드(410)에 대해 자동으로 규정된다. 이 경우에, 애플리케이션은
인터페이스 영역(430a, 430b 및 420a, 420b)에 임의의 순서로 각각 할당되어 있는 1)정의; 2) 반의어; 3) 동의어; 및 4) 어원과 같은 컴퓨터 기능을 구비한 사전 애플리케이션일 수 있다.
인터페이스 영역의 배치에 대해 특정한 예를 제공하였지만, 본 발명의 실시예는 기록된 워드에 인접하는 인터페이스 영역의 임의의 배치에 잘 어울리며, 따라서 단어와 뚜렷하게 연관되어 있다. 왼쪽, 오른쪽, 위쪽 및 아래쪽에 인터페이스 영역를 배치하는 것은 단지 예일 뿐이다. 또한, 인터페이스 영역의 크기도 본 발 명의 범위 내에서 변화될 수 있다. 인터페이스 영역은 고정 폭, 가변 폭, 또는 양자의 조합일 수 있다. 또한, 직사각형 영역을 인터페이스 영역의 형상으로 설명하였다. 하지만, 이것은 단지 예일 뿐이며, 예를 들어 원, 삼각형, 불규칙한 형상 등 잘 알려진 기하학적 형상을 채택할 수도 있다. 또한, 기록된 단어는 인터페이스 영역의 생성을 트리거링(triggring) 하기 위한 예로서 사용되었다. 하지만, 트리거 인터페이스 영역 생성을 위해 임의의 기록된 항목, 예를 들어 숫자, 글자, 방정식(equation), 그래픽, 명칭, 도형(diagram) 등을 사용할 수도 있다. 끝으로, 여기서는 번역기, 사전 등의 전형적인 애플리케이션을 설명하였지만, 이것들은 예일 뿐이다. 본 발명의 범위 내에서 입력으로 기록된 항목의 의미(해석)를 갖는 컴퓨터 기능을 제공하는 임의의 애플리케이션을 사용할 수 있다.
도 10a는 여기서 설명한 사용자 인터페이스 영역을 생성하기 위한 컴퓨터로 구현되는 프로세스(500)를 나타낸 것이다. 프로세스(500)는 도 2 및 도 3과 관련하여 설명한 상호작용 기기에서 구현될 수 있다. 일 실시예에서, 프로세스(500)는 상호작용 기기의 메모리 유닛 내에 저장된 컴퓨터 코드로 구현되어 상호작용 기기의 프로세서에서 실행될 수 있다. 프로세스(500)는 사용자에 의해 기록되는 기록된 단어에 응답하여 인터페이스 영역을 생성하는 것에 초점을 맞춘다.
단계 510에서, 컴퓨터는 사용자가 예를 들어 종이 등의 기록 표면 상에 마킹, 예를 들어 단어를 기록하는지를 검출한다. 그러면 단어의 공간 경계(또는 "단어 경계"), 예를 들어 단어를 둘러싸는 직사각형이 계산된다. 이어서 기록된 단어의 공간 경계가 단계 515에서 메모리에 기록된다. 단계 520에서, 공간 경계에 인 접하여 인터페이스 영역(활성 영역)이 자동으로 생성된다. 인터페이스 영역은 공간 경계에 인접하여 배치되어 있으므로, 인터페이스 영역의 위치는 공간 경계의 위치에 종속된다. 또한 일 실시예에서, 인터페이스 영역의 높이는 공간 경계의 높이와 일치하고, 그래서 인터페이스 영역의 크기는 공간 경계의 크기에 종속되므로, 기록된 단어의 크기에도 종속된다. 각 인터페이스 영역은 현재 동작중인 애플리케이션 프로그램에 따라 그것과 연관된 특정한 컴퓨터 기능을 갖는다.
단계 525에서, 사용자가 인터페이스 영역 중 하나와 상호작용(예를 들어, 탭, 또는 이중 탭 또는 인터페이스 영역 내에서의 기록)하는지에 대한 확인이 이루어진다. 상호작용이 없으면, 단계 530으로 진행되고, 상호작용이 있으면 단계 535에서 선택된 인터페이스 영역과 연관된 컴퓨터 기능이 선택된 인터페이스 영역과 연관된 기록된 단어에 대해 실행된다. 그런 다음, 단계 530에서 기록된 단어의 공간 경계에 대해 사용자 상호작용을 확인한다. 상호작용이 있으면, 연관된 단어에 대해 공간 경계와 연관된 컴퓨터 기능이 실행된다. 프로세스는 그런 다음 다른 단어가 기록되어, 기록되는 새로운 단어에 응답하여 단계 510으로 진행될 때까지 단계 525를 반복한다.
도 10b는 여기서 설명한 사용자 인터페이스 영역을 생성하기 위한 컴퓨터로 구현되는 프로세스(550)를 나타낸 것이다. 프로세스(550)는 도 2 및 도 3과 관련하여 설명한 상호작용 기기에서 구현될 수 있다. 일 실시예에서, 프로세스(550)는 상호작용 기기의 메모리 유닛 내에 저장된 컴퓨터 코드로 구현되어 상호작용 기기의 프로세서에서 실행될 수 있다. 프로세스(550)는 기존의 기록된 워드의 사용자 선택에 응답하여 인터페이스 영역을 생성하는 것에 초점을 맞춘다. 이 경우에, (예를 들어, 도 10a의 프로세스(500)의 기능을 사용하여) 하나 이상의 기록된 단어가 이미 생성되어 있다고 가정한다. 이 기록된 단어에 연관된 공간 경계는 그 후 메모리에 저장된다. 도 10b와 관련한 가정은 기록된 단어의 인터페이스 영역이 메모리에 모두 지속적으로 저장될 수 없다는 것이다. 하지만, 일단 기록된 단어가 선택되면, 대응하는 인터페이스 영역은 신속하게 계산된다.
단계 560에서, 사용자가 현존 및 저장된 공간 경계를 선택(예를 들어, 탭, 또는 이중 탭 또는 공간 경계 내에 뭔가를 기록)하였는지에 대한 확인이 이루어진다. 선택이 있으면, 단계 520에서, 선택된 공간 경계에 대한 인터페이스 영역을 자동으로 생성한다. 단계 520 내지 단계 540은 특정한 컴퓨터 기능성을 호출하기 위해 인터페이스 영역을 사용할 수 있는 도 10a와 유사하다.
도 11은 기록된 표면 상에서 공간적으로 중첩하는 인터페이스 영역을 검출하여 해소하는 본 발명의 실시예에 의해 사용되는 일반적인 프로세스(600)를 나타낸 것이다. 프로세스(600)는 도 2 및 도 3과 관련하여 설명한 상호작용 기기에서 구현될 수 있다. 일 실시예에서, 프로세스(600)는 상호작용 기기의 메모리 유닛 내에 저장된 컴퓨터 코드로 구현되어 상호작용 기기의 프로세서에서 실행될 수 있다. 단계 610에서, 상호작용 기기는 사용자가 기록하는 제1 마킹을 검출하여 제1 마킹의 위치 및 크기에 기초하여 제1 마킹과 연관된 인터페이스 영역을 자동으로 생성한다. 단계 615에서, 상호작용 기기는 기록 표면 상의 사용자가 기록하는 제2 마킹을 검출하여 제2 마킹의 위치 및 크기를 기록한다.
단계 620에서, 상호작용 기기는 제2 마킹의 인터페이스 영역과 관련된 인터페이스 영역의 위치 및 크기를 계산한다. 그런 다음, 상호작용 기기는 상호작용 영역이 임의의 다른 상호 작용 영역, 예를 들어 제1 마킹의 상호작용 영역과 중첩되는지 여부를 검출한다. 일 실시예에서, 중첩은 인터페이스 영역의 공간 좌표를 비교함으로써 검출된다. 좌표가 일치하면 중첩이 검출된다. 중첩이 검출되지 않으면, 단계 630에서, 상호작용 기기는 제2 마킹과 연관된 인터페이스 영역을 생성하여 활성화시킨다.
하지만, 단계 625에서, 중첩 해결 프로세스가 중첩하는 인터페이스 영역 사이의 공간적인 모호함을 해소하기 위해 시작된다. 전술한 바와 같은 몇 가지 해결 프로세스 중 하나가 실행될 수 있다. 일 실시예에서는 단계 625에서, 상호작용 기기는 제2 마킹이 제1 마킹에 너무 가깝다고 경고할 수 있다. 이것이 경고 모델이다. 이 실시예에서, 제2 마킹의 인터페이스 영역은 결코 생성되지 않기 때문에 단계 630은 시작되지 않는다. 그런 다음, 사용자는 기존의 기록된 것과 중첩되지 않는 지점에 제2 마킹을 그리도록 권유받는다. 제2 실시예에서는 할당 모델이 사용될 수 있다. 이 경우에, 단계 625에서 상호작용 기기는 중첩하는 상호작용 영역 사이에 공간을 할당하기 위해 제1 마킹과 제2 마킹 사이에 충분한 공간이 있는지를 판정한다. 공간이 충분하면, 중첩하는 영역의 폭(또는 경우에 따라 높이)는 중첩이 제거될 때까지 좁아진다. 단계 630에서는 그런 다음 제2 마킹에 대한 새로운 인터페이스 영역을 생성한다. 할당을 허용하기에 공간이 충분하지 않으면, 단계 630은 시작되지 않는다.
제3 실시예에서 타임아웃 모델이 사용된다. 단계 625에서 상호작용 기기는 먼저 제1 인터페이스 영역과 연관된 마킹이 타임아웃 되었는지를 확인한다. 다시 말해, 앞서 설명한 타임아웃 기간 동안에 제1 마킹 또는 제1 마킹과 연관된 임의의 인터페이스 영역과의 사용자 상호작용이 없으면, 이 대상은 더 이상 활성 상태가 아닌 것으로 가정한다. 제1 마킹이 타임아웃 되었으면, 단계 630이 시작되어 제2 인터페이스 영역을 생성한다. 제1 마킹이 여전히 활성 상태이면, 할당을 시도할 수 있다. 할당을 허용하기에 충분한 공간이 없으면, 단계 630은 시작되지 않는다.
제4 실시예에서 팝업 모델이 사용된다. 이 모델에서, 중첩하는 인터페이스 영역은 영역들 중 하나가 현재 활성 상태가 아닌 한 허용된다. 따라서, 단계 625에서 제1 마킹과 연관된 인터페이스 영역이 활성 상태인지 여부를 결정한다. 활성 상태가 아니라면, 단계 630이 시작된다. 이들 인터페이스 영역이 활성 상태이면, 할당을 시도할 수 있다. 할당을 허용하기에 충분한 공간이 없으면 단계 630은 시작되지 않는다.
도 12는 인터페이스 영역을 유지함에 있어 컴퓨터 자원을 절약하기 위해 본 발명의 실시예에 의해 사용될 수 있는 프로세스(700)를 나타낸 것이다. 일반적으로 이 실시예에 따르면, 인터페이스 영역은 메모리에 지속적으로 저장되지 않고, 오히려 필요할 때 계산되어 사용된다. 프로세스(700)는 도 2 및 도 3과 관련하여 설명한 상호작용 기기에서 구현될 수 있다. 일 실시예에서, 프로세스(700)는 상호작용 기기의 메모리 유닛 내에 저장된 컴퓨터 코드로 구현되어 상호작용 기기의 프로세서에서 실행될 수 있다.
단계 710에서, 상호작용 기기는 예를 들어, 펜 탭, 이중 탭 또는 그 위의 기록에 의한 기록 표면의 좌표 (x, y)와의 사용자 상호작용을 검출한다. 그런 다음, 상호작용 기기는 단계 715에서 공간 경계(기록된 마킹에 대응)가 저장된 메모리를 스캔하여 위치 (x y)에 가장 근접한 공간 경계를 결정한다. 상호작용 기기는 그런 다음 단계 720에서, 단계 715에서 결정된 공간 경계와 연관된 인터페이스 영역을 계산한다. 단계 725에서, 상호작용 기기는 이어서 좌표 (x, y)가 단계 720에서 계산된 임의의 인터페이스 영역 내에 있는지를 결정한다. 임의의 인터페이스 영역 내에 있다면, 단계 730이 시작되어 단계 715에서 결정된 공간 경계와 연관된 마킹 상의 좌표 (x, y)의 인터페이스 영역과 연관된 컴퓨터 기능을 실행한다.
좌표 (x, y)가 인터페이스 영역 내에 있지 않으면, 단계 725로부터 단계 735로 진행된다. 단계 735에서, 상호작용 기기는 좌표 (x, y)가 단계 715에서 결정된 공간 경계 내에 있는지를 확인한다. 만약 그렇다면, 단계 740에서 공간 경계와 연관된 컴퓨터 기능이 실행된다. 그 후 프로세스는 반복된다.
프로세스(700)의 이점은 인터페이스 영역을 지속적으로 메모리에 저장할 필요가 없고, 필요할 때 계산한다는 것이다. 각 마킹과 연관된 공간 경계는 지속적으로 저장된다. 이 영역 상호작용 프로세스(700)는 일 실시예에 따른 10a 및 도 10b의 단계 525로 구현될 수 있다는 것을 알아야 한다.
이상에서 기록 표면의 동적으로 생성된 인터페이스 영역과의 사용자 상호작용에 의해 컴퓨터 기능성을 호출하는 사용자 인터페이스를 위한 기기를 폭넓게 개시하였다. 컴퓨터 시스템은 기록 표면 상의 기록된 마캉을 식별하거나 기존의 기 록된 마킹의 선택을 식별한다. 마킹에 인접하여, 컴퓨터 시스템은 마킹과 연관된 하나 이상의 인터페이스 영역을 자동으로 생성한다. 이들 영역 중 하나와의 사용자 상호작용은 상호작용이 있는 영역에 관련된 컴퓨터 기능성을 자동으로 호출한다. 각 영역마다 상이한 기능이 호출될 수 있다. 컴퓨터 시스템은 인터페이스 영역을 동적으로 배치하고 마킹의 위치(및 크기)에 기초하여 인터페이스 영역의 크기를 동적으로 정할 수 있다. 복수의 마킹은 각각의 마킹과 연관된 상이한 영역을 갖는 복수의 영역을 생성한다. 일 실시예에서, 영역들은 기록된 단어의 앞 및/또는 뒤에 설정된다. 영역들은 또한 예를 들어 기록된 단어의 위 및/또는 아래에 설정될 수 있다. 다른 실시예에서, 컴퓨터 시스템은 펜 기반 상호작용 컴퓨터 시스템이다.
본 발명에 따른 여러 특정한 실시예에 대한 이상의 설명은 예시와 설명을 목적으로 제공되었다. 그것들은 본 발명을 모두 망라하거나 개시된 바로 그 형태로의 한정을 의도한 것이 아니며, 전술한 교시에 비추어서 다양한 변경과 변형이 가능하다는 것은 명백하다. 본 발명은 특허청구범위와 그 등가물에 따라 해석될 수 있다.
이상에서 설명한 본 발명에 따르면, 동적으로 생성된 기록 표면의 인터페이스 영역과 상호작용함으로써 컴퓨터의 기능성(functionality)을 호출하는 방법 및 시스템을 제공할 수 있다.
Claims (34)
- 컴퓨터로 구현되는, 사용자와의 인터페이싱 방법으로서,표면 상에 기록 기기(writing device)에 의해 마킹(marking)이 만들어졌는지를 식별하는 단계;상기 표면 상에서의 상기 마킹의 위치 및 크기를 식별하는 단계;상기 마킹에 인접하여 위치되는 제1 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계;상기 제1 인터페이스 영역을 제1 컴퓨터 기능과 연관시키는 단계;상기 제1 인터페이스 영역에 대한 사용자 선택에 응답하여, 상기 마킹과 연관된 데이터에 대해 상기 제1 컴퓨터 기능을 수행하는 단계를 포함하는 사용자와의 인터페이싱 방법.
- 제1항에 있어서,상기 제1 인터페이스 영역의 위치 및 크기는 상기 마킹의 위치 및 크기에 종속되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제2항에 있어서,상기 제1 인터페이스 영역의 높이는 상기 마킹의 높이에 종속되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제3항에 있어서,상기 제1 인터페이스 영역의 폭은 상기 마킹의 높이에 종속되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제3항에 있어서,상기 제1 인터페이스 영역의 폭은 고정되어 있는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제1항에 있어서,상기 마킹은 단어이고, 상기 제1 인터페이스 영역은 눈에 보이지 않는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 컴퓨터로 구현되는, 사용자와의 인터페이싱 방법으로서,기록 표면 상에 위치되어 있는 기록된 마킹이 사용자에 의해 선택되었는지를 식별하는 단계;상기 기록된 마킹과 연관된 인터페이스 영역을 메모리로부터 액세스하는 단계;상기 기록된 마킹에 인접하여 위치되는 제1 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계;상기 제1 인터페이스 영역을 제1 컴퓨터 기능과 연관시키는 단계; 및상기 제1 인터페이스에 대한 사용자 선택에 응답하여, 상기 기록된 마킹과 연관된 데이터에 대해 상기 제1 컴퓨터 기능을 실행하는 단계를 포함하는 사용자와의 인터페이싱 방법.
- 제1항 또는 제7항에 있어서,상기 마킹에 인접하여 위치되고 상기 제1 인터페이스 영역과 중첩되지 않는, 상기 표면의 제2 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계;상기 제2 인터페이스 영역을 제2 컴퓨터 기능과 연관시키는 단계; 및상기 제2 인터페이스 영역에 대한 사용자 선택에 응답하여 상기 데이터에 대해 상기 제2 컴퓨터 기능을 실행하는 단계를 더 포함하는 사용자와의 인터페이싱 방법.
- 제8항에 있어서,상기 제1 인터페이스 영역은 공간적으로 상기 기록된 마킹의 왼쪽에 위치되고,상기 제2 인터페이스 영역은 공간적으로 상기 기록된 마킹의 오른쪽에 위치되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제8항에 있어서,상기 제1 인터페이스 영역은 공간적으로 상기 마킹의 위쪽에 위치되고,상기 제2 인터페이스 영역은 공간적으로 상기 마킹의 아래쪽에 위치되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제7항에 있어서,상기 사용자 선택은, 사용자가 상기 기록 기기의 팁으로 상기 제1 인터페이스 영역 내에 위치한 상기 표면의 영역을 접촉함으로써 수행되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제7항에 있어서,제1 인터페이스 영역의 상기 위치 및 상기 크기는, 상기 기록된 마킹의 상기 인터페이스 영역의 위치 및 크기에 종속되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제12항에 있어서,상기 제1 인터페이스 영역의 높이는 상기 기록된 마킹의 상기 인터페이스 영역의 높이에 종속되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제13항에 있어서,상기 제1 인터페이스 영역의 폭은 상기 기록된 마킹의 상기 인터페이스 영역 의 상기 높이에 종속되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제13항에 있어서,상기 제1 인터페이스 영역의 폭은 고정되어 있는 것을 특징으로 하는 방법.
- 제7항에 있어서,상기 기록된 마킹은 단어이고,상기 제1 인터페이스 영역은 눈에 보이지 않는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 컴퓨터로 구현되는, 사용자와의 인터페이싱 방법으로서,표면 상에 기록 기기에 의해 제1 마킹이 만들어졌는지를 식별하는 단계;상기 표면 상에서의 상기 제1 마킹의 위치 및 크기를 식별하는 단계;각각이 상기 제1 마킹에 인접하여 위치되지만 서로 중첩되지 않는, 복수의 제1 인터페이스 영역의 위치 및 크기를 각각 자동으로 계산하는 단계;상기 복수의 제1 인터페이스 영역의 각 인터페이스 영역을 각각의 컴퓨터 기능과 연관시키는 단계; 및상기 복수의 제1 인터페이스 영역의 첫 번째 인터페이스 영역에 대한 사용자 선택에 응답하여, 상기 제1 마킹과 연관된 데이터에 대해 제1 컴퓨터 기능을 수행하는 단계를 포함하며,상기 복수의 제1 인터페이스 영역의 각 인터페이스 영역은 상기 제1 마킹의 상기 크기에 기초하여 크기가 정해지고,상기 제1 컴퓨터 기능은 상기 복수의 제1 인터페이스 영역의 상기 첫 번째 제1 인터페이스와 연관되어 있는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 표면 상에 상기 기록 기기에 의해 제2 마킹이 만들어졌는지를 식별하는 단계;상기 표면 상에서의 상기 제2 마킹의 위치 및 크기를 식별하는 단계;각각이 상기 제2 마킹에 인접하여 위치되지만 서로 중첩되지 않는, 복수의 제2 인터페이스 영역의 위치 및 크기를 각각 자동으로 계산하는 단계;상기 복수의 제2 인터페이스 영역의 각 인터페이스 영역을 각각의 컴퓨터 기능과 연관시키는 단계; 및상기 복수의 제2 인터페이스 영역의 첫 번째 인터페이스 영역에 대한 사용자 선택에 응답하여, 상기 제2 마킹과 연관된 데이터에 대해 상기 제1 컴퓨터 기능을 수행하는 단계를 더 포함하며,상기 복수의 제2 인터페이스 영역의 각 인터페이스 영역은 상기 제2 마킹의 상기 크기에 기초하여 크기가 정해지고,상기 제1 컴퓨터 기능은 상기 복수의 제2 인터페이스 영역의 상기 첫 번째 인터페이스 영역과 연관되어 있는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제18항에 있어서,상기 복수의 제1 인터페이스 영역에 대한 컴퓨터 기능은 상기 복수의 제2 인터페이스 영역에 대한 컴퓨터 기능과 동일한 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 복수의 제1 인터페이스 영역의 두 번째 인터페이스 영역에 대한 사용자 선택에 응답하여, 상기 제1 마킹과 연관된 데이터에 대해 제2 컴퓨터 기능을 실행하는 단계를 더 포함하며,상기 제2 컴퓨터 기능은 상기 복수의 제1 인터페이스 영역의 상기 두 번째 인터페이스 영역과 연관되어 있는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 복수의 제1 인터페이스 영역은, 상기 첫 번째 인터페이스 영역과 두 번째 인터페이스 영역을 포함하고,상기 첫 번째 인터페이스 영역은 공간적으로 상기 제1 마킹의 왼쪽에 위치되어 있고,상기 두 번째 인터페이스 영역은 공간적으로 상기 제1 마킹의 오른쪽에 위치되어 있는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 복수의 제1 인터페이스 영역은, 상기 첫 번째 인터페이스 영역과 두 번째 인터페이스 영역을 포함하고,상기 첫 번째 인터페이스 영역은 공간적으로 상기 제1 마킹의 위쪽에 위치되어 있고,상기 두 번째 인터페이스 영역은 공간적으로 상기 제1 마킹의 아래쪽에 위치되어 있는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 사용자 선택은, 사용자가 상기 기록 기기로 상기 첫 번째 인터페이스 영역 내에 위치한 상기 표면의 영역을 접촉함으로써 수행되는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 복수의 제1 인터페이스 영역의 각 인터페이스 영역의 높이는 상기 제1 마킹의 높이에 기초하는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 제17항에 있어서,상기 제1 마킹은 단어이고,상기 복수의 제1 인터페이스 영역의 각 인터페이스 영역은 눈에 보이지 않는 것을 특징으로 하는 사용자와의 인터페이싱 방법.
- 필기 도구;버스에 연결되어 있는 프로세서;상기 버스에 연결되어 있는 메모리; 및상기 버스에 연결되어 있고, 상기 필기 도구에 인접하여 배치되어 있는 광 검출기를 포함하며,상기 메모리는, 실행될 때 상기 프로세스로 하여금, 사용자와의 인터페이싱 방법을 구현하도록 하는 명령어를 포함하며,상기 방법은표면 상에 기록 기기에 의해 마킹이 만들어졌는지를 식별하는 단계;상기 표면 상에서의 상기 마킹의 위치 및 크기를 식별하는 단계;상기 마킹에 인접하여 위치되는 제1 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계;상기 제1 인터페이스 영역을 제1 컴퓨터 기능과 연관시키는 단계;상기 제1 인터페이스 영역에 대한 사용자 선택에 응답하여, 상기 마킹과 연관된 데이터에 대해 상기 제1 컴퓨터 기능을 수행하는 단계를 포함하는 것을 특징으로 하는 전자 기기.
- 제26항에 있어서,상기 마킹에 인접하여 위치되고 상기 제1 인터페이스 영역과 중첩되지 않는, 상기 표면의 제2 인터페이스 영역의 위치 및 크기를 자동으로 계산하는 단계;상기 제2 인터페이스 영역을 제2 컴퓨터 기능과 연관시키는 단계; 및상기 제2 인터페이스 영역에 대한 사용자 선택에 응답하여 상기 데이터에 대해 상기 제2 컴퓨터 기능을 실행하는 단계를 더 포함하는 것을 특징으로 하는 전자 기기.
- 제27항에 있어서,상기 제1 인터페이스 영역은 공간적으로 상기 기록된 마킹의 왼쪽에 위치되어 있고,상기 제2 인터페이스 영역은 공간적으로 상기 기록된 마킹의 오른쪽에 위치되어 있는 것을 특징으로 하는 전자 기기.
- 제27항에 있어서,상기 제1 인터페이스 영역은 공간적으로 상기 마킹의 위쪽에 위치되어 있고,상기 제2 인터페이스 영역은 공간적으로 상기 마킹의 아래쪽에 위치되어 있는 것을 특징으로 하는 전자 기기.
- 제26항에 있어서,상기 사용자 선택은, 사용자가 상기 필기 도구의 팁으로 상기 제1 인터페이스 영역 내에 위치한 상기 표면의 영역을 접촉함으로써 수행되는 것을 특징으로 하는 전자 기기.
- 제26항에 있어서,상기 제1 인터페이스 영역의 위치 및 크기는, 상기 마킹의 위치 및 크기에 종속되는 것을 특징으로 하는 전자 기기.
- 제31항에 있어서,상기 제1 인터페이스 영역의 높이는 상기 마킹의 높이에 종속되는 것을 특징으로 하는 전자 기기.
- 제32항에 있어서,상기 제1 인터페이스 영역의 폭은 상기 마킹의 높이에 종속되는 것을 특징으로 하는 전자 기기.
- 제26항에 있어서,상기 마킹은 단어이고,상기 제1 인터페이스 영역은 눈에 보이지 않는 것을 특징으로 하는 전자 기기.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/265,001 US7936339B2 (en) | 2005-11-01 | 2005-11-01 | Method and system for invoking computer functionality by interaction with dynamically generated interface regions of a writing surface |
US11/265,001 | 2005-11-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070047197A KR20070047197A (ko) | 2007-05-04 |
KR100763456B1 true KR100763456B1 (ko) | 2007-10-05 |
Family
ID=36406188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060023959A KR100763456B1 (ko) | 2005-11-01 | 2006-03-15 | 컴퓨터로 구현되는 사용자 인터페이스 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7936339B2 (ko) |
EP (1) | EP1780628A1 (ko) |
JP (1) | JP2007128484A (ko) |
KR (1) | KR100763456B1 (ko) |
CN (1) | CN100555195C (ko) |
CA (1) | CA2537164A1 (ko) |
WO (1) | WO2007055715A2 (ko) |
Families Citing this family (195)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US8261967B1 (en) | 2006-07-19 | 2012-09-11 | Leapfrog Enterprises, Inc. | Techniques for interactively coupling electronic content with printed media |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8254605B2 (en) * | 2007-05-29 | 2012-08-28 | Livescribe, Inc. | Binaural recording for smart pen computing systems |
US20090021495A1 (en) * | 2007-05-29 | 2009-01-22 | Edgecomb Tracy L | Communicating audio and writing using a smart pen computing system |
US8284951B2 (en) * | 2007-05-29 | 2012-10-09 | Livescribe, Inc. | Enhanced audio recording for smart pen computing systems |
US8194081B2 (en) * | 2007-05-29 | 2012-06-05 | Livescribe, Inc. | Animation of audio ink |
WO2008150911A1 (en) * | 2007-05-29 | 2008-12-11 | Livescribe, Inc. | Pen-based method for cyclical creation, transfer and enhancement of multi-modal information between paper and digital domains |
US8265382B2 (en) * | 2007-05-29 | 2012-09-11 | Livescribe, Inc. | Electronic annotation of documents with preexisting content |
WO2008150912A1 (en) * | 2007-05-29 | 2008-12-11 | Livescribe, Inc. | Organization of user generated content captured by a smart pen computing system |
WO2008150887A1 (en) | 2007-05-29 | 2008-12-11 | Livescribe, Inc. | Self-addressing paper |
US8638319B2 (en) | 2007-05-29 | 2014-01-28 | Livescribe Inc. | Customer authoring tools for creating user-generated content for smart pen applications |
WO2008150909A1 (en) * | 2007-05-29 | 2008-12-11 | Livescribe, Inc. | Multi-modal smartpen computing system |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US20090251441A1 (en) * | 2008-04-03 | 2009-10-08 | Livescribe, Inc. | Multi-Modal Controller |
US8149227B2 (en) * | 2008-04-03 | 2012-04-03 | Livescribe, Inc. | Removing click and friction noise in a writing device |
US20090251338A1 (en) * | 2008-04-03 | 2009-10-08 | Livescribe, Inc. | Ink Tags In A Smart Pen Computing System |
US8446297B2 (en) | 2008-04-03 | 2013-05-21 | Livescribe, Inc. | Grouping variable media inputs to reflect a user session |
US9058067B2 (en) * | 2008-04-03 | 2015-06-16 | Livescribe | Digital bookclip |
US8944824B2 (en) * | 2008-04-03 | 2015-02-03 | Livescribe, Inc. | Multi-modal learning system |
US7810730B2 (en) | 2008-04-03 | 2010-10-12 | Livescribe, Inc. | Decoupled applications for printed materials |
US20090251440A1 (en) * | 2008-04-03 | 2009-10-08 | Livescribe, Inc. | Audio Bookmarking |
US8446298B2 (en) * | 2008-04-03 | 2013-05-21 | Livescribe, Inc. | Quick record function in a smart pen computing system |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8300252B2 (en) * | 2008-06-18 | 2012-10-30 | Livescribe, Inc. | Managing objects with varying and repeated printed positioning information |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
WO2011008862A2 (en) * | 2009-07-14 | 2011-01-20 | Zoomii, Inc. | Markup language-based authoring and runtime environment for interactive content platform |
US20110167350A1 (en) * | 2010-01-06 | 2011-07-07 | Apple Inc. | Assist Features For Content Display Device |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
DE112011100329T5 (de) | 2010-01-25 | 2012-10-31 | Andrew Peter Nelson Jerram | Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
KR101373203B1 (ko) * | 2012-06-05 | 2014-03-12 | (주)펜제너레이션스 | 반사형 디스플레이 및 이를 이용한 전자펜 시스템 |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
PL3011415T3 (pl) * | 2013-06-19 | 2019-05-31 | Nokia Technologies Oy | Wprowadzane elektroniczne trasowanie |
CN103513771B (zh) * | 2013-10-09 | 2017-02-08 | 深圳先进技术研究院 | 智能眼镜与交互笔配合使用的系统及方法 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9524428B2 (en) | 2014-04-28 | 2016-12-20 | Lenovo (Singapore) Pte. Ltd. | Automated handwriting input for entry fields |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
EP3149728B1 (en) | 2014-05-30 | 2019-01-16 | Apple Inc. | Multi-command single utterance input method |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US20150347364A1 (en) * | 2014-06-03 | 2015-12-03 | Lenovo (Singapore) Pte. Ltd. | Highlighting input area based on user input |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US11590726B2 (en) | 2018-01-24 | 2023-02-28 | Hewlett-Packard Development Company, L.P. | Surfaces with embedded information |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10930177B2 (en) | 2018-05-16 | 2021-02-23 | Leapfrog Enterprises, Inc. | Interactive globe |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000057730A (ko) * | 1999-01-13 | 2000-09-25 | 포만 제프리 엘 | 문자 분할 사용자 인터페이스를 갖춘 수기 정보 처리 시스템 |
KR20020070900A (ko) * | 2001-03-02 | 2002-09-11 | 세이코 엡슨 가부시키가이샤 | 이산 조작 장치를 이용하는 데이터 처리 시스템 |
US20030014615A1 (en) * | 2001-06-25 | 2003-01-16 | Stefan Lynggaard | Control of a unit provided with a processor |
US20030071850A1 (en) * | 2001-10-12 | 2003-04-17 | Microsoft Corporation | In-place adaptive handwriting input method and system |
US20050177783A1 (en) * | 2004-02-10 | 2005-08-11 | Maneesh Agrawala | Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking |
US20060067577A1 (en) * | 2004-03-17 | 2006-03-30 | James Marggraff | Method and system for implementing a user interface for a device employing written graphical elements |
US20060066591A1 (en) * | 2004-03-17 | 2006-03-30 | James Marggraff | Method and system for implementing a user interface for a device through recognized text and bounded areas |
US20060067576A1 (en) * | 2004-03-17 | 2006-03-30 | James Marggraff | Providing a user interface having interactive elements on a writable surface |
Family Cites Families (144)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ131399A0 (en) | 1999-06-30 | 1999-07-22 | Silverbrook Research Pty Ltd | A method and apparatus (NPAGE02) |
US2182334A (en) * | 1939-02-18 | 1939-12-05 | Crespo Joseph | Panoramic device |
US2932907A (en) * | 1956-01-16 | 1960-04-19 | Joseph A Stieber | Map projections demonstrator |
US3304612A (en) * | 1963-12-23 | 1967-02-21 | Union Oil Co | Method and apparatus for converting cartograph coordinates to permanent digital form |
US3292489A (en) * | 1964-07-09 | 1966-12-20 | Ibm | Hierarchical search system |
US3466391A (en) * | 1966-09-07 | 1969-09-09 | Marconi Co Ltd | Electrical position resolver employing capacitive probe coupled to resistive layer containing two pairs of conductive strips energized by four different frequency signals |
US3591718A (en) * | 1968-04-18 | 1971-07-06 | Shintron Co Inc | Graphical input tablet |
US3657812A (en) * | 1970-09-28 | 1972-04-25 | G & L Ind Inc | Retractible tool holder |
US3782734A (en) * | 1971-03-15 | 1974-01-01 | S Krainin | Talking book, an educational toy with multi-position sound track and improved stylus transducer |
US3798370A (en) * | 1972-04-17 | 1974-03-19 | Elographics Inc | Electrographic sensor for determining planar coordinates |
US3921165A (en) * | 1973-03-21 | 1975-11-18 | Ibm | High resolution graphic data tablet |
US3888311A (en) * | 1973-10-01 | 1975-06-10 | Exxon Production Research Co | Hydraulic fracturing method |
US3911215A (en) * | 1974-03-18 | 1975-10-07 | Elographics Inc | Discriminating contact sensor |
US4079194A (en) * | 1976-08-09 | 1978-03-14 | Victor Kley | Graphical data entry pad |
US4220815B1 (en) * | 1978-12-04 | 1996-09-03 | Elographics Inc | Nonplanar transparent electrographic sensor |
NL7904469A (nl) * | 1979-06-07 | 1980-12-09 | Philips Nv | Inrichting voor het lezen van een gedrukte kode en het daarvan omzetten in een audio-signaal. |
US4686332A (en) * | 1986-06-26 | 1987-08-11 | International Business Machines Corporation | Combined finger touch and stylus detection system for use on the viewing surface of a visual display device |
US4318096A (en) * | 1980-05-19 | 1982-03-02 | Xerox Corporation | Graphics pen for soft displays |
US4337375A (en) * | 1980-06-12 | 1982-06-29 | Texas Instruments Incorporated | Manually controllable data reading apparatus for speech synthesizers |
US4464118A (en) * | 1980-06-19 | 1984-08-07 | Texas Instruments Incorporated | Didactic device to improve penmanship and drawing skills |
JPS585611A (ja) * | 1981-07-01 | 1983-01-13 | Toyota Motor Corp | 走行案内装置 |
US4425099A (en) * | 1981-10-13 | 1984-01-10 | Texas Instruments Incorporated | Educational aid for use with workbook |
US4604065A (en) * | 1982-10-25 | 1986-08-05 | Price/Stern/Sloan Publishers, Inc. | Teaching or amusement apparatus |
US4604058A (en) * | 1982-11-01 | 1986-08-05 | Teledyne Industries, Inc. | Dental appliance |
US4492819A (en) * | 1982-12-30 | 1985-01-08 | Kurta Corporation | Graphic tablet and method |
US4570149A (en) * | 1983-03-15 | 1986-02-11 | Koala Technologies Corporation | Simplified touch tablet data device |
US4603231A (en) * | 1983-03-31 | 1986-07-29 | Interand Corporation | System for sensing spatial coordinates |
JPS60157700A (ja) * | 1984-01-27 | 1985-08-17 | 日立造船株式会社 | 船舶衡突予防援助装置 |
US4650926A (en) * | 1984-10-26 | 1987-03-17 | Scriptel Corporation | Electrographic system and method |
US4627819A (en) * | 1985-01-23 | 1986-12-09 | Price/Stern/Sloan Publishers, Inc. | Teaching or amusement apparatus |
US4739299A (en) * | 1986-01-17 | 1988-04-19 | Interlink Electronics, Inc. | Digitizer pad |
US4972496A (en) * | 1986-07-25 | 1990-11-20 | Grid Systems Corporation | Handwritten keyboardless entry computer system |
US5057024A (en) * | 1986-08-01 | 1991-10-15 | Sprott Glenn C | Computerized globe/almanac system |
US4748318A (en) * | 1986-10-22 | 1988-05-31 | Bearden James D | Wand for a hand-held combined light pen and bar code reader |
US4793810A (en) * | 1986-11-19 | 1988-12-27 | Data Entry Systems, Inc. | Interactive instructional apparatus and method |
US5194852A (en) * | 1986-12-01 | 1993-03-16 | More Edward S | Electro-optic slate for direct entry and display and/or storage of hand-entered textual and graphic information |
US4839634A (en) * | 1986-12-01 | 1989-06-13 | More Edward S | Electro-optic slate for input/output of hand-entered textual and graphic information |
US4787040A (en) * | 1986-12-22 | 1988-11-22 | International Business Machines Corporation | Display system for automotive vehicle |
GB8702728D0 (en) * | 1987-02-06 | 1987-03-11 | Price Stern Sloan Publishers | Teaching & amusement apparatus |
JP2658039B2 (ja) * | 1987-03-20 | 1997-09-30 | キヤノン株式会社 | 情報処理装置 |
GB2207027B (en) * | 1987-07-15 | 1992-01-08 | Matsushita Electric Works Ltd | Voice encoding and composing system |
US5030117A (en) * | 1987-09-25 | 1991-07-09 | Delorme David M | Digital global map generating system |
US4841387A (en) * | 1987-12-15 | 1989-06-20 | Rindfuss Diane J | Arrangement for recording and indexing information |
GB2214635B (en) * | 1988-01-14 | 1992-06-10 | Kwang Chien Fong | Optical input device |
US5113178A (en) * | 1988-01-29 | 1992-05-12 | Aisin Seiki K.K. | Position display apparatus |
US4853498A (en) * | 1988-06-13 | 1989-08-01 | Tektronix, Inc. | Position measurement apparatus for capacitive touch panel system |
US4924387A (en) * | 1988-06-20 | 1990-05-08 | Jeppesen John C | Computerized court reporting system |
US4913463A (en) * | 1988-10-27 | 1990-04-03 | Texas Instruments Incorporated | Hinged case providing sectional cover with anti-pinch interleaving through |
US5007085A (en) * | 1988-10-28 | 1991-04-09 | International Business Machines Corporation | Remotely sensed personal stylus |
US4853499A (en) * | 1988-12-12 | 1989-08-01 | Calcomp Inc. | Ground switching technique for silkscreened digitizer grids |
US5157384A (en) * | 1989-04-28 | 1992-10-20 | International Business Machines Corporation | Advanced user interface |
US5167508A (en) * | 1989-08-21 | 1992-12-01 | Mc Taggart Stephen I | Electronic book |
US5484292A (en) * | 1989-08-21 | 1996-01-16 | Mctaggart; Stephen I. | Apparatus for combining audio and visual indicia |
US5209665A (en) * | 1989-10-12 | 1993-05-11 | Sight & Sound Incorporated | Interactive audio visual work |
US5184003A (en) * | 1989-12-04 | 1993-02-02 | National Computer Systems, Inc. | Scannable form having a control mark column with encoded data marks |
JP2784825B2 (ja) * | 1989-12-05 | 1998-08-06 | ソニー株式会社 | 情報入力制御装置 |
US4991987A (en) * | 1990-01-23 | 1991-02-12 | Risdon Corporation | Cosmetic container |
US5059126A (en) * | 1990-05-09 | 1991-10-22 | Kimball Dan V | Sound association and learning system |
US5128525A (en) * | 1990-07-31 | 1992-07-07 | Xerox Corporation | Convolution filtering for decoding self-clocking glyph shape codes |
US5168147A (en) * | 1990-07-31 | 1992-12-01 | Xerox Corporation | Binary image processing for decoding self-clocking glyph shape codes |
JPH04121923A (ja) * | 1990-09-12 | 1992-04-22 | Sony Corp | 電子機器のスイッチ構造 |
US5053585A (en) * | 1990-10-12 | 1991-10-01 | Interlink Electronics, Incorporated | Multipurpose keyboard using digitizer pad featuring spatial minimization of a pressure contact area and method of making same |
US5149919A (en) * | 1990-10-31 | 1992-09-22 | International Business Machines Corporation | Stylus sensing system |
US5117071A (en) * | 1990-10-31 | 1992-05-26 | International Business Machines Corporation | Stylus sensing system |
GB9024526D0 (en) * | 1990-11-12 | 1991-01-02 | Eden Group Ltd | Electronic display apparatus |
US5260697A (en) * | 1990-11-13 | 1993-11-09 | Wang Laboratories, Inc. | Computer with separate display plane and user interface processor |
US5301243A (en) * | 1990-12-21 | 1994-04-05 | Francis Olschafskie | Hand-held character-oriented scanner with external view area |
GB9103768D0 (en) | 1991-02-22 | 1991-04-10 | King Reginald A | Educational apparatus |
JPH04274510A (ja) * | 1991-02-28 | 1992-09-30 | Casio Comput Co Ltd | データ入力処理装置 |
US5220649A (en) * | 1991-03-20 | 1993-06-15 | Forcier Mitchell D | Script/binary-encoded-character processing method and system with moving space insertion mode |
US5848187A (en) * | 1991-11-18 | 1998-12-08 | Compaq Computer Corporation | Method and apparatus for entering and manipulating spreadsheet cell data |
JP3120085B2 (ja) * | 1991-11-21 | 2000-12-25 | 株式会社セガ | 電子装置及び情報担体 |
US5220136A (en) * | 1991-11-26 | 1993-06-15 | Elographics, Inc. | Contact touchscreen with an improved insulated spacer arrangement |
US5221833A (en) * | 1991-12-27 | 1993-06-22 | Xerox Corporation | Methods and means for reducing bit error rates in reading self-clocking glyph codes |
US5294792A (en) * | 1991-12-31 | 1994-03-15 | Texas Instruments Incorporated | Writing tip position sensing and processing apparatus |
US5314336A (en) * | 1992-02-07 | 1994-05-24 | Mark Diamond | Toy and method providing audio output representative of message optically sensed by the toy |
JPH05265633A (ja) * | 1992-03-18 | 1993-10-15 | Gunze Ltd | タッチパネル |
US5217376A (en) * | 1992-03-20 | 1993-06-08 | Marcel Gosselin | Drawing aid |
US5356296A (en) * | 1992-07-08 | 1994-10-18 | Harold D. Pierce | Audio storybook |
US5401916A (en) * | 1992-09-29 | 1995-03-28 | Ncr Corporation | Method and apparatus for capturing handwritten information and providing visual feedback |
US5217378A (en) * | 1992-09-30 | 1993-06-08 | Donovan Karen R | Painting kit for the visually impaired |
US5409381A (en) * | 1992-12-31 | 1995-04-25 | Sundberg Learning Systems, Inc. | Educational display device and method |
US5510606A (en) * | 1993-03-16 | 1996-04-23 | Worthington; Hall V. | Data collection system including a portable data collection terminal with voice prompts |
US5474457A (en) * | 1993-06-09 | 1995-12-12 | Bromley; Eric | Interactive talking picture machine |
US5413486A (en) * | 1993-06-18 | 1995-05-09 | Joshua Morris Publishing, Inc. | Interactive book |
US5572651A (en) * | 1993-10-15 | 1996-11-05 | Xerox Corporation | Table-based user interface for retrieving and manipulating indices between data structures |
US5835726A (en) | 1993-12-15 | 1998-11-10 | Check Point Software Technologies Ltd. | System for securing the flow of and selectively modifying packets in a computer network |
US5561446A (en) * | 1994-01-28 | 1996-10-01 | Montlick; Terry F. | Method and apparatus for wireless remote information retrieval and pen-based data entry |
IL108566A0 (en) * | 1994-02-04 | 1994-05-30 | Baron Research & Dev Company L | Handwriting input apparatus using more than one sensing technique |
US5466158A (en) * | 1994-02-14 | 1995-11-14 | Smith, Iii; Jay | Interactive book device |
US5480306A (en) * | 1994-03-16 | 1996-01-02 | Liu; Chih-Yuan | Language learning apparatus and method utilizing optical code as input medium |
US5636995A (en) | 1995-01-17 | 1997-06-10 | Stephen A. Schwartz | Interactive story book and graphics tablet apparatus and methods for operating the same |
FI99071C (fi) | 1995-02-15 | 1997-09-25 | Nokia Mobile Phones Ltd | Menetelmä sovellusten käyttämiseksi matkaviestimessä ja matkaviestin |
US5520544A (en) * | 1995-03-27 | 1996-05-28 | Eastman Kodak Company | Talking picture album |
JPH08335134A (ja) | 1995-06-07 | 1996-12-17 | Canon Inc | 情報処理装置 |
JP3111024B2 (ja) | 1995-07-19 | 2000-11-20 | キヤノン株式会社 | カラーフィルタの製造装置及び製造方法及び表示装置の製造方法及び表示装置を備えた装置の製造方法 |
US5686705A (en) | 1996-02-15 | 1997-11-11 | Explore Technologies, Inc. | Surface position location system and method |
JP3061765B2 (ja) | 1996-05-23 | 2000-07-10 | ゼロックス コーポレイション | コンピュータベースの文書処理方法 |
JP3378900B2 (ja) | 1996-06-25 | 2003-02-17 | 富士通株式会社 | オブジェクト編集方法,オブジェクト編集システム及び記録媒体 |
US5847698A (en) | 1996-09-17 | 1998-12-08 | Dataventures, Inc. | Electronic book device |
WO1998021665A1 (es) | 1996-11-12 | 1998-05-22 | Carlos Landetta Chombo | Libro electronico |
US5844483A (en) | 1997-07-17 | 1998-12-01 | Boley; Jeffrey V. | Golf equipment inventory device |
US6431439B1 (en) | 1997-07-24 | 2002-08-13 | Personal Solutions Corporation | System and method for the electronic storage and transmission of financial transactions |
US20030173405A1 (en) | 2000-01-12 | 2003-09-18 | Metrologic Instruments, Inc. | Bar code symbol driven systems for accessing information resources on the internet |
US5992817A (en) | 1998-02-04 | 1999-11-30 | Klitsner Industrial Design, Llc | Keyboard interface device |
US6456749B1 (en) * | 1998-02-27 | 2002-09-24 | Carnegie Mellon University | Handheld apparatus for recognition of writing, for remote communication, and for user defined input templates |
US6144371A (en) | 1998-03-18 | 2000-11-07 | International Business Machines Corporation | Thinkscribe combined electronic and paper based scheduling |
US6529920B1 (en) | 1999-03-05 | 2003-03-04 | Audiovelocity, Inc. | Multimedia linking device and method |
AUPQ363299A0 (en) | 1999-10-25 | 1999-11-18 | Silverbrook Research Pty Ltd | Paper based information inter face |
DE60044458D1 (de) | 1999-05-28 | 2010-07-08 | Anoto Ab | Positionsbestimmung |
JP4785310B2 (ja) * | 1999-05-28 | 2011-10-05 | アノト アクティエボラーク | 情報の記録に用いられる製品 |
JP2003503905A (ja) | 1999-06-28 | 2003-01-28 | アノト・アクティエボラーク | 情報の記録 |
WO2001016691A1 (en) | 1999-08-30 | 2001-03-08 | Anoto Ab | Notepad |
SE517445C2 (sv) | 1999-10-01 | 2002-06-04 | Anoto Ab | Positionsbestämning på en yta försedd med ett positionskodningsmönster |
SE517984C2 (sv) | 2000-03-21 | 2002-08-13 | Anoto Ab | Arrangemang för inmatning av information |
SE516109C2 (sv) | 2000-03-21 | 2001-11-19 | Anoto Ab | Förfarande, system och datorprogram för dokumenthantering med hjälp av positionskodningsmönster |
SE516310C2 (sv) | 2000-04-05 | 2001-12-17 | Anoto Ab | Produkt med två kodningsmönster, innefattande rasterpunkter; samt förfarande, datorprogram och anordning för att avläsa kodningsmönstren |
SE517875C2 (sv) | 2000-04-05 | 2002-07-30 | Anoto Ab | Förfarande och arrangemang för att associera en värdehandling med en delmängd av ett positionskodningsmönster |
SE516281C2 (sv) | 2000-04-05 | 2001-12-10 | Anoto Ab | Produkt och förfarande för informationshantering, där en löstagbar skrivyta med absolutpositionskodningsmönster skrivs på och avläses |
SE516567C2 (sv) | 2000-06-07 | 2002-01-29 | Anoto Ab | Förfarande och anordning för säker trådlös överföring av information |
US20020077902A1 (en) | 2000-06-30 | 2002-06-20 | Dwight Marcus | Method and apparatus for verifying review and comprehension of information |
US7565697B2 (en) | 2000-09-22 | 2009-07-21 | Ecd Systems, Inc. | Systems and methods for preventing unauthorized use of digital content |
JP3871524B2 (ja) | 2000-11-17 | 2007-01-24 | 富士通株式会社 | 座標入力装置 |
US6641401B2 (en) | 2001-06-20 | 2003-11-04 | Leapfrog Enterprises, Inc. | Interactive apparatus with templates |
US6966495B2 (en) * | 2001-06-26 | 2005-11-22 | Anoto Ab | Devices method and computer program for position determination |
US6584249B1 (en) | 2001-10-17 | 2003-06-24 | Oplink Communications, Inc. | Miniature optical dispersion compensator with low insertion loss |
EP1315085B1 (en) | 2001-11-27 | 2006-01-11 | Sun Microsystems, Inc. | Automatic image-button creation process |
TWI235926B (en) | 2002-01-11 | 2005-07-11 | Sonix Technology Co Ltd | A method for producing indicators and processing system, coordinate positioning system and electronic book system utilizing the indicators |
US7120385B2 (en) * | 2002-02-06 | 2006-10-10 | Leapfrog Enterprises, Inc. | Write on interactive apparatus and method |
US7062090B2 (en) * | 2002-06-28 | 2006-06-13 | Microsoft Corporation | Writing guide for a free-form document editor |
US20040125075A1 (en) | 2002-12-31 | 2004-07-01 | Diercks Richard A. | DVD remote control with interchangeable, title-specific interactive panels |
US20040202987A1 (en) | 2003-02-14 | 2004-10-14 | Scheuring Sylvia Tidwell | System and method for creating, assessing, modifying, and using a learning map |
US20040229195A1 (en) | 2003-03-18 | 2004-11-18 | Leapfrog Enterprises, Inc. | Scanning apparatus |
US20040259067A1 (en) | 2003-05-16 | 2004-12-23 | Preston Cody | Method and system for receiving responses utilizing digital pen and paper |
US7456983B2 (en) | 2003-07-02 | 2008-11-25 | Hewlett-Packard Development Company, L.P. | System and method for preventing comprehension of a printed document |
US20050060644A1 (en) | 2003-09-15 | 2005-03-17 | Patterson John Douglas | Real time variable digital paper |
JP4150923B2 (ja) * | 2003-12-09 | 2008-09-17 | 富士ゼロックス株式会社 | データ出力システムおよびその方法 |
US7111230B2 (en) | 2003-12-22 | 2006-09-19 | Pitney Bowes Inc. | System and method for annotating documents |
US7134606B2 (en) | 2003-12-24 | 2006-11-14 | Kt International, Inc. | Identifier for use with digital paper |
US7453447B2 (en) | 2004-03-17 | 2008-11-18 | Leapfrog Enterprises, Inc. | Interactive apparatus with recording and playback capability usable with encoded writing medium |
US9128653B2 (en) | 2004-12-10 | 2015-09-08 | Microsoft Technology Licensing, Llc | Systems and methods for processing print jobs |
US7639876B2 (en) | 2005-01-14 | 2009-12-29 | Advanced Digital Systems, Inc. | System and method for associating handwritten information with one or more objects |
US7421439B2 (en) | 2005-04-22 | 2008-09-02 | Microsoft Corporation | Global metadata embedding and decoding |
US20060242562A1 (en) | 2005-04-22 | 2006-10-26 | Microsoft Corporation | Embedded method for embedded interaction code array |
-
2005
- 2005-11-01 US US11/265,001 patent/US7936339B2/en not_active Expired - Fee Related
-
2006
- 2006-03-07 WO PCT/US2006/008250 patent/WO2007055715A2/en active Application Filing
- 2006-03-09 EP EP06004882A patent/EP1780628A1/en not_active Withdrawn
- 2006-03-13 CA CA002537164A patent/CA2537164A1/en not_active Abandoned
- 2006-03-14 JP JP2006069573A patent/JP2007128484A/ja active Pending
- 2006-03-15 KR KR1020060023959A patent/KR100763456B1/ko not_active IP Right Cessation
- 2006-03-15 CN CNB2006100574410A patent/CN100555195C/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000057730A (ko) * | 1999-01-13 | 2000-09-25 | 포만 제프리 엘 | 문자 분할 사용자 인터페이스를 갖춘 수기 정보 처리 시스템 |
KR20020070900A (ko) * | 2001-03-02 | 2002-09-11 | 세이코 엡슨 가부시키가이샤 | 이산 조작 장치를 이용하는 데이터 처리 시스템 |
US20030014615A1 (en) * | 2001-06-25 | 2003-01-16 | Stefan Lynggaard | Control of a unit provided with a processor |
US20030071850A1 (en) * | 2001-10-12 | 2003-04-17 | Microsoft Corporation | In-place adaptive handwriting input method and system |
US20050177783A1 (en) * | 2004-02-10 | 2005-08-11 | Maneesh Agrawala | Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking |
US20060067577A1 (en) * | 2004-03-17 | 2006-03-30 | James Marggraff | Method and system for implementing a user interface for a device employing written graphical elements |
US20060066591A1 (en) * | 2004-03-17 | 2006-03-30 | James Marggraff | Method and system for implementing a user interface for a device through recognized text and bounded areas |
US20060067576A1 (en) * | 2004-03-17 | 2006-03-30 | James Marggraff | Providing a user interface having interactive elements on a writable surface |
Also Published As
Publication number | Publication date |
---|---|
EP1780628A1 (en) | 2007-05-02 |
KR20070047197A (ko) | 2007-05-04 |
CN1862470A (zh) | 2006-11-15 |
JP2007128484A (ja) | 2007-05-24 |
US7936339B2 (en) | 2011-05-03 |
WO2007055715A3 (en) | 2008-05-08 |
WO2007055715A2 (en) | 2007-05-18 |
US20070097100A1 (en) | 2007-05-03 |
CN100555195C (zh) | 2009-10-28 |
CA2537164A1 (en) | 2006-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100763456B1 (ko) | 컴퓨터로 구현되는 사용자 인터페이스 | |
KR100814052B1 (ko) | 사용자 기록을 사용자 기록 가능 요소와 연관시키는 방법및 기기 | |
KR100815534B1 (ko) | 기록 가능한 표면 상의 대화형 요소와 대화할 수 있는사용자 인터페이스 | |
US7853193B2 (en) | Method and device for audibly instructing a user to interact with a function | |
US20060078866A1 (en) | System and method for identifying termination of data entry | |
KR100806241B1 (ko) | 기록된 그래픽 장치용의 사용자 인터페이스 | |
KR100847851B1 (ko) | 텍스트 및 경계 영역의 인식을 이용하는 장치 사용자인터페이스 | |
US7281664B1 (en) | Method and system for hierarchical management of a plurality of regions of an encoded surface used by a pen computer | |
WO2008013761A2 (en) | Associating a region on a surface with a sound or with another region | |
JPH06501798A (ja) | 標準プログラムへのタブレット入力を有するコンピュータ | |
US7562822B1 (en) | Methods and devices for creating and processing content | |
US20100044427A1 (en) | Systems and methods of interaction iwth invisible printing | |
CA2532422A1 (en) | Device user interface through recognized text and bounded areas | |
WO2006076118A2 (en) | Interactive device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |