JP2017501468A - スマートペンによって捕捉された書き込み注釈のタグ付け - Google Patents
スマートペンによって捕捉された書き込み注釈のタグ付け Download PDFInfo
- Publication number
- JP2017501468A JP2017501468A JP2016525935A JP2016525935A JP2017501468A JP 2017501468 A JP2017501468 A JP 2017501468A JP 2016525935 A JP2016525935 A JP 2016525935A JP 2016525935 A JP2016525935 A JP 2016525935A JP 2017501468 A JP2017501468 A JP 2017501468A
- Authority
- JP
- Japan
- Prior art keywords
- snippet
- tag
- smart pen
- gesture
- snippets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
- G06V30/36—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Character Discrimination (AREA)
Abstract
ペンベースのコンピュータシステムで収集されたコンテンツを構成するシステム及び方法が開示される。ストロークデータの複数のグループが取得される、ストロークデータの各グループは、スマートペンによってなされたストロークのタイミングに基づいてタイムスタンプに関連付けられる。ストロークデータのグループは、タイムスタンプの時間的近接性、及びストロークデータの空間的近接性に基づいて1つまたは複数のスニペットにグループ化される。スニペットをタグに関連付ける要求が受信される。スニペットとタグとの関連付けが、要求に応じて記憶される。
Description
本発明は、一般的に、ペンベースのコンピュータ環境に関し、より詳細には、スマートペン環境において、記録された書き込み(recorded writing)を他のコンテキストコンテンツで構成することに関する。
スマートペンは、ユーザの書き込みジェスチャをデジタル的に捕捉し、捕捉したジェスチャを、様々なアプリケーションで利用可能なデジタル情報に変換する電子デバイスである。例えば、光学ベースのスマートペンにおいては、スマートペンは、デジタルコード化した面(例えば、ドットパターン)に対する書き込みの間、ペンの座標を検出および記録する光学センサを含む。スマートペンのコンピュータ環境は、コンテキストコンテンツ(記録された音声等)も収集でき、コンテキストコンテンツは、捕捉された書き込みを見ながら、デジタル領域で再生できる。従って、スマートペンは、紙領域で操作する便利さと、デジタル環境に関連付けられた機能性及び柔軟性との両方を提供して、ユーザが注釈を取る体験を充実させることができる。しかしながら、生産的な見直し体験を保証するために、スマートペン環境で収集された膨大な情報を構造化、構成することは困難である。
開示の実施形態は、ペンベースのコンピュータシステムで収集されたコンテンツを構成する技術を含む。一実施形態においては、ストローク(stroke)データの複数のグループを取得する。ストロークデータの各グループは、スマートペンによってなされたストロークのタイミングに基づいたタイムスタンプに関連付けられる。ストロークデータのグループは、タイムスタンプの時間的近接性とストロークデータの空間的近接性に基づいて、1つまたは複数のスニペット(snippet)にグループ化される。スニペットをタグに関連付ける要求を受信する。例えば、タグを「重要」タグに関連付ける要求が受信されてよい。スニペットとタグとの関連付けは、要求に応答して記憶される。
図面は、様々な実施形態を例示目的で示している。本明細書に記載の原理を逸脱することなく、本明細書に記載の構造及び方法の代替実施形態を採用してよいことを、下記の説明から、当業者は理解されよう。
図1は、ペンベースのコンピュータシステム100の実施形態を示す。ペンベースのコンピュータシステムは、書き込み面105、スマートペン110、コンピュータデバイス115、ネットワーク120、及び、クラウドサーバ125を備える。代替実施形態においては、例えば、追加のスマートペン110、書き込み面105、及び、コンピュータデバイス115等、異なるデバイスもしくは追加のデバイスが存在してよく、(または、1つもしくは複数のデバイスが存在しなくてもよい)。
一実施形態においては、書き込み面105は、紙(または、書き込み可能な任意の他の適切な材料)を備え、スマートペン110によって検知可能なパターン(例えば、ドットパターン)でコード化される。パターンは、スマートペン110が、書き込み面105に対するその相対的位置(例えば、相対的または絶対的)をすることが可能なように十分に固有である。別の実施形態においては、書き込み面105は、電子ペーパー、すなわち、eペーパーを備えてよく、電子デバイスの表示画面(例えば、タブレット、プロジェクタ)を備えてもよく、電子デバイスは、コンピュータデバイス115または異なるデバイスであってよい。他の実施形態においては、書き込み面105に対するスマートペン110の相対的位置は、ドットパターンを使用せずに決定される。例えば、ある実施形態においては、書き込み面105が電子面を備え、検知は、スマートペン110の代わりに、または、スマートペン110と共に、書き込み面105によって全体的に実行されてよい。スマートペン110の動作は、例えば、スマートペン110の光検知を介して、スマートペン110の動き検知を介して、書き込み面105の接触検知を介して、基準マーキング(fiducial marking)を介して、または、他の適切な手段で、検知されてよい。
スマートペン110は、書き込み面105との相互作用(例えば、書き込みジェスチャ、及び/または、制御入力)をデジタル的に捕捉する電子デバイスである。スマートペン110は、直接、または、ネットワーク120を介して、コンピュータデバイス115に通信可能に接続される。捕捉された書き込みジェスチャ及び/または制御入力は、コンピュータデバイス115上で実行する1つまたは複数のアプリケーションで使用するために(例えば、リアルタイムまたは後に)、スマートペン110からコンピュータデバイス115に転送されてよい。さらに、デジタルデータ及び/または制御入力は、スマートペン110上で実行するアプリケーションで使用するために(リアルタイムまたはオフライン処理)、コンピュータデバイス115からスマートペン110に通信されてよい。コマンドは、コンピュータデバイス115上で実行するアプリケーションで使用するために、スマートペン110からコンピュータデバイス115に同様に通信されてよい。クラウドサーバ125は、スマートペン110及び/またはコンピュータデバイス115で利用可能な遠隔記憶装置、及び/または、アプリケーションサービスを提供する。従って、ペンベースのコンピュータシステム100によって、紙領域とデジタル領域の両方でユーザの相互作用を組み合わせる様々なアプリケーションが可能になる。
一実施形態において、スマートペン110は、組み込みコンピュータコンポーネント、及び、様々な入出力機能を有する筆記用具(例えば、インクベースのボールペン、インクなしのスタイラスデバイス、「デジタルインク」をディスプレイに残すスタイラスデバイス、フェルトマーカ、鉛筆、または、他の書き込み装置)を備える。ユーザは、従来のペンで書くように、書き込み面105にスマートペン110で書くことができる。操作の間、スマートペン110は、書き込み面105上でなされた書き込みジェスチャをデジタル的に捕捉し、書き込みジェスチャの電子表現を記憶する。捕捉された書き込みジェスチャは、空間成分及び時間成分の両方を有する。一実施形態においては、スマートペン110は、様々なサンプル時間に書き込み面105に対するスマートペン110の位置サンプル(すなわち、座標情報)を捕捉し、捕捉した位置情報を各サンプルのタイミング情報と共に記憶する。さらに、捕捉された書き込みジェスチャは、異なる書き込み面105で捕捉されたデータを区別するように、例えば、特定の注釈の特定のページの情報を識別する等、特定の書き込み面105に関連付けられた情報を識別することを含んでよい。別の実施形態においては、スマートペン110は、ユーザによって選択された書き込みジェスチャの他の属性も捕捉する。例えば、表示されたアイコン(printed icon)を書き込み面105にタップすること、コンピュータディスプレイ上のアイコンを選択すること等によって、インク色が選択されてよい。このインク情報(色、線の太さ、線種等)も、捕捉されたデータにコード化されてよい。
ある実施形態においては、スマートペン110が書き込みジェスチャを捕捉する間に、コンピュータデバイス115は、さらに、コンテキストデータを捕捉する。代替実施形態においては、代わりに、書き込みジェスチャは、スマートペン110によって捕捉される代わりに、または、スマートペン110によって捕捉されることに加えて、コンピュータデバイス115または書き込み面105(コンピュータデバイス115と異なる場合は)によって捕捉されてよい。コンテキストデータは、音声/視覚ソース(例えば、周囲の部屋)からの音声及び/またはビデオを含んでよい。コンテキストデータは、例えば、コンピュータデバイス115とのユーザの相互作用(例えば、文書、ウェブページ、電子メール、及び、他の同時に見ているコンテンツ)、コンピュータデバイス115によって収集された情報(例えば、地理空間位置)、及び、コンピュータデバイス115上で視聴または記録されている時間ベースのコンテンツ(例えば音声またはビデオ)に関連付けられた同期情報(例えば、キューポイント)も含んでよい。コンピュータデバイス115は、捕捉された書き込みジェスチャに合わせて同期されたコンテキストデータを記憶する(すなわち、捕捉された書き込みジェスチャとコンテキストデータとの間の相対的タイミング情報が保存される)。代替実施形態においては、スマートペン110、または、スマートペン110とコンピュータデバイス115との組み合わせは、コンテキストデータを捕捉する。さらに、代替実施形態においては、コンテキストデータの一部または全てを、コンピュータデバイス115に記憶するのに代えて、または、それに加えて、スマートペン110に記憶することができる。
スマートペン110とコンピュータデバイス115との間(または、複数のスマートペン110及び/または複数のコンピュータデバイス115の間)の同期は、コンテキスト情報を捕捉するときに、様々な異なる方法で保証されてよい。例えば、ユニバーサルクロックが、異なるデバイス間の同期に使用されてよい。代替実施形態においては、局所的なデバイス間の同期が、2つ以上のデバイス間で実行される。別の実施形態においては、スマートペン110またはコンピュータデバイス115によって捕捉されたコンテンツは、後処理で、以前捕捉されたデータと組み合わされて、かつ同期されてよい。捕捉された書き込みジェスチャ、音声データ、及び/または、デジタルデータの同期は、スマートペン110、コンピュータデバイス115、リモートサーバ(例えば、クラウドサーバ125)、または、デバイスの組み合わせによって実行されてよい。
一実施形態においては、スマートペン110は、視覚情報及び/または音声情報を出力することができる。さらに、スマートペン110は、異なる入力に応答して、スマートペン110の様々な出力及び動作を制御する1つまたは複数のソフトウェアアプリケーションを実行してよい。
一実施形態においては、スマートペン110は、さらに、書き込み面105のテキストまたは他の既存のコンテンツを検出することができる。既存のコンテンツは、スマートペン110自身によって以前に作成されたコンテンツ、または、他のソースからの事前に表示された(pre-printed)コンテンツ(例えば、表示された講義スライドのセット)を含んでよい。一実施形態においては、スマートペン110は、(例えば、テキスト認識を実行することによって)既存のコンテンツ自体を直接、認識する。別の実施形態においては、スマートペンは、スマートペン110の位置情報を認識し、捕捉した位置情報を既存のコンテンツの既知の位置情報と相関付けることによって、どの既存のコンテンツが、相互作用されているかを決定する。例えば、スマートペン110は、書き込み面105の特定の単語または画像をタップすることができ、次に、スマートペン110は、既存のコンテンツを認識することに応答して、コンテキストデータの作成、コンピュータデバイス115へのコマンドの送信等、何らかの動作を取ることができる。既存のコンテンツの記号をタップすることによって、最近捕捉した書き込みジェスチャと関連付けられたコンテキストマーカを作成することができる。コンテキストマーカの例は、例えば、最近捕捉した書き込みジェスチャが重要な項目、タスクであることのインジケーション、または、特定の既存のもしくはユーザ定義のタグに関連付けられるべきことインジケーションを含んでよい。別の例としては、記録デバイスに対する制御を記号で表す(symbolize)表示されたコンテンツをタップするは、関連するアクティブな音声またはビデオレコーダが記録を開始または停止すべきことをコンピュータデバイス115に示すことができる。別の例においては、スマートペン110は、ページ上の単語を翻訳することができる(スクリーン上の翻訳を表示し、または、その音声記録を再生することのいずれかによって)。
コンピュータデバイス115は、例えば、タブレットコンピュータデバイス、携帯電話、ラップトップもしくはデスクトップコンピュータ、または、他の電子デバイス(例えば、他のスマートペン110)を備えてよい。コンピュータデバイス115は、スマートペン110と共に使用できる1つまたは複数のアプリケーションを実行してよい。例えば、スマートペン110によって捕捉された書き込みジェスチャ及びコンテキストデータは、記憶、再生、編集、及び/または、さらなる処理のために、コンピュータシステム115に転送されてよい。さらに、コンピュータデバイス115で利用可能なデータ、及び/または、制御信号は、スマートペン110に転送されてよい。さらに、スマートペン110とコンピュータデバイス115とで同時に実行するアプリケーションによって、スマートペン110とコンピュータデバイス115との間の様々な異なるリアルタイムの相互作用を可能となる。例えば、スマートペン110と書き込み面105との間の相互作用を使用して、コンピュータデバイス115上で実行するアプリケーションに入力を提供してよい(逆も同様)。さらに、捕捉されるストロークデータは、スマートペン110によって捕捉されると、リアルタイムでコンピュータデバイス115に表示されてよい。
スマートペン110とコンピュータデバイス115との間の通信を有効にするために、スマートペン110及びコンピュータデバイス115は、互いに「ペアリング」を確立してよい。ペアリングによって、両デバイスは、互いを認識して、両デバイス間のデータ転送を許可することができる。ペアリングされると、データ及び/または制御信号は、スマートペン110とコンピュータデバイス115との間で有線または無線手段を通じて送信されてよい。一実施形態においては、スマートペン110及びコンピュータデバイス115の両方は、それらの各ネットワークアダプタにリンクしたTCP/IPネットワークスタックを有している。従って、デバイス110、115は、直接(TCP)ソケット及びブロードキャスト(UDP)ソケットを使用して、これらのソケットを使用して通信することができるスマートペン110及びコンピュータデバイス115の各々で実行するアプリケーションとの通信をサポートする。
ネットワーク120は、スマートペン110、コンピュータデバイス115、クラウドサーバ125の間の通信を有効にする。ネットワーク120によって、スマートペン110は、例えば、スマートペン110、コンピュータデバイス115、及び/もしくは、クラウドサーバ125の間で捕捉されたコンテキストデータを転送すること、スマートペン110、コンピュータデバイス115、及び/もしくは、クラウドサーバ125の間で制御信号を通信すること、並びに/または、スマートペン110、コンピュータデバイス115、及び/もしくは、クラウドサーバ125の間で様々な他のデータ信号を通信することが可能になり、様々なアプリケーションが有効になる。ネットワーク120は、例えば、Bluetooth、WiFi、WiMax、セルラーネットワーク、赤外線通信、音波通信、もしくは、カスタムプロトコル等の無線通信プロトコルを備えてよく、及び/または、USBもしくはイーサネット等の有線通信プロトコルを備えてよい。代わりに、または、追加で、スマートペン110及びコンピュータデバイス115は、ネットワーク120を必要とせずに、有線または無線接続を介して直接通信してよい。
クラウドサーバ125は、ネットワーク120を介して、スマートペン110及び/またはコンピュータデバイス115に結合されたリモートコンピュータシステムを備える。例えば、一実施形態においては、クラウドサーバ125は、スマートペン110及び/またはコンピュータデバイス115によって捕捉されたデータのためのリモート記憶装置を備える。さらに、クラウドサーバ125に記憶されたデータは、様々なアプリケーションのコンテキストで、スマートペン110及び/またはコンピュータデバイス115によってアクセスかつ使用することができる。
<スマートペンシステムの概要>
図2は、スマートペン110の実施形態を示す。図示の実施形態においては、スマートペン110は、マーカ205、撮像システム210、ペンダウンセンサ(pen down sensor)213、電源状態機構215、スタイラスチップ217、入出力ポート220、プロセッサ225、オンボードメモリ230、及び、バッテリ235を備える。例えば、状態インジケータライト、ボタン、1つまたは複数のマイクロフォン、スピーカ、オーディオジャック、及び、ディスプレイを含む、スマートペン110の他のオプションのコンポーネントは、記載を分かりやすくするために、図2では省略している。代替実施形態においては、スマートペン110は、図2に示すコンポーネントよりも少ない、多い、重複した、または、異なったコンポーネントを有してよい。
図2は、スマートペン110の実施形態を示す。図示の実施形態においては、スマートペン110は、マーカ205、撮像システム210、ペンダウンセンサ(pen down sensor)213、電源状態機構215、スタイラスチップ217、入出力ポート220、プロセッサ225、オンボードメモリ230、及び、バッテリ235を備える。例えば、状態インジケータライト、ボタン、1つまたは複数のマイクロフォン、スピーカ、オーディオジャック、及び、ディスプレイを含む、スマートペン110の他のオプションのコンポーネントは、記載を分かりやすくするために、図2では省略している。代替実施形態においては、スマートペン110は、図2に示すコンポーネントよりも少ない、多い、重複した、または、異なったコンポーネントを有してよい。
マーカ205は、書き込みに使用可能な任意のインクベースもしくはグラファイト(graphite)ベースのマーキングデバイスまたは任意の他のデバイスを含む、任意の適切なマーキング機構を備える。マーカ205は、感圧要素等のペンダウンセンサ213に結合される。代替実施形態においては、マーカ205は、ペアリングされたプロジェクタまたは電子ディスプレイを使用して、書き込み面105に電子マークをつけてよい。
撮像システム210は、マーカ205の近くの面の領域を撮像するための光学系及びセンサを備える。撮像システム210を使用して、スマートペン110でなされた手書き及びジェスチャを捕捉してよい。例えば、撮像システム210は、マーカ205に全体的に近郊した(general vicinity)書き込み面105を照射する赤外線光源を含んでよく、書き込み面105は、コード化されたパターンを含む。コード化されたパターンの画像を処理することによって、スマートペン110は、マーカ205がどこで書き込み面105と関連しているかを決定することができる。撮像システム210の撮像配列は、マーカ205近くの面を撮像し、その視野にあるコード化されたパターンの一部を捕捉する。
スマートペン110の他の実施形態においては、書き込みジェスチャを捕捉する適切な代替機構を使用してよい。例えば、一実施形態においては、ページ上の位置は、単語または写真もしくは他の画像の一部等、事前表示されたマークを使用することによって決定される。検出したマークを文書のデジタルバージョンに相関付けることによって、スマートペン110の位置を決定できる。例えば、一実施形態においては、表示された新聞に対するスマートペンの位置は、スマートペン110の撮像システム210によって捕捉された画像を新聞のクラウドベースのデジタルバージョンと比較することによって決定できる。この実施形態においては、ページ上の他のコンテンツを基準点として使用できるので、書き込み面105上のコード化されたパターンが必要でない場合がある。次に、撮像システム210によって捕捉されたデータは、文字認識等の1つまたは複数のコンテンツ認識アルゴリズムを使用して処理される。別の実施形態においては、撮像システム210を使用して、書き込み面105に既に存在する書き込みコンテンツをスキャン及び捕捉することができる。この撮像システムを使用して、例えば、書き込み面105上の手書きもしくは表示されたテキスト、画像または制御を認識することができる。他の代替実施形態においては、例えば、スマートペン110ではなく、電子デバイス(例えば、タブレット)と一体化された書き込み面105によってジェスチャが捕捉される実施形態においては、撮像システム210は、スマートペン110から省略されてよい。
ペンダウンセンサ213は、スマートペンが降りるときを判定する。本明細書で使用されるように、「ペンが降りる」は、マーカ205が書き込み面105に押し付けられ、または、接触することを示す。ある実施形態においては、ペンダウンセンサ213は、ペンが降りるときに出力を生成して、それによって、スマートペン110が、面に書き込むために使用されていること、または、書き込み面105上での制御もしくはボタンと相互作用(例えば、タッピング)するために使用されていることを検出する。ペンダウンセンサ213の実施形態は、容量センサ、ピエゾ抵抗センサ、機械式ダイヤフラム、及び、電磁式ダイヤフラムを備えてよい。さらに、撮像システム210が、ペンダウンセンサ213と組み合わせで使用されて、マーカ205が書き込み面105に接触しているときを判定してよい。例えば、撮像システム210は、画像処理を使用して(例えば、撮影画像の高速フーリエ変換に基づいて)マーカ205が書き込み面105の特定の範囲内にあるか否かを判定するために使用されてよい。代替実施形態においては、別個の領域探索光学系、レーザまたは音響デバイスをペンダウンセンサ213と共に使用することができる。代替実施形態においては、スマートペン110は、スマートペンが書き込み面105に書き込みを行っていること、または、書き込み面105の制御と相互作用を行っていることを示す振動を検出できる。代替実施形態においては、ペンアップセンサを使用して、スマートペン110が上がるときを判定してよい。本明細書で使用されるように、「ペンが上がる」は、マーカ205が書き込み面105に押し付けられていない、または、書き込み面105と接触していないことを示す。ある実施形態においては、ペンダウンセンサ213は、さらに、スタイラスチップ217と結合されてよく、または、スタイラスチップ217に結合もしくは組み込まれた追加のペンダウンセンサであってよい。
電源状態機構215は、スマートペン110の電源状態をトグルで切り替える(toggle)ことができる。電源状態機構は、スマートペン110の電力状態を検知及び出力してもよい。電源状態機構は、ペン本体に一体化された回転可能スイッチ、機械式ボタン、ダイヤル、タッチスクリーン入力、容量性ボタン、光学センサ、温度センサ、または、振動センサとして実現されてよい。電源状態機構215がトグルで切り替えられるとき、ペンのバッテリ235が活性化され、撮像システム210、入出力デバイス220、プロセッサ225、及び、オンボードメモリ230も活性化される。ある実施形態においては、電源状態機構215はまた、状態ライト、ディスプレイ、マイクロフォン、スピーカ、及び、スマートペン110の他のコンポーネントをトグルで切り替える。ある実施形態においては、電源状態機構215がトグルでONに切り替えられるとき、マーカ205が拡張し(extend)、電源状態機構215がトグルでOFFにされるとき、マーカ25が引っ込む(retract)ように、電源状態機構215は、機械的、電気的、または、磁気的に、マーカ205に結合されてよい。ある実施形態においては、マーカ及び/または容量性チップ217の使用によって、電源状態がトグルで切り替わるように、電源状態機構215は、マーカ205及び/または容量性チップに結合される。ある実施形態においては、電源状態機構215は、各位置が、スマートペン110のコンポーネントの特定のサブセットをトグルで切り替える複数の位置を有してよい。
スタイラスチップ217を使用して、物理的なインクマークを残すことなく、デバイスまたはオブジェクトに書き込み、または、それらと相互作用する。スタイラスチップと共に使用するデバイスの例は、タブレット、電話、携帯情報端末、対話型ホワイトボード、または、タッチセンサ式入力が可能な他のデバイスを含んでよい。スタイラスチップは、容量検知または圧力検知を利用してよい。ある実施形態においては、スタイラスチップは、マーカ205の代わりに、または、マーカ205と組み合わせて使用されてよい。
入出力(I/O)デバイス220は、スマートペン110と、ネットワーク120及び/またはコンピュータデバイス115との間の通信を可能にする。I/Oデバイス220は、任意のサポートアンテナ及び電子機器と共に、例えば、Bluetooth、Wi‐Fi、WiMax、3G、4G、赤外線、もしくは、超音波インタフェース等の有線及び/または無線通信インタフェースを含んでよい。
プロセッサ225、オンボードメモリ230(すなわち、非一時的コンピュータ可読記憶媒体)、及び、バッテリ235(または、任意の他の適切な電源)によって、スマートペン110上で演算機能を実行することができる。プロセッサ225は、オンボードメモリ230及びバッテリ235と共に、入力デバイス及び出力デバイス(例えば、撮像システム210、ペンダウンセンサ213、電源状態機構215、スタイラスチップ217、及び、入出力デバイス220)に結合され、それによってスマートペン110上で実行するアプリケーションがそれらのコンポーネントを使用するのを可能にする。その結果、実行可能アプリケーションは、オンボードメモリ230の非一時的コンピュータ可読記憶媒体に記憶され、プロセッサ225によって実行されて、本明細書に記載のスマートペン110に属する様々な機能を実行できる。さらに、メモリ230は、記録された書き込みデータ及びコンテキストデータを、無期限に、または、スマートペン110からコンピュータシステム115もしくはクラウドサーバ125にオフロードされるまで記憶してよい。
ある実施形態においては、プロセッサ225及びオンボードメモリ230は、ファイルシステムまたはアプリケーションメニューを通じてメニュー構造及びナビゲーションをサポート及び有効にする1つまたは複数の実行可能アプリケーションを含み、アプリケーションまたはアプリケーションの機能の開始を可能にする。例えば、メニュー項目間のナビゲーションは、ユーザによる音声コマンド及び/または書き込みコマンド及び/またはジェスチャと、スマートペンコンピュータシステムからの音声フィードバック及び/または視覚的フィードバックを伴う、ユーザとスマートペン110との相互作用を含む。ある実施形態においては、ペンコマンドは、「開始線(launch line)」を使用して起動できる。例えば、ドットペーパー上に、ユーザは、右から左に水平に線を引き、次に、最初の区分上を戻ると、そこで、ペンは、ユーザにコマンドを促す。次に、ユーザは、所望のコマンドまたはメニュー(例えば、Wi‐Fi設定、記録の再生等)がアクセスされることになる線上で書く(print)(例えば、ブロック文字を使用して)。統合文字認識(ICR)を使用して、ペンは、書き込みジェスチャをコマンドまたはデータ入力のためのテキストに変換できる。代替実施形態においては、異なる種類のジェスチャを認識して、開始線を有効にできる。よって、スマートペン110は、様々な様式(modality)からメニュー構造をナビゲートする入力を受信してよい。
書き込みデータ及びコンテキストデータの収集および記憶
スマートペンのコンピューティングセッションの間、ペンベースのコンピュータシステム100は、スマートペン110の操作を通じて生成または収集され、かつコンピュータデバイス115によって生成または収集された、2つの主な形態でのコンテンツを取得する。このデータは、例えば、ストロークデータ、音声データ、デジタルコンテンツデータ、及び、他のコンテキストデータを含んでよい。
スマートペンのコンピューティングセッションの間、ペンベースのコンピュータシステム100は、スマートペン110の操作を通じて生成または収集され、かつコンピュータデバイス115によって生成または収集された、2つの主な形態でのコンテンツを取得する。このデータは、例えば、ストロークデータ、音声データ、デジタルコンテンツデータ、及び、他のコンテキストデータを含んでよい。
ストロークデータは、例えば、様々なサンプル時間に捕捉された特定の書き込み面105に対するスマートペンの位置の座標情報(例えば、「X」「Y」座標)を符号化する一連の時間的に指標付けされたデジタルサンプルを表す。概して、個々のストロークは、ペンが降りると開始し、ペンが上がると終了する。さらに、一実施形態においては、ストロークデータは、例えば、スマートペン110のペンの角度、ペンの回転、ペンの速度、ペンの加速度、または、他の位置、角度、もしくは、動作特性等の他の情報を含んでよい。書き込み面105は、経時的に(例えば、注釈のページまたは注釈を変更すると)変化してよく、従って、書き込み面に関する情報の識別も、ストロークデータで捕捉されてよい。
音声データは、例えば、様々なサンプル時間に捕捉された一連の時間的に指標付けされたデジタル音声サンプルを含む。概して、個々の音声クリップは、「記録」コマンドが捕捉されると開始し、「記録停止」コマンドが捕捉されると終了する。ある実施形態においては、音声データは、複数の音声信号(例えば、ステレオ音声データ)を含んでよい。
捕捉されたデジタルコンテンツは、スマートペンのコンピューティングセッションの間に捕捉されたコンピュータデバイス115上で実行している1つまたは複数のアプリケーションに関連付けられた状態を表す。状態情報は、例えば、所与の時間にコンピュータデバイス115によって表示されているデジタル文書もしくはウェブページ、所与の時間にコンピュータデバイスによって表示されているデジタル文書もしくはウェブページの特定の部分、所与の時間にコンピュータデバイスによって受信された入力等を表すことができる。コンピュータデバイス115の状態は、コンピュータデバイス115とのユーザの相互作用に基づいて、及び/または、ストロークデータ(例えば、ジェスチャコマンド)もしく音声データ(例えば、音声コマンド)からのコマンドもしくは入力に応答して、経時的に変化してよい。
スマートペンシステムによって捕捉された他のデータは、特定の方法でマーク付けされたコンテンツに関連付けられた識別子を記憶するコンテキストマーカを含んでよい。例えば、ユーザは、ボタンをタップして、様々なコンテンツカテゴリ(例えば、追跡(follow-up)が必要なタスク、重要なコンテンツ等)に従ってコンテンツを分類できる。スマートペンのコンピューティングセッションの間に補足された写真またはビデオがまた、記憶及び時間的に指標付けられてよい。スマートペンのコンピューティングセッションが起こった場所に関する(例えば、全地球測位システムを使用して捕捉された)地理的空間情報も捕捉及び記憶できる。さらに、スマートペンコンピュータシステム100内で実行されたペアリングデータまたはコマンドも捕捉及び記憶できる。
一実施形態においては、スマートコンピューティングセッションは、「記録」コマンドが捕捉されると開始し「記録停止」コマンドが捕捉されると終了する。あるいは、スマートペンのコンピューティングセッションは、スマートペンのコンピューティングアプリケーションがコンピュータデバイス115上で開始されるときに、自動的に開始してよく、スマートペン110の電源を入れるときかつ電源を切るとき、自動的に開始及び終了してよい。
図3は、ペンベースのコンピュータシステム100で捕捉及び構成されたコンテンツの例を示す。図3において、スマートペンのコンピューティングセッションの間に捕捉された各コンテンツは、タイムスタンプ310、イベントコンテンツ315、メタデータ325、関連クラスタ335、及び、関連スニペット345のフィールドのうち1つまたは複数を含むイベントとして表される。個々の動作を指標付きイベントとしてデータストアに記憶することによって、スマートペン110とコンピュータデバイス115との間のコンテンツの相関付けが可能になる。代替実施形態においては、異なるカテゴリのイベントは、イベントのカテゴリに関する情報に応じて、異なる、追加の、または、より少ないフィールドを有してよい。
イベントタイムスタンプフィールド310は、特定のイベントが起こった時を時間で示す。イベントタイムスタンプは、協定世界時間(UTC)、Unixタイム、他のタイムシステム、もしくは、それらの任意のオフセット等のユニバーサルタイムに関するものでよく、または、他のイベントもしくは何らかの基準時間に対して(例えば、スマートペン110またはコンピュータデバイス115の電源投入時に対して)指定された相対時間であってよい。タイムスタンプは、任意の精度で実施されてよい。様々な可能な実装において、タイムスタンプは、イベントの開始時間、イベントの終了時間、または、その両方を示すように記憶されてよい。
イベントコンテンツフィールド315は、ペンベースのコンピュータシステム100によって捕捉されたデータ、例えば、書き込みコンテンツ、記録された音声もしくはビデオ、写真、地理的空間情報、スマートペン110及びコンピュータデバイス115のペアリングデータ、スマートペンのコンピューティングセッションの間にコンピュータデバイス115上で同時に表示されるコンテンツを参照するデジタルデータクリップ、スマートペン110及びコンピュータデバイス115へのコマンド、コンテキストマーカ、読み出されたテキスト及び媒体、ウェブページ、クラウドサーバ125からアクセスされた他の情報、並びに、他のコンテキストデータ等である。
例えば、スマートペン110によって捕捉された各ストロークは、概して、別個のイベントとして記憶され、イベントコンテンツフィールド315によって参照される。同様に、音声捕捉イベント(audio capture events)は、イベント捕捉フィールド315によって参照される音声クリップと共に、別個のイベントとして記憶される。スマートペンのコンピューティングセッションの間にコンピュータデバイス上で実行しているアプリケーションの状態への変更も、イベントとして捕捉され、イベント捕捉フィールド315によって参照されて、例えば、スマートペンのコンピューティングセッションの間の所与の時間にユーザが特定のデジタル文書を参照し、または、特定のウェブサイトを閲覧したということを示してよい。コンテキストマーカは、イベント捕捉フィールド315に記憶されて、ユーザが特定のタグをコンテンツに適用したことを示してよい。写真に関連するイベントについては、イベントコンテンツフィールド315は、写真データ、または、写真が記憶されたファイルの位置への参照を含んでよい。音声ファイル及び/またはビデオファイルに関するイベントについては、イベントコンテンツフィールド315は、音声ファイル及び/もしくはビデオファイル、音声ファイル及び/もしくはビデオファイルが記憶されたファイルの位置への参照を含んでよい。
メタデータフィールド325は、イベントに関連付けられた追加データを含む。メタデータフィールド325に記憶されたデータは、例えば、イベントコンテンツフィールド315に関連付けられたソースデバイスを識別する情報と、そのデバイスに関する状態データとを含んでよい。ストロークからなる書き込みコンテンツについては、メタデータフィールド325は、例えば、書き込み面105に関連付けられたページアドレス情報(例えば、面の種類、ページ番号、注釈ID、デジタルファイル参照等)を含む。写真に関連するメタデータは、例えば、ソースカメラデータ、カメラアプリケーション、及び、適用された写真処理を含む。同様に、記録された音声及びビデオに対するメタデータフィールド325は、例えば、マイクロフォン及び/またはカメラのデータと、記録アプリケーションと、記録アプリケーションに入力されたコマンドと、適用された音声処理及び/またはビデオ処理とを含む。地理的空間情報(例えば、全地球測位システムの座標)も、メタデータフィールド325に含まれて、スマートペン110またはコンピュータデバイス115を使用してイベントを捕捉した位置に関する追加のコンテキストデータを提供してよい。同時に表示されるコンテンツ(テキスト、電子メール、文書、画像、音声、ビデオ、ウェブページ、アプリケーション、または、それらの組み合わせ等)に関連するイベントに関連付けられたメタデータは、例えば、同時に表示されたコンテンツを参照するときのコンテンツソース及びユーザコマンドを含む。コマンド及びコンテキストマーカに関連するメタデータは、例えば、面の種類、ページ番号、注釈ID、及び、デジタルファイル参照等、書き込み面105に関する情報を含む。
イベントは、「クラスタ」及び「スニペット」と本明細書で称する組織的マーカへの参照を含んでよい。クラスタは、ストロークの相対的タイミング、ストロークの相対的物理位置、ストロークに適用された手書き認識の結果等のコンテキストデータに基づいてグループ化された1つまたは複数のストロークのセットを含む。概して、各ストロークは、1つかつ1つのみのクラスタに関連付けられる。一実施形態においては、ストロークは、概して、クラスタと、単一の書き込まれた単語との間の1対1対応関係を生成することを意図された処理に従って、クラスタにグループ化される。実際には、グループ化は、必ずしも1対1でなくてよく、システムは、ストロークを単語に完全にグループ化せずに、本明細書に記載の機能を達成できる。ストロークをクラスタにグループ化する処理を、図5を参照して以下に詳しく記載する。図3のクラスタフィールド335は、クラスタ化処理の後、各ストロークがどのクラスタに関連付けられているかを識別するクラスタ識別子(例えば、C1、C2等)を記憶する。非ストロークイベントは、必ずしもクラスタに関連付けなくてよい。
スニペットは、1つまたは複数のイベントのセットを含み、ストロークと、コンテキストマーカ、音声、写真、ビデオ、コマンド等の他の種類のイベントとの両方を含んでよい。概して、単一のクラスタにグループ化されるストロークは、同じスニペットにグループ化されるが、スニペットは、他のクラスタも含んでよい。イベントは、概して、イベントの相対的タイミング、ストロークの相対的物理位置、ストロークに適用された手書き認識の結果等のコンテキストデータに基づいて、スニペットにグループ化される。一実施形態においては、書き込み面105と係合している間にスマートペン110によって捕捉された文、リスト項目、番号付けされた項目、または、スケッチされた絵等、まとまった思想(complete thought)に各スニペットが概して対応するように、イベントは、(本明細書で「スニペット化」と称する処理に従って)スニペットにグループ化される。概して、スニペットに相関付けされたイベントは、強い時間的相関性を有するが、例えば、空間的位置に基づいた強い相関性が存在するときなど、強い非時間的相関性が存在する場合、後のイベントは、前のスニペットに相関付けされてよい。さらに、イベントをスニペットにグループ化する自動処理は、本明細書に記載の機能を達成するために必ずしも完全である必要はない。イベントをスニペットにグループ化する処理を、図6を参照して以下にさらに詳しく記載する。図3のスニペットフィールド345は、「スニペット化」処理の後、各イベントがどのスニペットに関連付けられているかを識別するスニペット識別子(例えば、S1、S2等)を記憶する。どのスニペットにも必ずしも関連付けられないイベントもある。
一実施形態においては、クラスタ及び/またはスニペットに関連付けられた書き込みデータは、手書き認識または光学的文字認識を使用して、自動的に処理され、テキストに変換されてよい。認識されたテキストは、クラスタまたはスニペットで、ストロークデータ自体に代えて、または、それに追加して記憶されてよい。
図3では、記載を完全にするために、イベントの幾つかが、クラスタ及び/またはスニペットに割り当てられているとして示しているが、イベントを捕捉すると、クラスタフィールド335及びスニペットフィールド345に必ずしも挿入され(populate)ないことは理解されたい。むしろ、これらのフィールドは、後に挿入されてよい。例えば、クラスタ化処理及びスニペット化処理は、周期的に実行して、イベントをクラスタ及び/またはスニペットにグループ化してよい。あるいは、特定のクラスタまたはスニペットが完了するのを検出すると、イベントがグループ化されてよい。
図3に示すイベントの例が生じる特定の使用事例を、例示目的で記載する。7時13分17秒の後まもなく、ユーザは、スマートペン110で、単一のストロークで、プロジェクト名を書き込み面105に書き込む。このストロークは、第1のイベント301として記録される。システムは、ストロークが単一の単語に対応することを検出し、ストロークをクラスタC1及びスニペットS1に関連付ける。次に、ユーザは、書き込み面105上に表示された記号をスマートペン110でタップして、プロジェクトがタスク項目であることを示す。この動作は、イベント302、コンテキストマーカとして記録される。コンテキストは、イベント301のストロークと時間的に相関付けされているので、イベント302は、スニペットS1と相関付けられる。次に、ユーザは、新しい線上にプロジェクトの記述を書き込むことを開始し、イベント303を作成する。イベント303のストロークは、クラスタC1及びスニペットS1とも十分に相関付けされないので、新しいクラスタC2及び新しいスニペットS2に関連付けられる。次に、ユーザは、コンピュータデバイス115で音声の再生を開始する。イベント304が作成され、いつ音声ファイルが再生を開始したか、どの音声ファイルが再生されたか、及び、どこで音声ファイルの再生が開始されたかを示す。イベント304は、イベント303に時間的に近接しているので、スニペットS2に関連付けられる。ユーザは、すぐに、スマートペン110で、書き込み面105上の記号をタップした後、コンピュータデバイス115の再生音量が増加されるべきであることを示す。これは、コマンドイベント305を作成し、コマンドイベント305は、イベント303及び304と時間的に近接しているので、スニペットS2と相関付けられる。音声を聞いている間、ユーザは、コンピュータデバイス115で写真を撮り、これは、イベント306として記録される。イベント306の写真は、イベント305に時間的に近接しているので、スニペットS2に関連付けられる。最後に、ユーザは、プロジェクト名の誤りに気付き、スマートペン110で訂正して、イベント307を作成する。イベント307は、スニペットS1には相対的に時間的に近接していなにも関わらず、C1に空間的に近接しているので、クラスタC1及びスニペットS1に関連付けられる。各イベントを作成すると、関連するメタデータ325は、前述のように、対応するイベントと共に記憶される。発明の特定の実施形態は、クラスタフィールド335またはスニペットフィールド345を異なって割り当ててよい。本例は、クラスタ及びスニペットの概念を説明するための例である。
書き込みデータ及びコンテキストデータを構成するアーキテクチャ
図4は、スマートペンコンピュータシステム100でイベントデータを構成するシステムを示すブロック図である。一実施形態においては、図示のアーキテクチャは、コンピュータデバイス115で実施できるが、他の実施形態においては、そのアーキテクチャは、スマートペン110、コンピュータデバイス115、クラウドサーバ125、または、それらの組み合わせで実施できる。図4のコンピュータデバイス115は、デバイスシンクロナイザモジュール405、イベントストア410、クラスタエンジン415、クラスタストア420、スニペットエンジン425、スニペットストア430、及び、スニペット表示モジュール435、を備え、全て、メモリ450(例えば、非一時的コンピュータ可読記憶媒体)に記憶される。操作において、様々なエンジン/モジュール(例えば、405、415、425、及び、435)は、プロセッサ460によって実行可能なコンピュータ実行可能プログラム命令として実施される。他の実施形態においては、図4の様々なコンポーネントは、特定用途向け集積回路(ASIC)上等の、ハードウェアで実施されてよい。
図4は、スマートペンコンピュータシステム100でイベントデータを構成するシステムを示すブロック図である。一実施形態においては、図示のアーキテクチャは、コンピュータデバイス115で実施できるが、他の実施形態においては、そのアーキテクチャは、スマートペン110、コンピュータデバイス115、クラウドサーバ125、または、それらの組み合わせで実施できる。図4のコンピュータデバイス115は、デバイスシンクロナイザモジュール405、イベントストア410、クラスタエンジン415、クラスタストア420、スニペットエンジン425、スニペットストア430、及び、スニペット表示モジュール435、を備え、全て、メモリ450(例えば、非一時的コンピュータ可読記憶媒体)に記憶される。操作において、様々なエンジン/モジュール(例えば、405、415、425、及び、435)は、プロセッサ460によって実行可能なコンピュータ実行可能プログラム命令として実施される。他の実施形態においては、図4の様々なコンポーネントは、特定用途向け集積回路(ASIC)上等の、ハードウェアで実施されてよい。
デバイスシンクロナイザ405は、ペンベースのコンピュータシステム100の様々なコンポーネントから受信したデータを同期する。例えば、スマートペン110からの書き込みデータ、コマンド、及び、コンテキストマーカは、記録された音声、記録されたビデオ、写真、同時に参照されたウェブページ、デジタル文書、もしくは、他のコンテンツ、並びに、コンピュータデバイス115へのコマンドと同期される。追加のコンテキストデータは、クラウドサーバ125からアクセスされてよい。デバイスシンクロナイザ405は、データが収集されるときに連続的に、または、個別のバッチで、データを処理してよい。データが収集される間にスマートペン110及びコンピュータデバイス115がペアリングされないとき、デバイスシンクロナイザ405は、デバイスが再度ペアにされるとき、関連するコンテキストデータをスマートペン110からの書き込みデータと結合(merge)できる。デバイスシンクロナイザ405は、受信したデータを処理してイベントにし、イベントはイベントストア410に記憶される。一実施形態においては、イベントが捕捉された注釈同じ順で後に再生できるように、タイムスタンプ310を使用して、イベントストア410内でイベントを構成する。
イベントストア410は、デバイスシンクロナイザ405によって収集されたイベントを記憶する。一実施形態においては、イベントは、上記のように、タイムスタンプ310、イベントコンテンツ315、イベントメタデータ325、関連クラスタ335、及び、関連スニペット345等の様々なフィールドを含む。一実施形態においては、イベントストア410は、タイムスタンプによってイベントを指標付ける。代替実施形態は、タイムスタンプによって指標付けるのに代えて、または、それに加えて、クラスタまたはスニペットによってデータに指標付けてよい。イベントストア410は、クラスタエンジン415及びスニペットエンジン425への入力データのソースである。
クラスタエンジン415は、イベントストア410からストロークデータを含むイベントを取得し、それらを相関付けてクラスタにする。相関付けられたクラスタは、特定の時間的、及び/または、空間的関係を有する集約されたストロークに相当する。例えば、クラスタアルゴリズムは、必ずしもそうとは限らないが、各クラスタが、概して、スマートペン110のユーザによって書き込まれた別個の単語に相当するように、ストロークをクラスタ化してよい。場合によっては、ストロークの時間的近接性は、必ずしもストロークのクラスタ化に必要とされない。例えば、ストロークは、強い空間的相関性に単独で基づいてクラスタ化されてよい。クラスタエンジン415は、統合文字認識(ICR)、光学的文字認識(OCR)、または、手書き認識を捕捉されたストロークにも適用してよく、これらの処理の結果が、クラスタ化で使用されてよい。例えば、ストロークは、クラスタエンジン415が、これらのストロークを含む完全な単語を認識する時、クラスタ化されてよい。結果として生じるクラスタ化されたデータは、指標付けられたストローク、集約されたストロークを表す画像、ストロークのデジタル文字変換、または、それらの組み合わせとして出力されてよい。クラスタエンジン415からの出力は、クラスタストア420に記憶される。
クラスタストア420は、クラスタエンジン415から出力されたクラスタを受信する。一実施形態においては、クラスタは、関連するタイムスタンプ310によって指標付けられてよい。他の実施形態においては、クラスタは、タイムスタンプフィールド310による指標付けの代わりに、または、それに加えて、関連するスニペットによって指標付けられてよい。クラスタストア420に含まれる情報は、スニペットエンジン425への入力データのソースである。
スニペットエンジン430は、入力として、イベントストア410からイベントを取得し、クラスタストア420からクラスタを取得する。クラスタストアからのクラスタは、各クラスタに関連付けられた位置情報及び/または時間情報に従って相関付けられる。例えば、ユーザが、書き込み面105を横切って水平に書き込む場合、スニペットエンジンは、横列に配置されたクラスタを単一のスニペットにグループ化してよい。ユーザが垂直に書き込む場合、スニペットエンジン430は、縦列に配置されたクラスタを単一のスニペットにグループ化してよい。ユーザが描画をスケッチする場合、スニペットエンジンは、その描画の全てのストロークをスニペットにグループ化してよい。スニペットエンジン425は、ストロークのクラスタ以外のイベントをスニペットにグループ化してよい。例えば、関連するコンテキストデータに関連付けられたイベントは、ユーザが注釈を取っている間(while taking notes)の思考処理(thought process)を捕捉する方法で、関連するストロークイベントまたはクラスタと共にスニペットにグループ化されて、イベントを構成してよい。例えば、スニペットの途中または後で写真が撮られ、または記録が開始された場合、その写真または記録は、そのスニペットとリンクされる。ある実施形態においては、音声ファイルまたはビデオファイルが、スニペットの間に記録または再生されている場合、その音声ファイルまたはビデオファイルは、スニペットの時間に対応するファイルの時間位置に従って、スニペットにリンクされる。スニペットに関連付けられた時間は、最初のタイムスタンプフィールド310、最後に含まれたタイムスタンプフィールド310、最初と最後に含まれたタイムスタンプフィールド310の平均、または、含まれたタイムスタンプフィールド310の全ての平均を含む。スニペットエンジン425の出力は、含まれた全てのイベント、ストローク、及び、クラスタに対する参照を含むことができる。ある実施形態においては、スニペットエンジン425の出力は、含まれた全てのクラスタの文字表現、または、全てのクラスタ及び他のコンテンツの画像(写真、ビデオのプレビューフレーム、または、ウェブページ)を、スニペットに含めてよい。
スニペット表示モジュール435は、スニペット情報をユーザに表示する命令を含む。一実施形態においては、スニペットに関連付けられた全てのイベントは、共に表示される。一実施形態においては、連続したスニペットは、時間順に表示される。一実施形態においては、スニペット表示モジュール435は、ペンベースのコンピュータシステム100の複数のデバイスによって収集及び記憶されたスニペットを結合する。代替実施形態においては、スニペットは、スニペット内のストロークの(書き込み面105上の)位置に基づく順序で、スニペットが収集された地理空間位置に基づく順序で、または、スニペットを収集したスマートペン110に基づく順序で表示されてよい。
本明細書に記載のアーキテクチャは、同じデバイスで全て実施される必要はない。ある実施形態においては、データは、ペンベースのコンピュータシステム100で、複数のデバイスにわたって操作または記憶されてよい。データを操作または記憶する一部の要素は、複数のデバイスで実施または複製してよい。代替実施形態においては、スマートペンは、デバイス同期405を実行し、イベントストア410及びクラスタストア420を含み、または、クラスタエンジン415を実施する。イベント情報及びクラスタ情報は、ネットワーク120上でコンピュータデバイス115に送信され、コンピュータデバイス115は、スニペットエンジン425を実施し、スニペットストア430を含む。代替実施形態においては、イベントストア410からのスマートペン110及びコンピュータデバイス115に関する全ての情報をクラウドサーバ125上の別のイベントストア410で複製する。当業者は、図4のアーキテクチャの複数の変形を着想することができる。
ストロークデータのクラスタ及びスニペットへの構成
図5は、クラスタエンジン415によって実行されるストロークデータをクラスタに変換する処理の例を示すフロー図である。クラスタエンジン415は、イベントストア410からストロークを受信する(405)。クラスタエンジン415は、前述のように、時間情報、空間情報、及び/または、コンテキストデータに基づいてストロークをグループ化することによって、ストロークを相関付ける(510)。クラスタエンジン415は、各クラスタをチェックする(515)。例えば、クラスタエンジン415は、手書き認識を使用して、クラスタ内のストロークが理解可能な(intelligible)文字に相当するか否かをチェックしてよい。ある実施形態においては、出力チェックステップは、個々の文字がデータベースの単語を形成するか否かをチェックしてよい。ストロークのグループ化が不満足な場合、不満足なストロークのグループは、別のグループ化のためにストローク相関ステップ510に戻されてよい。ある実施形態においては、ストロークのグループ化がストローク相関付け510と出力チェック515の間を通る回数を制限してよい。制限に達すると、ストロークの元のグループが維持されてよく、または、最も認識された文字をもたらしたグループが選択されてよい。出力チェックステップ515は、スケッチされた画像に対応するストローク等、いずれの文字も認識しなくてよい。ストロークのグループ化がチェックされた(515)後、ストロークのグループは、クラスタストア420にクラスタとして記憶される(520)。
図5は、クラスタエンジン415によって実行されるストロークデータをクラスタに変換する処理の例を示すフロー図である。クラスタエンジン415は、イベントストア410からストロークを受信する(405)。クラスタエンジン415は、前述のように、時間情報、空間情報、及び/または、コンテキストデータに基づいてストロークをグループ化することによって、ストロークを相関付ける(510)。クラスタエンジン415は、各クラスタをチェックする(515)。例えば、クラスタエンジン415は、手書き認識を使用して、クラスタ内のストロークが理解可能な(intelligible)文字に相当するか否かをチェックしてよい。ある実施形態においては、出力チェックステップは、個々の文字がデータベースの単語を形成するか否かをチェックしてよい。ストロークのグループ化が不満足な場合、不満足なストロークのグループは、別のグループ化のためにストローク相関ステップ510に戻されてよい。ある実施形態においては、ストロークのグループ化がストローク相関付け510と出力チェック515の間を通る回数を制限してよい。制限に達すると、ストロークの元のグループが維持されてよく、または、最も認識された文字をもたらしたグループが選択されてよい。出力チェックステップ515は、スケッチされた画像に対応するストローク等、いずれの文字も認識しなくてよい。ストロークのグループ化がチェックされた(515)後、ストロークのグループは、クラスタストア420にクラスタとして記憶される(520)。
図6は、スニペットエンジン425によって実行されるクラスタまたは他のイベントをスニペットに変換する例示的な処理を示すフロー図である。スニペットエンジン425は、クラスタストア420からクラスタを受信する(605)。スニペットエンジン425は、時間的近接性、空間的近接性、及び/または、他のコンテキストデータに基づいて、クラスタを相関付けてスニペットにする(610)。一実施形態においては、例えば、単語を表すクラスタは、書き込まれた文、リスト項目、番号付けされた項目、または、スケッチされた描画等、まとまった思考を表すスニペットに相関付けされる。ある実施形態においては、統計的推論または構文解析を伴う自然言語処理アルゴリズムを使用してスニペットへの単語の関連性の尤度を評価してよい。代替実施形態においては、黒丸、番号、または、終止符等の重要な文字の認識を使用して、スニペットの境界を決定してよい。
クラスタが相関付けされた(610)後、スニペットは、コンテキストマーカ、コマンド、写真、位置情報、音声/ビデオ記録、並びに、同時に参照されたウェブページ、電子メール、及び、文書等のコンテキストデータにリンクされる(615)。例えば、一実施形態においては、非ストロークイベントが、イベントストア410から読み出され、時間的近接性、空間的近接性、及び/または、ユーザ相互作用に従って、スニペットにリンクされる。例えば、ユーザは、画像がテキストに関連付けられ、よって同じスニペットの一部として含まれるべきことを示してよい。ある実施形態においては、タイトル、記述、または、関連付けタグ等、コンテキストコンテンツに関するメタデータは、スニペット内の単語と相関付けられて、コンテキストコンテンツをスニペットに関連付けてよい。次に、スニペット内の関連付けられたクラスタ及びイベントは、スニペットストア430に記憶される(620)。次に、スニペットエンジン425は、コンピュータデバイス(例えば、コンピュータデバイス115)のディスプレイに、スニペットを表示してよい(625)。ユーザは、自動化されたスニペットのグループ化のいずれかに同意しない場合、ユーザは、手動でスニペットを分解、または、スニペットを結合することができる。次に、スニペットエンジンは、ユーザから訂正を受信する(630)。これらの訂正されたスニペットは、スニペットストア430に記憶される(620)。
ユーザが、書き込み面105をページの初めから終わりに書き込む場合、位置データ及び時間データは、相関するので、時間的近接性または空間的近接性のいずれか1つのみに基づいたクラスタ化で十分となることがある。しかしながら、ユーザが、書き込み面105の周辺をスキップして、前に書き込んだテキストに訂正及び追加を行うとき、位置データ及び時間データは相関しないことがある。ある実施形態においては、近接したストロークよりも後に受信されたストロークは、当該後のストロークが空間的に、近接したストロークの少なくとも1つと交差し、または、近接したストロークの少なくとも1つから所定の距離内にある場合、近接したストロークとクラスタ化されてよい。ある実施形態においては、後のストロークは、前のストロークと後のストロークが一緒にクラスタ化される限り、前のストロークと同じスニペットにグループ化されてよい。後のストロークが、前の近接したストロークに空間的に交差しないとき、後のストロークは、前のストロークとは別のクラスタに相関付けされてよい。他の近くのストロークとは別のクラスタに相関付けられるストロークは、時間的相関性の欠如に基づいて、当該近くのストロークとは別のスニペットにグループ化されてよい。ユーザは、2つ以上の別個の記録セッションで、書き込み面105のページに書き込んでよい。ある実施形態においては、書き込み面105の同じページ上の任意のストロークは、記録セッションに関わらず、クラスタ化及びスニペット化に対して考慮される。代替実施形態においては、ユーザは、同じページ上の書き込みを、位置または記録セッションに基づいて別個にクラスタ及びスニペットのための処理をするように指定してよい。
捕捉されたコンテンツの再生
スマートペンのコンピューティングセッションの間に捕捉されたイベントは、同期して再生することができる。例えば、捕捉されたストロークデータは、コンピュータデバイス115のディスプレイで、例えば、捕捉されたストロークの「映画」として再生されてよい。同時に捕捉された音声または他の捕捉されたイベントは、データ間の相対的タイムスタンプに基づいて、同期して再生されてよい。例えば、捕捉された音声は、ストロークデータと同期して再生され、異なるストロークを書き込むときにユーザが聞いていたことを示すことができる。さらに、捕捉されたデジタルコンテンツは、「映画」として再生されて、ユーザが書き込みしている間に起こったコンピュータデバイス115の状態間の推移を示してよい。例えば、コンピュータデバイス115は、ユーザが異なるストロークを書き込むときに、どのウェブページ、文書、または、文書の部分を見ていたかを示すことができる。
スマートペンのコンピューティングセッションの間に捕捉されたイベントは、同期して再生することができる。例えば、捕捉されたストロークデータは、コンピュータデバイス115のディスプレイで、例えば、捕捉されたストロークの「映画」として再生されてよい。同時に捕捉された音声または他の捕捉されたイベントは、データ間の相対的タイムスタンプに基づいて、同期して再生されてよい。例えば、捕捉された音声は、ストロークデータと同期して再生され、異なるストロークを書き込むときにユーザが聞いていたことを示すことができる。さらに、捕捉されたデジタルコンテンツは、「映画」として再生されて、ユーザが書き込みしている間に起こったコンピュータデバイス115の状態間の推移を示してよい。例えば、コンピュータデバイス115は、ユーザが異なるストロークを書き込むときに、どのウェブページ、文書、または、文書の部分を見ていたかを示すことができる。
別の実施形態においては、ユーザは、次に、記録されたデータと様々な異なる方法で相互作用することができる。例えば、一実施形態においては、ユーザは、前に捕捉されたストロークに対応する書き込み面105上の特定の位置と相互作用(例えば、タップ)できる。次に、そのストロークイベントと関連付けられたタイムスタンプを決定でき、再生セッションをその時間位置から開始できる。
捕捉したイベントを関連するコンテンツのスニペットにグループ化することによって、ユーザは、スマートペンのコンピューティングセッションの間に捕捉したデータを検討する際により柔軟性を与えられる。例えば、一実施形態においては、各スニペットは、その認識されたテキストに従って表示されてよく、表示画面上で、ペーパーストリップと呼ばれる線に構成されてよい。対応するストロークデータがページ上で完全に異なって構成されている場合でさえ、ユーザは、スニペットが連続して現れるように、スニペットを含むペーパーストリップを、スニペットタイムスタンプに基づいて並べ替えることができる。あるいは、スニペットを含むペーパーストリップは、タグまたは他のユーザ定義の検索基準に基づいて構成できる。命令またはコンテキストマーカがスニペットに関連付けられる場合、命令またはコンテキストマーカに対応するアイコンは、そのスニペットのテキストと同じペーパーストリップに表示されてよい。コマンドまたはコンテキストマーカに対応するアイコンを選択して、ユーザに追加の情報を促してよい。例えば、タスクコンテキストマーカに関連付けられたアイコンを選択することによって、検討アプリケーション及び/または外部のアプリケーション内で使用するために関連するスニペットからタスク項目を作成するようにユーザに促してよい。別の例として、タグコンテキストマーカに関連付けられたアイコンを選択することによって、関連するスニペットを記述及び/または分類するテキストを入力するようにユーザに促してよい。
写真が書き込みデータのスニペットに関連付けられる場合、写真の小さいサムネイルバージョンが、スニペットの残りと同じ水平の線上に表示されてよい。写真をどの他のスニペットとも関連付けない場合、サムネイルより大きい写真のバージョンが、別個のペーパーストリップに表示されてよい。地理空間位置またはカレンダイベントがスニペットに関連付けられる場合、位置またはカレンダイベントに対応するアイコンが、関連するスニペットと同じペーパーストリップに表示されてよく、このアイコンの選択によって、地図上の位置または対応するカレンダのエントリの表示にユーザをリンクしてよい。
音声及び/またはビデオの記録がスニペットに関連付けられる場合、スニペットの選択によって、そのスニペットの書き込みデータと時間的に相関している音声及び/またはビデオの抜粋を再生してよい。一実施形態においては、スニペットの選択によって、スニペットの開始に対応する時点で開始する再生を開始するように、連続再生を有効にしてよい。連続再生は、記録の最後まで継続してよい。ある実施形態においては、どのスニペットが音声/ビデオ再生の現在位置と時間的に相関しているかを視覚信号によって示してよい。ウェブページ、電子メール、または、文書がスニペットに関連付けられる場合、スニペットの選択によって、関連するウェブページ、電子メール、または、文書にアクセスしてよい。
ある実施形態においては、ユーザは、他のデジタルコンテンツの参照に基づいて、注釈(notes)を再生できる。例えば、ユーザが、書き込み面105上で注釈を取っている間に、コンピュータデバイス115上でデジタル映画を見ることを想定する。後に、ユーザは、デジタル映画を再生し、映画を見ている間に、ユーザの注釈が再生されるのを見ることができる。ユーザは、注釈が書き込み面105に現れて、注釈の再生を見ることができる。または、ユーザは、どのペーパーストリップが音声/視覚再生の現在位置に対応するかを視覚的に示すペーパーストリップレイアウトで、注釈の再生を見ることができる。別の例として、ユーザは、書き込み面105に注釈を取っている間に、コンピュータデバイス115でウェブページ、電子メール、または、文書を見たと想定する。ユーザは、後に、取った注釈を同時に見ながら、ウェブページ、電子メール、または、文書を検討する場合がある。ユーザがウェブページ、電子メール、または、文書を見た期間のタイムスタンプを有するスニペット及びペーパーストリップは、強調表示されてよい、または、時間的相関性の他の視覚的インジケーションを含んでよい。
コンテンツのタグ付け
図7は、一実施形態における例示的な書き込み面105を示す。書き込み面105は、記録制御720、タグ付け制御730、カスタム制御760、及びスニペット770を含む。記録制御720を使用して、動作を開始または停止してよい。記録制御720と関連付けられた動作は、スマートペン110を使用して、記録制御720の上で行われるジェスチャに応答して、開始または停止されてよい。例えば、図7において、記録制御720は、記録ボタン、一時停止ボタン、及び、停止ボタンを含む。記録ボタンは、スマートペン110またはコンピュータデバイス115からの書き込みジェスチャ、音声データ、または、他のデジタルデータの捕捉を開始してよい。一時停止ボタンを使用して、書き込みジェスチャ、音声、または、他のデジタルデータの捕捉を一時停止してよく、停止ボタンを使用して、書き込みジェスチャ、音声、または、他のデジタルデータの捕捉を停止してよい。
図7は、一実施形態における例示的な書き込み面105を示す。書き込み面105は、記録制御720、タグ付け制御730、カスタム制御760、及びスニペット770を含む。記録制御720を使用して、動作を開始または停止してよい。記録制御720と関連付けられた動作は、スマートペン110を使用して、記録制御720の上で行われるジェスチャに応答して、開始または停止されてよい。例えば、図7において、記録制御720は、記録ボタン、一時停止ボタン、及び、停止ボタンを含む。記録ボタンは、スマートペン110またはコンピュータデバイス115からの書き込みジェスチャ、音声データ、または、他のデジタルデータの捕捉を開始してよい。一時停止ボタンを使用して、書き込みジェスチャ、音声、または、他のデジタルデータの捕捉を一時停止してよく、停止ボタンを使用して、書き込みジェスチャ、音声、または、他のデジタルデータの捕捉を停止してよい。
カスタム制御760(または、「ショートカット」ボタン)を使用して、ユーザ定義の動作を実行してよい。例えば、ユーザは、コンピュータデバイス115のインタフェースを使用して、動作をカスタム制御760に関連付けてよい。例えば、ユーザが制御760と相互作用(例えば、上でタップまたはジェスチャ)する前または後に書いた手書きジェスチャの記録に基づいて、カスタム制御760を使用してリマインダまたは「to do」項目を作成してよい。さらに、カスタム制御は、電子メールを介して記録されたジェスチャを送信、または、スマートペン110に接続されたコンピュータデバイス115でアプリケーションを起動するために使用してよい。ある実施形態においては、動作は、ジェスチャをスマートペン110で記録しながら、リアルタイムで実行される。他の実施形態においては、動作は、スマートペン110がコンピュータデバイス115に接続された時に実行される。
ある実施形態においては、カスタム制御760は、他の制御と共に使用されてよい。例えば、カスタム制御は、記録制御720と共に使用されてよい。ユーザは、記録制御720の記録ボタンでジェスチャを書き込んでよく、次に、カスタム制御760の1つと相互作用(例えば、タップ)して、何の記録を開始すべきか識別してよい。例えば、ユーザは、カスタム制御760Aを選択して、手書きジェスチャの記録を開始してよく、カスタム制御760Bを選択して、音声の記録を開始してよく、カスタム制御760Cを選択して、ビデオの録画を開始してよい。
タグ付け制御730を使用して、スマートペン110で捕捉された1つまたは複数のジェスチャにコンテキストマーカを割り当てる。ある実施形態においては、コンテキストマーカは、1つまたは複数のスニペットに割り当てられる。図7の例示的な書き込み面は、重要タグ730A,追跡タグ730B、及び、カスタムタグ730Cの3つの異なるタグ付け制御730を備える。書き込み面105の実施形態は、追加またはより少ないタグ付け制御730を含んでよい。
重要タグ730Aを使用して、特に重要である特定のスニペットにマーク付けしてよい。重要タグ730Aは、また、カスタム制御760と共に使用して、異なる重要レベルを異なるスニペットに割り当ててよい。例えば、重要タグ730Aは、カスタム制御760Aと共に使用して、スニペットに高い重要度を割り当て、カスタム制御760Bと共に使用して、スニペットに中程度の重要度を割り当て、カスタム制御760Cと共に使用して、スニペットに低い重要度を割り当ててよい。
追跡タグ730Bを使用して、ユーザが追跡動作のために指定することを要求するスニペットにタグ付けしてよい。例えば、ユーザは、スニペット「電子メールプロジェクトマネージャ」と書き込んで、追跡タグ730Bをスニペットにタグ付けしてよい。そうすると、ユーザは、追跡タグがタグ付けされたスニペットを読み出して、追跡動作が必要な項目の全てのリストを取得してよい。追跡タグはまた、カスタム制御760と共に使用されてよい。例えば、カスタム制御760を使用して、追跡動作に重要度を割り当てて、追跡動作を種類または期限(due date)によってグループ化してよい。
ある実施形態においては、コンピュータデバイス115またはスマートペン110は、追跡タグ730Bがタグ付けされたスニペットから自動で情報を抽出してよい。例えば、期限、作成日、及び、他の情報等の追跡動作の詳細は、スニペットから抽出されてよい。例えば、スマートペン110のユーザは、「金曜日までにAyyappaにレポートの最終稿を送る」というスニペットを書き込んで、そのスニペットを追跡タグ730Bに関連付けてよい。ペンベースのコンピュータシステムは、動作は「最終稿を送る」、受信者は「Ayyappa」、及び、締切日は「金曜日」であることを識別してよい。さらに、コンピュータデバイス115は、抽出した情報に基づいて、リマインダを作成、または、タスクをカレンダアプリケーションに追加してよい。
ある実施形態においては、コンピュータデバイス115は、ユーザが必ずしも手動でスニペットにタグ付けすることなく、スニペットのコンテンツによって、スニペットに追跡動作に対してタグ付けされるべきであることを自動で識別してよい。例えば、ユーザがスニペット「午後5時にChristineに電話」と書き込む場合、コンピュータデバイス115は、そのスニペットは追跡動作としてタグ付けされるべきであると判定してよく、ユーザがスニペットを追跡タグに手動で関連付けなかった場合でも、スニペットを追跡タグに関連付けてよい。ある実施形態においては、コンピュータデバイス115は、候補スニペットが識別されたことをユーザに示すメッセージを表示してよい。さらに、コンピュータデバイスは、動作のリマインダを生成してよい。
カスタムタグ730Cを使用して、ユーザ定義のタグをスニペットにタグ付けしてよい。カスタムタグ730Cは、カスタム制御760と共に使用されて、異なる選択可能なタグ間で選択してよい。ある実施形態においては、ユーザ定義のタグは、コンピュータデバイス115を使用して定義される。
一例においては、ユーザは、書き込み面105にスマートペンを使用してスニペットを書き込み、タグ付け制御730を選択する。この実施形態においては、タグは、最後に書き込まれたスニペットに関連付けられる。例えば、ユーザは、書き込み面105にスニペット770Aを書き込んでよく、重要タグ730Aを選択してよい。次に、スニペット770Aは、重要タグ730Aに関連付けられる。ある実施形態においては、タグ付け制御730を最初に選択して、次に、スニペット770を書き込み面105に書き込む。他の実施形態においては、ユーザは、スニペットの近くにジェスチャを書き込む(例えば、スニペットを丸で囲む、スニペットをタップする、スニペットの近くに星を描く等)ことによって、スニペットを選択してよく、次に、タグ付け制御を選択して、選択したスニペット770を選択したタグに関連付けてよい。
他の実施形態においては、書き込み面105上の制御を使用せずに、コンピュータデバイス115を使用して、タグをスニペットに割り当ててよい。例えば、スニペットを書き込んで、そのスニペットを選択したタグに関連付ける前または後に、コンピュータデバイス115上のボタンを押下してよい。他の実施形態においては、ジェスチャの捕捉を停止した後(例えば、記録制御720の停止ボタンを押した後)、タグを割り当ててよい。
一実施形態においては、タグは、スニペットが識別されると、ほぼリアルタイムでスニペットに関連付けられる。例えば、ユーザがタグ730を選択すると、そのタグは、最後に識別されたスニペットに関連付けられる。他の実施形態においては、タグの選択は、イベントとして記録されるが、スニペットとタグの関連付けは、必ずしもすぐには実行されず、現在の捕捉セッションの間にも実行されない。例えば、一実施形態においては、ジェスチャの捕捉が停止した後、捕捉したジェスチャは分析され、タグは、タグを選択するジェスチャが記録されたタイムスタンプに基づいて、スニペットに関連付けられる。
一実施形態においては、制御を選択して、既存のスニペットを新しいタグに関連付けてよい。例えば、ユーザは、既存のスニペットを、コンピュータデバイス115または書き込み面105上で当該スニペットを選択することによって(例えば、スニペットが書かれた書き込み面をタップすることによって)選択してよく、そのスニペットに関連付けるタグを識別してよい。
図8Aは、一実施形態によるスニペットにタグ付けする処理を示すフロー図である。ジェスチャが受信される(805)。ジェスチャは、手書き、及び制御ボタンの選択を含む。1つまたは複数のスニペットは、上記のように受信したジェスチャから識別される(810)。ある実施形態においては、スニペットの識別は、リアルタイムで行われる。他の実施形態においては、スニペットの識別は、記録停止後に行われる。スニペットにタグ付けする要求が受信される(815)。スニペットのタグ付け要求は、例えば、ユーザがタグ付け制御730と相互作用することによって、スニペットの近くにコマンドを描くことによって(例えば、星またはタグの記号を描くことによって)、コンピュータデバイス115にコマンドを入力することによって、または、スニペットのコンテンツに基づいて自動的に、取得されてよい。要求に含まれたタグの関連付けは、スニペットと共に記憶される(820)。ある実施形態においては、関連付けは、スニペットストア430にメタデータとして記憶される。他の実施形態においては、追加の記憶モジュール(図示せず)を使用してタグとスニペット間の関連付けを記憶してよい。
タグをスニペットに割り当てた後、ユーザは、ある一定のタグに関連付けられたスニペットに対して、読み出し、または、他の操作をすることができる。例えば、ユーザは、会議の間、または、数日もしくは数週間にわたって、どの追跡動作が割り当てられているか、知りたい場合がある。そうすると、ユーザは、追跡タグ730Bがタグ付けされたスニペットの表示を選択してよい。同様に、ユーザは、重要タグ730Aがタグ付けされたスニペットを全て表示することを選択してよい。ある実施形態においては、スニペットは、デジタル文書の一部として表示されてよい。ユーザは、スニペットに関連付けられたタグに基づいて、制御を選択してスニペットの色を変更してよい。例えば、ユーザは、重要タグ730Aに関連付けられたスニペットの色を赤に変更する選択をしてよく、追跡タグ730Bに関連付けられたスニペットの色を青に変更する等の選択をしてよい。他の実施形態においては、他の動作は、スニペット770に関連付けられたタグに基づいて実行されてよい。
図8Bは、タグに関連付けられたスニペットを読み出すフロー図を示す。スニペットは、コンピュータデバイス115によって受信される(855)。タグに関連付けられたスニペットを表示する要求が受信される(860)。要求によってタグに関連付けられたスニペットがコンピュータシステムによって表示される(865)。例えば、重要タグ730Aに関連付けられたスニペットを表示する要求が受信され(860)、コンピュータデバイス115によって表示される(865)。タグに関連付けられたスニペットを表示する要求を受信後、タグに関連付けられていないスニペットは、色を薄くしてよく、及び/または、タグに関連付けられたスニペットは、強調表示してよい。
他の実施形態においては、タグを使用して他の方法でスニペットを構成してよい。例えば、スニペットは、タグに基づいて並べ替えることができる。別の実施形態においては、特定の選択したタグに関連付けられたスニペットに対して動作を実行してよい。例えば、ユーザは、ユーザ定義のタグに関連付けられた全てのスニペットを削除またはアーカイブに保管する選択をしてよい。別の例においては、ユーザは、コントロールを選択して重要とマーク付けされた全てのタグを自動的に電子メールにコピーしてよい。
ユーザ定義のタグの場合、タグ付けされたスニペットは、ユーザ定義ボタンの属性が後に変化した場合でも、適用されたタグを保持してよい。例えば、ユーザは、カスタムタグを割り当てて、「カテゴリA」項目を表し、次に、これらのタグをスニペットにタグ付けする。ユーザは、次に、カスタムタグを再割り当てして、「カテゴリX」項目を表し、新しいスニペットにこれらのタグをタグ付けする。最初に「カテゴリA」としてタグ付けされたスニペットは、それらのタグをタグ付けするのに使用されたボタンに関連付けられたタグが変わったとしても、これらのタグを保持する。別の実施形態においては、バッチタグの変更を適用して、特定のタグに関連付けられた全てのスニペットを異なるタグに再割り当てできる。
追加の考慮事項及び実施形態
実施形態に関するここまでの記載は、例証の目的のみであって、包括的なものではなく、発明を開示したその具体的な形態に限定するものではない。上記開示を考慮して多くの修正及び変更が可能なことを当業者は理解されよう。
実施形態に関するここまでの記載は、例証の目的のみであって、包括的なものではなく、発明を開示したその具体的な形態に限定するものではない。上記開示を考慮して多くの修正及び変更が可能なことを当業者は理解されよう。
この記載の一部は、情報に対する操作をアルゴリズム及び記号で表して実施形態を記載している。これらのアルゴリズムの記載及び表現は、データ処理技術分野の当業者が自分の仕事の内容を他の当業者に伝えるために一般的に使用されている。機能的、コンピュータ的、または、論理的に記載されている、これらの操作は、コンピュータプログラム、または、同等の電子回路、マイクロコード等で実施されることが理解される。さらに、これらの操作の構成をモジュールとして言及すると、一般性を失うことなく、時には、便利であることも分かった。前述の操作及びそれに関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、または、それらの任意の組み合わせで実現されてよい。
本明細書に記載のステップ、操作、及び、処理はいずれも、1つまたは複数のハードウェアもしくはソフトウェアモジュール単体で、または、他のデバイスと組み合わせて、行ってもよく、実施してもよい。一実施形態においては、ソフトウェアモジュールは、コンピュータプログラム命令を含む非一時的コンピュータ可読媒体を含むコンピュータプログラム製品で実施され、コンピュータプログラム命令は、記載したステップ、操作、または処理のいずれかまたは全てを実行するために、コンピュータプロセッサによって実行できる。
実施形態は、本明細書の操作を行うデバイスにも関してよい。このデバイスは、必要な目的のために特別に構築されてよい、及び/または、コンピュータに記憶されたコンピュータプログラムによって選択的に起動または再構成された汎用コンピュータデバイスを含んでよい。このようなコンピュータプログラムは、有形のコンピュータ可読記憶媒体に記憶されてよく、有形のコンピュータ可読記憶媒体は、電子命令を記憶するのに適しており、かつ、コンピュータシステムバスに接続された任意の種類の有形媒体を含む。さらに、明細書で言及された任意のコンピュータシステムは、単一のプロセッサを備えてよく、または、コンピューティング能力を向上させるために複数のプロセッサを有する設計を備えたアーキテクチャであってもよい。
最後に、明細書で使用した言葉は、読みやすさ及び説明的な目的で主に選択している、よって、発明の内容を画定または制限するために選択していない。従って、発明の範囲は、この詳細な説明によって限定されず、この詳細な説明に基づいた出願書で発行する請求項によって限定される。よって、本発明の実施形態の開示は、例証目的であり、発明の範囲を限定していない。発明の範囲は請求項で規定される。
Claims (20)
- ペンベースのコンピュータシステムで収集されたコンテンツを構成する方法であって、
ストロークデータの複数のグループを取得するステップであって、前記ストロークデータは、書き込み面に対してスマートペンによってなされた1つまたは複数のストロークの表示を含み、ストロークデータの各グループは、前記スマートペンによってなされたストロークのタイミングに基づいた、関連付けられたタイムスタンプを有する、ステップと、
プロセッサによって、前記取得されたストロークデータの複数のグループを、前記タイムスタンプの時間的近接性、及び前記取得されたストロークデータのグループに関連付けられた前記ストロークデータの空間的近接性に基づいて、1つまたは複数のスニペットにグループ化するステップと、
選択されたスニペットをタグに関連付ける要求を受信するステップと、
前記要求に応じて、前記選択されたスニペットと前記タグとの関連付けを記憶するステップと
を備えたことを特徴とする方法。 - 前記選択されたスニペットをタグに関連付ける前記要求を受信するステップは、
書き込み面条でのタグ付け制御と相互作用する前記スマートペンのジェスチャを検出するステップを含み、前記ジェスチャは、関連付けられたタイムスタンプを有し、
前記方法は、前記ジェスチャの前記タイムスタンプに基づいて前記選択されたスニペットを判定するステップをさらに備えたことを特徴とする請求項1に記載の方法。 - 前記タグ付け制御は、前記書き込み面に事前表示されることを特徴とする請求項2に記載の方法。
- 前記選択されたスニペットをタグに関連付ける前記要求を受信するステップは、
書き込み面上でタグ付け制御と相互作用する前記スマートペンのジェスチャを検出するステップと、
表示スクリーン上に表示された前記1つまたは複数のスニペットからのスニペットの選択を受信するステップと
を含むことを特徴とする請求項1に記載の方法。 - 前記選択されたスニペットをタグに関連付ける前記要求を受信するステップは、
前記選択されたスニペットを識別する前記スマートペンデバイスのジェスチャを受信するステップを含み、前記ジェスチャは、関連付けられたタイムスタンプを有し、
前記方法は、前記ジェスチャの前記タイムスタンプに基づいて前記選択されたスニペットを判定するステップをさらに備えたことを特徴とする請求項1に記載の方法。 - 前記選択されたスニペットを識別する前記スマートペンの前記ジェスチャはさらに、前記タグを識別することを特徴とする請求項5に記載の方法。
- 前記選択されたスニペットを識別する前記ジェスチャは、記号の描画を含むことを特徴とする請求項6に記載の方法。
- 前記タグは、重要タグ、追跡タグ、およびカスタムタグのうちの1つを含むことを特徴とする請求項1に記載の方法。
- 前記選択されたスニペットをタグに関連付ける前記要求は、コンピュータデバイス上でタグを選択することを含むことを特徴とする請求項1に記載の方法。
- ペンベースのコンピュータシステムで収集されたコンテンツを構成する方法であって、
複数のスニペットを受信するステップであって、前記スニペットは、書き込み面に対してスマートペンによってなされたストロークを表示する、クラスタ化されたストロークデータを含み、前記複数のスニペットのうちの1つまたは複数のスニペットは、タグに関連付けられる、ステップと、
前記タグに関連付けられた前記スニペットを表示する要求を受信するステップと、
コンピュータデバイスによって、前記タグに関連付けられた前記複数のスニペットのうちの前記1つまたは複数のスニペットを識別するステップと
前記タグに関連付けられた前記1つまたは複数のスニペットを表示するステップと
を備えたことを特徴とする方法。 - 前記複数のスニペットをデジタル文書で表示するステップと、
前記タグに関連付けられないスニペットを前記複数のスニペットから消去するステップと
をさらに備えたことを特徴とする請求項10に記載の方法。 - 前記タグは、重要タグ、追跡タグ、およびカスタムタグのうちの1つを含むことを特徴とする請求項10に記載の方法。
- 前記タグは、追跡タグであり、前記方法は、前記タグに関連付けられた前記1つまたは複数のスニペットの各々に対するリマインダを生成するステップをさらに備えたことを特徴とする請求項10に記載の方法。
- 命令を記憶するように構成された非一時的コンピュータ可読媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
ストロークデータの複数のグループを取得させ、前記ストロークデータは、書き込み面に対してスマートペンによってなされた1つまたは複数のストロークの表示を含み、ストロークデータの各グループは、前記スマートペンによってなされたストロークのタイミングに基づいた、関連付けられたタイムスタンプを有し、
前記取得されたストロークデータの複数のグループを、前記タイムスタンプの時間的近接性、及び前記取得されたストロークデータのグループに関連付けられた前記ストロークデータの空間的近接性に基づいて、1つまたは複数のスニペットにグループ化させ、
選択されたスニペットをタグに関連付ける要求を受信させ、
前記要求に応じて、前記選択されたスニペットと前記タグとの関連付けを記憶させる
ことを特徴とするコンピュータ可読媒体。 - 前記選択されたスニペットをタグに関連付ける前記要求を受信する前記命令は、前記プロセッサに、
書き込み面上でタグ付け制御と相互作用する前記スマートペンのジェスチャを検出させ、
表示スクリーン上に表示された前記1つまたは複数のスニペットからのスニペットの選択を受信させる
ことを特徴とする請求項14に記載のコンピュータ可読媒体。 - 前記選択されたスニペットをタグに関連付ける前記要求を受信する前記命令は、前記プロセッサに、前記選択されたスニペットを識別する前記スマートペンデバイスのジェスチャを受信させ、前記ジェスチャは、関連付けられたタイムスタンプを有し、前記コンピュータ可読媒体は、前記プロセッサに、前記ジェスチャの前記タイムスタンプに基づいて前記選択されたスニペットを判定させる命令をさらに含むことを特徴とする請求項14に記載のコンピュータ可読媒体。
- 前記選択されたスニペットを識別する前記スマートペンの前記ジェスチャはさらに、前記タグを識別することを特徴とする請求項16に記載のコンピュータ可読媒体。
- 前記選択されたスニペットを識別する前記ジェスチャは、記号の描画を含むことを特徴とする請求項17に記載のコンピュータ可読媒体。
- 前記タグは、重要タグ、追跡タグ、およびカスタムタグのうちの1つを含むことを特徴とする請求項14に記載のコンピュータ可読媒体。
- 前記選択されたスニペットをタグに関連付ける前記要求は、コンピュータデバイス上でタグを選択することを含むことを特徴とする請求項14に記載のコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/062,665 | 2013-10-24 | ||
US14/062,665 US9335838B2 (en) | 2013-10-24 | 2013-10-24 | Tagging of written notes captured by a smart pen |
PCT/US2014/061420 WO2015061231A1 (en) | 2013-10-24 | 2014-10-20 | Tagging of written notes captured by a smart pen |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017501468A true JP2017501468A (ja) | 2017-01-12 |
Family
ID=52993424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525935A Pending JP2017501468A (ja) | 2013-10-24 | 2014-10-20 | スマートペンによって捕捉された書き込み注釈のタグ付け |
Country Status (3)
Country | Link |
---|---|
US (1) | US9335838B2 (ja) |
JP (1) | JP2017501468A (ja) |
WO (1) | WO2015061231A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235538A1 (ja) * | 2019-05-20 | 2020-11-26 | 株式会社ワコム | システム及びストロークデータの処理方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150116283A1 (en) * | 2013-10-24 | 2015-04-30 | Livescribe Inc. | Paper Strip Presentation Of Grouped Content |
US20150116282A1 (en) * | 2013-10-24 | 2015-04-30 | Livescribe Inc. | Organizing Written Notes Using Contextual Data |
JP2016085512A (ja) * | 2014-10-23 | 2016-05-19 | 株式会社東芝 | 電子機器、方法及びプログラム |
US9968437B2 (en) | 2015-06-22 | 2018-05-15 | Bao Tran | 3D printer |
US10817169B2 (en) * | 2016-10-14 | 2020-10-27 | Microsoft Technology Licensing, Llc | Time-correlated ink |
JP6859667B2 (ja) * | 2016-11-10 | 2021-04-14 | 株式会社リコー | 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 |
US11347325B2 (en) | 2017-02-21 | 2022-05-31 | Hewlett-Packard Development Company, L.P. | Control areas on media |
US11301063B2 (en) | 2018-07-18 | 2022-04-12 | John J. King, JR. | Smart pen device and method of implementing a smart pen device |
US20220261767A1 (en) * | 2021-02-12 | 2022-08-18 | Dell Products L.P. | Intelligent automated note tagging |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ055999A0 (en) | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (npage01) |
US20020054026A1 (en) * | 2000-04-17 | 2002-05-09 | Bradley Stevenson | Synchronized transmission of recorded writing data with audio |
US7353453B1 (en) | 2002-06-28 | 2008-04-01 | Microsoft Corporation | Method and system for categorizing data objects with designation tools |
US7616333B2 (en) | 2003-08-21 | 2009-11-10 | Microsoft Corporation | Electronic ink processing and application programming interfaces |
US20080296074A1 (en) * | 2004-06-30 | 2008-12-04 | Anoto Ab | Data Management in an Electric Pen |
WO2007141204A1 (en) | 2006-06-02 | 2007-12-13 | Anoto Ab | System and method for recalling media |
-
2013
- 2013-10-24 US US14/062,665 patent/US9335838B2/en active Active
-
2014
- 2014-10-20 JP JP2016525935A patent/JP2017501468A/ja active Pending
- 2014-10-20 WO PCT/US2014/061420 patent/WO2015061231A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235538A1 (ja) * | 2019-05-20 | 2020-11-26 | 株式会社ワコム | システム及びストロークデータの処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150116272A1 (en) | 2015-04-30 |
US9335838B2 (en) | 2016-05-10 |
WO2015061231A1 (en) | 2015-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160179225A1 (en) | Paper Strip Presentation of Grouped Content | |
US9335838B2 (en) | Tagging of written notes captured by a smart pen | |
US20170300746A1 (en) | Organizing Written Notes Using Contextual Data | |
US8374992B2 (en) | Organization of user generated content captured by a smart pen computing system | |
Liao et al. | Papiercraft: A gesture-based command system for interactive paper | |
US8265382B2 (en) | Electronic annotation of documents with preexisting content | |
CN101930779B (zh) | 一种视频批注方法及视频播放器 | |
US20160154482A1 (en) | Content Selection in a Pen-Based Computing System | |
US9195697B2 (en) | Correlation of written notes to digital content | |
JP6109625B2 (ja) | 電子機器およびデータ処理方法 | |
US8446297B2 (en) | Grouping variable media inputs to reflect a user session | |
US9207808B2 (en) | Image processing apparatus, image processing method and storage medium | |
US20140351718A1 (en) | Information processing device, information processing method, and computer-readable medium | |
US20170090692A1 (en) | Electronic apparatus and method for managing content | |
US20160180822A1 (en) | Smart Zooming of Content Captured by a Smart Pen | |
US9354807B2 (en) | Method, apparatus and computer program to designate content retrieval on an interactive display | |
JP2016085512A (ja) | 電子機器、方法及びプログラム | |
US10331705B2 (en) | Moments naming based on location accuracy | |
US11030473B2 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program | |
US20240192911A1 (en) | Systems and methods for managing digital notes for collaboration | |
US20240184972A1 (en) | Electronic device for providing calendar ui displaying image and control method thereof | |
KR20240084192A (ko) | 이미지가 표시되는 캘린더 ui를 제공하는 전자 장치 및 그 제어 방법 | |
TW201506811A (zh) | 手寫輸入系統以及方法 |