JP2015533002A - 書き込みのメモとデジタルコンテンツの相関 - Google Patents

書き込みのメモとデジタルコンテンツの相関 Download PDF

Info

Publication number
JP2015533002A
JP2015533002A JP2015539800A JP2015539800A JP2015533002A JP 2015533002 A JP2015533002 A JP 2015533002A JP 2015539800 A JP2015539800 A JP 2015539800A JP 2015539800 A JP2015539800 A JP 2015539800A JP 2015533002 A JP2015533002 A JP 2015533002A
Authority
JP
Japan
Prior art keywords
data
smart pen
data stream
computer
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015539800A
Other languages
English (en)
Inventor
ロバート ブラック デイビッド
ロバート ブラック デイビッド
リード ハレ ブレット
リード ハレ ブレット
ジェイ.バン シャーク アンドリュー
ジェイ.バン シャーク アンドリュー
Original Assignee
ライブスクライブ インコーポレイテッド
ライブスクライブ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ライブスクライブ インコーポレイテッド, ライブスクライブ インコーポレイテッド filed Critical ライブスクライブ インコーポレイテッド
Publication of JP2015533002A publication Critical patent/JP2015533002A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

システムおよび方法は、複数のデータストリームをスマートペン装置およびコンピュータ装置から受信し、当該データストリームを、同期した時間インデックスにインデックス付けする。プロセッサは、スマートペン装置によりキャプチャされたジェスチャデータを表す第1のデータストリーム、および、コンピュータ装置上で実行されるアプリケーションに関連する状態のシーケンスを表す第2のデータストリームを受信し、各状態が、ジェスチャデータがキャプチャされる間にコンピュータ装置により表示されるコンテンツを識別するようにする。例えば、状態は、コンピュータ装置により表示されるデジタル文書の特定のページとすることができる。第1および第2のデータストリームを受信した後、プロセッサは、データストリームを、同期した時間インデックスにインデックス付けし、インデックス付けされたデータストリームをメモリに記憶する。

Description

(関連出願の相互参照)
本出願は、2012年10月26日に出願された米国仮特許出願第61/719,290号の利益を主張するものであり、その開示は全体が参照により本明細書に組み込まれる。
本発明は、ペンベースのコンピュータシステムに関し、特に、記録された書き込み、音声、およびデジタルコンテンツをスマートペン環境において同期させることに関する。
スマートペンは、ユーザの書き込みジェスチャをデジタル処理でキャプチャして、キャプチャしたジェスチャを、様々なアプリケーションで利用可能なデジタル情報に変換する電子機器である。例えば、光学ベースのスマートペンでは、当該スマートペンが、デジタル処理でエンコードされる表面(例えば、ドットパターン)に対する書き込みの間に、ペンの座標を検出し、かつ記録する光学センサを含む。加えて、従来のスマートペンには、埋め込みマイクを含み、当該スマートペンが、書き込みジェスチャのキャプチャと同期して音声をキャプチャすることを可能にするものがある。そして、同期された音声とジェスチャのデータを、再現(replay)することができる。従って、スマートペンは、紙の領域での操作の利便性と、デジタル環境に関連する機能性および柔軟性との両方を提供することにより、豊かなノート取り経験(note taking experience)をユーザに提供することができる。
本発明の実施形態は、複数のデータストリームをスマートペン装置およびコンピュータ装置から受信し、当該データストリームを、同期した時間インデックスにインデックス付けするためのシステムおよび方法を提供する。プロセッサは、スマートペン装置によりキャプチャされたジェスチャデータを表す第1のデータストリーム、および、コンピュータ装置上で実行されるアプリケーションに関連する状態のシーケンスを表す第2のデータストリームを受信する。各状態は、ジェスチャデータがキャプチャされる間にコンピュータ装置により表示されるコンテンツを識別する。状態は、例えば、コンピュータ装置により所与の時間に表示されるデジタル文書の特定のページ、所与の時間に表示されるデジタル文書のページの一部がズームされた項目、コンピュータ装置により所与の時間に記憶されるユーザ入力、または、コンピュータ装置により所与の時間に再生される映像の再生フレームとすることができる。
第1および第2のデータストリームを受信した後、プロセッサは、データストリームを、同期した時間インデックスにインデックス付けし、インデックス付けされたデータストリームをメモリに記憶する。一実施形態において、プロセッサはまた、音声キャプチャシステムによりキャプチャされた、音声データを表す第3のデータストリームを受信し、当該第3のデータストリームをインデックス付けして記憶する。一実施形態において、インデックス付けされて記憶されたデータストリームは、ユーザから再生の要求があると読み出され(retrieved)、読み出されたデータストリームの一部が、同期した時間インデックスと相関関係にあるジェスチャデータ、または状態のシーケンスを表示することにより、再現される。別の実施形態において、第1のデータストリームの一部が、デジタル文書の一部に関連付けられる。
スマートペンベースのコンピュータ環境の一実施形態の概略図である。 ペンベースのコンピュータシステムにおいて使用するためのスマートペン装置の一実施形態を示す図である。 スマートペン装置の一実施形態によりキャプチャされた、同期された書き込み、音声、およびデジタルコンテンツのデータフィードの一例を示すタイムライン図である。 スマートペンベースのコンピュータシステムにおけるコンテンツデータの取得および再閲覧の一実施形態のフロー図である。 一実施形態のフロー図である。
図面は種々の実施形態を説明のみの目的で示す。当業者は、本明細書において説明される構造および方法の代替実施形態が、本明細書に記載される原理から逸脱することなく採用されてよいことを、以下の説明から容易に認識するであろう。
(ペンベースのコンピュータ環境の概要)
図1は、ペンベースのコンピュータ環境100の一実施形態を示す。ペンベースのコンピュータ環境は、音声源102、書き込み面105、スマートペン110、コンピュータ装置115、ネットワーク120、およびクラウドサーバ125を備える。代替実施形態では、異なるまたは追加的な装置、例えば、追加的なスマートペン110、書き込み面105、およびコンピュータ装置115などがあってよい(または、1つまたは複数の装置が無くてもよい)。
スマートペン110は、書き込み面105との対話(例えば、書き込みジェスチャおよび/またはコントロール入力)をデジタル処理でキャプチャし、同時に音声源102から音声をキャプチャする電子機器である。スマートペン110は、直接またはネットワーク120を介して、コンピュータ装置115と通信可能に連結される。キャプチャされた書き込みジェスチャ、コントロール入力、および/または音声は、コンピュータ装置115上で実行される1つまたは複数のアプリケーションでの使用のために、スマートペン110からコンピュータ装置115に(例えば、リアルタイムで、またはその後に)転送されてよい。さらに、デジタルデータおよび/またはコントロール入力は、スマートペン110上で実行されるアプリケーションでの使用のために、コンピュータ装置115からスマートペン110に(リアルタイム、またはオフライン処理で)通信されてよい。クラウドサーバ125は、スマートペン110および/またはコンピュータ装置115による利用が可能な、リモート記憶装置および/またはアプリケーションサービスを提供する。従って、コンピュータ環境100は、紙およびデジタルの両領域におけるユーザ対話を結びつける多様なアプリケーションを可能にする。
一実施形態において、スマートペン110は、ペン(例えば、インクベースのボールペン、インク不使用のスタイラス装置、ディスプレイ上に「デジタルインク」を残留させるスタイラス装置、フェルトペン、鉛筆、または他の書き込み装置)を、埋め込まれたコンピュータ構成要素および種々の入力/出力機能と共に、備える。ユーザは、ユーザが従来のペンで行う様に、スマートペン110を用いて書き込み面105上に書き込むことができる。操作の間、スマートペン110は、書き込み面105上になされる書き込みジェスチャをデジタル処理でキャプチャし、書き込みジェスチャの電子的表現を記憶する。キャプチャされた書き込みジェスチャは、空間成分と時間成分の両方を有する。例えば、一実施形態において、スマートペン110は、種々のサンプル時間でのスマートペン110の書き込み面105に対する位置のサンプル(例えば、座標情報)をキャプチャし、キャプチャした位置情報を、各サンプルのタイミング情報と共に記憶する。キャプチャした書き込みジェスチャには、異なる書き込み面105でキャプチャしたデータ間を区別するために、特定の書き込み面105に関連する識別情報、例えば、特定のノートの特定のページの識別情報などが、さらに含まれてよい。一実施形態において、スマートペン110はまた、ユーザにより選択される、書き込みジェスチャの他の属性をキャプチャする。例えば、インクの色は、スマートペン110上の物理的なキーを押下すること、書き込み面上のプリントされたアイコンをタップすること、コンピュータディスプレイ上のアイコンを選択すること、などにより選択することができる。このインク情報(色、線の幅、線のスタイルなど)はまた、キャプチャしたデータ内にエンコードされてよい。
スマートペン110は、加えて、書き込みジェスチャをキャプチャしながら同時に、音声源102(例えば、環境音)から音声をキャプチャすることができる。スマートペン110は、キャプチャした音声データを、キャプチャした書き込みジェスチャと同期させて記憶する(すなわち、キャプチャしたジェスチャとキャプチャした音声間の相対的タイミングが保存される)。さらに、スマートペン110は、加えて、書き込みジェスチャおよび/または音声をキャプチャしながら同時に、デジタルコンテンツをコンピュータ装置115からキャプチャすることができる。デジタルコンテンツには、例えば、コンピュータ装置115とのユーザ対話、または、コンピュータ装置115上で閲覧されている時間ベースのコンテンツ(例えば、映像)に関連する同期情報(例えば、キューポイント)、が含まれてよい。スマートペン110は、キャプチャした書き込みジェスチャおよび/またはキャプチャした音声データと時間的に同期させた、デジタルコンテンツを記憶する(すなわち、キャプチャしたジェスチャ、音声、およびデジタルコンテンツ間の相対的タイミング情報が保存される)。
同期は、様々な異なる方法で確保されてよい。例えば、一実施形態において、ユニバーサルクロックが異なる装置間の同期に使用される。別の実施形態において、ローカルの装置間の同期が、2つまたはそれ以上の装置間で行われてよい。別の実施形態において、外部のコンテンツを、最初にキャプチャしたデータと結びつけること、また、特定のセッション中にキャプチャされたコンテンツに同期させること、ができる。
一代替実施形態において、音声および/またはデジタルコンテンツは、スマートペン110によってキャプチャされることに代えて、または加えて、代わりにコンピュータ装置115によってキャプチャされてよい。キャプチャした書き込みジェスチャ、音声データ、および/またはデジタルデータの同期は、スマートペン110、コンピュータ装置115、リモートサーバ(例えば、クラウドサーバ125)、または、装置の組み合わせにより行うことができる。さらに、一代替実施形態において、書き込みジェスチャのキャプチャは、スマートペン110の代わりに書き込み面105によって行うことができる。
一実施形態において、スマートペン110は、視覚および/または音声の情報を出力することが可能である。スマートペン110はさらに、異なる入力に応答して種々の出力およびスマートペン110の操作をコントロールする、1つまたは複数のソフトウェアアプリケーションを実行することができる。
一実施形態において、スマートペン110は、さらに、書き込み面105上のテキストまたは他の事前にプリントされたコンテンツを検出することができる。例えば、スマートペン110は、書き込み面105上の特定の単語または画像をタップすることができ、また、次に、スマートペン110は、コンテンツの認識に応じて他の動作を行うことができ、例えば、サウンドを再生する、または、何らかの他の機能を実行することができる。例えば、スマートペン110は、ページ上の単語の翻訳を、翻訳を画面上に表示すること、または、その音声記録を再生することにより、行うことができる(例えば、中国語文字を英語の単語に翻訳する)。
一実施形態において、書き込み面105は、用紙(または、書き込み可能な任意の他の適切な材料)を備え、スマートペン110によって読み込み可能なパターン(例えば、ドットパターン)を用いてエンコードされる。パターンは、書き込み面105に対するスマートペン110の相対的な位置決め(例えば、相対的または絶対的)を、スマートペン110が判定可能であるべく十分に一意的である。別の実施形態において、書き込み面105は、電子ペーパすなわちe−ペーパを備え、または、電子機器(例えば、タブレット)の表示画面を備えてよい。これらの実施形態において、検知は、書き込み面105によって、または、スマートペン110と連動して、全体的に行われてよい。スマートペン110の動きは、例えば、スマートペン装置の光学的検知を介して、スマートペン装置の動き検知を介して、書き込み面105の接触検知を介して、音響検知を介して、基準マーキングを介して、または他の適切な手段により、検知することができる。
ネットワーク120により、スマートペン110、コンピュータ装置115、およびクラウドサーバ125間の通信が可能とされる。ネットワーク120により、スマートペン110は、例えば、スマートペン110、コンピュータ装置115、および/またはクラウドサーバ125間で、キャプチャしたデジタルコンテンツを転送すること、スマートペン110、コンピュータ装置115、および/またはクラウドサーバ125間で、制御信号を通信すること、および/または、スマートペン110、コンピュータ装置115、および/またはクラウドサーバ125間で、種々の他のデータ信号を通信することが可能となり、種々のアプリケーションを有効にされる。ネットワーク120には、例えば、Bluetooth(登録商標)、Wifi、セルラーネットワーク、赤外線通信、音波通信、またはカスタムプロトコルなどの無線通信プロトコルが含まれてよく、および/または、USBまたはEthernet(登録商標)などの有線通信プロトコルが含まれてよい。あるいはまたは加えて、スマートペン110およびコンピュータ装置115は、ネットワーク120を必要としない有線または無線の接続を介して直接通信することができる。
コンピュータ装置115には、例えば、タブレットコンピュータ装置、携帯電話、ラップトップもしくはデスクトップ型のコンピュータ、または他の電子機器(例えば、別のスマートペン110)が含まれてよい。コンピュータ装置115は、スマートペン110と連動して使用可能な1つまたは複数のアプリケーションを実行することができる。例えば、スマートペン110によってキャプチャされたコンテンツは、記憶、再生、編集、および/またはさらなる処理のために、コンピュータシステム115に転送されてよい。加えて、コンピュータ装置115上で利用可能なデータおよび制御信号は、スマートペン110に転送されてよい。さらに、スマートペン110およびコンピュータ装置115上で同時に実行されるアプリケーションは、スマートペン110とコンピュータ装置115との間の、様々な異なるリアルタイムの対話を有効にすることができる。例えば、スマートペン110と書き込み面105との間の対話を使用して、コンピュータ装置115上で実行されるアプリケーションに、入力を与えることができる(または、逆も同様である)。
スマートペン110とコンピュータ装置115との間の通信を有効にするために、スマートペン110およびコンピュータ装置は、お互いに「ペアリング」を確立することができる。ペアリングにより、装置は、お互いを認識し、2つの装置間のデータ転送を承認することができる。一度ペアリングされると、データおよび/または制御信号を、有線または無線手段を通じて、スマートペン110とコンピュータ装置115との間を送信させることができる。
一実施形態において、スマートペン110とコンピュータ装置115の両方は、そのそれぞれのネットワークアダプタにリンクされるTCP/IPネットワークスタックを持つ。装置110、115は従って、直接(TCP)およびブロードキャスト(UDP)のソケットを使用する通信であって、これらのソケットを使用した通信が可能なスマートペン110およびコンピュータ装置115のそれぞれで実行されるアプリケーションとの通信、をサポートする。
クラウドサーバ125には、スマートペン110および/またはコンピュータ装置115にネットワーク120を介して連結されるリモートコンピュータシステムが含まれる。例えば、一実施形態において、クラウドサーバ125は、スマートペン110および/またはコンピュータ装置115によってキャプチャされたデータのためのリモート記憶装置を提供する。さらに、クラウドサーバ125上に記憶されるデータは、種々のアプリケーションとの関係で、スマートペン110および/またはコンピュータ装置115によりアクセスまたは使用が可能である。
(スマートペンシステムの概要)
図2は、スマートペン110の一実施形態を示す。例示の実施形態において、スマートペン110は、マーカ205、撮像システム(imaging system)210、ペンダウンセンサ215、1つまたは複数のマイクロフォン220、スピーカ225、音声ジャック230、ディスプレイ235、I/Oポート240、プロセッサ245、オンボードメモリ250、および電池255を備える。スマートペン110にはまた、電源ボタンまたは音声記録ボタン、および/または、ステータス表示ライト、などのボタンが含まれてよい。代替実施形態において、スマートペン110は、図2に示すものより少ないもしくは追加的な、または異なる構成要素を有することができる。
マーカ205は、任意のインクベースもしくはグラファイトベースのマーキング装置、または、書き込みに使用可能な任意の他の装置を含む、任意の適切なマーキング機構を備える。マーカ205は、感圧素子などのペンダウンセンサ215に連結される。ペンダウンセンサ215は、マーカ205が面に対して押される際に出力を生み出し、それにより、スマートペン110が使用されて面に書き込みがされている時、または、書き込み面105上でのコントロールまたはボタン(例えば、タッピング)と対話している時を検出する。一代替実施形態において、異なるタイプの「マーキング」センサを使用して、ペンがマークをマーキングしている時、または、書き込み面110と対話している時を判定することができる。例えば、ペンアップセンサを使用して、スマートペン110が書き込み面105と対話していない時を検出してもよい。あるいは、スマートペン110は、書き込み面105上のパターンが焦点にある時を(例えば、キャプチャされた画像の高速フーリエ変換に基づき)判定することができ、そして、それに従って、スマートペンが書き込み面105の範囲内にある時を判定することができる。別の代替実施形態において、スマートペン110は、ペンが書き込みしている時、または、書き込み面105上のコントロールと対話している時を示す振動を検出することが可能である。
撮像システム210は、マーカ205近辺の面の領域を撮像するための十分な光学装置およびセンサを備える。撮像システム210を使用して、スマートペン110でなされる手書きおよびジェスチャをキャプチャすることができる。例えば、撮像システム210には、マーカ205の近く全体の書き込み面105を照らす赤外光源が含まれてよく、それにおいて、書き込み面105にはエンコードされたパターンが含まれる。エンコードされたパターンの画像を処理することにより、スマートペン110は、マーカ205が、書き込み面105に関連してどこにあるのかを判定することができる。そして、撮像システム210の撮像アレイにより、マーカ205近辺の面が撮像され、その視野内にある符号化されたパターンの部分がキャプチャされる。
スマートペン110の他の実施形態において、書き込みジェスチャをキャプチャするための適切な代替機構が使用されてよい。例えば、一実施形態において、単語または写真もしくは他の画像の一部などの事前にプリントされたマークを使用して、ページ上の位置が判定される。検出されたマークをデジタル版の文書に相関させることにより、スマートペン110の位置を判定することができる。例えば、一実施形態において、プリントされた新聞に対するスマートペンの位置は、スマートペン110の撮像システム210によってキャプチャされた画像を、クラウドベースのデジタル版の新聞と比較することにより判定することができる。本実施形態において、書き込み面105上のエンコードされたパターンは、必ずしも必要ではなく、なぜなら、ページ上の他のコンテンツを基準点として使用することができるからである。
一実施形態において、撮像システム210によってキャプチャされたデータは、続いて処理され、文字認識などの1つまたは複数のコンテンツ認識アルゴリズムを、受信データに適用することができる。別の実施形態において、撮像システム210を使用して、既に書き込み面105上に存在する書き込まれたコンテンツをスキャンかつキャプチャすることができる。これは、例えば、書き込み面105上の手書きもしくはプリントされたテキスト、画像、またはコントロールを認識するために使用することができる。さらに、撮像システム210をペンダウンセンサ215と組み合わせて使用して、マーカ205が書き込み面105に接触している時を判定してもよい。例えば、スマートペン110は、ユーザが、書き込み面105の特定の場所にあるマーカ205をタップする時を検知することができる。
スマートペン110はさらに、音声をキャプチャするための1つまたは複数のマイクロフォン220を備える。一実施形態において、1つまたは複数のマイクロフォン220は、プロセッサ245、または、信号プロセッサ(不図示)により実行される信号処理ソフトウェアに連結され、これは、マーカ205が書き込み面上を移動する際に発生するノイズ、および/または、スマートペン110が書き込み面に接触するまたは書き込み面から離れる際に発生するノイズを除去するものである。上記で説明したように、キャプチャした音声データは、音声データとキャプチャしたジェスチャとの間の相対的なタイミングを保存する様式で記憶されてよい。
入力/出力(I/O)装置240により、スマートペン110とネットワーク120および/またはコンピュータ装置115との間の通信が可能となる。I/O装置240には、有線および/または無線の通信インターフェース、例えば、Bluetooth(登録商標)、Wi−Fi、赤外線、または超音波のインターフェースなど、が含まれてよい。
スピーカ225、音声ジャック230、およびディスプレイ235は、データ提示のためにスマートペン110のユーザに対して出力を提供する出力装置である。音声ジャック230は、イヤホンに連結され、スピーカ225とは異なり、ユーザの周囲の人の邪魔をせずにユーザが音声出力を聴くことができるようにする。一実施形態において、音声ジャック230はまた、各イヤピースにスピーカとマイクロフォンの両方が含まれる両耳用のヘッドセットの場合は、マイクロフォンジャックとしても機能する。両耳用のヘッドセットを使用することにより、より現実的な音声をキャプチャすることが可能とされ、なぜなら、マイクロフォンがユーザの耳の近辺に配置されるからであり、従って、ユーザが室内で聴いているような音声がキャプチャされる。
ディスプレイ235は、視覚フィードバックを提供するための、有機発光ダイオード(OLED)ディスプレイなどの、任意の適切なディスプレイシステムを備えてよく、スマートペン110は視覚的な出力を提供することができる。使用時、スマートペン110は、これらの出力構成要素のいずれか使用して、音声または視覚フィードバックを通信することができ、データは複数の出力様式を使用して提供される。例えば、スピーカ225および音声ジャック230は、スマートペン110上で実行中のアプリケーションに従って、音声フィードバック(例えば、プロンプト、コマンド、およびシステムステータス)を通信することができ、また、ディスプレイ235は、そのようなアプリケーションによる指示の通りに、語句、静的もしくは動的な画像、またはプロンプトを表示することができる。加えて、スピーカ225および音声ジャック230を使用して、マイクロフォン220を使用して記録してある音声データを再生することもできる。スマートペン110はまた、ユーザに触覚フィードバックを与えてもよい。触覚フィードバックには、例えば、単純な振動通知、または、仮想ボタンもしくは他のプリント/表示されたコントロールと対話する感覚を提供する、スマートペン110のさらに洗練された動き、が含まれてよい。例えば、プリントされたボタン上をタップすることにより、「クリック」音およびボタンが押下されたという感覚を生み出してもよい。
プロセッサ245、オンボードメモリ250(例えば、非一時的なコンピュータ可読記憶媒体)、および電池255(または、任意の他の適切な電源)は、コンピューティング機能がスマートペン110上の少なくとも一部において実行されることを可能にする。プロセッサ245は、入力装置および出力装置、ならびに、上述の他の構成要素に連結され、それにより、スマートペン110上で実行中のアプリケーションがそれらの構成要素を使用できるようにする。その結果、実行可能なアプリケーションは、オンボードメモリ250の非一時的なコンピュータ可読記憶媒体に記憶され、かつ、プロセッサ245により実行されて、本明細書において記載されるスマートペン110に起因する種々の機能を行うことが可能となる。メモリ250はさらに、記録された音声、手書き、およびデジタルコンテンツを、無期限に、またはスマートペン110からコンピュータシステム115またはクラウドサーバ125にオフロードされるまで、記憶することができる。
一実施形態において、プロセッサ245およびオンボードメモリ250には、ファイルシステムまたはアプリケーションメニューを通じてメニュー構造およびナビゲーションをサポートかつ有効にする、1つまたは複数の実行可能アプリケーションが含まれ、アプリケーションまたはアプリケーションの機能を起動することができる。例えば、メニュー項目間のナビゲーションには、ユーザによる発話されたおよび/または書き込まれたコマンドおよび/またはジェスチャ、ならびに、スマートペンコンピュータシステムからの音声および/または視覚フィードバックに関与する、ユーザとスマートペン110との間の対話が含まれる。一実施形態において、ペンコマンドは、「起動ライン」を使用してアクティブにすることができる。例えば、ドットペーパ上で、ユーザは水平な線を右から左に描き、次に、最初の線分上を戻り、この時、ペンはユーザにプロンプトしてコマンドを求める。そして、ユーザは、ラインの上にアクセス対象の所望のコマンドまたはメニュー(例えば、Wi−Fi設定、再生記録、など)を(例えば、ブロック文字を使用して)プリントする。統合文字認識(ICR)を使用して、ペンは、書き込まれたジェスチャを、コマンドまたはデータの入力用のテキストに変換することができる。代替実施形態において、異なるタイプのジェスチャを認識して、起動ラインを有効にすることができる。従って、スマートペン110は、入力を受け取り、様々な様式からメニュー構造をナビゲートすることができる。
(書き込み、音声、およびデジタルのデータストリームの同期)
操作の間、スマートペン110は収集コンテンツを取得するが、該収集コンテンツには2つの主要な形式があり、すなわち、どこかで生成されてシステムの枠内で閲覧されるもの、および、ユーザが生成して入力したもの、である。両形式とも、一般に何らかの形式のインデックス付けまたは関連性を持ち、データコンテンツの要素がお互いに何らかの関係を有するものとされる。図3は、スマートペン環境100におけるスマートペン110の操作中に存在する(および、選択的に記憶される)、種々のデータフィードの一例を示す。例えば、一実施形態において、書き込みデータフィード300、音声データフィード305、およびデジタルコンテンツデータフィード315が全て、共通の時間インデックス315に同期している。
書き込みデータフィード300は、例えば、特定の書き込み面105(例えば、ドットペーパまたはデジタル面)に対するスマートペンの位置の座標情報(例えば、「X」および「Y」座標)をエンコードしたデジタルサンプルのシーケンス、および、時間的座標(例えば、スマートペン110が特定の空間的位置に位置決めされた時を示す時間インデックス315からの時間値)を表す。空間的および時間的な座標は、組み合わせられて、書き込みデータフィード300の一部として記録されるジェスチャデータ(または、「ストローク」データ)を含むものである。加えて、一実施形態において、座標情報には、ペンの角度、ペンの回転、ペンの速度、ペンの加速度、またはスマートペン110の位置、角度、もしくは動きについての他の特徴が含まれてよい。書き込み面105は、時間と共に変化してよく、従って、書き込み面の識別情報も、キャプチャされる(例えば、面のタイプ、ページ番号、ノートID、デジタルファイル参照事項など)。例えば、ユーザは、ノートのページを変更したり、ノートを切り替えたりする。あるいは、ユーザは、スマートペン110のスタイラスモードに変更してよく、スタイラスモードでは、インクが付着せず、かつ、ユーザがデジタル表示面(例えば、タブレット)上に直接書き込むことができる。書き込みデータフィード300にはまた、ユーザが書き込みしているのか、または、書き込み面105上にカーソルを重ねているのか、を識別する(例えば、ペンアップ/ペンダウンセンサ情報)、または、スマートペン110との他のタイプの対話を識別する、スマートペン110によってキャプチャされる他の情報が含まれてよい。
ジェスチャデータが、一度書き込みデータフィード300内にキャプチャされると、データは、その後、書き込みデータフィード300内の時間的または空間的な座標のどちらかに基づいて、クエリされてよい。書き込みデータフィード300内のデータが、一度他のデータフィードと相関されると、ジェスチャデータもまた、時間的、空間的(例えば、ジェスチャの位置決め)、またはその他(例えば、ページ番号)を含む、いずれかのデータフィードのインデックスまたは座標に基づき、クエリされてよい。例えば、時間インデックス315内の特定の時刻位置を用いてデータをクエリすると、そのクエリされた時刻にキャプチャが開始されたジェスチャデータが返される。さらに、空間的座標をクエリすることができ(例えば、ページ上の特定の場所をタップすることにより)、書き込みデータフィード300内のその空間位置に関連する時刻位置が返されるようにすることができる。そして、後述するように、時刻位置をインデックスとして使用して、他のデータフィードからデータを読み出すことができる。
音声データフィード305は、例えば、特定のサンプル時間においてキャプチャされたデジタル音声サンプルのシーケンスを表す。いくつかの実施形態において、音声データフィード305には、多重音声信号(例えば、ステレオ音声データ)が含まれてよい。キャプチャされた音声サンプルを記録する前に、スマートペン110は、音声サンプルをフィルタを介して処理して、バックグラウンドノイズ(例えば、ペンで書き込む際の擦る音、シューっという空気音、およびブンブンというバックグラウンドの音)を低下させることができる。音声データフィード305はまた、後の参照または再生用に、時間インデックス315にリンクさせることもできる。
デジタルコンテンツデータフィード310は、例えば、コンピュータ装置115上で実行される1つまたは複数のアプリケーションに関連する状態のシーケンスを示す。例えば、デジタルコンテンツデータフィード310には、特定のサンプル時間におけるコンピュータ装置115の状態をそれぞれが表すデジタルサンプルのシーケンスが含まれてよい。状態情報は、例えば、所与の時間においてコンピュータ装置115により表示されているデジタル文書の特定のページ表すことができる。さらに、状態情報には、閲覧しているページの一部がズームされている項目が含まれてよい。別の実施形態において、状態情報は、コンピュータ装置115により再生されている映像の現在の再生フレーム、所与の時間においてコンピュータ装置115により記憶されている入力のセット、などを表す。コンピュータ装置115の状態は、コンピュータ装置115とのユーザ対話に基づき、時間と共に変化してよい。例えば、ユーザがデジタル文書のページを変更するとき、この状態の変化がデジタルコンテンツデータフィード310に記録される。他のシナリオにおいて、コンピュータ装置115の状態は、書き込みデータフィード300からのコマンドもしくは入力(例えば、ジェスチャコマンド)または音声データフィード305からのコマンドもしくは入力(例えば、音声コマンド)に応答して、変化してよい。例えば、書き込みデータフィード300により、コンピュータ装置115の状態に対してリアルタイムの更新を行ってよい。あるモードでは、コンピュータ装置115は、キャプチャしたままの書き込みデータフィード300をリアルタイムで表示することができる。別の例において、コンピュータ装置115の表示を、書き込みデータフィード300のキャプチャしたジェスチャにより表される入力に基づき変更することができる。ユーザは、スマートペン110を用いてジェスチャを行い、コンピュータ装置115に、閲覧しているデジタル文書のページを変更させてもよい。
デジタルコンテンツデータフィード310内のデータに対して時間的座標を構築することにより、ノート取りセッション中に、コンピュータ装置115上に表示される参照事項を複製する「閲覧セッション」を確立することもできる。デジタル文書を開くと、「閲覧セッション」が再現されるように、デジタルコンテンツデータフィード310内のデータを、デジタル文書に直接関連付けることもできる。デジタルコンテンツが、一度デジタルコンテンツデータフィード310内にキャプチャされると、データは、その後、時間インデックスまたはデジタルコンテンツのどちらかに基づいて、クエリされてよい。例えば、時間インデックス315内の特定の時刻位置を用いてデータをクエリすると、そのクエリされた時刻に記録された(例えば、閲覧されているデジタル文書の特定のページ)デジタルコンテンツが返される。さらに、デジタルコンテンツの特定の部分を用いて(例えば、デジタル文書の特定のページに移ることにより)データをクエリすることができ、デジタルコンテンツデータフィード310内のデジタル文書の一部分に関連する時刻位置が返されるようにすることができる。そして、時刻位置をインデックスとして使用して、他のデータフィード(例えば、書き込みデータフィード300および/または音声データフィード305)からデータを読み出すことができる。
図3に示す具体例は、例えば、教室の設定におけるスマートペンコンピュータシステムの使用を表す。ユーザが0:00:00にて記録セッションを開始すると320、3つのデータフィード300、305、310がデータの記録を開始する。これら3つのフィードは全て、時間インデックス315に対して相関される。ユーザは、ノードパッド350の7ページにメモ(notes)の書き込みを開始し、一方、同時に、コンピュータ装置115上のデジタルテキストブック355のページ55を閲覧している。時刻00:20:00にて、ユーザは、デジタルテキストブック355の56ページに移り345、また、ノードパッド350の8ページに移る。00:36:00辺りで、ユーザは、ノードパッド350のp.7に戻り、スマートペン110が、時間インデックス315と相関するページ上の追加のメモをキャプチャする。00:47:00前後に、ユーザは、デジタルテキストブック355の42ページに移り、一方、ノードパッド350のp.7上のメモを取り続けている。00:51:00前後に、ユーザは、ノードパッド350のp.8に戻り、追加のメモを取る。そして、ユーザは、記録を終了する325。このセッションに続いて、ユーザは次に、書き込みデータ、音声、デジタル文書355の一部、の相関する部分を、クエリして読み出すことができる。
一代替操作モードにおいて、ユーザは、デジタルテキストブック355のページ上の「仮想メモ」を取るという選択ができる。本モードにおいて、ユーザは、書き込み面105(例えば、ノードパッド350)に書き込みを行い、書き込みデータフィード300が、コンピュータ装置115にリアルタイムで転送される。そして、書き込みジェスチャは、ユーザがデジタルテキストブック355上に書き込みをしているかのように、デジタルテキストブック355のページ上にリアルタイムでスーパーインポーズされる。このジェスチャデータは、デジタルテキストブック355のページに直接リンクさせて、後でテキストブックが閲覧される際に利用可能であるようにすることもできる。
図3は一代表例を提供するが、他の実施形態では、例示したものより少ないまたは追加的な、データフィード(他のタイプのデータフィードが含まれる)、他のタイプの参照事項、または、他の時間期間が含まれてよい。
時間インデックス315は、ジェスチャデータ、音声データ、および/または、デジタルコンテンツの間の関連をキャプチャするための一基準点を提供するが、他の非時間的な関連を確立することもできる。例えば、ユーザは、特定の組の書き込まれたジェスチャデータまたは音声クリップの特定の部分を、デジタル文書の選択されたページに関連付けるという選択を手動で行うことができ、最初にキャプチャされた際の同一の時間インデックスにそれらが同期していなくても、可能である。これらの関係は、後の使用のために、記憶させておくこともできる。関係が一度確立されてしまうと、種々のデータフィード300、305、310からのデータは、後のアクセスの便宜上、種々の形式で記憶させることができる。例えば、一実施形態において、書き込みデータフィード300、音声データフィード305、およびデジタルコンテンツデータフィード310のそれぞれからのデータを、フォーマットして、デジタル文書に関連する(または、デジタル文書に直接埋め込まれた)メタデータファイル内に記憶させることができる。一例として図3を使用すると、書き込みデータフィード300に記録されるジェスチャデータ、デジタルテキストブック355(デジタルコンテンツデータフィード310で表される)の個々のページ閲覧のタイミング、および音声データフィード305を記憶する音声ファイルへの参照事項、は全て、デジタルテキストブック355に関連するメタデータファイル内に記憶させることができる。さらに、一実施形態において、個々のフィードからの未修正のコンテンツも、種々のアプリケーションによる使用のために、別に記憶させておくことができる。
(スマートペンベースのシステムにおけるコンテンツの取得および再閲覧)
図4および5は、データを後で再閲覧できるように、スマートペン110およびコンピュータ装置115により、書き込み、音声、およびデジタルコンテンツをキャプチャして加工するための処理の、可能な実施形態を示す。不定期にデータが送信され415/515(通常、ネットワーク120を介する)、スマートペン110とコンピュータ装置115との両方により収集されたデータが、さらなるデータ加工のために1つの装置において集約される。図4は、データが、スマートペン110において集約されて相関された後に、スマートペン110とコンピュータ装置115との両方でセーブされる、処理の一例を示す。この処理の一代替実施形態が図5に示され、ここにおいては、データは、コンピュータ装置115において集約されて相関された後に、コンピュータ装置115とスマートペン110との両方にセーブされる。データを収集して加工することの意図は、コンテンツの複数のストリームまたは収集物の、つながりと相関を可能にして、他のリンクされたコンテンツを使用することに基づき、異なるコンテンツ収集物の発見および読み出しが可能となるようにすることである。例えば、個々のジェスチャは、ジェスチャが書き込まれた時間とその時に見えていたページと、に基づき特定のページにリンクされる。この関係が一度確立されると、ページに付随するジェスチャは、リンクされたページが閲覧される際に、簡単に読み出すことができる。さらに、ノードパッドに記録されたジェスチャ上をタップすることで、書き込みの時に閲覧されていたデジタルコンテンツ内のページを、表示することもできる。デジタルコンテンツページの任意の他の属性もトリガされてよい(例えば、ページの特定の部分にズームインすること、複数の異なるデジタルコンテンツを開くこと、閲覧している領域内に、何らかの方法でコンテンツのウィンドウを編成すること、などにより)。
まず、図4の例を参照すると、スマートペン110は、ユーザの操作から、書き込みデータストリーム300および音声データストリーム305をキャプチャする。当該ペンの任意の他の動きに沿ったユーザの手書きは、上述の様式で、書き込みデータストリーム300内にジェスチャとして記録される。さらに、マイクロフォン220が、ユーザの周囲から音声をキャプチャし、それを音声データストリーム305に加工する。加えて、接続されたコンピュータ装置115上に表示される外部のデジタルコンテンツへの参照事項も、キャプチャして、これらのデータストリームに組み込むことができる。同時に、スマートペン110に(無線または有線のどちらかで)接続されたコンピュータ装置115が、コンピュータ装置115の状態変化(例えば、デジタル文書のページが変更されること)をキャプチャし405、該変化はデジタルコンテンツデータストリーム310に記録される。
一実施形態において、コンピュータ装置は、これらの状態を時間インデックス315に相関させた後、キャプチャした状態変化およびタイミング情報をスマートペン110に送信する415。あるいは、コンピュータ装置115は、状態変化を示すデータを、スマートペン110にリアルタイムで送信415してもよく、その後、スマートペン110が、受信したデータのタイミングを時間インデックス315に相関させる。
次に、スマートペン110では、データ加工を簡単にするために、種々のデータストリーム300、305、310のうちの1つまたは複数を集約する420ことができる。これには、対応する時間インデックス315を一致させて、関連するデータストリーム間の関係を形成することが含まれてよい。異なるデータストリームからのデータを、最初にキャプチャされた際には時間の相関が無い場合でも、他のデータストリームにリンク425または記録させることができる。例えば、ジェスチャを、ユーザからの指示に基づき、デジタル文書の一部に手動でリンクさせることができる。別の例において、特定の間隔離れた時間からの音声データを、書き込み面105の対応する選択区域にリンクさせることができ、または、デジタル文書の選択部分にリンクさせることができる。そして、データは、スマートペン110上で組み合わせられかつセーブされる430。データは、さらに、コンピュータ装置115に送信されて432、そこでセーブされてよい434(例えば、デジタル文書にリンクされるメタデータファイルとして)。
ユーザから再生および再閲覧の要求があると、コンピュータ装置115は、セーブされたデータを読み出し435、要素データフィード300、305、310のうちの1つまたは複数が、同期して再現されるようにすることができる。例えば、書き込みデータフィード300および音声データフィード305は、例えば、キャプチャした書き込みジェスチャの「動画」としてコンピュータ装置115のディスプレイ上に、音声データフィード305と共に再現させることができる。さらに、デジタルコンテンツデータフィード310は、以前記録した状態のシーケンス間をキャプチャしたタイミングに従って、コンピュータ装置115を遷移させる「動画」として、再現させることができる。このように、ユーザは、記録中の音声、キャプチャされてあったジェスチャ、および、特定の期間に渡って閲覧されたページ、を発見して再閲覧することができる。
別の実施形態においては、ユーザは、様々な異なる方法で、記録データと対話することが可能である。例えば、一実施形態において、ユーザは、以前キャプチャした書き込みに対応する書き込み面105上の特定の場所と対話する(例えば、タップする)ことができ、または、ユーザは、コンピュータ装置115上のキャプチャしたジェスチャの描画と対話することができる。次に、空間的座標を推定することができる。そして、その特定の場所での書き込みが発生した時に対応する時刻位置を、判定することができる。次に、時刻位置に対応する音声を再現することができ、コンピュータ装置115は、判定された時刻位置に関連するデジタル文書の部分を表示するべく更新されてよい。閲覧されたコンピュータ装置115上で開かれていたデジタルコンテンツも、閲覧用に読み出すことができる。デジタルコンテンツの追加的な属性、例えば、閲覧中の画面上で、ページのどの部分がズームされていたのか、コンテンツのウィンドウがどのように配置されていたのか、および、他のどのデジタルコンテンツが同時に開かれていたのかについても、再閲覧中に読み出してコンピュータ装置115上に反映させることができる。
一実施形態において、複数のデジタル文書を、1組のジェスチャデータと関連付けることができる。そして、ユーザが、書き込まれたテキストを選択(例えば、タップ)すると、複数の文書がコンピュータ装置115上で更新されて、ジェスチャがキャプチャされた時のそれら文書の状態を示す。例えば、ユーザが、コンピュータ装置115上で3つのデジタル文書を開く。第1の文書は、2ページの図がズームされる。第2の文書は、特別に興味のある引用句がズームされる。第3の文書では、重要な参照事項のリストを表示する。各ウィンドウは、所望の通りに配置することができ(重なり合わせる、または、並べる)、次に、レベルが書き込み面105上に書き込まれ(例えば、「提示ディスプレイ」)、ラベルは現在の提示状態のデジタル文書にリンクされる。その後、ラベルが選択されると(例えば、スマートペン110で「提示ディスプレイ」上の書き込まれた語句をタップすることにより)、デジタル文書の関連するページが読み出されて、配置されてあった通りに表示される。本実施形態は、例えば、提示を編成すること、または、ユーザが後日再考したい「山積みの作業」を保存することには有益である。
あるいは、記録された音声を再生しながら、コンピュータ装置115上のスライダナビゲーションツールを使用することにより、時刻位置を識別することができる。そして、ジェスチャおよびデジタルコンテンツ(例えば、デジタル文書のページ)を、時刻位置に対応して表示させることができる。
別の例において、コンピュータ装置115を、デジタルコンテンツデータフィード210内の特定の時刻位置に一意的な状態に、置くことができる(例えば、特定の時刻に対してインデックス付けされるページをフリップすることにより)。音声データフィード305、デジタルコンテンツデータフィード310、およびまたは書き込みデータフィードは、識別された時刻位置から開始して再現させることができる。デジタルコンテンツデータフィード310内のデジタル文書のページも、書籍またはページの積み重なりと同様にパラパラとめくる(フリップする)ことができる。ユーザは、ページに関連する任意の書きこまれたジェスチャまたは記録された音声を、読み出されるページに対して、そのページが見える状態で関連付けることができる。ジェスチャは、ページ上に重なり合わせてもよいし、ページの可視的なシーケンスで空間的にインターリーブさせてもよい。加えて、ユーザは、データフィード300、305、310のうちの1つまたは複数について、識別された時刻位置において追加または修正を行うことができる。
一代替実施形態において、スマートペン110によって実行されているような、図4に示されるステップのうちの1つまたは複数は、代わりに、コンピュータ装置115(または、クラウドサーバ125)により実行されてもよく、その逆も可能である。例えば、図5に示される処理では、スマートペン110が、上述のように、書き込まれた(および、選択的に音声の)データストリームをキャプチャし400、コンピュータ装置115が、デジタルコンテンツストリームをキャプチャする405。スマートペン110からのデータは、コンピュータ装置115に送信され515、そこで、集約されて520、他のデータストリーム300、305にリンクされる525。得られる結合データは、コンピュータ装置115内にセーブされ435、スマートペン110に送信532されてセーブ430されてよい。そして、データは、上述の様式と同じ様式で、読み出され435、再閲覧440されてよい。
他の代替実施形態において、上述の図4または5の処理ステップのうちの1つまたは複数が、スマートペン110またはコンピュータ装置115によって実行されることに代えて(または、加えて)、クラウドサーバ125によって実行されてよい。
(追加の実施形態)
実施形態についての上記の説明は、例示の目的で提示されたものであり、包括的であることも、開示される正確な形式に本発明を限定することも意図されない。当該技術を有する者は、上記の開示に照らして、多くの修正および変更が可能であることを理解することができる。
本説明のある部分では、情報に対する操作のアルゴリズムおよび象徴的な表現の観点から、実施形態を説明する。これらのアルゴリズム的な説明および表現は、データ処理技術を有する者により共通に使用されて、彼らの作業の内容が他の技術を有する者に効果的に伝達される。これらの操作は、機能的、コンピュータ的、または論理的に説明されるが、コンピュータプログラムもしくは等価の電気回路、またはマイクロコード、などにより実装されることが理解される。さらに、操作についてのこれらの構成を、普遍性を失うことなくモジュールとして、言及することは、時には好都合であることも証明された。説明した操作および関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはこれらの任意の組み合わせにおいて具現化されてよい。
本明細書に記載されるステップ、操作、または処理のいずれも、1つまたは複数のハードウェアまたはソフトウェアモジュールを用いて、単独で、または他の装置との組み合わせで、実行または実装することができる。一実施形態において、ソフトウェアモジュールは、記載されるステップ、操作、または処理のいずれかまたは全てを実行するための、コンピュータプロセッサにより実行可能であるコンピュータプログラム命令を含有する、非一時的コンピュータ可読媒体を備えるコンピュータプログラム製品を用いて実装される。
実施形態はまた、本明細書に記載される操作を実行するための装置にも関係してよい。この装置は、必要とされる目的のために特別に構築されてよく、および/または、コンピュータ内に記憶されるコンピュータプログラムにより選択的に起動または再構成される汎用コンピュータ装置を備えてよい。かかるコンピュータプログラムは、電子的な命令を記憶するのに適した、かつ、コンピュータシステムバスに連結される任意のタイプの有形の媒体を含む、有形のコンピュータ可読記憶媒体に記憶されてよい。さらに、明細書において言及される任意のコンピュータシステムは、単一のプロセッサを含んでよく、または、増大する計算能力のためのマルチプロセッサ設計を採用するアーキテクチャであってよい。
最後に、明細書内で使用される言語は、主に読みやすさおよび教示の目的で選択されたものであり、発明の主題の輪郭を描くことまたは境界線を描くことのために選択されてはいないものとする。従って、本発明の範囲は、本詳細な説明によって制限されるのではなく、むしろ、本明細書に基づく応用に由来する任意の請求項により制限されることが意図される。従って、本発明の実施形態の開示では、以下の請求項において記載される本発明の範囲を、非制限的に、例証することが意図される。

Claims (21)

  1. プロセッサにより、書き込み面と対話するスマートペン装置のジェスチャキャプチャシステムによりキャプチャされた、ジェスチャデータを表す第1のデータストリームを受信するステップと、
    前記プロセッサにより、コンピュータ装置上で実行される1つまたは複数のアプリケーションに関連する、状態のシーケンスを表す第2のデータストリームを受信するステップであって、各状態は、前記ジェスチャキャプチャシステムが前記ジェスチャデータをキャプチャする間にコンピュータ装置により表示されるコンテンツを識別する、ステップと、
    前記プロセッサにより、前記第1および第2のデータストリームを、同期した時間インデックスにインデックス付けするステップと、
    前記インデックス付けされた第1および第2のデータストリームをメモリに記憶するステップと
    を含むことを特徴とするコンピュータに実装される方法。
  2. 前記プロセッサにより、音声キャプチャシステムによりキャプチャされた、音声データを表す第3のデータストリームを受信するステップと、
    前記プロセッサにより、前記第3のデータストリームを、同期した時間インデックスにインデックス付けするステップと
    前記インデックス付けされた第3のデータストリームをメモリに記憶するステップと
    さらに含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  3. 前記状態のシーケンス内の1つの状態が、前記コンピュータ装置により所与の時間に表示される、デジタル文書の特定のページを含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  4. 前記状態のシーケンス内の1つの状態が、前記コンピュータ装置により所与の時間に表示される、デジタル文書のページの一部がズームされている項目を含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  5. 前記状態のシーケンス内の1つの状態が、前記コンピュータ装置により所与の時間に記憶される、1つまたは複数のユーザ入力を含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  6. 前記状態のシーケンス内の1つの状態が、前記コンピュータ装置により所与の時間に再生される、映像の再生フレームを含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  7. 前記状態のシーケンスが、1つまたは複数の状態変化を含み、前記状態変化は、同期した時間インデックスに対して時間的に相関されることを特徴とする請求項1に記載のコンピュータに実装される方法。
  8. 前記インデックス付けするステップが、前記第1および第2のデータストリームを、前記データストリームが生成された時間に基づき、時間的に同期させるステップを含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  9. ユーザから再生の要求があると、前記インデックス付けされて記憶されたデータストリームの少なくとも1つを読み出すステップと、
    前記読み出されたデータストリームの一部を再現するステップであって、前記再現するステップが、前記ジェスチャデータ、または前記同期した時間インデックスと相関関係にある前記状態のシーケンスを表示するステップと
    をさらに含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  10. 前記再現するステップが、
    前記スマートペンと前記書き込み面との間の対話に基づき、以前キャプチャしたジェスチャの一部を識別するステップと、
    前記以前キャプチャしたジェスチャの識別された一部を、前記時間インデックス内の特定の時点に相関させるステップと、
    前記以前キャプチャしたジェスチャの識別された一部を、前記特定の時点から開始して再現するステップと
    をさらに含むことを特徴とする請求項9に記載のコンピュータに実装される方法。
  11. 前記再現するステップが、
    前記コンピュータ装置により表示されるコンテンツに基づき、以前キャプチャした状態の一部を識別するステップと、
    前記以前キャプチャした状態の識別された一部を、前記時間インデックス内の特定の時点に相関させるステップと、
    前記以前キャプチャした状態の識別された一部を、前記特定の時点から開始して再現するステップと
    をさらに含むことを特徴とする請求項9に記載のコンピュータに実装される方法。
  12. 前記第1のデータストリームの一部を識別するステップと、
    前記第1のデータストリームの一部をデジタル文書の一部に関連付けるという要求を受け取るステップと、
    前記第1のデータストリームの一部と前記デジタル文書の一部との間の関連を記憶するステップと
    をさらに含むことを特徴とする請求項1に記載のコンピュータに実装される方法。
  13. 音声キャプチャシステムによりキャプチャされた、音声データを表す第3のデータストリームに一部を識別するステップと、
    前記第3のデータストリームの一部を、前記書き込み面の選択区域の一部に関連付けるという要求を受け取るステップと、
    前記第3のデータストリームの一部と前記書き込み面の選択区域との間の関連を記憶するステップと
    をさらに含むことを特徴とする請求項12に記載のコンピュータに実装される方法。
  14. コンピュータプログラムコードを記憶しかつスマートペン装置内に統合される、非一時的コンピュータ可読記憶媒体を備える、スマートペンコンピュータシステムであって、前記コンピュータプログラムコードは、プロセッサにより実行されるべく構成され、前記コンピュータプログラムコードは、
    前記プロセッサにより、書き込み面と対話する前記スマートペン装置のジェスチャキャプチャシステムによりキャプチャされた、ジェスチャデータを表す第1のデータストリームを受信するステップと、
    前記プロセッサにより、コンピュータ装置上で実行される1つまたは複数のアプリケーションに関連する、状態のシーケンスを表す第2のデータストリームを受信するステップであって、各状態は、前記ジェスチャキャプチャシステムが前記ジェスチャデータをキャプチャする間にコンピュータ装置により表示されるコンテンツを識別する、ステップと、
    前記プロセッサにより、前記第1および第2のデータストリームを、同期した時間インデックスにインデックス付けするステップと、
    前記インデックス付けされた第1および第2のデータストリームをメモリに記憶するステップと
    のための命令を含む、コンピュータプログラムコードである
    をことを特徴とするスマートペンコンピュータシステム。
  15. 前記プロセッサが内部に統合されるスマートペンと、
    前記プロセッサに連結され、書き込みデータをキャプチャするためのものである、前記スマートペン内に統合されるジェスチャキャプチャシステムと
    をさらに含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
  16. 前記コンピュータプログラムコードが、
    前記プロセッサにより、音声キャプチャシステムによりキャプチャされた、音声データを表す第3のデータストリームを受信するステップと、
    前記プロセッサにより、前記第3のデータストリームを、同期した時間インデックスにインデックス付けするステップと
    前記インデックス付けされた第3のデータストリームをメモリに記憶するステップと
    のための命令をさらに含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
  17. 前記状態のシーケンス内の1つの状態が、前記コンピュータ装置により所与の時間に表示される、デジタル文書のページの一部がズームされている項目を含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
  18. 前記状態のシーケンス内の1つの状態が、前記コンピュータ装置により所与の時間に記憶される、1つまたは複数のユーザ入力を含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
  19. 前記インデックス付けするステップが、前記第1および第2のデータストリームを、前記データストリームが生成された時間に基づき、時間的に同期させるステップを含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
  20. 前記コンピュータプログラムコードが、
    ユーザから再生の要求があると、前記インデックス付けされて記憶されたデータストリームの少なくとも1つを読み出すステップと、
    前記読み出されたデータストリームの一部を再現するステップであって、前記再現するステップが、前記ジェスチャデータ、または前記同期した時間インデックスと相関関係にある前記状態のシーケンスを表示するステップと
    のための命令をさらに含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
  21. 前記コンピュータプログラムコードが、
    前記第1のデータストリームの一部を識別するステップと、
    前記第1のデータストリームの一部をデジタル文書の一部に関連付けるという要求を受け取るステップと、
    前記第1のデータストリームの一部と前記デジタル文書の一部との間の関連を記憶するステップと
    のための命令をさらに含むことを特徴とする請求項14に記載のスマートペンコンピュータシステム。
JP2015539800A 2012-10-26 2013-10-24 書き込みのメモとデジタルコンテンツの相関 Pending JP2015533002A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261719290P 2012-10-26 2012-10-26
US61/719,290 2012-10-26
PCT/US2013/066643 WO2014066657A2 (en) 2012-10-26 2013-10-24 Correlation of written notes to digital content

Publications (1)

Publication Number Publication Date
JP2015533002A true JP2015533002A (ja) 2015-11-16

Family

ID=50545483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015539800A Pending JP2015533002A (ja) 2012-10-26 2013-10-24 書き込みのメモとデジタルコンテンツの相関

Country Status (3)

Country Link
US (1) US9195697B2 (ja)
JP (1) JP2015533002A (ja)
WO (1) WO2014066657A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140256250A1 (en) * 2013-03-11 2014-09-11 Barnesandnoble.Com Llc Peer-to-peer data transfer using near field communication (nfc)-enabled styluses
US20150134352A1 (en) * 2013-11-08 2015-05-14 Qsi Management, Llc Digital pen system for recording medical information
US9552345B2 (en) * 2014-02-28 2017-01-24 Microsoft Technology Licensing, Llc Gestural annotations
CN105869451A (zh) * 2016-05-31 2016-08-17 广东能龙教育股份有限公司 一种带书写轨迹录制的录音笔及其数据处理方法
KR20180021532A (ko) * 2016-08-22 2018-03-05 엘지전자 주식회사 이동 단말기
US10248652B1 (en) 2016-12-09 2019-04-02 Google Llc Visual writing aid tool for a mobile writing device
US10650813B2 (en) * 2017-05-25 2020-05-12 International Business Machines Corporation Analysis of content written on a board
US10554827B2 (en) 2018-04-04 2020-02-04 International Business Machines Corporation Displaying a scanned image of a physical note
US11301063B2 (en) 2018-07-18 2022-04-12 John J. King, JR. Smart pen device and method of implementing a smart pen device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9100732D0 (en) 1991-01-14 1991-02-27 Xerox Corp A data access system
US20050110778A1 (en) * 2000-12-06 2005-05-26 Mourad Ben Ayed Wireless handwriting input device using grafitis and bluetooth
US7446783B2 (en) * 2001-04-12 2008-11-04 Hewlett-Packard Development Company, L.P. System and method for manipulating an image on a screen
US7260257B2 (en) * 2002-06-19 2007-08-21 Microsoft Corp. System and method for whiteboard and audio capture
US8656282B2 (en) * 2007-01-31 2014-02-18 Fall Front Wireless Ny, Llc Authoring tool for providing tags associated with items in a video playback
US8284951B2 (en) * 2007-05-29 2012-10-09 Livescribe, Inc. Enhanced audio recording for smart pen computing systems
US8638319B2 (en) * 2007-05-29 2014-01-28 Livescribe Inc. Customer authoring tools for creating user-generated content for smart pen applications
US8374992B2 (en) * 2007-05-29 2013-02-12 Livescribe, Inc. Organization of user generated content captured by a smart pen computing system
US8446298B2 (en) 2008-04-03 2013-05-21 Livescribe, Inc. Quick record function in a smart pen computing system
US8364680B2 (en) * 2009-09-30 2013-01-29 Apple Inc. Computer systems and methods for collecting, associating, and/or retrieving data

Also Published As

Publication number Publication date
WO2014066657A2 (en) 2014-05-01
US9195697B2 (en) 2015-11-24
US20140122490A1 (en) 2014-05-01
WO2014066657A3 (en) 2014-07-24

Similar Documents

Publication Publication Date Title
US9195697B2 (en) Correlation of written notes to digital content
US20160117142A1 (en) Multiple-user collaboration with a smart pen system
US8194081B2 (en) Animation of audio ink
US20170220140A1 (en) Digital Cursor Display Linked to a Smart Pen
US20160124702A1 (en) Audio Bookmarking
US20160154482A1 (en) Content Selection in a Pen-Based Computing System
US20170300746A1 (en) Organizing Written Notes Using Contextual Data
US20160179225A1 (en) Paper Strip Presentation of Grouped Content
US8446297B2 (en) Grouping variable media inputs to reflect a user session
US9335838B2 (en) Tagging of written notes captured by a smart pen
US20160162137A1 (en) Interactive Digital Workbook Using Smart Pens
WO2009155458A1 (en) Managing objects with varying and repeated printed positioning information
US20160180822A1 (en) Smart Zooming of Content Captured by a Smart Pen
KR102337157B1 (ko) 전자 칠판 장치 및 그 제어 방법
JP7242674B2 (ja) 電子機器、電子機器を駆動する方法、及び、データ記録アプリケーションを制御する方法
AU2012258779A1 (en) Content selection in a pen-based computing system