JP5496987B2 - レンダリングされた文書からの視覚的取得データに対する処理技術 - Google Patents
レンダリングされた文書からの視覚的取得データに対する処理技術 Download PDFInfo
- Publication number
- JP5496987B2 JP5496987B2 JP2011248290A JP2011248290A JP5496987B2 JP 5496987 B2 JP5496987 B2 JP 5496987B2 JP 2011248290 A JP2011248290 A JP 2011248290A JP 2011248290 A JP2011248290 A JP 2011248290A JP 5496987 B2 JP5496987 B2 JP 5496987B2
- Authority
- JP
- Japan
- Prior art keywords
- document
- text
- user
- documents
- rendered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 133
- 238000012545 processing Methods 0.000 title description 24
- 230000009471 action Effects 0.000 claims description 50
- 230000033001 locomotion Effects 0.000 claims description 23
- 230000003993 interaction Effects 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 73
- 230000006870 function Effects 0.000 description 49
- 238000012015 optical character recognition Methods 0.000 description 47
- 230000000694 effects Effects 0.000 description 27
- 230000003287 optical effect Effects 0.000 description 25
- 239000000463 material Substances 0.000 description 23
- 230000008901 benefit Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 20
- 239000012634 fragment Substances 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 230000010354 integration Effects 0.000 description 11
- 238000007639 printing Methods 0.000 description 11
- 241000699666 Mus <mouse, genus> Species 0.000 description 9
- 238000013459 approach Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 229920001690 polydopamine Polymers 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000000153 supplemental effect Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 239000000047 product Substances 0.000 description 5
- 230000003252 repetitive effect Effects 0.000 description 5
- 238000013481 data capture Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000000976 ink Substances 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000012552 review Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000014616 translation Effects 0.000 description 4
- 238000013475 authorization Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000001915 proofreading effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 108091081062 Repeated sequence (DNA) Proteins 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000012925 reference material Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 241000921645 Ranunculus auricomus Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000012776 electronic material Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000033458 reproduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9554—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL] by using bar codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Document Processing Apparatus (AREA)
- Editing Of Facsimile Originals (AREA)
- Processing Or Creating Images (AREA)
Description
本願は、以下の出願の一部継続出願であり、これら出願のそれぞれは、参考によりその全容が援用される。米国特許出願第11/004,637号(2004年12月3日出願)、米国特許出願第11/097,961号(タイトル「METHODS AND SYSTEMS FOR INITIATING APPLICATION PROCESSES BY DATA CAPTURE FROM RENDERED DOCUMENTS」)、米国特許出願第11/097,093号(タイトル「DETERMINING ACTIONS INVOLVING CAPTURED INFORMATION AND ELECTRONIC CONTENT ASSOCIATED WITH RENDERED DOCUMENTS」)、米国特許出願第11/098,038号(タイトル「CONTENT ACCESS WITH HANDHELD DOCUMENT DATA CAPTURE DEVICES」)、米国特許出願第11/098,014号(タイトル「SEARCH ENGINES AND SYSTEMS WITH HANDHELD DOCUMENT DATA CAPTURE DEVICES」)、米国特許出願第11/097,103号(タイトル「TRIGGERING ACTIONS IN RESPONSE TO OPTICALLY OR ACOUSTICALLY CAPTURING KEYWORDS FROM A RENDERED DOCUMENT」)、米国特許出願第11/098,043号(タイトル「SEARCHING AND ACCESSING DOCUMENTS ON PRIVATE NETWORKS FOR USE WITH CAPTURES FROM RENDERED DOCUMENTS」)、米国特許出願第11/097,981号(タイトル「INFORMATION GATHERING SYSTEM AND METHOD」)、米国特許出願第11/097,089号(タイトル「DOCUMENT ENHANCEMENT SYSTEM AND METHOD」)、米国特許出願第11/097,835号(タイトル「PUBLISHING TECHNIQUES FOR ADDING VALUE TO A RENDERED DOCUMENT」)、米国特許出願第11/098,016号(タイトル「ARCHIVE OF TEXT CAPTURES FROM RENDERED DOCUMENTS」)、米国特許出願第11/097,828号(タイトル「ADDING INFORMATION OR FUNCTIONALITY TO A RENDERED DOCUMENT VIA ASSOCIATION WITH AN ELECTRONIC COUNTERPART」)、米国特許出願第11/097,833号(タイトル「AGGREGATE ANALYSIS OF TEXT CAPTURES PERFORMED BY MULTIPLE USERS FROM RENDERED DOCUMENTS」)、米国特許出願第 11/097,836号(タイトル「ESTABLISHING AN INTERACTIVE ENVIRONMENT FOR RENDERED DOCUMENTS」)、米国特許出願第11/098,042号(タイトル「DATA CAPTURE FROM RENDERED DOCUMENTS USING HANDHELD DEVICE」)、および米国特許出願第11/096,704号(タイトル「CAPTURING TEXT FROM RENDERED DOCUMENTS USING SUPPLEMENTAL INFORMATION」)。
記載技術は、文書処理の分野を対象とするものである。
レンダリングされた文書(例えば、印刷または表示された文書)、およびこれらの文書の関連デジタル「ソース」、「副本」、または「参考資料」版を解釈し、それと情報をやりとりするためのシステム(「システム」)について説明する。いくつかの実施形態において、システム自体は、場合によってはこの機能を実行することがあるが、文字の認識および解釈に直接的に関与しておらず、印刷された文字を認識および理解することに関わっていない。むしろ、システムは、文書の版が既知であること、機械可読(例えば、ASCIIまたは他の何らかの機械可読テキスト)ソースまたは参考資料版文書が手元にある、または機械アクセス可能である、もしくは将来利用可能にされるであろうことを想定している。システムは、ナビゲーション(すなわち、文書内でロケーションを測定すること)のためにレンダリングされた文書内において様々な特徴(テキストを含む)を使用する。ロケーションは次にユーザ機能およびインタラクションの豊富なセットを可能にするために使用され、そのうちの一部を以下で説明する。
1.システムの性質
電子副本を有するすべての紙の文書について、電子副本を識別することができる情報が紙の文書内に離散的な量で存在する。いくつかの実施形態において、システムは、例えば携帯用スキャナを使用して、文書の電子副本を識別し位置を特定するために、紙の文書から取得(capture)したテキストのサンプルを使用する。ほとんどの場合、機能によって必要とされるテキストの量は極めて少なく、そのうち紙の文書のための識別子およびその電子副本へのリンクとして頻繁に機能することができるのは、文書からのテキストのうち数単語である。また、システムはそれらの数単語を使用して、文書だけでなく、文書内のロケーションも識別することができる。
システムが、紙の文書内にあるテキストの一部分を確立された特定のデジタルエンティティと関連付けると、システムは当該関連付けにおいて膨大な機能性を築くことができる。
システムの一般的な使用は、紙の文書からテキストをスキャンするために光学スキャナを使用することから始まるが、他のタイプの文書から取得する他の方法も同様に適用できることに留意することが重要である。したがってシステムは、レンダリングされた文書からテキストをスキャンまたは取得することとして説明される場合があり、ここでそれらの用語を以下のように定義する。
この項では、紙/デジタル統合のためのシステムの構成要素となるデバイス、プロセス、およびシステムのいくつかを説明する。様々な実施形態において、システムは、基本機能を提供するこの基本コア上に、多種多様なサービスおよびアプリケーションを築く。
図1は、コアシステムの一実施形態における情報の流れを示すデータフロー図である。他の実施形態は、本明細書において図示されている段階または要素のすべてを使用することはできないが、さらに多くを使用するものもある。
図2は、一般的な動作環境という状況におけるシステムの一般的な実装に含まれるコンポーネントのコンポーネント図である。図示するように、動作環境は、1つ以上の光学スキャン取得装置202または音声取得装置204を含む。いくつかの実施形態において、同一のデバイスは両方の機能を実行する。各取得装置は、直接配線または無線接続のいずれかを使用して、もしくは、有線または無線接続を使用して通信を行うことができ、後者は一般的に無線基地局214を含むネットワーク220を介して、コンピュータ212および移動局216(例えば、携帯電話またはPDA)等システムの他の部分と通信を行うことができる。いくつかの実施形態において、取得装置は移動局に統合され、音声通信および写真撮影のためにデバイスで使用されるいくつかの音声および/または光学コンポーネントを任意で共有する。
上述のように、取得装置は、レンダリングされた文書から画像データを取得する光学スキャナを使用して、もしくはユーザの口頭によるテキストの読み上げを取得する音声記録装置、または他の方法を使用して、テキストを取得することができる。取得装置のいくつかの実施形態は、バーコード等の機械可読コードを含む、画像、グラフィカルシンボルおよびアイコン等を取得することもできる。当該デバイスは非常に単純で、ただトランデューサ、いくつかの記憶領域、およびデータインターフェースのみからなり、システムのどこか他の場所にある他の機能性に依存しているか、またはさらにフル装備のデバイスであってよい。例として、この項では、光学スキャナに基づき、適当な数の特徴を持つデバイスを説明する。
紙‐デジタル統合が一般的になるにつれて、現行の技術にはこの統合をさらにうまく利用するため、またはそれをさらに効率的に実装できるようにするために変更され得る多くの側面がある。この項では、それらの問題を明らかにする。
文書の集合を検索することは、ワールドワイドウェブのように大きな集合でさえ、一般ユーザにとって普通のことになってきて、ユーザはキーボードを使用して検索エンジンに送信される検索クエリーを構築する。この項および事項では、レンダリングされた文書からの取得に由来するクエリーの構築および該当するクエリーを扱う検索エンジンの両方の側面について論じる。
説明したシステムの使用は、一般に、上記の第1.2項で述べたものを含むいくつかの方法のうちいずれかを使用して、レンダリングされた文書から取得される数単語で始まる。入力が、それをテキストに変換するために何らかの解釈を必要とする場合、例えばOCRまたはスピーチ入力の場合、文書集合を使用して認識プロセスを促進できるように、システム内においてエンドツーエンドフィードバックがあってよい。エンドツーエンドフィードバックは、認識または解釈の近似を実行し、文書と一致する1つ以上の候補のセットを識別し、次いで、候補文書内の可能な一致からの情報を使用して認識または解釈をさらに洗練および制限することによって適用できる。候補文書は、推定関連性に従って(例えば、これらの文書内のスキャンを行った他のユーザの数、またはインターネット上でのそれらの人気に基づいて)重み付けされることができ、これらの重み付けはこの反復認識プロセスに適用されることができる。
数単語に基づく検索クエリーの選択力はこれらの単語の相対位置が既知である場合に大幅に強化されるため、システムが集合内のテキストのロケーションを識別するために取得される必要があるのは少量のテキストのみである。通常、入力テキストは、短いフレーズ等の連続的な単語の配列であろう。
フレーズが由来する文書の位置を特定することに加えて、システムは当該文書内のロケーションを識別し、この知識に基づいてアクションをとることができる。
システムは、レンダリングされた文書において透かしまたは他の特別なマーキングを使用する等による、文書およびロケーションを発見する他の方法を用いてもよい。
取得されたテキストに加えて、他のファクタ(すなわち、ユーザID、プロファイル、コンテキストについての情報)が、取得時刻、ユーザのIDおよび地理的位置、ユーザの習慣および最近のアクティビティについての知識等、検索クエリーの一部を形成してよい。
検索クエリーは、使用される特定の取得方法において発生しそうなエラーのタイプを考慮して構築されてよい。これの一例は、特定文字の認識において疑わしいエラーの表示であり、この場合には、検索エンジンはこれらの文字をワイルドカードとして処理するか、それらに低い優先順位を割り当てることができる。
時に、取得装置は、データ取得時に検索エンジンまたは集合と通信を行えない場合がある。このため、デバイスのオフライン使用に役立つ情報は事前にデバイスへ、またはデバイスが通信を行える何らかのエンティティへダウンロードすることができる。集合に関連するインデックスのすべてまたは実質的部分をダウンロードできる場合もある。このトピックについては、第15.3項でさらに論じる。
クエリーの通信および結果の受信に関連して遅延および費用が発生しそうな場合、このプリロードされた情報は、ローカルデバイスのパフォーマンスを改善し、通信費を削減し、役に立ち、かつ時宜を得たユーザフィードバックを提供することができる。
パフォーマンス上の理由から、単一の取得を受けて複数のクエリーが順に、または同時に開始される場合がある。単一の取得を受けて、例えば新しい単語が取得に追加された際に、または複数の検索エンジンを同時にクエリーするために、いくつかのクエリーが送信される場合がある。
多くの場合、従来のオンラインクエリーを扱う検索エンジンは、レンダリングされた文書に由来するクエリーも扱うことが望ましい。従来の検索エンジンは、説明したシステムでそれらを使用するのにより適合するようにするために、多くの手法で強化または修正されることができる。
多くの場合、紙由来または従来のクエリーを使用して同一のインデックスが検索され得るが、インデックスは現在のシステムにおいて様々な手法で使用するために強化される場合がある。
紙ベースの検索の場合に役立つ該当するインデックスに、余分のフィールドを追加することができる。
第1の例は、文書が存在すること、または紙形態で配布されていることが既知であることを示すフィールドである。システムは、クエリーが紙から生じたものである場合、該当する文書に高い優先順位を与える場合がある。
この例では、紙の文書の人気に関する(および、任意でこれらの文書内のサブ領域に関する)統計データ―例えばスキャンアクティビティの量、発行者および他のソースによって提供される発行部数等―を、該当する文書に高い優先順位を与える、デジタル副本文書の優先順位を高める(例えば、ブラウザベースのクエリーまたはウェブ検索)等のために使用する。
別の重要な例は、文書の特別なレンダリングのレイアウトについての情報を記録することであってよい。
最後に、テキストの特定の部分が市場に出される項目に言及している、またはある段落がプログラムコードを含む等、ソースマークアップから推測され得るが紙の文書において明らかではない意味情報をインデックスに記録することもできる。
インデックスの性質を修正できる第2のファクタは、使用されそうな取得のタイプについての知識である。光学スキャンによって開始された検索は、インデックスがOCRプロセスにおいて混同しやすい文字を考慮に入れる場合、または文書内で使用されたフォントについての何らかの知識を含む場合に利益となり得る。同様に、クエリーがスピーチ認識から生じたものである場合、同音素に基づくインデックスは、はるかに効率的に検索され得る。説明したモデルにおけるインデックスの使用に影響を及ぼし得るさらなるファクタは、認識プロセス中の反復フィードバックの重要性である。テキストが取得されている際に検索エンジンがインデックスからのフィードバックを提供できる場合、取得の精度を大幅に向上させることができる。
第9項において説明したオフセットベース/自己相関OCR方法を使用してインデックスが検索される可能性が高い場合、いくつかの実施形態において、システムは適切なオフセットまたは署名情報をインデックス内に格納する。
最後に、説明したシステムにおいて、多数のインデックスについて検索を行うことが一般的であってよい。インデックスは、いくつかの機械または企業ネットワーク上で保持されることができる。部分的なインデックスは、取得装置または取得装置に近い機械にダウンロードされてよい。特定の関心、習慣、または許可を持つユーザまたはユーザの群について、分離インデックスが作成される場合がある。インデックスは、各ファイルシステム、各ディレクトリ、ユーザのハードディスク上の各ファイルにさえ存在し得る。インデックスは、ユーザおよびシステムによって発行およびサブスクライブされる。そこで、効率的に配布、更新、マージ、および分離できるインデックスを構築することが重要になる。
4.2.1.紙からの取得であることを知る
検索エンジンは、紙の文書に由来する検索クエリーを認識した場合に異なるアクションをとることができる。当該エンジンは、例えば、ある取得方法において現われそうなエラーのタイプに対して、より耐性がある手法でクエリーを扱うかもしれない。
以下の第13項では、取得されたテキスト自体の外側にあるが、文書の識別において大きな助力となり得る様々な異なるファクタについて説明する。これらは、最近のスキャンの履歴、特定のユーザの長期的な読書習慣、ユーザの地理的位置およびユーザの特定の電子文書の最近の使用等を含む。該当するファクタを、本明細書においては「コンテキスト」と称する。
検索プロセスへの重要な入力は、ユーザのコミュニティが文書のレンダリング版とどのように情報のやりとりをするか―例えば、どの文書が最も広く、誰によって読まれているか―の、より広範なコンテキストである。最も頻繁にリンクされるページ、または過去の検索結果から最も頻繁に選択されるページを返す検索エンジンには類似性がある。このトピックに関するこれ以上の議論については、第13.4および14.2項を参照のこと。
説明したシステムは、文書全体についての情報だけでなく、文書のサブ領域についての情報、個別の単語に至るまでも発し使用することができる。現存する多くの検索エンジンは、単純に文書または特定のクエリーに関連するファイルを位置付けることに集中する。細粒なことに取り組み、文書内でロケーションを識別することができる検索エンジンは、説明したシステムに重大な利益を提供するであろう。
検索エンジンは、現在保持しているさらなる情報の一部を使用して、返される結果に影響を及ぼすことができる。
取得‐検索‐取り出しプロセスを実行することに加えて、説明したシステムはまた、余分の機能性を文書、特に文書内にあるテキストの特定のロケーションおよびセグメントと関連付ける。この余分の機能は多くの場合、これに限らないが、その電子副本と関連付けられることにより、レンダリングされた文書と関連付けられる。例として、ウェブページにおけるハイパーリンクは、当該ウェブページのプリントアウトがスキャンされる際に同一の機能性を有する場合がある。電子文書においては定義されていないが、どこか他の場所で格納されるまたは発生する機能性もある。
文書においてマークアップが「オーバーレイ」であるとして考える一手法は、文書またはその一部についての情報をさらに提供し、またそれに関連するアクションを特定することができる。マークアップは人間に解読可能なコンテンツを含むことができるが、多くの場合、ユーザに対して不可視であり、かつ/または機械使用を意図されている。例として、レンダリングされた文書内の特定のエリアからユーザがテキストを取得する場合に付近のディスプレイ上のポップアップメニューに表示されるオプション、または特定のフレーズの発音を示す音声サンプルが挙げられる。
いかなる文書も複数のオーバーレイを同時に有することができ、これらは様々なロケーションをソースとするものであってよい。マークアップデータは、文書の著者により、またはユーザにより、もしくは他の何らかの関係者により、作成または提供されることができる。
ユーザは、マークアップデータをインストール、またはその特定のソースをサブスクライブし、したがって、特定の取得に対するシステムの応答をパーソナル化することもできる。
文書内のいくつかの要素は、特定の文書内におけるそれらのロケーションよりもむしろそれら自体の特性に基づいて、特定の「マークアップ」またはそれらに関連する機能性を有することができる。例としては、ユーザを関心のある組織についてのさらなる情報にリンクさせることができるロゴおよび商標に加えて、純粋にスキャンされることを目的として文書内に印刷される特別なマークが挙げられる。これはテキスト中の「キーワード」または「キーフレーズ」にも当てはまる。組織は、それが関連する、または関連付けたい特定のフレーズを登録し、それらに当該フレーズがスキャンされる場所であればどこでも利用可能なある一定のマークアップを添付するかもしれない。
5.3.1.マルチメディアを含む、ユーザコメントおよび注釈
注釈は、文書に関連し得る別のタイプの電子情報である。例えば、ユーザは、後に音声注釈として取り出すために、特定の文書についての当該ユーザの考えの音声ファイルを添付することができる。マルチメディア注釈の別の例として、ユーザは、文書内で言及された場所の写真を添付することができる。ユーザは、概して文書に注釈を提供するが、システムは他のソースからの注釈を関連付けることができる(例えば、ワークグループ内の他のユーザは注釈を共有することができる)。
ユーザソースのマークアップの重要な例は、校正、編集、またはレビュープロセスの一部としての、紙の文書の注釈である。
先に述べたように、マークアップデータは多くの場合、文書の他の読者等、第三者によって提供されることができる。オンラインディスカッションおよびレビューは、特定の仕事、ボランティアで寄稿される翻訳および説明に関するコミュニティ管理の情報として、良い例である。
システムの何人かまたはすべてのユーザにより文書から取得したデータを解析することによって、コミュニティのアクティビティおよび関心に基づいてマークアップが発生し得る。例として、実際に「この本を楽しんだ人は、・・・も楽しんだ」とユーザに教えるマークアップまたは注釈を作成するオンライン書店が挙げられるかもしれない。マークアップは匿名性が低くてもよく、ユーザに、当該ユーザが持つ連絡先リストの中でこの文書を最近読んだ人を教えてもよい。データストリーム解析の他の例を、第14項に含む。
マークアップは、多くの場合、企業データベースからの入力、公衆インターネットからの情報、またはローカルオペレーティングシステムにより収集された統計等、外部イベントおよびデータソースに基づくものであろう。
多くの場合、ユーザのIDは知られることになる。これが「匿名ID」である場合があり、その場合ユーザは例えば取得装置の製造番号のみで識別される。しかしながら、一般に、システムがユーザについてはるかに詳細な知識を有し、システムをパーソナル化し、ユーザ名でアクティビティおよび取引の実行を可能にするためにそれを使用することができると予期される。
最も単純かつ最も有用な機能の1つは、ユーザのために、当該ユーザが取得したテキスト、ならびに、見つかったあらゆる文書の詳細、当該文書内のロケーション、および結果としてとられるあらゆるアクションを含む、当該取得に関するさらなる情報を記録に留めることである。
ユーザには、「ライフライブラリ」という当該ユーザが読んで取得したすべての記録が提示される場合がある。これは、単純に個人的関心のためのものであってもよいが、例えば、次の論文の参考文献となる資料を収集している研究者によってライブラリ内で使用されてもよい。
ユーザの過去の取得に関する記録は、システムにも有用である。システム操作の多くの側面は、ユーザの読書習慣および履歴を知ることによって強化されることができる。最も単純な例は、ユーザによって行われるいかなるスキャンも当該ユーザが最近においてスキャンした文書から生じている可能性が高いことであり、特に前回のスキャンが過去数分の間だった場合には、同一の文書からのものである可能性が極めて高い。同様に、文書が最初から最後という順序で読まれている可能性も高い。したがって、英語の文書の場合、後のスキャンは文書のずっと下で発生する可能性も高い。該当するファクタは、システムが、曖昧な場合の取得のロケーションを確立するのを助けることができ、取得される必要があるテキストの量を削減することもできることである。
取得プロセスは概してある種のデバイス、一般には光学スキャナまたはボイスレコーダから始まるため、このデバイスは、ユーザを識別しある一定のアクションを許可するキーとして使用されることができる。
デバイスは、携帯電話または携帯電話アカウントに関連する他の何らかの手法に埋め込まれてよい。例えば、スキャナはアカウントに関連するSIMカードをスキャナに挿入することによって、携帯電話アカウントに関連することができる。同様に、デバイスは、クレジットカードまたは他の支払いカードに埋め込まれてよく、または該当するカードがそれに接続されるための機能を有してもよい。したがって、デバイスは支払いトークンとして使用されることができ、レンダリングされた文書からの取得によって金融取引を開始することができる。
スキャナは、特定のユーザまたはアカウントと関連する何らかのトークン、シンボル、またはテキストをスキャンするプロセスを通じて、当該ユーザまたはアカウントに関連してもよい。また、スキャナは、例えばユーザの指紋をスキャンすることによって、バイオメトリック認証に使用されてもよい。音声ベースの取得装置の場合、システムは、ユーザの声紋を一致させることによって、またはユーザにある一定のパスワードまたはフレーズを言うよう要求することによって、ユーザを識別することができる。
ユーザを識別および認証するため、ならびにユーザに代わって取引を開始するために取得装置が使用される場合、デバイスとシステムの他の部分との間の通信がセキュアであることが重要である。デバイスと他のコンポーネントとの間の通信が傍受される、スキャナをまねた別のデバイス、いわゆる「中間者」攻撃のような状況に対して保護することも重要である。
説明したシステムの利点は、多くのシステムの利益を得るために、文書を作成、印刷、または発行する従来のプロセスを変更する必要がないことである。しかしながら、文書の作成者または発行者―以後、単純に「発行者」と称する―は、説明したシステムをサポートするための機能性の作成を希望する場合があるという理由がある。
システムは、印刷された文書が関連する電子存在を有するのを可能にする。従来、発行者はCD‐ROMを、さらなるデジタル情報、チュートリアルムービーおよび他のマルチメディアデータ、サンプルコードまたは文書、もしくはさらなる参考資料を含む本とともに出荷することが多い。また、一部の発行者は、正誤表、追加コメント、更新された参考資料、参考文献および関連データのさらなるソース、ならびに他の言語への翻訳等、発行後に更新され得る情報に加え、該当する資料を提供する特定の発行物に関連するウェブサイトを保持する。オンラインフォーラムによって、読者は発行物に関するコメントを寄稿することができる。
いくつかの発行者は、新しい関連事項の通知を受けたい場合、また本の新版が発行された際、読者がサブスクライブできるメーリングストを有することができる。説明したシステムを使用すると、ユーザは特定の文書または文書の一部への関心をより容易に登録することができ、発行者が該当するいかなる機能性の提供を検討する前であっても登録できる場合がある。読者の関心は発行者へ提供され、場合によっては更新、さらなる情報、新版、または、現存する本において関心を持たれていると確認されたトピックに関する全く新しい発行物の提供する時期および場所についても影響を及ぼす。
単純に文書内に既に存在するテキストの使用を通じて、システムの多くの側面が可能となる。しかしながら、システムと連動して使用され得る知識のもとに文書が作り出される場合、特別なマークの形態で余分の情報を印刷することにより、余分の機能性を追加してもよく、これを使用してテキストまたは要求されたアクションをより密接に識別することができ、またはシステムとの文書のインタラクションを強化することができる。最も単純かつ最も重要な例は、文書がシステムを通じて確かにアクセス可能であるという読者への表示である。例えば、この文書はそれに関連するオンラインディスカッションフォーラムを有するということを示すために、特別なアイコンを使用してもよい。
印刷された文書への所有またはそれへのアクセスが、ユーザにある一定の特権、例えば文書の電子コピーまたは追加資料へのアクセス等を与えるであろう状況がいくつかある。説明したシステムを使用すると、該当する特権は、ユーザが単純に文書からテキストの一部を取得した、または特別に印刷されたシンボルをスキャンした結果として付与されることができる。ユーザが文書全体を所有していたことをシステムが確認する必要がある場合、特定のページから特定の項目またはフレーズ、例えば「46ページ2行目」をスキャンするよう、ユーザに促すかもしれない。
印刷された文書が余分の資料および機能性へのゲートウェイである場合、該当する特徴へのアクセスも期限付きである場合がある。有効期限後、ユーザはその特徴に再度アクセスするために、手数料を支払うか文書の新版を取得することを要求される場合がある。当然ながら、紙の文書は依然として使用可能であるが、強化された電子機能性の一部を喪失してしまう。これは、例えば、電子資料へのアクセスに対する手数料を受け取る、またはユーザに時々新版を購入するよう要求することで発行者に利潤があるため、または、まだ流通している旧版の印刷された文書に関連する不都合があるため、望ましい場合がある。クーポンは、有効期限を有し得る商業文書のタイプの例である。
第10.5項では、著者への報酬と広告価格に影響する、システムの統計の使用について論じる。
説明したシステムの重要な側面は、文書のレンダリングされたコピーにアクセスできるユーザに、当該文書の電子版へのアクセスを提供する能力である。文書は、ユーザがアクセスできるパブリックネットワークまたはプライベートネットワーク上で自由に利用できる場合がある。システムは、取得されたテキストを使用して文書を識別し、位置付け、かつ取り出し、場合によってはそれをユーザの画面に表示するか、またはユーザの電子メール受信箱へ預ける。
文書へのアクセスは、例えばユーザがセキュアなネットワークに接続されている場合、特別なユーザ、または特定の基準を満たすユーザ、に制限される場合があり、もしくは、ある一定の環境においてのみ利用可能な場合がある。第6項では、ユーザおよびスキャナの証明書が確立され得る手法のいくつかについて説明している。
一般の人々には自由に利用できない文書は、多くの場合、発行者または著作権保持者への報酬として、手数料を支払うことによってアクセス可能であり続ける場合がある。システムは、支払い機能を直接的に実装するか、または、第6.2項で説明したものを含む、ユーザに関連する他の支払い方法を活用することができる。
電子文書は一時的なものである場合が多く、レンダリングされた文書のデジタルソース版は、現在は利用可能であるが、将来はアクセス不可能となる。システムは、ユーザがそれを要求していない場合であっても、ユーザに代わって現行版を取り出し、格納することができ、したがって、ユーザが将来それを要求するはずのアベイラビリティを保証する。これは、システムの使用、例えば、将来の取得を識別するプロセスの一部として検索するためにもそれを利用可能にする。
支払いは、ユーザの現存する別のアカウントまたはサブスクリプションとの関連付けに基づいて、放棄、削減または充足される場合がある。例えば、新聞の印刷版へのサブスクライバは、自動的に電子版を取り出す権利を与えられるかもしれない。
紙の文書からテキストを取得し、電子オリジナルを識別し、当該オリジナル、または取得と関連する当該オリジナルの一部を印刷するプロセスは、以下のような多くの利点を持つ従来の写真式複写の代替を形成する;
紙の文書は最終プリントアウトと同一のロケーションにある必要はなく、いかなる場合でも同時にそこにある必要はない;
写真式複写プロセスによって文書、特に古く、脆弱で貴重な文書に生じた磨耗および損傷は、回避され得る;
一般にコピーの質がずっと高い;
どの文書、または文書のどの部分が最も頻繁にコピーされているかについて記録に留めることができる;
プロセスの一部として、著作権保有者に支払いが行われる場合がある。
法律文書、もしくは歴史的または他の特別な意義を有する文書の場合等、文書が特に貴重な場合、人々は一般に、多くの場合何年もの間、それらの文書のコピーを使い、一方、オリジナルは安全な場所に保管しておく。
光学式文字認識(OCR)技術は従来、例えばページ全体を取得するフラットベッドスキャナ等による、大量のテキストを含む画像に焦点を当ててきた。OCR技術は、多くの場合、有用なテキストを作り出すためにユーザによる相当な訓練および補正を必要とする。OCR技術は多くの場合、OCRを行う機械に相当な処理能力を要求し、一方、多くのシステムは辞書を使用し、それらは概して事実上無限の語彙について動作すると予期される。
説明したシステムとともに使用するためのスキャン装置は、多くの場合小型で、携帯型で、かつ低電力であろう。スキャン装置は、一度に数単語しか取得できず、いくつかの実装においては、一度に文字全体どころか、テキストを横断する水平スライスを取得することさえできず、該当するスライスは、テキストを推測できる認識可能な信号を形成するために綴じられているものである。スキャン装置は、極めて限られた処理能力または記憶領域等を有する場合もあり、一方、いくつかの実施形態においては、OCRプロセス自体のすべてを実行することができ、多くの実施形態は、場合によっては後で、取得した信号をテキストに変換するための、より強力なデバイスへの接続に依存するであろう。最後に、スキャン装置は、ユーザインタラクションのための極めて限られた機能を有する場合があり、そのため、いかなるユーザ入力の要求も後に延期する、または、現在一般的であるよりも大いに「最良推定」モードで動作する必要がある。
説明したシステム内のOCRの主な新しい特性は、一般に、どこか別の場所に存在するテキストの画像を調べ、これをデジタル形態で取り出すことができるという事実である。テキストの正確な転写は、したがって常にOCRエンジンから要求されるとは限らない。OCRシステムは、場合によっては確率加重を含む、考えられる一致のセットまたはマトリクスを出力することができ、デジタルオリジナルを検索するためにこれをまた使用することができる。
認識を実行するデバイスが、処理時に文書インデックスと接触できる場合、OCRプロセスは、それが進行するにつれて文書集合のコンテンツにより知らされることができ、実質的により高い認識精度を提供する可能性がある。
システムが文書の起こりそうな印刷レンダリングの側面についての知識を有する場合―例えば、印刷に使用されるフォント書体、またはページのレイアウト、またはどの項がイタリック体になっているか等―これも認識プロセスにおいて助力となり得る。(第4.1.1項)
9.5.フォントキャッシュ‐ホスト上でフォントを決定する、クライアントにダウンロードする
文書集合内の候補ソーステキストが識別されると、フォントまたはそのレンダリングは認識を助けるためにデバイスへダウンロードされることができる。
テキストフラグメントのコンポーネント文字は、文書署名として使用されるテキストのフラグメントを表すための最も評価されている手法であり得るが、テキストフラグメントの実際のテキストが使用される必要がないテキストのその他の表示は、デジタル文書および/またはデータベースにおいてテキストフラグメントの位置を特定しようとする際、もしくはテキストフラグメントの表示を可読形態にして明確にする際に、十分よく作用することができる。テキストフラグメントの他の表示は、実際のテキストが不足を表す利益を提供することができる。例えば、テキストフラグメントの光学式文字認識は、フラグメント全体の光学式文字認識に頼ることなくテキストフラグメントを検索および/または再作成するために使用され得る、取得されたテキストフラグメントのその他の表示とは異なり、多くの場合エラーを起こしやすい。該当する方法は、現在のシステムで使用されているいくつかのデバイスにより適切である場合がある。
従来のテンプレートマッチングOCRは、スキャンされた画像を文字画像のライブラリと比較する。要するに、アルファベットは各フォントで格納され、新しくスキャンされた画像は一致する文字を見つけるために格納された画像と比較される。プロセスは、概して、正しいフォントが識別されるまで初期遅延を有する。ほとんどの文書が初めから終わりまで同一のフォントを使用するため、その後のOCRプロセスは比較的迅速である。したがって、その後の画像は、最近識別されたフォントライブラリとの比較によってテキストに変換されることができる。
検索プロセスにおいて、画像を使用に適合する形態に機械転写できない場合、後にユーザが使用するため、考えられる手動転写のため、または、後に異なるリソースがシステムに利用可能になった際に処理するために、画像自体を保存することができる。
システムによって可能になるアクションの多くは、結果として何らかの商取引を引き起こす。システムを介して紙から開始される商業活動を説明するために、本明細書では「Pコマース」というフレーズを使用する。
ユーザが文書からテキストを取得した場合、ユーザは当該文書を紙または電子形態のいずれかで購入するよう提案される場合がある。ユーザは、紙の文書において引用または言及されたもの、または同様のサブジェクトもの、または同一の著者によるものといった関連文書を提供される場合もある。
テキストの取得は、他の商業活動と様々な手法でリンクされている場合がある。取得されたテキストは、アイテムを販売するために明確にデザインされているカタログ内にあってよく、この場合、テキストはアイテムの購入とかなり直接的に関連しているであろう(第18.2項)。テキストは広告の一部であってもよく、この場合、広告されているアイテムの販売が結果として起こり得る。
テキストまたはシンボルが、実際にアイテムまたはその包装に印刷されている場合がある。例としては、電子機器の後部または底面にあるラベル上に見られる製造番号または製品IDが挙げられる。システムは、当該テキストを取得することにより、1つ以上の同一アイテムを購入するための便利な手法をユーザに提案することができる。また、マニュアル、サポート、または修理サービスが提供されることもある。
広告からのテキストの直接取得に加えて、システムは、レンダリングされた文書において必ずしも明確ではないが、人々が読んでいるものに基づいた新しい種類の広告を可能にする。
従来の紙の発行物において、広告には概して新聞記事のテキストと比較して大幅なスペースを費やし、限られた数のそれらが配置されるのは特定の記事の周辺である。説明したシステムにおいて、広告は個別の単語またはフレーズと関連してよく、当該テキストを取得すること、および場合によっては過去のスキャンの履歴を考慮することによって、ユーザが示した特定の関心に従って選択されてよい。
システムは、自身が使用するためのユーザコンテキストの他の側面についての大量の情報を収集しており(第13項)、ユーザの地理的位置の推定値がよい例である。該当するデータを使用して、システムのユーザに対して提示される広告を調整することもできる。
システムは、広告主および販売業者への報酬の新しいモデルをいくつか可能にする。広告主を含む、印刷された文書の発行者は、文書から発生した購入からいくらかの収入を受け取ることができる。これは、元の印刷された形態で存在する広告であってもなくても真実であってよく、発行者、広告主またはある第三者のいずれかによって電子的に追加されたものであってよく、該当する広告のソースはユーザがサブスクライブしたものであってよい。
システムによって発生した統計の解析は、発行物のある部分の人気を示すことができる(第14.2項)。例えば、新聞において、システムは、特定のページまたは記事を見るのに読者が費やしている時間、もしくは特定のコラムニストの人気を示すかもしれない。状況次第で、著者または発行者にとって、書かれた単語または配布されたコピーの数等のもっと従来の評価指数よりも、読者のアクティビティに基づいて報酬を受け取ることが適切である場合がある。あるサブジェクトについてのその著作物が頻繁に読まれる権威となりつつある著者は、将来のサブスクライブでは、同一数のコピーを販売したがめったに開かれない著者とは違うと考えられるかもしれない。(第7.6項も参照のこと)
10.5.2.人気ベースの広告
文書における広告についての決定は、読者層についての統計に基づくものであってもよい。最も人気のあるコラムニストの周辺の広告スペースは、割増料金で販売される場合がある。広告主は、文書が発行された後、それがどのように受け取られたかについての知識に基づいて、何度か請求される、または報酬を支払われることさえあるかもしれない。
第6.1および16.1項で説明した「ライフライブラリ」またはスキャン履歴は、ユーザの関心および習慣についての極めて価値のある情報のソースであってよい。適切なコンテンツおよびプライバシーの問題に適用させて、該当するデータは商品またはサービスの提供をユーザに知らせることができる。匿名の形態であっても、収集された統計は非常に有用となり得る。
広告および他の商取引の機会は、テキスト取得時、直ちにユーザに提示されない場合がある。例えば、小説の続編を購入する機会はユーザが小説を読んでいる時に利用可能となり得ないが、システムは続編が発行される当該機会をユーザに提示することができる。
現代のオペレーティングシステム(OS)および他のソフトウェアパッケージは、説明されたシステムの使用に有利に利用されることができる。多くの特性を有し、その使用のためにより良いプラットフォームを提供するために様々な手法で修正してもよい。
現在およびこれからのファイルシステム、ならびにそれらの関連データベースは、多くの場合、各ファイルに関連する様々なメタデータを格納する能力を有する。従来、このメタデータは、ファイルを作成したユーザのID、作成日時、最終修正、および最終使用等を含んでいた。より新しいファイルシステムは、キーワード、画像特性、文書ソース、および格納されるユーザコメント等の余分の情報を可能にし、いくつかのシステムにおいて、このメタデータは恣意的に拡張されることができる。したがって、ファイルシステムを使用して、現在のシステムを実装するのに有用となり得る情報を格納することができる。例えば、説明したシステムを使用してどのテキストが、いつ、および誰によって紙から取得されたかについての詳細のように、ある文書が前回印刷された日時はファイルシステムによって格納されることができる。
取得装置の適用性は単一のソフトウェアアプリケーションを超えて拡張しているため、ペンスキャナ等の取得装置の使用が増加するにつれて、マウスおよびプリンタへのサポートが提供されたのとほぼ同一の手法で、それらのオペレーティングシステムへのサポートを築くことが望ましくなるであろう。システムの動作の他の側面に関しても、同じことが言えるであろう。以下に例をいくつか挙げる。いくつかの実施形態において、説明したシステムの全体、またはそのコアは、OSによって提供される。いくつかの実施形態において、システムのサポートは、システムの側面を直接的に実装するものを含む他のソフトウェアパッケージにより使用され得るアプリケーションプログラミングインターフェース(API)によって提供される。
レンダリングされた文書からテキストを取得する方法のほとんどは、ソースデータ、一般にスキャンされた画像または何らかの話された言葉を、システムにおいて私用するのに適合するテキストとして解釈するために、何らかの認識ソフトウェアを必要とする。過去においてOCRの使用は一般に狭い範囲のアプリケーションに限られていたため、OSがOCRのサポートを含むことはあまり一般的でないが、一部のOSは、スピーチまたは手書き文字認識のサポートを含む。
光学スキャンまたは他の取得が発生し、OSに対して提示された場合、取得の所有権を請求するサブシステムが他にないイベントにおいて、そのような状況でとられるデフォルトアクションを有する場合がある。デフォルトアクションの例としては、代替の選択肢をユーザに提示すること、または、取得したテキストを検索機能に内蔵されたOSにサブミットすることが挙げられる。
第12.1.3項では、特に光学スキャンの場合における「ジェスチャ」の使用について論じており、ここで、携帯用スキャナによって行われる特定の動きはテキストの領域の開始および終了をマーキングする等の標準アクションを表すかもしれない。
同様に、テキストのある一定のアイテムおよび他のシンボルは、スキャンされる際に標準アクションを引き起こすことができ、OSはこれらの選択を提供することができる。例としては、いかなる文書におけるテキスト「[印刷]」のスキャンも、OSに当該文書のコピーを取り出し印刷させるだろうということが挙げられるかもしれない。OSは、該当するアクションを登録し、それらを特定のスキャンと関連付けるための手法を提供することもできる。
ほとんどのソフトウェアアプリケーションは、実質的に、OSによって提供される標準的なグラフィカルユーザインターフェースコンポーネントに基づく。
システムの一般的な使用は、ユーザが紙の文書のあるエリアをスキャンすること、ならびに、システムがそれを表示または編集できるソフトウェアパッケージにおいて電子副本を開き、スキャンされたテキストを当該パッケージにスクロールおよびハイライトさせることであってよい(第12.2.1項)。このプロセスの第1の部分、電子文書を見つけて開くことは一般にOSによって提供され、ソフトウェアパッケージにわたって標準である。しかしながら、第2の部分―文書内においてテキストの特定の一部分の位置を特定し、パッケージにそれをスクロールおよびハイライトさせること―は未だ標準化されておらず、パッケージごとに異なる実装をされていることが多い。この機能性に関する標準APIのアベイラビリティは、システムのこの側面の操作を大幅に強化することが可能である。
テキストの一部分が文書内において位置付けられると、システムは当該テキストにおいて様々な操作を実行することを望む場合がある。例として、システムは周囲のテキストを要求する場合があり、そのため、ユーザによる数単語の取得は結果としてシステムにそれらを含む文または段落全体へアクセスさせる可能性がある。ここでも、この機能性は、テキストを扱うソフトウェアの全部において実装されるのではなく、OSによって有効に提供され得る。
システムによって可能になる操作のいくつかはユーザフィードバックを要求し、これはデータを扱うアプリケーションのコンテキスト内において任意で要求される場合がある。いくつかの実施形態において、システムは、従来は同一のテキストにおいて右マウスボタンをクリックすることに関連するアプリケーションポップアップメニューを使用する。システムは、該当するメニューに余分のオブションを挿入し、それらを紙の文書のスキャン等のアクティビティの結果として表示させる。
次第にネットワーク化されている今日の世界では、個別の機械において利用可能な機能性のほとんどにネットワーク上でアクセスすることもでき、説明したシステムに関連する機能性も例外ではない。例として、オフィス環境においては、ユーザが受け取った多くの紙の文書は同一の企業ネットワーク上にある他のユーザの機械によって印刷されたものである場合がある。1つのコンピュータ上のシステムは、取得を受けて、適切な許可制御を適用し、当該取得に対応し得る文書用にそれらの他の機械をクエリーすることができる。
紙とデジタル文書の統合において重要なファクタは、両者の間の取引についてできる限り多くの情報を保持することである。いくつかの実施形態において、OSは、あらゆる文書がいつ誰によって印刷されたかを簡単な記録に留める。いくつかの実施形態において、OSは、システムによる使用により適したものにする1つ以上のアクションをさらに行う。例として以下のものが挙げられる。
将来スキャン解釈の助力となるかもしれない印刷版についての有効な情報―例えば使用されたフォントおよび改行が生じる場所―のサブセットを保存する;
あらゆる印刷されたコピーに関連するソース文書の版を保存する;
印刷時に自動的に文書のインデックス作成をし、将来の検索のために結果を格納する。
OSは多くの場合、特定の意義を有するある一定のカテゴリのフォルダおよびファイルを保持している。ユーザの文書は、仕様およびデザインによって、例えば「マイドキュメント」フォルダ内で見つかる。標準ファイルオープンダイアログは、最近開かれた文書のリストを自動的に含むことができる。
システムの重要な側面は一般に第5項で論じた「マークアップ」概念を使用して提供されるため、OS自体に加えて複数のアプリケーションにアクセス可能な手法でOSによって提供される該当するマークアップのサポートを有することは明らかに有利であろう。また、マークアップの層は、その制御下における文書についての知識および提供可能な機能に基づいて、OSによって提供されることができる。
増えつつあるオペレーティングシステムは、何らかの形で「デジタル権利管理」、つまり、特定のユーザ、ソフトウェアエンティティ、または機械に付与された権利に従って特定のデータの使用を制御するための能力をサポートしている。それにより、例えば権限のないコピーまたは特定の文書の配布を阻止することができる。
システムのユーザインターフェースは、取得装置が比較的ダムでありケーブルによってそれに接続されている場合には完全にPC上にあってよく、または、それが高性能でありそれ自体が大きな処理能力を持つ場合には完全にデバイス上にあってよい。何らかの機能性が各コンポーネントに備わっている場合がある。システムの機能性の一部または全部が、携帯電話またはPDA等の他のデバイス上で実装される場合もある。
すべての取得装置について、しかし特に光学スキャナの場合、スキャン時のユーザの注意は概してデバイスおよび紙に注がれるであろう。そこで、スキャンプロセスの一部として必要とされるいかなる入力およびフィードバックも、ユーザの注意がどこか、例えばコンピュータの画面上にあることを必要以上に要求しないことが極めて望ましい。
携帯型スキャナは、特定の状況についてユーザにフィードバックを提供する様々な手法を有することができる。最も明らかなタイプは、スキャナがインジケータライトまたはフルディスプレイまで組み込む直接視覚的なもの、およびスキャナがビープ音、クリック音、または他の音を鳴らすことができる聴覚的なものである。重要な代替としては、スキャナが振動したり、ブンブンうなったり、またはユーザの触覚を刺激したりできる触覚フィードバック、および高性能のディスプレイへの光の有色点から何かを紙に投影することによりステータスを示す投影フィードバックが挙げられる。
十分なコンテンツ―存在する場合、一致するものを見つけるために十分なスキャンが行われた―非接続操作に重要;
既知のコンテキスト位置を特定されたテキストのソース;
既知の固有コンテキスト位置を特定されたテキストの1つの固有ソース;
コンテンツのアベイラビリティ―コンテンツがユーザに自由に利用可能か、または費用がかかるかの表示;
通常システムの後の段階に関連するユーザインタラクションの多くは、例えば文書の一部または全部を表示するための十分な能力を有する場合、取得装置において行われることもできる。
デバイスは、基本的なテキスト取得に加えて、入力を提供するための様々な手法をユーザに提供することができる。デバイスが、キーボードおよびマウス等の入力オプションを有するホストマシンと密接に関連している場合であっても、ユーザが例えばスキャナを操作することとマウスを使用することとの間で切り替えるのに混乱を生じさせる場合がある。
紙全体にわたってスキャナを移動させる主な理由はテキストを取得することであるが、いくつかの動きはデバイスによって検出され、ユーザの他の意図を示すために使用されることができる。該当する動きを、本明細書においては「ジェスチャ」と称する。
システムの多くの側面は、スキャナとラップトップ型ホストコンピュータ等のシステムのコンポーネント間の、または企業データベースおよびインターネット検索との接続の形態で外部との、いずれかのネットワーク接続性に依存する場合がある。しかしながら、この接続性は常に存在することはできず、したがってシステムの一部または全部が「オフライン」であると見なされる場合もあるということになる。システムがそれらの状況で有効に機能し続けられるようにすることが望ましい。
スキャナは多くの場合、ユーザとのより詳細なインタラクションを含むシステムの機能の多くを実行するために、PC、PDA、電話、またはデジタルカメラ等、他の何らかのデバイスと通信を行うであろう。
取得を受け取ると、ホストデバイスは様々なアクティビティを開始することができる。位置を特定した後にシステムによって実行される可能なアクティビティのリスト、ならびに、取得および当該文書内のロケーションに関連する電子副本を以下に挙げる。
ローカル記憶領域またはリモートロケーションから文書を取り出すことができる。(第8項)
オペレーティングシステムのメタデータおよび文書に関連する他の記録を更新することができる。(第11.1項)
次の関連操作を判定するために、文書に関連するマークアップを調べることができる。(第5項)
文書においてソフトウェアアプリケーションを編集、ビュー、または操作開始することができる。アプリケーションの選択は、ソース文書、またはスキャンのコンテンツ、または取得の他の何らかの側面に依存する場合がある。(第11.2.2、11.2.3項) アプリケーションは、取得のロケーションへスクロール、そこをハイライト、挿入ポイントをそこへ移動、またはそこを表示することができる。(第11.3項)
取得されたテキストの正確な範囲は、例えば、取得されたテキストの周囲の単語、文、または段落全体を選択するように修正されることができる。(第11.3.2項)
取得テキストをクリップボードにコピーするため、もしくは、他の標準的なオペレーティングシステムまたはその上でのアプリケーション固有の操作を実行するためのオプションをユーザに与えることができる。
ユーザが選択するための将来可能な操作のセットを判定するために、マークアップを調べることができる。
システムによってとられる適切なアクションは、明らかな場合もあるが、ユーザによって行われる選択を必要とする場合もある。これを行うための1つの良い手法は、「ポップアップメニュー」の使用によるもの、または、コンテンツが画面にも表示されている場合には、コンテンツ付近に現われるいわゆる「コンテキストメニュー」を使用するものである(第11.3.3項を参照)。いくつかの実施形態において、スキャナ装置は紙の文書にポップアップメニューを投影する。ユーザは、キーボードおよびマウス等の従来の方法を使用して、または取得装置の制御(第12.1.2項)、ジェスチャ(第12.1.3項)を使用して、またはスキャナを使用してコンピュータディスプレイと情報をやりとりすることによって(第12.2.4項)、該当するメニューを選択することができる。いくつかの実施形態において、取得の結果として現われ得るポップアップメニューは、ユーザが応答しない場合―例えば、ユーザがメニューを無視し、別の取得を行った場合―に生じるアクションを表すデフォルト項目を含む。
ユーザがテキスト取得を開始すると、始めはいくつかの文書または一致しそうな他のテキストロケーションがあるであろう。テキストの取得が進んで他のファクタが考慮に入れられると(第13項)、候補ロケーションの数は実際のロケーションが識別されるまで減少し、またはさらなる曖昧性の除去はユーザ入力なしには不可能である。いくつかの実施形態において、システムは、例えばリスト、サムネイル画像、またはテキストセグメント形態で、見つかった文書またはロケーションのリアルタイム表示を、および取得が継続するにつれて数を減少させるため、当該ディスプレイ内の要素の数を提供する。いくつかの実施形態において、システムはすべての候補文書のサムネイルを表示し、ここでサムネイルのサイズまたは場所は、それが正しい一致であるという可能性に依存する。
いくつかの光学スキャナは、紙の上に加えて、画面上に表示されたテキストを取得することができる。したがって、レンダリングされた文書という用語は、本明細書においては、紙への印刷がレンダリングの唯一の形態ではないこと、および、システムによって使用するためのテキストまたはシンボルの取得は、電子ディスプレイ上に当該テキストが表示された際と等しく価値があり得ることを示すために使用される。
説明したシステムの重要な側面は、使用中の文書を識別するのを助けるための、テキストの文字列の単純な取得以外のファクタの使用である。適量のテキストの取得は、多くの場合、文書を一意に識別することができるが、多くの状況において識別するのは少数の候補文書である。1つの解決策は、スキャンされている文書を確認するようユーザに促すことであるが、好ましい代替は、可能性を自動的に絞り込むために他のファクタを活用することである。該当する補足情報は、取得される必要があるテキストの量を劇的に削減し、かつ/または、電子副本内においてロケーションを識別できる信頼性および速度を高めることができる。この余分の資料を「コンテキスト」と称し、これについては第4.2.2項で簡単に論じた。ここではそれをさらに深く考察する。
おそらく、該当する情報の最も重要な例は、ユーザの取得履歴である。
有用なコンテキストの別の例は、ユーザの地理的位置である。例えば、パリにいるユーザは「Seattle Times」よりも「Le Monde」を読む傾向が強い。したがって、文書の印刷版のタイミング、サイズ、地理的配布が重要となる場合があり、システムの操作からある程度の推定が可能である。
より従来の手段により検索または取り出しされたものを含み、電子文書のユーザによる最近の使用も役立つインジケータとなり得る。
企業ファイルサーバ上で最近修正されたのはどの文書か
最近電子メールで送られたのはどの文書か
これらの例はすべて、ユーザがそれらの文書の紙版を読んでいる可能性が高いことを示唆しているかもしれない。対照的に、文書が備わっている収納庫が、その文書が印刷されたことがない、または、印刷されるかもしれない場所へ送信されたことがないと断言することができる場合、紙から発生するいかなる検索においても安全に削除されることができる。
第14項では紙ベースの検索から結果として生じるデータストリームの解析について取り上げているが、本明細書において、他の読者への文書の人気について、人気のタイミングについて、および最も頻繁にスキャンされる文書の部分についての統計はすべて、検索プロセスにおいて有益となり得るさらなるファクタの例であることに留意すべきである。システムは、紙の世界にGoogleタイプのページランキングの可能性をもたらす。
システムの使用は、副次的な結果として非常に価値のあるデータストリームを発生させる。このストリームは、ユーザがいつ何を読んでいるかについての記録であり、多くの場合、ユーザが読んだものの中で特に価値があると感じるものについての記録である。該当するデータは、紙の文書について以前は実際に利用可能ではなかった。
ある任意のユーザがどの文書を読んでいるかシステムが知っている場合、ある任意の文書を誰が読んでいるかをシステムが推測することもできる。これにより、例えば、誰がいつそれを読んでいるか、どの程度広範にわたって配布されたか、配布にどのくらい時間がかかったか、および、誰が現在版を見ていて、誰が未だ旧版のコピーを使っているかの解析を可能にするための、組織を通じた文書の追跡が可能になる。
ユーザが特に関心のあるテキストまたは他のデータを取得している状況において、システムは、ある文書およびそれらの文書の特定のサブ領域の人気を推測することができる。これは、システム自体に対し価値のある入力(第4.2.2項)、ならびに、著者、発行者、および広告主にとって重要な情報ソース(第7.6項、第10.5項)を形成する。このデータは、検索エンジンおよび検索インデックスに統合されている―例えば、レンダリングされた文書から生じるクエリーの検索結果のランキングを助力するため、および/または、ウェブブラウザに打ち込まれた従来のクエリーをランキングするのを助力するため―場合にも有用である。
ユーザが何を読んでいるかという知識は、システムが、ユーザの関心およびアクティビティの極めて詳細なモデルを作成することを可能にする。これは、抽象的な統計的基礎―「この新聞を買うユーザの35%は当該著者の最新本も読む」―において有用であり得るが、以下で論じるような個人ユーザとの他のインタラクションも可能にする。
例を1つ挙げると、1人のユーザを、関連の関心を有する他のユーザと接続するというものである。これらは、ユーザにとって既知の人々であってよい。システムは、大学教授に「XYZ大学のあなたの同僚もこの新聞を読んだばかりだということを知っていましたか」と尋ねることができる。システムは、ユーザに「近隣で”Jane Eyre”を読んでいる他の人とリンクすることを希望しますか」と尋ねることができる。該当するリンクは、物質世界またはオンラインのいずれかにおいて、ブッククラブまたは同様の社会構造の自動形成の基礎となり得る。
第10.6項では、製品およびサービスを、それらのシステムとのインタラクションに基づいて、個人ユーザに提供するという考えについて既に述べた。例えば、現在のオンライン書籍販売業者は、多くの場合、ユーザの前回の書籍販売業者とのインタラクションに基づいてユーザに推薦を行う。該当する推薦は、それらが実際の本とのインタラクションに基づいたものである場合に、よりいっそう有用となる。
システムが、文書を発行する人々、それらを通じて広告をする人々、および紙から開始される他の販売に影響を及ぼし得る、いくつかの手法について論じてきた(第10項)。一部の商業活動は、紙の文書との直接的なインタラクションを全く持たないが、それにも関わらずそれらから影響を受ける場合がある。例えば、ある1つのコミュニティにいる人々は、経済面よりもスポーツ面を読むのに時間を費やすという知識は、ヘルスクラブを設立しようとしている誰かにとっては関心のあるものかもしれない。
どの文書のどの部分を誰がいつどこで読んでいるか等の論じた統計に加えて、文書の位置が特定されたか否かにかかわらず、取得されたテキストの実際のコンテンツを調べることも関心を集める場合がある。
システムで使用する取得装置は、レンダリングされた文書からテキストを取得する手法を必要とするにすぎない。前述したように(第1.2項)、この取得は、文書の一部の写真を撮影すること、および、いくつかの単語を携帯電話キーパッドに打ち込むことを含む様々な方法によって実現できる。この取得は、1〜2行のテキストを同時に記録できる小型携帯用光学スキャナ、または、ユーザが文書からテキストを読み込むボイスレコーダ等の音声取得装置を使用して実現できる。使用されるデバイスは、これらの組み合わせ―例えば、ボイス注釈も記録できる光学スキャナ―であってよく、取得機能性は、携帯電話、PDA、デジタルカメラ、または携帯音楽プレーヤー等の他のデバイスに内蔵されてもよい。
該当するデバイスのための、場合によっては有益となる追加の入力および出力機能の多くについて、第12.1項で説明した。それらは、入力用のボタン、スクロールホイールおよびタッチパッド、ならびに、出力用のディスプレイ、インジケータライト、音声および触覚変換器を含む。デバイスがそれらのうちの多くを組み込む場合もあれば、極めて少ない場合もあるであろう。時に取得装置は、例えば無線リンクを使用して、既にそれらを有する別のデバイスと通信を行うことができるであろうし(第15.6)、時に取得機能性は、該当する他のデバイスに組み込まれるであろう(第15.7項)。
いくつかの実施形態において、デバイスは、システム自体の大部分を実装する。しかしながら、いくつかの実施形態において、多くの場合デバイスは、PCまたは他のコンピュータ機器と、および通信設備を使用してより広範な世界と通信を行う。
第3.5および12.1.4項では、非接続操作のトピックを取り上げた。取得装置がシステムの全機能性の限られたサブセットしか有しておらず、システムの他の部分と通信を行っていない場合、利用可能な機能性は削減される可能性があるが、デバイスは依然として有用であり得る。最も単純なレベルでは、デバイスは取得されている生画像または音声データを記録することができ、これは後に処理されることができる。しかしながら、ユーザの利益のためには、可能であれば、取得されたデータは進行中のタスクに十分でありそうか、それは識別されることができる、または識別可能でありそうか、および、データのソースは識別されることができる、または後に識別可能でありそうか、についてフィードバックを与えることが重要である。その後ユーザは、それらの取得アクティビティが有意義なものか否かを知るであろう。上記の事柄すべてが不明の場合であっても、ユーザが後にそれらを参照することができるように、最低限でもやはり生データを格納することができる。例えばOCRプロセスによってスキャンを認識することができない場合、ユーザにスキャンの画像が提示される場合がある。
SimpleScannerは、テキスト行に沿って移動するときにページからピクセルを読み込むことができる、スキャンヘッドを有する。SimpleScannerは、そのページに沿った動きを検出すること、およびその動きに関するいくつかの情報を有するピクセルを記録することができる。また、クロックを有し、それぞれのスキャンをタイムスタンプすることができる。SimpleScannerが接続性を有する場合、クロックはホスト装置と同期する。クロックは実際の時刻を表すことができないが、ホストが、スキャンの実際の時間、または最悪の場合でも、スキャン間の経過時間を導き出すことができるように、実際の時間から相対的時間を判断することが可能である。
SuperScannerも、その完全な動作のための接続性に依存するが、オフラインの間に取得されたデータに関してのより良い判断を助力できる、大量のオンボードの記憶装置および処理を有する。
以下、特に光スキャナ装置に望ましいとされるいくつかの機能を考察する。
紙が継続的に普及している理由の1つは、例えばコンピュータが非実用的または不便であるような様々な状況での使用が容易だからである。したがって、ユーザの情報のやりとりの本質的部分を紙によって取得しようとする装置は、同じように使用時に便利でなければならない。これは、過去にスキャナには無かった事例である。最も小型の携帯型装置でさえ、幾分扱いにくかった。ページと接触することを目的としたスキャナは、紙に対して正確な角度で保持しなければならず、またスキャンするテキストに沿って非常に慎重に移動させる必要がある。これは、オフィスの机上でビジネスレポートをスキャンする場合には許容できるが、電車を待っている間に小説からフレーズをスキャンする場合には非実用的である。紙から少し離れて操作する、カメラタイプの光学系をベースにしたスキャナは、状況によっては同じく有用となりうる。
6項にて説明したように、取得装置は、安全な取引、購入、および様々な他の工程に対する識別および承認の重要な部分を形成する場合がある。したがって、取得装置は、当該の役割に必要な回路およびソフトウェアに加えて、装置をより安全にできる、スマートカードリーダ、RFID、またはPINを入力するためのキーパッドのような様々なハードウェア機能を組み込むことが可能である。
いくつかの実施形態では、デバイスは、それ自体の、またはそれらの機能を向上させるために、他の隣接するデバイスとの関連付けを形成することができる。いくつかの実施形態では、例えば、デバイスは、その操作に関するより詳細なフィードバックを提供するために、隣接するPCのディスプレイまたは電話器を使用するか、あるいはネットワーク接続を使用する。一方で、デバイスは、他のデバイスによって実行される動作を認証するために、デバイスのセキュリティおよび識別装置としての役割における動作を行うことが可能である。または、単純にそのデバイスの周辺機器として機能するように関連付けることが可能である。
いくつかの実施形態では、取得装置の機能は、すでに使用中のいくつかの他のデバイスに統合される。統合装置は、電源、データ取得および記憶機能、およびネットワークインターフェースを共有できるようにすることが可能である。当該の統合は、コストの削減、またはそれ以外ならば利用できない機能を有効にするために、便宜上単純に行うことが可能である。
PDA、MP3プレーヤ、音声記録装置、デジタルカメラまたは携帯電話のような別の処理/記憶装置;
腕時計、宝石、ペン、自動車のキーのフォブなどの、他の便宜上しばしば持ち運ぶアイテム。
統合の利点の一例として、取得装置として改良された携帯電話の使用を考察する。
この項では、意ステムおよびシステムに組み込むことが可能なアプリケーションの使用例を挙げる。このリストは、単に例証を示すことを意図したものであり、網羅的な感覚のものではない。
16.1.ライフライブラリ
ライフライブラリ(6.1.1項も参照のこと)は、サブスクライバが保存を望むあらゆる重要な文書のデジタルアーカイブであり、また本システムの一組のサービスの実施形態である。重要な書籍、雑誌記事、新聞切り抜きなどは、すべてデジタル形式でライフライブラリに保存することができる。加えて、サブスクライバの注釈、コメント、および注記は、文書とともに保存することができる。ライフライブラリは、インターネット、および、ワールドワイドウェブを介して利用することができる。
ライフライブラリの概念のバリエーションまたは強化は「ライフセーバー」であり、システムは、それらの他のアクティビティについてさらに導き出すために、ユーザによって取得されるテキストを使用する。特定のレストランからメニューをスキャンする、劇場公演からプログラムをスキャンする、特定の駅の時刻表をスキャンする、または地方紙から記事をスキャンすることによって、システムは、ユーザのロケーションおよび社会活動について推理することができるようになり、例えばウェブサイトのような社会活動の自動的な日誌を構成することができる。ユーザは、日誌の編集および変更、写真などの追加資料の添付、および、当然ながら、スキャンしたアイテムを再び見ることができるようになる。
上述のシステムによってサポートされる携帯スキャナは、学問的な環境において必要不可欠であることが多い。携帯スキャナは、生徒/教師間の情報のやりとりを強化し、また学習体験を増大させることができる。他の使用の中で、生徒たち固有のニーズに適するように研究資料にコメントを付けることができる。教師は、教室での授業を監視することができる。また、教師は、生徒の課題に引用したソース資料を自動的に検証することができる。
子供と、本のような紙の文書との情報のやりとりは、本システムの特定の組の実施形態を用いた読解力習得システムによって監視する。子供は、読解力習得システムの他の要素と通信する携帯スキャナを使用する。携帯スキャナに加えて、読解力習得システムは、ディスプレイおよびスピーカを有するコンピュータ、およびコンピュータによってアクセス可能なデータベースを含む。スキャナは、コンピュータ(ハードワイアード、短距離RFなど)に接続される。子供が書籍内の未知の単語を調べる場合、子供はその単語をスキャナでスキャンする。一実施形態では、読解力習得システムは、スキャンされたテキストとそのデータベース内のリソースを比較して、その単語を識別する。データベースは、辞書、シソーラス、および/またはマルチメディアファイル(例、音声、グラフィックスなど)を含む。単語が識別された後で、システムは、コンピュータのスピーカを使用して、単語の発音およびその定義を子供に伝える。別の実施形態では、単語およびその定義は、読解力習得システムによってコンピュータのモニター上に示される。スキャンされた単語に関するマルチメディアファイルはまた、コンピュータのモニターおよびスピーカを介して再生することもできる。例えば、「Goldilocks and the Three Bears」を読んでいる子供が、「bear」という単語をスキャンした場合、システムは、その単語「bear」を発音し、熊に関する短い映像をコンピュータのモニター上に再生することが可能である。このように、子供は、書き言葉の発音を学習し、マルチメディアによる表示を介してその単語の意味を視覚的に教わる。
いくつかの実施形態では、システムは、個人用辞書をコンパイルする。読者が、新しい、興味のある、または特に有用である、あるいは特に問題となっている単語を調べる場合、読者はその単語を(その定義とともに)コンピュータファイルに保存する。このコンピュータファイルは、読者のパーソナライズされた辞書になる。この辞書は、概して一般的な辞書よりもサイズが小さいので、移動局または関連する装置にダウンロードすることができ、したがって、システムに直ちにアクセスできない場合であっても利用することができる。いくつかの実施形態では、個人用辞書のエントリは、適切な単語の発音を支援するための音声ファイル、およびその単語がスキャンされた紙の文書を識別する情報を含む。
五線譜の符号の配置は、テキスト行における文字の配置に類似している。本システムにおいてテキストを取得するための上述の同じスキャン装置を、楽譜の取得に使用することができ、既知の音楽作品に対する検索を構成する類似した処理によって、取得が発生した作品を認識できるようになり、次いで取り出すこと、再生することができるか、またはいくつかの更なるアクションのための基準とすることができる。
教師は、生徒の書類からテキストをスキャンし、スキャンしたテキストをシステムにサブミットすることによって、盗用を検出するために、またはソースを検証するためにシステムを使用することができる。例えば、生徒の書類における引用が、その生徒が引用したソースからのものであることを検証することを望む教師は、その引用部分をスキャンして、システムによって識別された文書のタイトルと、生徒が引用した文書のタイトルを比較することができる。同様に、システムは、生徒の原作としてサブミットされた課題からスキャンしたテキストを使用して、そのテキストが代わりにコピーされたものであるかどうかを明らかにすることができる。
いくつかの実施形態では、教科書からのテキストの取得は、生徒または職員を、さらに詳細な説明、更なる課題、その資料に関する生徒と職員との議論、過去の試験問題の関連する例、その主題の更なる読み込み、その主題の講義の記録、などとリンクする(7.1項も参照のこと)。
いくつかの実施形態では、システムは、外国語を教えるために使用される。例えば、スペイン語の単語のスキャンは、その英語での定義とともに、その単語をスペイン語で音読することになる場合がある。
特定のトピックを調査しているユーザは、印刷物またはスクリーン上の両方で各種の資料に遭遇する場合があり、そのトピックに関連するものとしていくつかの個人用アーカイブに記録することを望む場合がある。システムによって、この処理は、資料のいずれかの部分において短い語句をスキャンした結果として、自動的に行うことが可能であり、その主題に関する出版物への挿入に適した参考文献を作成することができる。
明らかに、商業活動は、本願明細書で述べられるほとんどすべての処理を行うが、ここでは2、3の明らかな収益の流れに重点を置く。
従来のインターネット検索エンジンは、一般に電子文書の無料検索を提供し、また、コンテンツプロバイダにもインデックス内にそれらのコンテンツを含むための支払い請求も行わない。いくつかの実施形態では、システムの操作および使用に関連して、システムは、ユーザへの支払い請求、および/またはサーチエンジンおよび/またはコンテンツプロバイダへの支払いを設けている。
需要者は、紙のカタログから購入を行うために、携帯スキャナを使用することができる。サブスクライバは、カタログを識別する情報をカタログからスキャンする。この情報は、カタログ、バーコード、またはカタログの別の識別子からのテキストである。サブスクライバは、サブスクライバが購入を望む商品を識別する情報をスキャンする。カタログの宛名ラベルは、カタログベンダーに対する、顧客を識別する識別番号を含むことが可能である。その場合は、サブスクライバはまた、この顧客識別番号をスキャンすることもできる。システムは、顧客の選択および顧客識別番号をベンダーに提供することによって、カタログでの購入を容易にするために、サブスクライバとベンダーとの間の仲介者としての役割を果たす。
消費者は、後の取り出しおよび使用のために、紙のクーポンをスキャンして、スキャナか、またはコンピュータのようなリモート装置にそのクーポンの電子コピーを保存する。電子記憶装置の利点は、消費者が紙のクーポンを持ち歩くという負担から開放されることである。更なる利点は、電子クーポンがあらゆるロケーションから取り出すことが可能なことである。いくつかの実施形態では、システムは、クーポンの有効期限を追跡すること、まもなく期限切れとなるクーポンに関して消費者に通知すること、および/または期限の切れたクーポンを記憶装置から削除することができる。クーポンの発行者に対する利点は、誰がそのクーポンを使用し、またいつどこでそれらが取得および使用されたのかに関して、より多くのフィードバックを受ける可能性である。
19.1.フォーム
システムは、紙の形態に対応する電子文書を自動ポピュレートするために使用することが可能である。ユーザは、紙の形態を一意に識別するいくつかのテキストまたはバーコードをスキャンする。スキャナは、隣接するコンピュータに、フォームのアイデンティティ、およびユーザを識別する情報を通信する。隣接するコンピュータは、インターネット接続を有する。隣接するコンピュータは、第1のデータベースのフォーム、およびスキャナのユーザに関する情報を有する第2のデータベース(サービスプロバイダのサブスクライバ情報データベースなど)を利用することができる。隣接するコンピュータは、第1のデータベースから紙の形態の電子版を利用し、第2のデータベースから得られたユーザの情報からフィールドのフォームを自動ポピュレートする。隣接するコンピュータは、次いで完成したフォームを、対象とする受信者に電子メールで送る。別様には、コンピュータは、完成したフォームを隣接するプリンタで印刷することができる。
システムは、紙の文書から電子アドレス帳または他の連絡先リストを自動的にポピュレートするために使用することができる。例えば、新しい知人の名刺を受信すると、ユーザは、自分の携帯電話でカードの画像を取得することができる。システムは、カードの電子コピーの位置を特定し、携帯電話のオンボードのアドレス帳を、新しい知人の連絡先で更新するために使用することができる。電子コピーは、新しい知人に関して、1枚の名刺に詰め込むことができる情報よりも、多くを含むことが可能である。さらに、オンボードのアドレス帳は、電子コピーへのあらゆる変更が、携帯電話のアドレス帳において自動的に更新されるように、電子コピーへのリンクを格納することも可能である。この例では、名刺は、状況に応じて、電子コピーの存在を示すシンボルまたはテキストを含む。電子コピーが存在しない場合、携帯電話は、新しい知人のためのアドレス帳内のエントリに記入するために、OCRまたは標準的な名刺のフォーマットの情報を使用することができる。シンボルは、画像から直接に情報を取り出す処理を補助することも可能である。例えば、名刺の電話番号の隣にあるアイコンは、電話番号のロケーションを判断するために認識することができる。
システムは、校正および編集処理を強化することができる。1つの方法として、システムは、エディタの紙の文書とその電子副本の情報のやりとりをリンクすることによって、編集処理を強化することができる。エディタが紙の文書を読み込んで、文書のいろいろな部分をスキャンするとき、システムは、紙の文書の電子副本に対して、適切な注釈付け、または編集を行う。例えば、エディタがテキストの一部をスキャンして、スキャナで「新しいパラグラフ」の制御ジェスチャを行った場合、スキャナと通信するコンピュータは、文書の電子コピー内のスキャンされたテキストのロケーションに、「新しいパラグラフ」のブレークを挿入する。
ユーザは、文書からテキストの一部をスキャンし、次いでスキャンされたテキストに関連する音声録音を行うことによって、その文書に音声コメントを付けることができる。いくつかの実施形態では、スキャナは、ユーザの言葉のコメントを記録するためのマイクロホンを有する。言葉によるコメントが記録された後に、システムは、テキストがスキャンされた文書を識別し、その文書内のスキャンされたテキストの位置を特定し、その場所に音声コメントを添付する。いくつかの実施形態では、システムは、スピーチをテキストに変換して、テキストコメントとしてその注釈を添付する。
上述のシステムは、電子ヘルプメニューによって紙の文書を強化するために使用することができる。いくつかの実施形態では、紙の文書に関連するマークアップ層は、文書のためのヘルプメニュー情報を含む。例えば、ユーザが文書の特定の部分からテキストをスキャンする場合、システムは、文書に関連するマークアップを確認して、ユーザにヘルプメニューを示す。ヘルプメニューは、スキャナのディスプレイまたは関連づけられた隣接するディスプレイに示される。
状況によっては、テレビ、コンピュータ用モニター、または他の類似したディスプレイから情報をスキャンできるようにすることは好都合である。いくつかの実施形態では、携帯スキャナは、コンピュータ用モニターおよびテレビから情報をスキャンするために使用される。いくつかの実施形態では、携帯光スキャナは、ラスタライズ、画面のブランキングなどのような、従来のブラウン管(CRT)ディスプレイ技術との連携するように最適化された、照明センサーを有する。
ディスプレイの直接スキャンの使い方の1つは、第15.6項において説明したように、デバイスの関連付けである。例えば、いくつかの実施形態では、パブリックキオスクは、動的セッションIDをそのモニターに表示する。キオスクは、インターネットまたは企業内イントラネットのような通信ネットワークに接続される。セッションIDは定期的に変わるが、少なくとも、新しいセッションIDがすべてのユーザに表示されるようにキオスクが使用されるたびに変わる。キオスクを使用するために、サブスクライバは、キオスクに表示されるセッションIDをスキャンする。セッションIDをスキャンすることによって、ユーザは、文書のスキャンまたはキオスクの画面自体からのコンテンツの配信のために、キオスクと自分のスキャナを一時的に関連付けたい旨をシステムに告げる。スキャナは、セッションIDおよびスキャナを認証する他の情報(製造番号、アカウント番号、または他の識別情報など)を直接システムに通信することが可能である。例えば、スキャナは、ユーザの携帯電話(BluetoothTMを介してユーザのスキャナと対になっている)を介して、セッション開始メッセージを送信することによって、システムと直接通信することができる(ここでの「直接」とは、メッセージがキオスクを通過しないことを意味する)。別様には、スキャナは、キオスクとの無線リンクを確立し、キオスクにセッション開始情報を転送することによって(あるいはBluetoothTMなどのような短距離RFを介して)、キオスクの通信リンクを使用することができる。それに応じて、キオスクは、そのインターネット接続を介してシステムにセッション開始情報を送信する。
図4は、システムの実施形態が動作する一般的な環境を示す図である。システムは、無線ネットワーク401、インターネット402、または他のネットワーク(図示せず)によって相互接続された複数の装置を含む、分散コンピューティング環境400内で機能する。これらすべての通信および接続は、好適なネットワーク通信プロトコルを使用した、好適なネットワーク接続を介して相互接続される。様々な実施形態において、サーバおよび他のデバイスは、それぞれのAPIに従って互いに通信し、システムの更なる実施形態を形成する。別の実施形態では、装置およびサーバは、オープン/標準プロトコルに従って、通信することが可能である。
ユーザは、どの方向に読むか
ユーザは、どのような定期刊行物をサブスクライブしているか
ユーザの日々および毎週の行動(例、日曜日の朝に日曜版を読みなど)
ユーザがこの文書および他の文書に行った最近のマーク
ユーザが歴史的に関心を持った資料/主題のタイプ
明示的なユーザプロファイル
現在のユーザのロケーション(ユーザのPCの近く、および/またはそのPCでのアクティビティなど、無線環境によって与えられる)
テキストの性質
その他。
逆方向へのスキャン=コンテキストの設定;
ページの垂直(上下)方向のドラッグ(システムは、横断した行を計数すること、および横断した行からデータフラグメントを取得することができる)=領域の設定;
前後方向の動作または上下方向の動作=直前のアクションの取り消し。;
テキストの領域の回転動作=領域の選択;
タップまたはクリック(レンダリングされた文書と接触するデバイスの端部のスイッチまたはセンサーを介して、またはユーザが制御できる別のスイッチを介して)=コンテキスト関連のメニューのリクエスト;
これは部分的なリストでしかないことに留意されたい。また、これらの動作を2つ以上組み合わせること、および実行される動作の順序は様々であることに起因する高い可能性にも留意されたい。
2−4にはなり得ない(他に、前述のエントリは5ではなく1となる)
4−3または1にはなり得ない(これらが前述の5および2と矛盾するとき)
1−2(5と衝突する)または3(4と衝突する)にはなり得ない
5−2(4と衝突する)にはなり得ない
5−4または1(4および5と衝突する)にはなり得ない
1−4または3(5および5と衝突する)にはなり得ない
1−3または2(5および5と衝突する)にはなり得ない
?−2または1(5および5と衝突する)にはなり得ない
?−1(5と衝突する)にはなり得ない
?−この位置を越えて何も参照されないので、何であってもよい。
いくつかの実施形態では、システムが作成する反復数は総計であり、オブジェクト自体のみが格納または送信される。上述の例において反復する一連のオフセットに適用された「abcabcabcabcabc」は、最初にオフセット「333333333333???」としてコード化され、そしてまた計数(オブジェクト)12(3)???として表すことができる。−これは、単純に「+3???」として格納または送信することができる。ここで、「+」は、オブジェクトが反復することを示すインジケータである。別様には、システムは、反復数へのあらゆる参照を省略して、単に「3」を格納または送信する。
システムが、これらのダッシュがある長さ続くとみなした場合、ユーザは、それらを最後までスキャンすることを望まない場合があるので、どのくらいのダッシュが示されているのかを知らない場合がある。この場合、いくつかの実施形態では、システムは、単純に「長さ1の反復シーケンス」を格納または送信する。
いくつかの実施形態では、システムは、認識するために、このマーカーの完全なスキャンを必要としない。このシーケンスからオフセットは、「31641153164115...」として表すことができる(スペースをオブジェクトとして計数)。これは、計数プラスオブジェクトとして、または「複数のインジケータ」(「+3164115」‐上述のプラス記号の使用を参照のこと)、あるいは複数であることを示さずに(単に「3164115」)として、格納または送信することができる。
または
fit_error=#_bad_pixels/#_pixels_in_object
前者は、比較される領域と比較したエラーピクセルの数を考慮する。後者は、エラーの無いピクセルの数または一致と比較したエラーピクセルの数を考慮する。種々の実施形態では、システムは、例えば、これらの技術に種々の精緻化を追加するか、またはOCRからの他のマッチング技術を使用する。
当業者は、上述のシステムが、様々な方法での適用および拡張が可能であると理解されよう。上述の説明は特定の実施形態について言及しているが、本発明の範囲は、専ら以下の請求項およびそこに詳述される要素によって定義される。
Claims (10)
- レンダリングされたテキストとのインタラクションを処理するコンピュータシステムにおける方法であって、
レンダリングされたテキストからハンドヘルド取得装置を使用して取得された一連の画像を受信するステップと、
前記一連の画像の少なくともいくつかに基づいて、前記取得が行われた文書、及び前記取得が行われた文書内の位置を識別するステップと、
前記一連の画像によって描かれたテキストを表すオフセットのシーケンスを判定するステップであって、各オフセットが、前記一連の画像によって描かれた前記テキスト内の各文字の繰り返されているインスタンスを切り離す文字位置の数を表す、ステップと、
前記オフセットのシーケンスに基づいて、前記レンダリングされたテキストに関して運動経路を判定するステップと、
前記判定された運動経路に整合する経路パターンに関連するコマンドを識別するステップと、
前記識別された文書内の前記識別された位置に関して前記識別されたコマンドを実行するステップと、を含む方法。 - 前記レンダリングされたテキストに関して運動経路を判定するステップは、前記一連の画像の画像フレーム内の前記取得されたレンダリングされたテキストの視覚的特徴の運動をトラッキングすることを含む、請求項1に記載の方法。
- 前記レンダリングされたテキストは、機械によってレンダリングされたテキストを含む、請求項1に記載の方法。
- 前記レンダリングされたテキストは、印刷されたテキストを含む、請求項1に記載の方法。
- 前記識別されたコマンドは、前記識別された位置に対応する位置における前記識別された文書の電子バージョンの内容を修正するための編集コマンドを含む、請求項1に記載の方法。
- 前記判定された運動経路は、開始ラインから終了ラインまでの垂直経路を含み、
前記識別されたコマンドは、前記開始ラインから前記終了ラインまでの前記レンダリングされた文書の領域を選択することを含む、請求項1に記載の方法。 - 前記判定された運動経路は、開始ワードで始まる右から左への運動に続いて、終了ワードで始まる左から右への運動を含み、
前記識別されたコマンドは、前記開始ワードから前記終了ワードまでの前記レンダリングされた文書の領域を選択することを含む、請求項1に記載の方法。 - 前記判定された運動経路は、前記ページに対して直交する運動と、前記レンダリングされたテキスト内のポイントへ向けた運動とを含み、
前記識別されたコマンドは、前記ポイントを取り囲む前記レンダリングされたテキストの領域に関して可能なアクションのリストを表示することを含む、請求項1に記載の方法。 - 前記判定された運動経路は、先行コマンドの実行の後に続く交互方向の運動のシーケンスを含み、
前記識別されたコマンドは、前記先行コマンドの実行を取り消すことを含む、請求項1に記載の方法。 - 前記判定された運動経路は、前記レンダリングされたテキストのセクションを取り囲む閉鎖された経路を含み、
前記識別されたコマンドは、前記取り囲まれたテキストのセクションを選択することを含む、請求項1に記載の方法。
Applications Claiming Priority (186)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US56348504P | 2004-04-19 | 2004-04-19 | |
US56352004P | 2004-04-19 | 2004-04-19 | |
US60/563,520 | 2004-04-19 | ||
US60/563,485 | 2004-04-19 | ||
US56468804P | 2004-04-23 | 2004-04-23 | |
US56484604P | 2004-04-23 | 2004-04-23 | |
US60/564,688 | 2004-04-23 | ||
US60/564,846 | 2004-04-23 | ||
US56666704P | 2004-04-30 | 2004-04-30 | |
US60/566,667 | 2004-04-30 | ||
US57138104P | 2004-05-14 | 2004-05-14 | |
US57156004P | 2004-05-14 | 2004-05-14 | |
US60/571,560 | 2004-05-14 | ||
US60/571,381 | 2004-05-14 | ||
US57171504P | 2004-05-17 | 2004-05-17 | |
US60/571,715 | 2004-05-17 | ||
US58920304P | 2004-07-19 | 2004-07-19 | |
US58920204P | 2004-07-19 | 2004-07-19 | |
US58920104P | 2004-07-19 | 2004-07-19 | |
US60/589,202 | 2004-07-19 | ||
US60/589,201 | 2004-07-19 | ||
US60/589,203 | 2004-07-19 | ||
US59882104P | 2004-08-02 | 2004-08-02 | |
US60/598,821 | 2004-08-02 | ||
US60293004P | 2004-08-18 | 2004-08-18 | |
US60294704P | 2004-08-18 | 2004-08-18 | |
US60295604P | 2004-08-18 | 2004-08-18 | |
US60289804P | 2004-08-18 | 2004-08-18 | |
US60289604P | 2004-08-18 | 2004-08-18 | |
US60289704P | 2004-08-18 | 2004-08-18 | |
US60292504P | 2004-08-18 | 2004-08-18 | |
US60/602,956 | 2004-08-18 | ||
US60/602,925 | 2004-08-18 | ||
US60/602,898 | 2004-08-18 | ||
US60/602,947 | 2004-08-18 | ||
US60/602,896 | 2004-08-18 | ||
US60/602,930 | 2004-08-18 | ||
US60/602,897 | 2004-08-18 | ||
US60346604P | 2004-08-19 | 2004-08-19 | |
US60308104P | 2004-08-19 | 2004-08-19 | |
US60308204P | 2004-08-19 | 2004-08-19 | |
US60/603,466 | 2004-08-19 | ||
US60/603,082 | 2004-08-19 | ||
US60/603,081 | 2004-08-19 | ||
US60335804P | 2004-08-20 | 2004-08-20 | |
US60349804P | 2004-08-20 | 2004-08-20 | |
US60/603,358 | 2004-08-20 | ||
US60/603,498 | 2004-08-20 | ||
US60410204P | 2004-08-23 | 2004-08-23 | |
US60410304P | 2004-08-23 | 2004-08-23 | |
US60409804P | 2004-08-23 | 2004-08-23 | |
US60410004P | 2004-08-23 | 2004-08-23 | |
US60/604,100 | 2004-08-23 | ||
US60/604,103 | 2004-08-23 | ||
US60/604,098 | 2004-08-23 | ||
US60/604,102 | 2004-08-23 | ||
US60510504P | 2004-08-27 | 2004-08-27 | |
US60522904P | 2004-08-27 | 2004-08-27 | |
US60/605,105 | 2004-08-27 | ||
US60/605,229 | 2004-08-27 | ||
US61333904P | 2004-09-27 | 2004-09-27 | |
US61346004P | 2004-09-27 | 2004-09-27 | |
US61345404P | 2004-09-27 | 2004-09-27 | |
US61324204P | 2004-09-27 | 2004-09-27 | |
US61346104P | 2004-09-27 | 2004-09-27 | |
US61363204P | 2004-09-27 | 2004-09-27 | |
US61345504P | 2004-09-27 | 2004-09-27 | |
US61334104P | 2004-09-27 | 2004-09-27 | |
US61358904P | 2004-09-27 | 2004-09-27 | |
US61340004P | 2004-09-27 | 2004-09-27 | |
US61324304P | 2004-09-27 | 2004-09-27 | |
US61360204P | 2004-09-27 | 2004-09-27 | |
US61363404P | 2004-09-27 | 2004-09-27 | |
US61345604P | 2004-09-27 | 2004-09-27 | |
US61334004P | 2004-09-27 | 2004-09-27 | |
US61362804P | 2004-09-27 | 2004-09-27 | |
US61336104P | 2004-09-27 | 2004-09-27 | |
US61363304P | 2004-09-27 | 2004-09-27 | |
US60/613,361 | 2004-09-27 | ||
US60/613,455 | 2004-09-27 | ||
US60/613,340 | 2004-09-27 | ||
US60/613,602 | 2004-09-27 | ||
US60/613,243 | 2004-09-27 | ||
US60/613,589 | 2004-09-27 | ||
US60/613,634 | 2004-09-27 | ||
US60/613,633 | 2004-09-27 | ||
US60/613,242 | 2004-09-27 | ||
US60/613,339 | 2004-09-27 | ||
US60/613,454 | 2004-09-27 | ||
US60/613,628 | 2004-09-27 | ||
US60/613,460 | 2004-09-27 | ||
US60/613,632 | 2004-09-27 | ||
US60/613,461 | 2004-09-27 | ||
US60/613,400 | 2004-09-27 | ||
US60/613,456 | 2004-09-27 | ||
US60/613,341 | 2004-09-27 | ||
US61537804P | 2004-10-01 | 2004-10-01 | |
US61553804P | 2004-10-01 | 2004-10-01 | |
US61511204P | 2004-10-01 | 2004-10-01 | |
US60/615,538 | 2004-10-01 | ||
US60/615,112 | 2004-10-01 | ||
US60/615,378 | 2004-10-01 | ||
US61712204P | 2004-10-07 | 2004-10-07 | |
US60/617,122 | 2004-10-07 | ||
US62290604P | 2004-10-28 | 2004-10-28 | |
US60/622,906 | 2004-10-28 | ||
US11/004,637 US7707039B2 (en) | 2004-02-15 | 2004-12-03 | Automatic modification of web pages |
US11/004,637 | 2004-12-03 | ||
US63345204P | 2004-12-06 | 2004-12-06 | |
US63367804P | 2004-12-06 | 2004-12-06 | |
US63348604P | 2004-12-06 | 2004-12-06 | |
US63345304P | 2004-12-06 | 2004-12-06 | |
US60/633,486 | 2004-12-06 | ||
US60/633,453 | 2004-12-06 | ||
US60/633,678 | 2004-12-06 | ||
US60/633,452 | 2004-12-06 | ||
US63462704P | 2004-12-09 | 2004-12-09 | |
US63473904P | 2004-12-09 | 2004-12-09 | |
US60/634,739 | 2004-12-09 | ||
US60/634,627 | 2004-12-09 | ||
US64768405P | 2005-01-26 | 2005-01-26 | |
US60/647,684 | 2005-01-26 | ||
US64874605P | 2005-01-31 | 2005-01-31 | |
US60/648,746 | 2005-01-31 | ||
US65337205P | 2005-02-15 | 2005-02-15 | |
US60/653,372 | 2005-02-15 | ||
US65389905P | 2005-02-16 | 2005-02-16 | |
US65367905P | 2005-02-16 | 2005-02-16 | |
US65366305P | 2005-02-16 | 2005-02-16 | |
US65366905P | 2005-02-16 | 2005-02-16 | |
US65384705P | 2005-02-16 | 2005-02-16 | |
US60/653,899 | 2005-02-16 | ||
US60/653,669 | 2005-02-16 | ||
US60/653,847 | 2005-02-16 | ||
US60/653,679 | 2005-02-16 | ||
US60/653,663 | 2005-02-16 | ||
US65437905P | 2005-02-17 | 2005-02-17 | |
US60/654,379 | 2005-02-17 | ||
US65419605P | 2005-02-18 | 2005-02-18 | |
US65436805P | 2005-02-18 | 2005-02-18 | |
US65432605P | 2005-02-18 | 2005-02-18 | |
US60/654,196 | 2005-02-18 | ||
US60/654,326 | 2005-02-18 | ||
US60/654,368 | 2005-02-18 | ||
US65527905P | 2005-02-22 | 2005-02-22 | |
US65569705P | 2005-02-22 | 2005-02-22 | |
US65598705P | 2005-02-22 | 2005-02-22 | |
US65528105P | 2005-02-22 | 2005-02-22 | |
US65528005P | 2005-02-22 | 2005-02-22 | |
US60/655,280 | 2005-02-22 | ||
US60/655,281 | 2005-02-22 | ||
US60/655,279 | 2005-02-22 | ||
US60/655,697 | 2005-02-22 | ||
US60/655,987 | 2005-02-22 | ||
US65730905P | 2005-02-28 | 2005-02-28 | |
US60/657,309 | 2005-02-28 | ||
US11/097,835 US7831912B2 (en) | 2004-02-15 | 2005-04-01 | Publishing techniques for adding value to a rendered document |
US11/098,038 | 2005-04-01 | ||
US11/097,836 US20060041538A1 (en) | 2004-02-15 | 2005-04-01 | Establishing an interactive environment for rendered documents |
US11/098,038 US7599844B2 (en) | 2004-02-15 | 2005-04-01 | Content access with handheld document data capture devices |
US11/098,042 US7593605B2 (en) | 2004-02-15 | 2005-04-01 | Data capture from rendered documents using handheld device |
US11/097,103 | 2005-04-01 | ||
US11/098,016 US7421155B2 (en) | 2004-02-15 | 2005-04-01 | Archive of text captures from rendered documents |
US11/098,014 | 2005-04-01 | ||
US11/097,093 | 2005-04-01 | ||
US11/098,016 | 2005-04-01 | ||
US11/098,042 | 2005-04-01 | ||
US11/096,704 | 2005-04-01 | ||
US11/097,961 US20060041484A1 (en) | 2004-04-01 | 2005-04-01 | Methods and systems for initiating application processes by data capture from rendered documents |
US11/097,093 US20060041605A1 (en) | 2004-04-01 | 2005-04-01 | Determining actions involving captured information and electronic content associated with rendered documents |
US11/097,836 | 2005-04-01 | ||
US11/098,043 | 2005-04-01 | ||
US11/096,704 US7599580B2 (en) | 2004-02-15 | 2005-04-01 | Capturing text from rendered documents using supplemental information |
US11/097,089 US8214387B2 (en) | 2004-02-15 | 2005-04-01 | Document enhancement system and method |
US11/098,014 US8019648B2 (en) | 2004-02-15 | 2005-04-01 | Search engines and systems with handheld document data capture devices |
US11/097,828 US7742953B2 (en) | 2004-02-15 | 2005-04-01 | Adding information or functionality to a rendered document via association with an electronic counterpart |
US11/097,981 US7606741B2 (en) | 2004-02-15 | 2005-04-01 | Information gathering system and method |
US11/097,833 | 2005-04-01 | ||
US11/097,828 | 2005-04-01 | ||
US11/097,961 | 2005-04-01 | ||
US11/097,103 US7596269B2 (en) | 2004-02-15 | 2005-04-01 | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US11/098,043 US20060053097A1 (en) | 2004-04-01 | 2005-04-01 | Searching and accessing documents on private networks for use with captures from rendered documents |
US11/097,833 US8515816B2 (en) | 2004-02-15 | 2005-04-01 | Aggregate analysis of text captures performed by multiple users from rendered documents |
US11/097,089 | 2005-04-01 | ||
US11/097,835 | 2005-04-01 | ||
US11/097,981 | 2005-04-01 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007509565A Division JP5102614B2 (ja) | 2004-04-19 | 2005-04-19 | レンダリングされた文書からの視覚的取得データに対する処理技術 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012094156A JP2012094156A (ja) | 2012-05-17 |
JP2012094156A5 JP2012094156A5 (ja) | 2013-04-11 |
JP5496987B2 true JP5496987B2 (ja) | 2014-05-21 |
Family
ID=37684666
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007509565A Expired - Fee Related JP5102614B2 (ja) | 2004-04-19 | 2005-04-19 | レンダリングされた文書からの視覚的取得データに対する処理技術 |
JP2011248290A Active JP5496987B2 (ja) | 2004-04-19 | 2011-11-14 | レンダリングされた文書からの視覚的取得データに対する処理技術 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007509565A Expired - Fee Related JP5102614B2 (ja) | 2004-04-19 | 2005-04-19 | レンダリングされた文書からの視覚的取得データに対する処理技術 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1759278A4 (ja) |
JP (2) | JP5102614B2 (ja) |
KR (1) | KR101174536B1 (ja) |
WO (1) | WO2005101192A2 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US10635723B2 (en) | 2004-02-15 | 2020-04-28 | Google Llc | Search engines and systems with handheld document data capture devices |
US20060041484A1 (en) | 2004-04-01 | 2006-02-23 | King Martin T | Methods and systems for initiating application processes by data capture from rendered documents |
US8799303B2 (en) | 2004-02-15 | 2014-08-05 | Google Inc. | Establishing an interactive environment for rendered documents |
US8621349B2 (en) | 2004-04-01 | 2013-12-31 | Google Inc. | Publishing techniques for adding value to a rendered document |
US20060098900A1 (en) | 2004-09-27 | 2006-05-11 | King Martin T | Secure data gathering from rendered documents |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US8793162B2 (en) | 2004-04-01 | 2014-07-29 | Google Inc. | Adding information or functionality to a rendered document via association with an electronic counterpart |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US7894670B2 (en) | 2004-04-01 | 2011-02-22 | Exbiblio B.V. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US20060081714A1 (en) | 2004-08-23 | 2006-04-20 | King Martin T | Portable scanning device |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US20080313172A1 (en) | 2004-12-03 | 2008-12-18 | King Martin T | Determining actions involving captured information and electronic content associated with rendered documents |
US20070300142A1 (en) | 2005-04-01 | 2007-12-27 | King Martin T | Contextual dynamic advertising based upon captured rendered text |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US9460346B2 (en) | 2004-04-19 | 2016-10-04 | Google Inc. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
US8346620B2 (en) | 2004-07-19 | 2013-01-01 | Google Inc. | Automatic modification of web pages |
US9275052B2 (en) | 2005-01-19 | 2016-03-01 | Amazon Technologies, Inc. | Providing annotations of a digital work |
US8300261B2 (en) * | 2006-02-24 | 2012-10-30 | Avery Dennison Corporation | Systems and methods for retrieving printable media templates |
EP2036017A1 (en) * | 2006-06-06 | 2009-03-18 | Exbiblio B.V. | Contextual dynamic advertising based upon captured rendered text |
EP2067119A2 (en) | 2006-09-08 | 2009-06-10 | Exbiblio B.V. | Optical scanners, such as hand-held optical scanners |
US8725565B1 (en) | 2006-09-29 | 2014-05-13 | Amazon Technologies, Inc. | Expedited acquisition of a digital item following a sample presentation of the item |
US9672533B1 (en) | 2006-09-29 | 2017-06-06 | Amazon Technologies, Inc. | Acquisition of an item based on a catalog presentation of items |
US7716224B2 (en) | 2007-03-29 | 2010-05-11 | Amazon Technologies, Inc. | Search and indexing on a user device |
US9665529B1 (en) | 2007-03-29 | 2017-05-30 | Amazon Technologies, Inc. | Relative progress and event indicators |
US7853900B2 (en) | 2007-05-21 | 2010-12-14 | Amazon Technologies, Inc. | Animations |
JP5299625B2 (ja) * | 2009-02-13 | 2013-09-25 | 日本電気株式会社 | 操作支援装置、操作支援方法、及びプログラム |
DE202010018601U1 (de) | 2009-02-18 | 2018-04-30 | Google LLC (n.d.Ges.d. Staates Delaware) | Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung |
KR101015740B1 (ko) * | 2009-02-18 | 2011-02-24 | 삼성전자주식회사 | 문자 인식 방법 및 장치 |
EP2406767A4 (en) | 2009-03-12 | 2016-03-16 | Google Inc | AUTOMATIC CONTENT SUPPLY ASSOCIATED WITH CAPTURED INFORMATION, TYPE INFORMATION CAPTURED IN REAL TIME |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
US8832584B1 (en) | 2009-03-31 | 2014-09-09 | Amazon Technologies, Inc. | Questions on highlighted passages |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
US8340429B2 (en) | 2010-09-18 | 2012-12-25 | Hewlett-Packard Development Company, Lp | Searching document images |
US9378290B2 (en) | 2011-12-20 | 2016-06-28 | Microsoft Technology Licensing, Llc | Scenario-adaptive input method editor |
EP2864856A4 (en) | 2012-06-25 | 2015-10-14 | Microsoft Technology Licensing Llc | SEIZURE METHOD EDITOR APPLICATION PLATFORM |
JP6122499B2 (ja) * | 2012-08-30 | 2017-04-26 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 特徴に基づく候補選択 |
EP2936301B1 (en) * | 2012-12-18 | 2020-05-06 | Thomson Reuters Enterprise Centre GmbH | Mobile-enabled systems and processes for intelligent research platform |
EP3030982A4 (en) | 2013-08-09 | 2016-08-03 | Microsoft Technology Licensing Llc | INPUT PROCESSORS EDITOR WITH LANGUAGE SUPPORT |
US9514376B2 (en) * | 2014-04-29 | 2016-12-06 | Google Inc. | Techniques for distributed optical character recognition and distributed machine language translation |
US20170116194A1 (en) * | 2015-10-23 | 2017-04-27 | International Business Machines Corporation | Ingestion planning for complex tables |
KR101995540B1 (ko) * | 2016-06-03 | 2019-07-15 | 주식회사 허브케이 | 판독/입력 오류 단어 정정 장치 및 방법 |
CN108960365A (zh) * | 2018-06-28 | 2018-12-07 | 睿思易(成都)科技有限责任公司 | 一种基于二维码的数据整合方法及系统 |
US12020696B2 (en) | 2019-10-21 | 2024-06-25 | Soundhound Ai Ip, Llc | Automatic synchronization for an offline virtual assistant |
JP7029434B2 (ja) * | 2019-10-23 | 2022-03-03 | サウンドハウンド,インコーポレイテッド | コンピュータによって実行される方法、サーバ装置、情報処理システム、プログラム、およびクライアント端末 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5146552A (en) * | 1990-02-28 | 1992-09-08 | International Business Machines Corporation | Method for associating annotation with electronically published material |
JP3017851B2 (ja) * | 1991-07-31 | 2000-03-13 | キヤノン株式会社 | 画像記憶装置 |
JPH06282375A (ja) * | 1993-03-29 | 1994-10-07 | Casio Comput Co Ltd | 情報処理装置及び電子ペン |
US5640193A (en) * | 1994-08-15 | 1997-06-17 | Lucent Technologies Inc. | Multimedia service access by reading marks on an object |
JPH10134004A (ja) * | 1996-10-28 | 1998-05-22 | Casio Comput Co Ltd | 画像データ処理システム |
JP4183311B2 (ja) * | 1997-12-22 | 2008-11-19 | 株式会社リコー | 文書の注釈方法、注釈装置および記録媒体 |
JPH11212691A (ja) * | 1998-01-21 | 1999-08-06 | Fuji Xerox Co Ltd | ペン入力方法及び装置 |
JP2000123114A (ja) * | 1998-10-15 | 2000-04-28 | Casio Comput Co Ltd | 手書き文字入力装置及び記憶媒体 |
AU4851300A (en) * | 1999-05-19 | 2000-12-05 | Digimarc Corporation | Methods and systems for controlling computers or linking to internet resources from physical and electronic objects |
GB9922214D0 (en) * | 1999-09-20 | 1999-11-17 | Ncr Int Inc | Creation transmission and retrieval of information |
US7337389B1 (en) * | 1999-12-07 | 2008-02-26 | Microsoft Corporation | System and method for annotating an electronic document independently of its content |
GB2366033B (en) * | 2000-02-29 | 2004-08-04 | Ibm | Method and apparatus for processing acquired data and contextual information and associating the same with available multimedia resources |
JP4261779B2 (ja) * | 2000-03-31 | 2009-04-30 | 富士通株式会社 | データ圧縮装置および方法 |
US20010053252A1 (en) * | 2000-06-13 | 2001-12-20 | Stuart Creque | Method of knowledge management and information retrieval utilizing natural characteristics of published documents as an index method to a digital content store |
WO2002021413A2 (en) * | 2000-09-05 | 2002-03-14 | Zaplet, Inc. | Methods and apparatus providing electronic messages that are linked and aggregated |
JP2002269253A (ja) * | 2001-03-13 | 2002-09-20 | Ricoh Co Ltd | 電子文書変換サービスシステムおよび電子文書変換サービスシステムの課金方法 |
WO2003063067A1 (en) * | 2002-01-24 | 2003-07-31 | Chatterbox Systems, Inc. | Method and system for locating positions in printed texts and delivering multimedia information |
JP2003216631A (ja) * | 2002-01-25 | 2003-07-31 | Canon Inc | 情報処理装置、情報配信装置、検索装置、情報取得システム、情報取得方法、コンピュータ読み取り可能な記録媒体及びコンピュータプログラム |
JP2004050722A (ja) * | 2002-07-23 | 2004-02-19 | Canon Inc | 印刷装置 |
-
2005
- 2005-04-19 EP EP05742065A patent/EP1759278A4/en not_active Ceased
- 2005-04-19 JP JP2007509565A patent/JP5102614B2/ja not_active Expired - Fee Related
- 2005-04-19 WO PCT/US2005/013297 patent/WO2005101192A2/en active Application Filing
-
2006
- 2006-11-17 KR KR1020067024177A patent/KR101174536B1/ko active IP Right Grant
-
2011
- 2011-11-14 JP JP2011248290A patent/JP5496987B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2005101192A2 (en) | 2005-10-27 |
EP1759278A2 (en) | 2007-03-07 |
JP2012094156A (ja) | 2012-05-17 |
JP2008516297A (ja) | 2008-05-15 |
KR101174536B1 (ko) | 2012-08-16 |
KR20070092596A (ko) | 2007-09-13 |
JP5102614B2 (ja) | 2012-12-19 |
EP1759278A4 (en) | 2009-05-06 |
WO2005101192A3 (en) | 2007-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5496987B2 (ja) | レンダリングされた文書からの視覚的取得データに対する処理技術 | |
US9684902B2 (en) | Processing techniques for text capture from a rendered document | |
US7702624B2 (en) | Processing techniques for visual capture data from a rendered document | |
JP2008516297A6 (ja) | レンダリングされた文書からの視覚的取得データに対する処理技術 | |
KR101212929B1 (ko) | 렌더링된 문서로부터의 보안 데이터 수집 | |
US8874504B2 (en) | Processing techniques for visual capture data from a rendered document | |
US9811728B2 (en) | Adding value to a rendered document | |
US8713418B2 (en) | Adding value to a rendered document | |
US20180096203A1 (en) | Adding value to a rendered document | |
US9323784B2 (en) | Image search using text-based elements within the contents of images | |
JP5529082B2 (ja) | レンダリングされた文書からのハンドヘルド装置を用いたデータ取得 | |
US20100278453A1 (en) | Capture and display of annotations in paper and electronic documents | |
US20140236978A1 (en) | Publishing techniques for adding value to a rendered document | |
US10504162B2 (en) | Processing techniques for text capture from a rendered document | |
EP2036017A1 (en) | Contextual dynamic advertising based upon captured rendered text | |
WO2005106643A2 (en) | Adding value to a rendered document | |
JP2010536188A6 (ja) | レンダリングされた文書からのハンドヘルド装置を用いたデータ取得 | |
EP1741028A2 (en) | Adding value to a rendered document |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130522 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130822 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130827 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130924 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5496987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |