JP2009540404A - Contextual dynamic ads based on captured rendering text - Google Patents

Contextual dynamic ads based on captured rendering text Download PDF

Info

Publication number
JP2009540404A
JP2009540404A JP2009513598A JP2009513598A JP2009540404A JP 2009540404 A JP2009540404 A JP 2009540404A JP 2009513598 A JP2009513598 A JP 2009513598A JP 2009513598 A JP2009513598 A JP 2009513598A JP 2009540404 A JP2009540404 A JP 2009540404A
Authority
JP
Japan
Prior art keywords
document
user
text
capture
rendered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009513598A
Other languages
Japanese (ja)
Inventor
マーティン ティー キング
デイル エル グローヴァー
クリフォード エイ クシュラー
ジェイムズ クウェンティン スタッフォード−フレイザー
Original Assignee
エクスビブリオ ベースローテン フェンノートシャップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エクスビブリオ ベースローテン フェンノートシャップ filed Critical エクスビブリオ ベースローテン フェンノートシャップ
Publication of JP2009540404A publication Critical patent/JP2009540404A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

レンダリング文書から取り込まれたテキストを処理するためのシステムが記載される。システムは、ユーザによってレンダリング文書から光学的又は音響的に取り込まれた1つ又はそれ以上のワードのシーケンスを受け取る。システムは、レンダリング文書の電子版を識別し、動作を関連付ける。次にシステムは、ユーザに対して関連する動作を実行する。
【選択図】図1
A system for processing text captured from a rendered document is described. The system receives a sequence of one or more words that are optically or acoustically captured by a user from a rendered document. The system identifies an electronic version of the rendered document and associates actions. The system then performs the relevant action on the user.
[Selection] Figure 1

Description

(関連出願への相互参照)
本出願は、その全体が引用により本明細書に組み込まれる「TRIGGERING ACTIONS IN RESPONSE TO OPTICALLY OR ACOUSTICALLY CAPTURING KEYWORDS FROM A RENDERED DOCUMENT(レンダリング文書から光学的又は音響的にキーワードを取り込むことに応答したトリガ動作)」という名称で2005年4月1日に出願された米国特許出願第11/097,103号の一部継続出願である。
本出願は、その全体が引用により本明細書に組み込まれる「CONTEXTUAL DYNAMIC ADVERTISING BASED UPON CAPTURED RENDERED TEXT(取り込まれたレンダリングテキストに基づくコンテキスト動的広告)」という名称で2006年6月6日に出願された米国仮特許出願第60/811,623号に対する優先権を主張する。
本出願は、以下の米国特許出願に関連し、これらの各々は全体が引用により本明細書に組み込まれる:
2004年12月3日に出願された米国特許出願第11/004,637号、
「METHODS AND SYSTEMS FOR INITIATING APPLICATION PROCESSES BY DATA CAPTURE FROM RENDERED DOCUMENTS(レンダリング文書からのデータ取り込みによってアプリケーションプロセスを開始するための方法及びシステム)」という名称で2005年4月1日に出願された米国特許出願第11/097,961号、
「DETERMINING ACTIONS INVOLVING CAPTURED INFORMATION AND ELECTRONIC CONTENT ASSOCIATED WITH RENDERED DOCUMENTS(レンダリング文書に関連付けられた取り込み情報及び電子コンテンツを包含する動作の決定)」という名称で2005年4月1日に出願された米国特許出願第11/097,093号、
「CONTENT ACCESS WITH HANDHELD DOCUMENT DATA CAPTURE DEVICES(ハンドヘルド文書データ取り込みデバイスによるコンテンツアクセス)」という名称で2005年4月1日に出願された米国特許出願第11/098,038号、
「SEARCH ENGINES AND SYSTEMS WITH HANDHELD DOCUMENT DATA CAPTURE DEVICES(ハンドヘルド文書データ取り込みデバイスを備えたサーチエンジン及びシステム)」という名称で2005年4月1日に出願された米国特許出願第11/098,014号、
「SEARCHING AND ACCESSING DOCUMENTS ON PRIVATE NETWORKS FOR USE WITH CAPTURES FROM RENDERED DOCUMENTS(レンダリング文書からの取り込みに使用されるプライベートネットワーク上の文書のサーチ及びアクセス)」という名称で2005年4月1日に出願された米国特許出願第11/098,043号、
「INFORMATION GATHERING SYSTEM AND METHOD(情報収集システム及び方法)」という名称で2005年4月1日に出願された米国特許出願第11/097,981号、
「DOCUMENT ENHANCEMENT SYSTEM AND METHOD(文書拡張システム及び方法)」という名称で2005年4月1日に出願された米国特許出願第11/097,089号、
「PUBLISHING TECHNIQUES FOR ADDING VALUE TO A RENDERED DOCUMENT(レンダリング文書に値を付加するための発行技術)」という名称で2005年4月1日に出願された米国特許出願第11/097,835号、
「ARCHIVE OF TEXT CAPTURES FROM RENDERED DOCUMENTS(レンダリング文書からのテキスト取り込みのアーカイブ)」という名称で2005年4月1日に出願された米国特許出願第11/098,016号、
「ADDING INFORMATION OR FUNCTIONALITY TO A RENDERED DOCUMENT VIA ASSOCIATION WITH AN ELECTRONIC COUNTERPART(対応電子文書との関連付けを介したレンダリング文書への情報又は機能の付加)」という名称で2005年4月1日に出願された米国特許出願第11/097,828号、
「AGGREGATE ANALYSIS OF TEXT CAPTURES PERFORMED BY MULTIPLE USERS FROM RENDERED DOCUMENTS(レンダリング文書から複数のユーザによって行われるテキスト取り込みのアグリゲート解析)」という名称で2005年4月1日に出願された米国特許出願第11/097,833号、
「ESTABLISHING AN INTERACTIVE ENVIRONMENT FOR RENDERED DOCUMENTS(レンダリング文書のためのインタラクティブ環境の設定)」という名称で2005年4月1日に出願された米国特許出願第11/097,836号、
「DATA CAPTURE FROM RENDERED DOCUMENTS USING HANDHELD DEVICE(ハンドヘルドデバイスを使用したレンダリング文書からのデータ取り込み)」という名称で2005年4月1日に出願された米国特許出願第11/098,042号、
「CAPTURING TEXT FROM RENDERED DOCUMENTS USING SUPPLEMENTAL INFORMATION(補足情報を使用したレンダリング文書からのテキストの取り込み)」という名称で2005年4月1日に出願された米国特許出願第11/096,704号、
「PROCESSING TECHNIQUES FOR VISUAL CAPTURE DATA FROM A RENDERED DOCUMENT(レンダリング文書からの視覚的な取り込みデータのための処理技術)」という名称で2005年4月19日に出願された米国特許出願第11/110,353号、
「PROCESSING TECHNIQUES FOR TEXT CAPTURE FROM A RENDERED DOCUMENT(レンダリング文書からのテキスト取り込みのための処理技術)」という名称で2005年5月17日に出願された米国特許出願第11/131,945号、
「AUTOMATIC MODIFICATION OF WEB PAGES(ウェブページの自動修正)」という名称で2005年7月19日に出願された米国特許出願第11/185,908号、
「SCANNER HAVING CONNECTED AND UNCONNECTED OPERATIONAL BEHAVIORS(接続及び未接続オペレーション行動を有するスキャナ)」という名称で2005年8月18日に出願された米国特許出願第11/208,408号、
「LOCATING ELECTRONIC INSTANCES OF DOCUMENTS BASED ON RENDERED INSTANCES, DOCUMENT FRAGMENT DIGEST GENERATION, AND DIGEST BASED DOCUMENT FRAGMENT DETERMINATION(レンダーインスタンス、文書フラグメントダイジェスト生成、及びダイジェストベース文書フラグメント決定に基づく文書の電子インスタンスの位置付け)」という名称で2005年8月18日に出願された米国特許出願第11/208,457号、
「METHODS, SYSTEMS AND COMPUTER PROGRAM PRODUCTS FOR DATA GATHERING IN A DIGITAL AND HARD COPY DOCUMENT ENVIRONMENT(デジタル及びハードコピー文書環境におけるデータ収集のための方法、システム、及びコンピュータプログラム製品)」という名称で2005年8月18日に出願された米国特許出願第11/208,458号、
「APPLYING SCANNED INFORMATION TO IDENTIFY CONTENT(コンテンツを識別するためのスキャン情報の適用)」という名称で2005年8月18日に出願された米国特許出願第11/208,461号、
「A PORTABLE SCANNING DEVICE(ポータブルスキャンデバイス)」という名称で2005年8月23日に出願された米国特許出願第11/209,333号、
「A METHOD AND SYSTEM FOR CHARACTER RECOGNITION(文字認識のための方法及びシステム)」という名称で2005年8月23日に出願された米国特許出願第11/210,260号、
「SECURE DATA GATHERING FROM RENDERED DOCUMENTS(レンダリング文書からの安全なデータ収集)」という名称で2005年9月27日に出願された米国特許出願第11/236,440号、
「HANDHELD DEVICE FOR CAPTURING TEXT FROM BOTH A DOCUMENT PRINTED ON PAPER AND A DOCUMENT DISPLAYED ON A DYNAMIC DISPLAY DEVICE(紙に印刷された文書及び動的ディスプレイデバイスに表示された文書の両方からテキストを取り込むためのハンドヘルドデバイス)」という名称で2005年9月27日に出願された米国特許出願第11/236,330号、
「ASSOCIATION OF A PORTABLE SCANNER WITH INPUT/OUTPUT AND STORAGE DEVICES(ポータブルスキャナと入力/出力及び記憶装置との関連付け)」という名称で2006年2月28日に出願された米国特許出願第11/365,983号、
「PORTABLE SCANNING AND MEMORY DEVICE(ポータブルスキャン及びメモリデバイス)」という名称で2006年5月11日に出願された米国特許出願第11/432,731号、
「A SYSTEM AND METHOD FOR CHARACTER RECOGNITION(文字認識のためのシステム及び方法)」という名称で2005年4月1日に出願された国際特許出願第PCT/US05/11533号、
「SCANNING APPARATUS AND RELATED TECHNIQUES(スキャン装置及び関連技術)」という名称で2005年4月6日に出願された国際特許出願第PCT/US05/13586号、
「ADDING VALUE TO A RENDERED DOCUMENT(レンダリング文書への値の付加)」という名称で2005年4月12日に出願された国際特許出願第PCT/US05/12510号。
(Cross-reference to related applications)
This application is incorporated by reference herein in its entirety by “TRIGGERING ACTIONS IN RESPONSE TO OPTICALLY OR ACOUSTICLY CAPTUREING KEYWORDS FROM A RENDERED DOCUMENT that incorporates an optically or acoustically triggered response from a rendered document. Is a continuation-in-part application of US patent application Ser. No. 11 / 097,103, filed Apr. 1, 2005.
This application was filed on June 6, 2006 under the name “CONTEXTUAL DYNAMIC ADVERTISING BASED UPON CAPTURED RENDERED TEXT”, which is incorporated herein by reference in its entirety. Claims priority to US Provisional Patent Application No. 60 / 811,623.
This application is related to the following US patent applications, each of which is incorporated herein by reference in its entirety:
US patent application Ser. No. 11 / 004,637 filed Dec. 3, 2004;
US patent application filed April 1, 2005 under the name "METHODS AND SYSTEMS FOR INITITING APPLICATION PROCESSES BY DATA CAPTURE FROM RENDERED DOCUMENTS". No. 11 / 097,961,
"DETERMINING ACTIONS INVOLVING CAPTURED INFORMATION AND ELECTRONIC CONTENT ASSOCIATED WITH RENDERED DOCUMENTS" 11 / 097,093,
US patent application Ser. No. 11 / 098,038 filed Apr. 1, 2005, under the name “CONTENT ACCESS WITH HANDHELD DOCUMENT DATA CAPTURE DEVICES”.
US patent application Ser. No. 11 / 098,014, filed Apr. 1, 2005, under the name “SEARCH ENGINES AND SYSTEMS WITH HANDHELD DOCUMENT DATA CAPTURE DEVICES (search engine and system with handheld document data capture device)”;
US application filed April 1, 2005 under the name "SEARCHING AND ACCESSING DOCUMENTS ON PRIVATE NETWORKS FOR USE WITH CAPTURES FROM RENDERED DOCUMENTS". Patent application No. 11 / 098,043,
US patent application Ser. No. 11 / 097,981, filed Apr. 1, 2005 under the name “INFORMATION GATHERING SYSTEM AND METHOD”.
US patent application Ser. No. 11 / 097,089, filed Apr. 1, 2005 under the name “DOCUMENT ENHANCEMENT SYSTEM AND METHOD”.
US patent application Ser. No. 11 / 097,835, filed Apr. 1, 2005, under the name “PUBLISHING TECHNIQUES FOR ADDING VALUE TO A RENDERED DOCUMENT”.
US patent application Ser. No. 11 / 098,016, filed Apr. 1, 2005, entitled “ARCHIVE OF TEXT CAPTURES FROM RENDERED DOCUMENTS”;
"ADDING INFORMATION OR FUNCTIONALITY TO A RENDERED DOCUMENT VIA ASSOCIATION WITH AN ELECTRONIC COUNTERPART (added to the United States on the date of the 5th month of the application in the United States on the date of the 5th year)" Patent application No. 11 / 097,828,
US Patent Application No. 11 filed on April 1, 2005 under the name "AGGREGATE ANALYSIS OF TEXT CAPTURES PERFORMED BY MULTIPLE USERS FROM RENDERED DOCUMENTS" 097,833,
US patent application Ser. No. 11 / 097,836, filed Apr. 1, 2005, entitled “ESTABISHING AN INTERACTIVE ENVIRONMENT FOR RENDERED DOCUMENTS”;
US patent application Ser. No. 11 / 098,042, filed Apr. 1, 2005, entitled “DATA CAPTURE FROM RENDERED DOCUMENTS USING HANDHELD DEVICE”.
US patent application Ser. No. 11 / 096,704, filed Apr. 1, 2005, under the name “CAPTURING TEXT FROM RENDERED DOCUMENTS USING SUPPLEMENTAL INFORMATION”.
US patent application Ser. No. 11 / 110,353 filed Apr. 19, 2005, entitled “PROCESSING TECHNIQUES FOR VISUAL CAPTURE DATA FROM A RENDERED DOCUMENT”. issue,
US patent application Ser. No. 11 / 131,945 filed on May 17, 2005 under the name “PROCESSING TECHNIQUES FOR TEXT CAPTURE FROM A RENDERED DOCUMENT”.
US patent application Ser. No. 11 / 185,908 filed Jul. 19, 2005 under the name “AUTOMATIC MODIFICATION OF WEB PAGES”.
US patent application Ser. No. 11 / 208,408, filed Aug. 18, 2005, entitled “SCANNER HAVING CONNECTED AND UNCONNECTED OPERATIONAL BEHAVIRS”.
"Fragment of LOCATING ELECTRONIC INSTANCES OF DOCUMENTS BASED ON RENDERED INSTANCES, DOCUMENT FRAGMENT DIGEST GENERATION, DIGEST NAME NAME US patent application Ser. No. 11 / 208,457, filed Aug. 18, 2005,
"METHODS, SYSTEMS AND COMPUTER PROGRAM PRODUCTORS FOR DATA GATHERING IN A DIGITAL AND HARD COPY DOCUMENT ENVIRONMENT" US patent application Ser. No. 11 / 208,458 filed on
US patent application Ser. No. 11 / 208,461, filed Aug. 18, 2005, under the name “APPLYING SCANNED INFORMATION TO IDENTIFY CONTENT”.
US patent application Ser. No. 11 / 209,333, filed Aug. 23, 2005 under the name “A PORTABLE SCANNING DEVICE”,
US patent application Ser. No. 11 / 210,260, filed Aug. 23, 2005 under the name “A METHOD AND SYSTEM FOR CHARACTOR RECOGNITION”;
US patent application Ser. No. 11 / 236,440, filed Sep. 27, 2005, under the name “SECURE DATA GATHERING FROM RENDEDED DOCUMENTS”.
"HANDHELD DEVICE FOR CAPTUREING TEXT FROM BOTH A DOCUMENT PRINTED ON PAPER AND A DOCUMENT DISPLAYED ON A DYNAMIC DISPLAY DEVICE ON A DYNAMIC DISPLAY DEVICE ON A DYNAMIC DISPLAY US patent application Ser. No. 11 / 236,330, filed Sep. 27, 2005,
US patent application Ser. No. 11 / 365,983, filed Feb. 28, 2006 under the name “ASSOCIATION OF A PORTABLE SCANNER WITH INPUT / OUTPUT AND STORE DEVICES”. issue,
US patent application Ser. No. 11 / 432,731, filed May 11, 2006 under the name “PORTABLE SCANNING AND MEMORY DEVICE”;
International Patent Application No. PCT / US05 / 11533 filed on April 1, 2005 under the name “A SYSTEM AND METHOD THE FOR CHARACTOR RECOGNITION”,
International Patent Application No. PCT / US05 / 13586, filed April 6, 2005 under the name “SCANNING APPARATUS AND RELATED TECHNIQUES”,
International Patent Application No. PCT / US05 / 12510 filed on April 12, 2005 under the name "ADDING VALUE TO A RENDERED DOCUMENT".

本出願は、以下の米国仮特許出願に更に関連し、これらの全体は引用により本明細書に組み込まれる:
2004年4月1日に出願された米国出願第60/559,226号、2004年4月1日に出願された出願第60/558,893号、2004年4月1日に出願された出願第60/558,968号、2004年4月1日に出願された出願第60/558,867号、2004年4月1日に出願された出願第60/559,278号、2004年4月1日に出願された出願第60/559,279号、2004年4月1日に出願された出願第60/559,265号、2004年4月1日に出願された出願第60/559,277号、2004年4月1日に出願された出願第60/558,969号、2004年4月1日に出願された出願第60/558,892号、2004年4月1日に出願された出願第60/558,760号、2004年4月1日に出願された出願第60/558,717号、2004年4月1日に出願された出願第60/558,499号、2004年4月1日に出願された出願第60/558,370号、2004年4月1日に出願された出願第60/558,789号、2004年4月1日に出願された出願第60/558,791号、2004年4月1日に出願された出願第60/558,527号、2004年4月2日に出願された出願第60/559,125号、2004年4月2日に出願された出願第60/558,909号、2004年4月2日に出願された出願第60/559,033号、2004年4月2日に出願された出願第60/559,127号、2004年4月2日に出願された出願第60/559,087号、2004年4月2日に出願された出願第60/559,131号、2004年4月6日に出願された出願第60/559,766号、2004年4月12日に出願された出願第60/561,768号、2004年4月19日に出願された出願第60/563,520号、2004年4月19日に出願された出願第60/563,485号、2004年4月23日に出願された出願第60/564,688号、2004年4月23日に出願された出願第60/564,846号、2004年4月30日に出願された出願第60/566,667号、2004年5月14日に出願された出願第60/571,381号、2004年5月14日に出願された出願第60/571,560号、2004年5月17日に出願された出願第60/571,715号、2004年7月19日に出願された出願第60/589,203号、2004年7月19日に出願された出願第60/589,201号、2004年7月19日に出願された出願第60/589,202号、2004年8月2日に出願された出願第60/598,821号、2004年8月18日に出願された出願第60/602,956号、2004年8月18日に出願された出願第60/602,925号、2004年8月18日に出願された出願第60/602,947号、2004年8月18日に出願された出願第60/602,897号、2004年8月18日に出願された出願第60/602,896号、2004年8月18日に出願された出願第60/602,930号、2004年8月18日に出願された出願第60/602,898号、2004年8月19日に出願された出願第60/603,466号、2004年8月19日に出願された出願第60/603,082号、2004年8月19日に出願された出願第60/603,081号、2004年8月20日に出願された出願第60/603,498号、2004年8月20日に出願された出願第60/603,358号、2004年8月23日に出願された出願第60/604,103号、2004年8月23日に出願された出願第60/604,098号、2004年8月23日に出願された出願第60/604,100号、2004年8月23日に出願された出願第60/604,102号、2004年8月27日に出願された出願第60/605,229号、2004年8月27日に出願された出願第60/605,105号、2004年9月27日に出願された出願第60/613,243号、2004年9月27日に出願された出願第60/613,628号、2004年9月27日に出願された出願第60/613,632号、2004年9月27日に出願された出願第60/613,589号、2004年9月27日に出願された出願第60/613,242号、2004年9月27日に出願された出願第60/613,602号、2004年9月27日に出願された出願第60/613,340号、2004年9月27日に出願された出願第60/613,634号、2004年9月27日に出願された出願第60/613,461号、2004年9月27日に出願された出願第60/613,455号、2004年9月27日に出願された出願第60/613,460号、2004年9月27日に出願された出願第60/613,400号、2004年9月27日に出願された出願第60/613,456号、2004年9月27日に出願された出願第60/613,341号、2004年9月27日に出願された出願第60/613,361号、2004年9月27日に出願された出願第60/613,454号、2004年9月27日に出願された出願第60/613,339号、2004年9月27日に出願された出願第60/613,633号、2004年10月1日に出願された出願第60/615,378号、2004年10月1日に出願された出願第60/615,112号、2004年10月1日に出願された出願第60/615,538号、2004年10月7日に出願された出願第60/617,122号、2004年10月28日に出願された出願第60/622,906号、2004年12月6日に出願された出願第60/633,452号、2004年12月6日に出願された出願第60/633,678号、2004年12月6日に出願された出願第60/633,486号、2004年12月6日に出願された出願第60/633,453号、2004年12月9日に出願された出願第60/634,627号、2004年12月9日に出願された出願第60/634,739号、2005年1月26日に出願された出願第60/647,684号、2005年1月31日に出願された出願第60/648,746号、2005年2月15日に出願された出願第60/653,372号、2005年2月16日に出願された出願第60/653,663号、2005年2月16日に出願された出願第60/653,669号、2005年2月16日に出願された出願第60/653,899号、2005年2月16日に出願された出願第60/653,679号、2005年2月16日に出願された出願第60/653,847号、2005年2月17日に出願された出願第60/654,379号、2005年2月18日に出願された出願第60/654,368号、2005年2月18日に出願された出願第60/654,326号、2005年2月18日に出願された出願第60/654,196号、2005年2月22日に出願された出願第60/655,279号、2005年2月22日に出願された出願第60/655,280号、2005年2月22日に出願された出願第60/655,987号、2005年2月22日に出願された出願第60/655,697号、2005年2月22日に出願された出願第60/655,281号、2005年2月28日に出願された出願第60/657,309号、2006年7月24日に出願された出願第60/833,131号、2006年9月8日に出願された出願第60/843,362号、2006年9月15日に出願された出願第60/844,894号、2006年9月15日に出願された出願第60/844,893号、2006年9月18日に出願された出願第60/845,604号、及び2007年4月5日に出願された出願第60/910,438号。
This application is further related to the following US provisional patent applications, all of which are incorporated herein by reference:
US application 60 / 559,226 filed April 1, 2004, application 60 / 558,893 filed April 1, 2004, application filed April 1, 2004 No. 60 / 558,968, Application No. 60 / 558,867 filed on April 1, 2004, No. 60 / 559,278 filed Apr. 1, 2004, April 2004 Application 60 / 559,279 filed on 1st, Application 60 / 559,265 filed on 1st April 2004, Application 60/559, filed 1st April 2004, No. 277, Application No. 60 / 558,969 filed on Apr. 1, 2004, No. 60 / 558,892 filed Apr. 1, 2004, filed Apr. 1, 2004. No. 60 / 558,760, 2 Application No. 60 / 558,717 filed on April 1, 2004, Application No. 60 / 558,499 filed on April 1, 2004, Application No. filed on April 1, 2004 No. 60 / 558,370, Application No. 60 / 558,789 filed on Apr. 1, 2004, No. 60 / 558,791 filed Apr. 1, 2004, Apr. 1, 2004 Application 60 / 558,527, filed on April 2, 2004, Application 60 / 559,125, filed April 2, 2004, Application 60 / 558,909, filed April 2, 2004 No. 60 / 559,033 filed on Apr. 2, 2004, No. 60 / 559,127 filed Apr. 2, 2004, filed Apr. 2, 2004 Application No. 60 / 559,087, 2004 Application No. 60 / 559,131 filed on Apr. 2, Application No. 60 / 559,766 filed Apr. 6, 2004, Application No. 60 / filed Apr. 12, 2004 No. 561,768, Application No. 60 / 563,520 filed on April 19, 2004, No. 60 / 563,485, filed Apr. 19, 2004, April 23, 2004. Application No. 60 / 564,688, Application No. 60 / 564,846 filed on Apr. 23, 2004, Application No. 60 / 566,667 filed Apr. 30, 2004, Application No. 60 / 571,381 filed on May 14, 2004, Application No. 60 / 571,560 filed on May 14, 2004, Application No. filed on May 17, 2004 60 / 571,715 Application No. 60 / 589,203 filed on July 19, 2004, Application No. 60 / 589,201 filed on July 19, 2004, Application filed on July 19, 2004 No. 60 / 589,202, Application No. 60 / 598,821 filed on August 2, 2004, No. 60 / 602,956, filed Aug. 18, 2004, August 2004 Application 60 / 602,925 filed on 18th, Application 60 / 602,947 filed 18th August 2004, Application 60/602 filed 18th August 2004 No. 897, Application No. 60 / 602,896 filed on August 18, 2004, Application No. 60 / 602,930 filed Aug. 18, 2004, filed August 18, 2004 Application No. 60/6 No. 2,898, Application No. 60 / 603,466, filed Aug. 19, 2004, Application No. 60 / 603,082, filed Aug. 19, 2004, Aug. 19, 2004. Application No. 60 / 603,081, Application No. 60 / 603,498, filed Aug. 20, 2004, Application No. 60 / 603,358, filed Aug. 20, 2004, Application No. 60 / 604,103 filed on Aug. 23, 2004, Application No. 60 / 604,098 filed on Aug. 23, 2004, Application No. filed on Aug. 23, 2004 No. 60 / 604,100, Application No. 60 / 604,102 filed Aug. 23, 2004, No. 60 / 605,229 filed Aug. 27, 2004, Aug. 27, 2004. Filed on the day Application No. 60 / 605,105, Application No. 60 / 613,243 filed on Sep. 27, 2004, Application No. 60 / 613,628 filed Sep. 27, 2004, No. 2004 Application No. 60 / 613,632, filed on May 27, Application No. 60 / 613,589, filed Sep. 27, 2004, Application No. 60/613, filed Sep. 27, 2004 No. 242, Application No. 60 / 613,602 filed on Sep. 27, 2004, No. 60 / 613,340 filed Sep. 27, 2004, filed Sep. 27, 2004 Application No. 60 / 613,634, Application No. 60 / 613,461 filed on Sep. 27, 2004, Application No. 60 / 613,455 filed Sep. 27, 2004, 2004 September 2 Application 60 / 613,460 filed on 7th, Application 60 / 613,400 filed on 27th September 2004, Application 60/613 filed on 27th September 2004 No. 456, Application No. 60 / 613,341 filed on Sep. 27, 2004, No. 60 / 613,361 filed Sep. 27, 2004, filed Sep. 27, 2004. Application No. 60 / 613,454, Application No. 60 / 613,339 filed on Sep. 27, 2004, Application No. 60 / 613,633 filed Sep. 27, 2004, 2004 Application 60 / 615,378, filed October 1, Application 60 / 615,112, filed October 1, 2004, Application 60/615, filed October 1, 2004 615,538, Application No. 60 / 617,122 filed on Oct. 7, 2004, Application No. 60 / 622,906 filed on Oct. 28, 2004, Application No. filed on Dec. 6, 2004 No. 60 / 633,452, Application No. 60 / 633,678, filed Dec. 6, 2004, No. 60 / 633,486, filed Dec. 6, 2004, Dec. 6, 2004 Application No. 60 / 633,453, filed on Dec. 9, Application No. 60 / 634,627, filed Dec. 9, 2004, Application No. 60 / 634,739, filed Dec. 9, 2004 No. 60 / 647,684, filed Jan. 26, 2005, No. 60 / 648,746, filed Jan. 31, 2005, filed Feb. 15, 2005 Application 60 / No. 53,372, Application No. 60 / 653,663 filed on Feb. 16, 2005, No. 60 / 653,669 filed Feb. 16, 2005, Feb. 16, 2005. Application 60 / 653,899, application 60 / 653,679 filed February 16, 2005, application 60 / 653,847 filed February 16, 2005, Application No. 60 / 654,379 filed on Feb. 17, 2005, Application No. 60 / 654,368 filed on Feb. 18, 2005, Application No. filed on Feb. 18, 2005 No. 60 / 654,326, Application No. 60 / 654,196 filed on Feb. 18, 2005, No. 60 / 655,279 filed Feb. 22, 2005, Feb. 22, 2005 Filed on the day Application No. 60 / 655,280, Application No. 60 / 655,987 filed on February 22, 2005, Application No. 60 / 655,697 filed on February 22, 2005, 2005 Application 60 / 655,281 filed February 22, Application 60 / 657,309 filed February 28, 2005, Application 60/657 filed July 24, 2006 No. 833,131, Application No. 60 / 843,362 filed on September 8, 2006, Application No. 60 / 844,894 filed on September 15, 2006, September 15, 2006 Application 60 / 844,893 filed, Application 60 / 845,604 filed September 18, 2006, and Application 60 / 910,438 filed April 5, 2007. .

(技術分野)
記載の技術は、レンダリング文書との対話の分野を対象とし、更に具体的にはレンダリング文書から取り込まれた情報に応答して動作することを対象とする。
(Technical field)
The described techniques are directed to the field of interaction with rendered documents, and more specifically to operate in response to information captured from rendered documents.

紙文書は、コンピュータ時代における紙文書の急増により分かるように永久的な魅力を有する。現在ほど紙文書の印刷及び発行が容易なときはない。電子文書の方が複製、送信、サーチ、及び編集が容易であるにも関わらず、紙文書の方が優勢である。   Paper documents have a permanent appeal as can be seen by the proliferation of paper documents in the computer age. Printing and publishing paper documents is not as easy as it is today. Even though electronic documents are easier to duplicate, send, search, and edit, paper documents are dominant.

紙文書の普及と電子文書の利点を考慮すると、両方の利益を組み合わせることが有用となる。   Considering the prevalence of paper documents and the benefits of electronic documents, it is useful to combine the benefits of both.

コアシステムの1つの実施形態における情報の流れを示すデータフロー図である。It is a data flow figure showing the flow of information in one embodiment of a core system. 一般的な動作環境のコンテキストにおける本システムの典型的な実装に含まれるコンポーネントのコンポーネント図である。FIG. 2 is a component diagram of components included in an exemplary implementation of the system in the context of a general operating environment. スキャナの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of a scanner. システムが動作する典型的な環境を示すシステム図である。1 is a system diagram illustrating a typical environment in which a system operates. ユーザのキーワードの取り込みに応答して動作を実行するためにシステムによって通常実行されるステップを示すフロー図である。FIG. 6 is a flow diagram illustrating the steps normally performed by the system to perform an action in response to a user keyword capture. キーワード動作テーブルのサンプルコンテンツを示すテーブル図である。It is a table figure which shows the sample content of a keyword operation | movement table. 特定の文書に対する文書動作マップのサンプルコンテンツを示すテーブル図である。It is a table figure which shows the sample content of the document action map with respect to a specific document. キーワードに関係付けられていないユーザ取り込み資料に応答して動作を実行するためにシステムによって通常実行されるステップを示すフロー図である。FIG. 5 is a flow diagram illustrating the steps typically performed by the system to perform an action in response to user-ingested material not associated with a keyword. 文書の識別に応答して広告を提示するためにシステムによって通常実行されるステップを示すフロー図である。FIG. 5 is a flow diagram illustrating the steps typically performed by the system to present an advertisement in response to document identification.

概要
レンダリング文書から光学的又は音響的にキーワードを取り込むことに応答して、或いは取り込まれたキーワードに基づいて文書を識別することに応答して、広告などの動作をトリガするためのソフトウェア及び/又はハードウェアシステムについて説明する(「システム」)。本明細書で使用されるキーワードとは、1つ又はそれ以上のワード、アイコン、記号、又は画像を意味する。本出願では用語「ワード」及び「複数形のワード」が使用されることが多いが、幾つかの実施形態では、アイコン、記号、又は画像を用いることができる。本明細書で使用されるキーワードはまた、1つ又はそれ以上の隣接する記号から構成されるフレーズを指す。本明細書で使用されるキーワードは、レンダリング文書で扱われたトピック又はサブジェクトに関するワード、或いは取り込みに応答して識別されたレンダリング文書の一部分を含む。
Overview Software for triggering actions such as advertisements in response to optically or acoustically capturing keywords from a rendered document, or in response to identifying a document based on the captured keywords The hardware system will be described (“system”). As used herein, a keyword means one or more words, icons, symbols, or images. While the terms “word” and “plural word” are often used in this application, in some embodiments, icons, symbols, or images may be used. A keyword as used herein also refers to a phrase composed of one or more adjacent symbols. The keywords used herein include words relating to topics or subjects addressed in the rendered document, or a portion of the rendered document identified in response to the capture.

キーワードは、「過負荷状態」であると考えられ、すなわち、キーワードは、テキスト又は記号のようなユーザにとって一般的な(例えば視覚的な)意味を超えた、ある関連する意味或いは動作を有する。幾つかの実施形態では、キーワードと意味又は動作との間の関連付けは、マークアッププロセス又はデータによって設定される。幾つかの実施形態では、キーワード又は文書と意味又は動作との間の関連付けは、取り込み又は識別が行われた時点でシステムに既知となる。幾つかの実施形態では、キーワード又は文書と意味又は動作との間の関連付けは、取り込み又は識別が行われた後に設定される。意味又は動作は、任意選択的に、関連の注釈又は関係のあるコンテンツを表示する段階、ディスプレイ上で見ることができる幾つかのキーワードが特別な意味を有するか或いはすぐに実施可能である(例えば、これらはマウスクリックに応答し、カーソルがキーワードの上に止まった場合にシステムが利用可能な選択肢のメニューを提示するなど)ことを動的ディスプレイ上に視覚的に示す段階を含むことができる。   Keywords are considered “overloaded”, that is, keywords have certain associated meanings or actions beyond the general (eg, visual) meaning for the user, such as text or symbols. In some embodiments, the association between keywords and meanings or actions is set by a markup process or data. In some embodiments, the association between a keyword or document and a meaning or action is known to the system when it is captured or identified. In some embodiments, the association between keywords or documents and meanings or actions is established after capture or identification has taken place. Semantics or actions are optionally in the stage of displaying relevant annotations or relevant content, some keywords that can be seen on the display have special meaning or can be implemented immediately (e.g. These can include visual indications on a dynamic display that responds to mouse clicks and the system presents a menu of available choices when the cursor rests on a keyword.

幾つかの実施形態では、本システムは、文書を識別し、ユーザに提示される広告をトリガ及び選択するために文書のコンテンツを使用する。場合によっては、システムは、文書を解析して、文書のコンテンツを1つ又はそれ以上のキーワードに関連付けることができる。場合によっては、システムは、全文書のコンテンツに基づいて広告(動作)を選択する。場合によっては、システムは、文書の一部分に基づいて広告を選択する。場合によっては、システムは、文書を識別するときに使用されていない文書のコンテンツに基づいて広告を選択する。   In some embodiments, the system uses the content of the document to identify the document and to trigger and select advertisements presented to the user. In some cases, the system can parse the document and associate the content of the document with one or more keywords. In some cases, the system selects an advertisement (action) based on the content of the entire document. In some cases, the system selects an advertisement based on a portion of the document. In some cases, the system selects an advertisement based on the content of the document that is not used when identifying the document.

第1部−導入部
1.システムの性質
対応電子文書を有するあらゆる紙文書に対して、対応電子文書を識別できる情報の離散的な量が紙文書において存在する。幾つかの実施形態では、システムは、例えばハンドヘルドスキャナを用いて紙文書から取り込まれたテキストのサンプルを使用し、文書の対応電子文書を識別して位置特定する。ほとんどの場合、機能によって必要とされるテキストの量は極めて小さく、文書からのテキストの数ワードが、紙文書に対する識別子として及びその対応電子文書へのリンクとして機能できることが多い。更に、本システムは、その数ワードを使用して、文書だけでなく文書内のロケーションも識別することができる。
Part 1-Introduction 1. System Properties For every paper document that has a corresponding electronic document, there is a discrete amount of information in the paper document that can identify the corresponding electronic document. In some embodiments, the system uses a sample of text captured from a paper document, for example using a handheld scanner, to identify and locate the corresponding electronic document of the document. In most cases, the amount of text required by a function is very small and a few words of text from a document can often serve as an identifier for a paper document and a link to its corresponding electronic document. In addition, the system can use the few words to identify not only the document but also the location within the document.

従って、紙文書とその対応デジタル文書は、本明細書で説明されたシステムを使用して多くの有用な方法で関連付けることができる。   Thus, a paper document and its corresponding digital document can be associated in many useful ways using the system described herein.

1.1.将来の俯瞰
本システムが、紙文書におけるテキストの一部を設定された特定のデジタルエンティティに関連付けると、システムは、その関連付けに膨大な量の機能性を構築することができる。
1.1. Future Overview When the system associates a portion of text in a paper document with a specific digital entity that has been set, the system can build a huge amount of functionality on that association.

多くの紙文書が、ワールドワイドウェブ上でもしくは他の何らかのオンラインデータベース又は文書コーパスからアクセス可能である、或いは手数料又は購読料の支払いなどに応じてアクセス可能にすることができる対応電子文書を有するケースが増えてきた。最も単純なレベルでは、ユーザが紙文書の数ワードをスキャンしたときに、システムは、この電子文書又はその一部分を取り出す、或いはこれを表示する、誰かに電子メールする、購入する、印刷する、もしくはウェブページに掲載することができる。更なる実施例として、ある人が朝食中に読んでいる本の数ワードをスキャンすることにより、その人が出勤するために運転を始めた時点からその人の車内にあるオーディオ−ブック版を読み始めることができ、或いは、プリンターカートリッジのシリアルナンバーをスキャンすることにより、交換品の注文プロセスを開始することができる。   Many paper documents have corresponding electronic documents that can be accessed on the World Wide Web or from some other online database or document corpus, or can be made accessible, for example, upon payment of fees or subscription fees Has increased. At the simplest level, when a user scans a few words of a paper document, the system retrieves or displays this electronic document or part thereof, emails someone, purchases, prints, or Can be posted on a web page. As a further example, by scanning a few words of a book that a person is reading during breakfast, the audio-book version in the person's car is read from when the person started driving to work. Alternatively, the replacement ordering process can be initiated by scanning the serial number of the printer cartridge.

本システムは、文書を書く、印刷する、及び出版するといった現在のプロセスを変えることを必要とせずに、「紙/デジタル統合」のこれら及び他の多くの実施例を実装し、こうした従来のレンダリング文書にデジタル機能性の全く新しいレイヤをもたらす。   The system implements these and many other examples of “paper / digital integration” without the need to change the current process of writing, printing, and publishing documents, and such conventional rendering. Bring a whole new layer of digital functionality to your documents.

1.2.用語
本システムの一般的な使用は、光学スキャナを使用して紙文書からテキストをスキャンすることから始まるが、他のタイプの文書からの他の取り込み方法も等しく適用可能である点に留意することは重要である。従って、システムは、レンダリング文書からテキストをスキャン又は取り込むものとして説明された場合があり、ここでこれらの用語は以下のように定義される。
1.2. Terminology The general use of the system begins with scanning text from a paper document using an optical scanner, but note that other capture methods from other types of documents are equally applicable. Is important. Thus, the system may have been described as scanning or capturing text from a rendered document, where these terms are defined as follows:

レンダリング文書は、印刷文書、或いはディスプレイ又はモニタ上に表示された文書である。永久的な形式又は一時的な表示のいずれであっても、人間に知覚可能な文書である。   The rendered document is a printed document or a document displayed on a display or monitor. A document that can be perceived by humans in either a permanent form or a temporary display.

スキャン又は取り込みは、レンダリング文書から情報を取得するための体系化された検査プロセスである。このプロセスは、スキャナ又はカメラ(例えば携帯電話のカメラ)を使用した光学的取り込みを含むことができ、或いは文書から音声取り込み装置への読み込み又はキーパッド又はキーボードへのタイプを含むことができる。幾つかの実施形態では、光学的取り込みは、動的ディスプレイの全て又は一部上でどのデータがユーザに光学的に可視であるか(例えばレンダリングされるか)を判定することによって行われる。可視データのこの光学的取り込みは、ディスプレイの記憶バッファを解析することによって(例えば、ディスプレイバッファ内に記憶された画像に光学式文字認識又は他の画像解析を実施することによって)、動的表示に対して行われた変更を傍受し解析することによって(例えば、ユーザがウィンドウ内をスクロールすることによって見えるデータを変更したときにディスプレイに書き込まれる新しいデータを解析することによって)、表示データの生成又は表示データへのアクセスを担うアプリケーション又はオペレーティングシステムのコンポーネントに表示データについての情報を要求することによって、或いはユーザが見ているキーワード及び他のコンテンツが何であるかを他の方法で判定することによって達成することができる。幾つかの実施形態では、動的ディスプレイ上でレンダリングされたテキストは、一連の署名に変換され(例えば、スライディングウィンドウにおける100文字の連続したグループを取ることによって)、データベースに照会して、これらの署名のいずれかに対して関連する動作又はコンテンツが存在するかどうかを判定する。スキャン及び取り込みの実施例については、セクション15を参照されたい。   Scanning or capturing is a systematic inspection process for obtaining information from a rendered document. This process can include optical capture using a scanner or camera (eg, a cell phone camera), or it can include reading from a document to an audio capture device or typing on a keypad or keyboard. In some embodiments, optical capture is performed by determining what data is optically visible (eg, rendered) to the user on all or part of the dynamic display. This optical capture of visible data can be achieved by analyzing the display's storage buffer (eg, by performing optical character recognition or other image analysis on the image stored in the display buffer) for dynamic display. Generating and / or generating display data by intercepting and analyzing changes made to the display (eg, by analyzing new data written to the display when the user changes the visible data by scrolling through the window) Achieved by requesting information about the display data from the application or operating system component responsible for accessing the display data, or otherwise determining what keywords and other content the user is viewing can doIn some embodiments, text rendered on a dynamic display is converted into a series of signatures (eg, by taking a contiguous group of 100 characters in a sliding window) and querying the database to identify these It is determined whether there is an associated action or content for any of the signatures. See Section 15 for scan and capture examples.

2.システムの導入
このセクションでは、紙/デジタル統合のためのシステムを構成するデバイス、プロセス、及びシステムの幾つかを説明する。種々の実施形態では、システムは、基本機能を提供するこの基礎コア上に様々なサービス及びアプリケーションを構築する。
2. System Introduction This section describes some of the devices, processes, and systems that make up the system for paper / digital integration. In various embodiments, the system builds various services and applications on this basic core that provides basic functionality.

2.1.プロセス
図1は、コアシステムの1つの実施形態における情報の流れを示すデータフロー図である。他の実施形態は、本明細書で示される段階又は要素の全てを使用しない場合があるが、より多くを使用するものもある。
2.1. Process FIG. 1 is a data flow diagram illustrating the flow of information in one embodiment of a core system. Other embodiments may not use all of the steps or elements shown herein, but others use more.

レンダリング文書からのテキストが、通常、光学スキャナによる光学的形式で或いはボイスレコーダによる音声形式で取り込まれ(100)、次いで、この画像又は音声データは、例えば取り込みプロセスのアーティファクトを除去するため、或いは信号対雑音比を改善するために処理される(102)。次いで、OCR、音声認識、又は自己相関などの認識プロセス104は、データを幾つかの実施形態ではテキスト、テキストオフセット、又は他の記号から構成される1つ又はそれ以上の署名に任意選択的に変換する。或いは、システムは、レンダリング文書から文書署名を抽出する他の形式を実行する。署名は、幾つかの実施形態において実施可能なテキスト表現形式のセットを表す。このプロセスは、他の段階からのフィードバックにより影響を受ける可能性があり、例えば、サーチプロセス及びコンテキスト解析110は、取り込みが生じる可能性のある幾つかの候補文書を識別した場合、元の取り込みの可能な解釈が狭くなる可能性がある。   Text from the rendered document is typically captured (100) in optical form by an optical scanner or in speech form by a voice recorder, and this image or sound data is then used, for example, to remove artifacts of the capture process or signal Processed to improve the noise to noise ratio (102). A recognition process 104, such as OCR, speech recognition, or autocorrelation, then optionally converts the data into one or more signatures that in some embodiments consist of text, text offsets, or other symbols. Convert. Alternatively, the system performs other forms of extracting a document signature from the rendered document. A signature represents a set of textual representation formats that can be implemented in some embodiments. This process may be affected by feedback from other stages, for example, if the search process and context analysis 110 identifies several candidate documents that may be ingested, Possible interpretations may be narrowed.

後処理106段階は、認識プロセスの出力を取得し、これをフィルタ処理し、又は有用とすることができるような他のオペレーションを実行することができる。実施される実施形態に応じて、この段階では、ユーザの意図を伝えるために本質的に十分な情報を包含するフレーズ又は記号が取り込まれた場合など、後の段階を参照することなく即座に取られる幾つかの直接的動作107を推測可能とすることができる。これらの場合、対応デジタル文書を参照するか、或いはシステムに既知である必要もない。   The post-processing 106 stage can take the output of the recognition process and perform other operations that can be filtered or useful. Depending on the embodiment being implemented, this stage may be taken immediately without reference to a later stage, such as when a phrase or symbol containing essentially enough information to convey the user's intention is captured. Some direct actions 107 can be made speculative. In these cases, there is no need to reference the corresponding digital document or to be known to the system.

しかしながら、通常、次の段階は、サーチで使用するクエリー108又はクエリーのセットを構成することになる。クエリー構成の幾つかの態様は、使用されるサーチプロセスに依存する場合があり、よって、次の段階まで実行できないが、明らかに誤って認識された文字又は不適切な文字の除去など、事前に実行できる幾つかのオペレーションが存在するであろう。   However, typically the next stage will constitute a query 108 or set of queries for use in the search. Some aspects of query construction may depend on the search process used, and thus cannot be performed until the next stage, but in advance such as removal of clearly misrecognized characters or inappropriate characters. There will be several operations that can be performed.

次いで、1つ又は複数のクエリーは、サーチ及びコンテキスト解析段階110にわたされる。ここで本システムは、任意選択的に、元のデータが取り込まれた文書を識別しようと試みる。これを行うために、システムは通常、サーチインデックス及びサーチエンジン112、ユーザについての知識114、及びユーザのコンテキスト又は取り込みを行ったコンテキストについての知識116を使用する。サーチエンジン112は、特にレンダリング文書について、これらの対応デジタル文書について、及びウェブ(インターネットプレゼンス)を有する文書についての情報を利用及び/又はインデックス作成を行うことができる。サーチエンジン112は、これらのソースの多くに書き込むこと、並びにこれらから読み取ることができ、上述のように、例えば、候補文書の知識に基づいて言語、フォント、レンダリング及び可能性のある次のワードについての情報を認識システム104に与えることによって、プロセスの他の段階に情報を供給することができる。   The one or more queries are then passed to the search and context analysis stage 110. Here, the system optionally attempts to identify the document in which the original data was captured. To do this, the system typically uses a search index and search engine 112, knowledge 114 about the user, and knowledge 116 about the user's context or the context in which it was captured. The search engine 112 can utilize and / or index information about, among other things, rendering documents, about these corresponding digital documents, and about documents with web (Internet presence). The search engine 112 can write to and read from many of these sources and, as described above, for example, for the language, font, rendering and possible next word based on knowledge of the candidate document. Can be provided to the recognition system 104 to provide information to other stages of the process.

状況によっては、次の段階は、識別された1つ又は複数の文書のコピーを取り出すことになる(120)。文書のソース124は、例えばローカルファイリングシステム又はデータベースもしくはウェブサーバから直接アクセス可能とすることができ、或いは、認証、セキュリティ、又は支払いを実施することができる幾つかのアクセスサービス122を介してコンタクトをとる必要があるものとすることができ、或いは、所望のフォーマットへの文書の変換などの他のサービスを提供することができる。   In some situations, the next stage will retrieve 120 copies of the identified document or documents. The document source 124 can be directly accessible, for example, from a local filing system or database or web server, or contacted through several access services 122 that can perform authentication, security, or payment. Other services can be provided, such as conversion of documents to a desired format.

本システムのアプリケーションは、追加の機能、或いはデータと文書の一部又は全てとの関連付けを利用することができる。例えば、セクション10.4で検討される広告アプリケーションは、特定の広告メッセージ又はサブジェクトの文書の一部分との関連付けを使用することができる。この追加の関連する機能又はデータは、文書上の1つ又はそれ以上のオーバーレイと考えることができ、本明細書では「マークアップ」と呼ばれる。次いで、プロセス130の次の段階は、取り込まれたデータに関するあらゆるマークアップを識別することである。このようなマークアップは、ユーザ、起案者、又は発行者、或いは他の何れかの当事者によって提供することができ、あるソース132から直接アクセス可能とすることができ、或いは幾つかのサービス134によって生成することができる。種々の実施形態では、マークアップは、レンダリング文書及び/又はレンダリング文書の対応デジタル文書に、或いはこれらの文書のいずれか又は両方のグループに関連付けて適用することができる。   Applications of the system can take advantage of additional features or associations between data and some or all of the documents. For example, the advertising application discussed in Section 10.4 may use an association with a particular advertising message or a portion of a subject's document. This additional related function or data can be thought of as one or more overlays on the document and is referred to herein as “markup”. The next stage of process 130 is then identifying any markup for the captured data. Such markup can be provided by the user, drafter, or issuer, or any other party, can be directly accessible from some source 132, or generated by some service 134. can do. In various embodiments, the markup can be applied to the rendered document and / or the corresponding digital document of the rendered document, or in association with either or both groups of these documents.

最後に、より早い段階の結果として、幾つかの動作をとることができる(140)。これらは、見つけられた情報を単に記録するなどのデフォルト動作とすることができ、又はデータもしくは文書に依存することができ、或いはこれらはマークアップ解析から導出することができる。場合によっては、動作は単に、データを別のシステムにわたすことになる。場合によっては、レンダリング文書における特定の時点での取り込みに好適な種々の実施可能な動作が、例えばローカルディスプレイ332上、コンピュータディスプレイ212又は携帯電話又はPDAディスプレイ216上の関連するディスプレイ上でメニューとしてユーザに提示されることになる。ユーザがメニューに応答しない場合、デフォルトの動作を行うことができる。   Finally, some actions can be taken as a result of the earlier stages (140). These can be default actions such as simply recording the information found, or can depend on data or documents, or they can be derived from markup analysis. In some cases, the action simply passes the data to another system. In some cases, various possible actions suitable for capture at a particular point in the rendered document are displayed as menus on the local display 332, the computer display 212 or the associated display on the mobile phone or PDA display 216, for example, as a user. Will be presented. If the user does not respond to the menu, a default action can be performed.

2.2.コンポーネント
図2は、一般的な動作環境の状況におけるシステムの一般的な実装に含まれるコンポーネントのコンポーネント図である。図示のように、動作環境は、1つ又はそれ以上の光学スキャン取り込み装置202又は音声取り込み装置204を含む。幾つかの実施形態では、同じデバイスが両方の機能を実行する。各取り込み装置は、直接配線又は無線接続のいずれかを使用して、或いは有線又は無線接続を使用して通信できるネットワーク220を介してコンピュータ212及び移動局216(例えば、携帯電話又はPDA)などのシステムの他の部分と通信することができ、ネットワーク220には通常、無線基地局214を含む。幾つかの実施形態では、取り込み装置は、移動局に統合され、任意選択的には、音声通信及び画像撮像用のデバイスで使用される音声及び/又は光コンポーネントの一部を共有する。
2.2. Components FIG. 2 is a component diagram of components included in a typical implementation of a system in the context of a typical operating environment. As shown, the operating environment includes one or more optical scan capture devices 202 or audio capture devices 204. In some embodiments, the same device performs both functions. Each capture device, such as a computer 212 and a mobile station 216 (eg, a mobile phone or PDA) via a network 220 that can communicate using either a direct wiring or wireless connection, or using a wired or wireless connection, etc. The network 220 typically includes a radio base station 214 that can communicate with other parts of the system. In some embodiments, the capture device is integrated into the mobile station and optionally shares some of the audio and / or optical components used in the device for audio communication and imaging.

コンピュータ212は、スキャンデバイス202及び204からの指令を処理するためのコンピュータ実行可能命令を包含するメモリを含むことができる。一実施例として、指令は、識別子(スキャンデバイス202/204のシリアルナンバー或いはスキャナのユーザを部分的に又は一意的に識別する識別子など)、スキャンコンテキスト情報(例えば、スキャン時刻、スキャンのロケーション、その他)、及び/又はスキャン文書を一意に識別するのに使用されるスキャン情報(テキスト文字列など)を含むことができる。他の実施形態では、動作環境は、より多く又はより少ないコンポーネントを含むことができる。   Computer 212 may include a memory that contains computer-executable instructions for processing instructions from scan devices 202 and 204. As an example, the instructions may include an identifier (such as a serial number of the scan device 202/204 or an identifier that partially or uniquely identifies the scanner user), scan context information (eg, scan time, scan location, etc. ) And / or scan information (such as text strings) used to uniquely identify the scanned document. In other embodiments, the operating environment may include more or fewer components.

サーチエンジン232、文書ソース234、ユーザアカウントサービス236、マークアップサービス238、及び他のネットワークサービス239もまた、ネットワーク220上で利用可能である。ネットワーク220は、企業イントラネット、公衆インターネット、携帯電話ネットワーク、又は他の何らかのネットワーク、もしくは上記のいずれかの相互接続とすることができる。   Search engine 232, document source 234, user account service 236, markup service 238, and other network services 239 are also available on network 220. The network 220 can be a corporate intranet, public internet, cellular network, or some other network, or any of the interconnections described above.

デバイスを互いに結合させる方法に関わらず、これらは全て公知の商取引及び通信プロトコル(例えば、インターネットプロトコル(IP))に従って動作可能とすることができる。種々の実施形態では、スキャンデバイス202、コンピュータ212、及び移動局216の機能及び特徴は、全体的に又は部分的に1つのデバイスに統合することができる。従って、スキャンデバイス、コンピュータ、及び移動局という用語は、デバイスが、スキャンデバイス202、コンピュータ212、及び移動局216の機能又は能力を組み込んでいるかどうかに応じて同じデバイスを指すことができる。更に、サーチエンジン232、文書ソース234、ユーザアカウントサービス236、マークアップサービス238、及び他のネットワークサービス239の機能の一部又は全ては、デバイスのいずれか及び/又は図示されていない他のデバイス上に実装できる。   Regardless of how the devices are coupled to each other, they can all be operable according to known commerce and communication protocols (eg, Internet Protocol (IP)). In various embodiments, the functions and features of the scanning device 202, the computer 212, and the mobile station 216 can be fully or partially integrated into one device. Thus, the terms scanning device, computer, and mobile station can refer to the same device depending on whether the device incorporates the functions or capabilities of scanning device 202, computer 212, and mobile station 216. Further, some or all of the functionality of search engine 232, document source 234, user account service 236, markup service 238, and other network services 239 may be on any of the devices and / or other devices not shown. Can be implemented.

2.3.取り込み装置
上述のように、取り込み装置は、レンダリング文書から画像データを取り込む光学スキャナを使用して、或いは、テキストのユーザ音読を取り込む音声記録デバイス或いは他の方法を使用して、テキストを取り込むことができる。取り込み装置の幾つかの実施形態はまた、バーコードなどの機械可読コードを含む画像、グラフィカル記号、及びアイコン、その他を取り込むことができる。デバイスは極めて単純にでき、システム内の他の場所に常駐する他の機能に応じた変換器、幾つかの記憶装置、及びデータインターフェース程度のものからなることができ、或いは、更にフル装備のデバイスとすることができる。例証として、このセクションでは、光学スキャナの周辺をベースとし、且つ妥当な数の機能を備えたデバイスについて説明する。
2.3. Capture Device As described above, a capture device can capture text using an optical scanner that captures image data from a rendered document, or using an audio recording device or other method that captures user text readings. it can. Some embodiments of the capture device can also capture images, graphical symbols and icons, etc., including machine readable codes such as barcodes. The device can be quite simple and can consist of as many converters, several storage devices and data interfaces as other functions resident elsewhere in the system, or even a full-featured device It can be. As an illustration, this section describes a device that is based around the optical scanner and that has a reasonable number of functions.

スキャナは、画像を取り込んでデジタル化する公知のデバイスである。コピー機業界の副産物である最初のスキャナは、比較的大きなデバイスであり、一度に文書ページ全体を取り込んでいた。最近では、ペン形ハンドヘルドデバイスのようなポータブル光学スキャナが好都合な外形寸法で導入されている。   A scanner is a known device that captures and digitizes an image. The first scanner, a byproduct of the copier industry, was a relatively large device that captured entire document pages at once. Recently, portable optical scanners such as pen-type handheld devices have been introduced with convenient dimensions.

幾つかの実施形態では、ポータブルスキャナを用いて、レンダリング文書からテキスト、グラフィクス、又は記号をスキャンする。ポータブルスキャナは、レンダリング文書からテキスト、記号、グラフィクスなどを取り込むスキャン要素を有する。幾つかの実施形態では、紙に印刷された文書に加えて、レンダリング文書は、CRTモニタ又はLCDディスプレイなどの画面上に表示されている文書を含む。   In some embodiments, a portable scanner is used to scan text, graphics, or symbols from the rendered document. Portable scanners have scanning elements that capture text, symbols, graphics, etc. from a rendered document. In some embodiments, in addition to documents printed on paper, rendered documents include documents displayed on a screen such as a CRT monitor or LCD display.

図3は、スキャナ302の実施形態のブロック図である。スキャナ302は、レンダリング文書から情報をスキャンし、これを機械互換性データに変換するための光学スキャンヘッド308、及び光学経路306、すなわち、通常はレンダリング文書からの画像をスキャンヘッドに伝達するレンズ、アパーチャ又は画像コンジットを含む。スキャンヘッド308は、電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)撮像デバイス、又は別のタイプの光センサを組み込むことができる。   FIG. 3 is a block diagram of an embodiment of the scanner 302. The scanner 302 scans information from the rendered document and converts it into machine compatible data and an optical scan head 308, and an optical path 306, a lens that normally conveys the image from the rendered document to the scan head, Includes aperture or image conduit. The scan head 308 can incorporate a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS) imaging device, or another type of photosensor.

マイクロフォン310及び関連の回路は、周囲の音(話し言葉を含む)を機械互換性信号に変換し、他の入力機能は、ボタン、スクロールホイール、又はタッチパッドなどの他の触覚センサ314の形態で存在する。   The microphone 310 and associated circuitry converts ambient sounds (including spoken language) into machine compatible signals, and other input functions exist in the form of other tactile sensors 314 such as buttons, scroll wheels, or touch pads. To do.

ユーザへのフィードバックは、視覚ディスプレイ又はインジケータライト332を介して、ラウドスピーカ又は他の音声変換器334を介して、及び振動モジュール336を介して実施可能である。   Feedback to the user can be performed via a visual display or indicator light 332, via a loudspeaker or other audio transducer 334, and via a vibration module 336.

スキャナ302は、種々の他のコンポーネントと対話するための論理回路326を含み、受信信号を異なるフォーマット及び/又は解釈情報に処理することができる。論理回路326は、RAM、ROM、フラッシュ、又は他の適切なメモリなどの関連の記憶装置330内に記憶されたデータ及びプログラム命令を読み書きするよう動作可能とすることができる。論理回路326は、クロックユニット328から時間信号を読み取ることができる。スキャナ302はまた、スキャンされた情報及び他の信号をネットワーク及び/又は関連するコンピューティングデバイスに伝達するためのインターフェース316を含む。幾つかの実施形態では、スキャナ302は、オンボード電源332を有することができる。他の実施形態では、スキャナ302は、ユニバーサルシリアルバス(USB)接続などの別のデバイスへのテザー接続から給電することができる。   The scanner 302 includes logic circuitry 326 for interacting with various other components and can process received signals into different formats and / or interpretation information. The logic circuit 326 may be operable to read and write data and program instructions stored in associated storage devices 330 such as RAM, ROM, flash, or other suitable memory. The logic circuit 326 can read the time signal from the clock unit 328. The scanner 302 also includes an interface 316 for communicating scanned information and other signals to the network and / or associated computing devices. In some embodiments, the scanner 302 can have an on-board power source 332. In other embodiments, the scanner 302 can be powered from a tether connection to another device, such as a universal serial bus (USB) connection.

スキャナ302の1つの用途の実施例として、読者は、スキャナ302によって新聞記事から何らかのテキストをスキャンすることができる。テキストは、スキャンヘッド308を介してビットマップ画像としてスキャンされる。論理回路326は、ビットマップ画像をクロックユニット328から読み取られた関連するタイムスタンプと共にメモリ330内に記憶される。論理回路326はまた、光学式文字認識(OCR)又は他のスキャン後処理をビットマップ画像に実行し、テキストに変換することができる。論理回路326は、任意選択的に、例えば、文字、記号、又はオブジェクトの反復発生の位置を特定するための畳み込み様プロセスを実行することによって画像から署名を抽出し、これらの反復要素の間の他の文字、記号、又はオブジェクトの間隔又は数を求めることができる。次に読者は、ビットマップ画像(又は、スキャン後処理が論理回路326によって実行された場合、テキスト又は他の署名)をインターフェース316を介して関連するコンピュータにアップロードすることができる。   As an example of one application of the scanner 302, a reader can scan some text from a newspaper article with the scanner 302. The text is scanned as a bitmap image via the scan head 308. Logic circuit 326 stores the bitmap image in memory 330 along with the associated timestamp read from clock unit 328. The logic circuit 326 can also perform optical character recognition (OCR) or other post-scan processing on the bitmap image and convert it to text. The logic circuit 326 optionally extracts a signature from the image, for example, by performing a convolution-like process to locate the occurrence of a character, symbol, or object iteration, between these iteration elements. The spacing or number of other characters, symbols, or objects can be determined. The reader can then upload the bitmap image (or text or other signature, if post-scan processing is performed by logic circuit 326) to the associated computer via interface 316.

スキャナ302の別の用途の実施例として、読者は、マイクロフォン310を音響取り込みポートとして使用することによって音声ファイルとして記事から何らかのテキストを取り込むことができる。論理回路326は、音声ファイルをメモリ328内に記憶させる。論理回路326はまた、音声ファイルに音声認識又は他のスキャン後処理を実行し、これをテキストに変換することができる。上記のように、読者は次いで、音声ファイル(又は論理回路326によって実行されるスキャン後処理により生成されるテキスト)をインターフェース316を介して関連するコンピュータにアップロードすることができる。   As an example of another application of the scanner 302, a reader can capture some text from an article as an audio file by using the microphone 310 as an acoustic capture port. The logic circuit 326 stores the audio file in the memory 328. Logic circuit 326 can also perform voice recognition or other post-scan processing on the audio file and convert it to text. As described above, the reader can then upload the audio file (or text generated by post-scan processing performed by logic 326) to the associated computer via interface 316.

第2部−コアシステムの領域の概要
紙−デジタル統合がより一般的になるにつれて、この統合を更に良く利用するように、或いはより効果的に実装できるようにするために変更することができる既存の技術の多くの態様が存在する。このセクションでは、これらの問題の一部を明らかにする。
Part 2-Overview of the Core System Domain As paper-digital integration becomes more common, existing ones that can be modified to make better use of this integration or to be able to be implemented more effectively There are many aspects of this technology. This section clarifies some of these issues.

3.サーチ
文書コーパス、更にワールドワイドウェブのような大きなコーパスをサーチすることは、キーボードを使用してサーチエンジンに送られるサーチクエリーを構成する通常のユーザにとって一般的なことになってきた。このセクション及び次のセクションでは、レンダリング文書からの取り込みによって発生したクエリーの構成、及びこのようなクエリーを処理するサーチエンジンの両方の態様を説明する。
3. Search Searching a document corpus, and even a large corpus such as the World Wide Web, has become commonplace for ordinary users who construct search queries that are sent to a search engine using a keyboard. This section and the next section describe aspects of both the construction of queries generated by ingestion from rendered documents and the search engine that processes such queries.

3.1.スキャン/スピーク/サーチクエリーとしてのタイプ
説明されたシステムの使用は、通常、上記のセクション1.2で言及されたものを含む幾つかの方法のいずれかを使用して、レンダリング文書から数ワードが取り込まれることで始まる。入力がテキストに変換するために何らかの解釈を必要とする場合、例えば、OCR又は音声入力の場合、文書コーパスを使用して認識プロセスを拡張できるように、システム内にエンドツーエンドフィードバックが存在することができる。エンドツーエンドフィードバックは、認識又は解釈の近似を行い、1つ又はそれ以上の候補一致文書のセットを識別し、次に候補文書における可能性のある一致からの情報を使用して認識又は解釈を更に改良又は限定することによって適用することができる。候補文書は、その考えられる関連性に応じて(例えば、これらの文書をスキャンした他のユーザの数、又はインターネット上のこれらの人気に基づいて)重み付けすることができ、これらの重みは、この反復認識プロセスにおいて適用することができる。
3.1. Types as Scan / Speak / Search Queries The use of the described system will typically result in several words from the rendered document using any of several methods, including those mentioned in section 1.2 above. It starts with being taken in. End-to-end feedback is present in the system so that the recognition process can be extended using a document corpus if the input requires some interpretation to be converted to text, for example in the case of OCR or speech input Can do. End-to-end feedback provides an approximation of recognition or interpretation, identifies a set of one or more candidate matching documents, and then uses the information from possible matches in the candidate documents to recognize or interpret It can be applied by further improvement or limitation. Candidate documents can be weighted according to their possible relevance (eg, based on the number of other users who scanned these documents, or their popularity on the Internet), and these weights are It can be applied in an iterative recognition process.

3.2.ショートフレーズサーチ
数語のワードの相対位置が既知である場合に、数ワードに基づくサーチクエリーの選択力が大幅に強化されるので、コーパスにおけるテキストのロケーションをシステムが識別するのに取り込む必要のあるテキストはほんのわずかの量に過ぎない。通常、入力テキストは、ショートフレーズなどの連続したワードのシーケンスとなる。
3.2. Short phrase search When the relative position of a few words is known, the selectivity of a search query based on a few words is greatly enhanced so that the system must capture the location of the text in the corpus The text is only a small amount. Usually, the input text is a sequence of consecutive words such as a short phrase.

3.2.1.ショート取り込みからの文書及び文書内ロケーションの発見
フレーズの由来する文書の位置を特定することに加えて、システムは、その文書におけるロケーションを識別し、この知識に基づいて動作を行うことができる。
3.2.1. Finding documents and in-document locations from short captures In addition to locating the document from which the phrase originates, the system can identify the location in the document and take action based on this knowledge.

3.2.2.ロケーションを見つける他の方法
本システムはまた、レンダリング文書における透かし又は他の特別なマーキングなどを使用して、文書及びロケーションを発見する他の方法を用いることができる。
3.2.2. Other Methods of Finding Locations The system can also employ other methods of finding documents and locations, such as using watermarks or other special markings in rendered documents.

3.3.サーチクエリーへの他の要素の組み込み
取り込まれたテキストに加えて、他の要素(すなわち、ユーザアイデンティティ、プロフィール、及びコンテキストについての情報)は、取り込み時刻、ユーザのアイデンティティ、及び地理的ロケーション、ユーザの習慣及び最近のアクティビティについての知識など、サーチクエリーの一部を形成することができる。
3.3. Including other elements in the search query In addition to the captured text, other elements (ie information about the user identity, profile, and context) include the capture time, the user's identity, and the geographic location, Part of the search query can be formed, such as knowledge about habits and recent activity.

前回の取り込みに関係する文書アイデンティティ及び他の情報は、特にこれらがごく最近のものである場合、サーチクエリーの部分を形成することができる。   Document identities and other information related to previous captures can form part of the search query, especially if they are very recent.

ユーザのアイデンティティは、取り込み装置に関連付けられた一意の識別子、及び/又はバイオメトリック又は他の補足情報(話し方、指紋など)から判定することができる。   The user's identity can be determined from a unique identifier associated with the capture device and / or biometric or other supplemental information (speaking, fingerprint, etc.).

3.4.サーチクエリーにおける不信頼度の性質の知識(OCRエラーなど)
サーチクエリーは、使用される特定の取り込み方法で発生する可能性のあるエラーのタイプを考慮して構成することができる。この1つの実施例は、特定の文字の認識における疑わしいエラーの表示であり、この場合、サーチエンジンが、これらの文字をワイルドカードとして処理するか、或いはこれらに低い優先順位を割り当てることができる。
3.4. Knowledge of the nature of unreliability in search queries (such as OCR errors)
The search query can be constructed taking into account the types of errors that can occur with the particular capture method used. One example of this is the display of suspicious errors in the recognition of certain characters, in which case the search engine can treat these characters as wildcards or assign them a low priority.

3.5.パフォーマンスのためのインデックスのローカルキャッシング/オフライン使用
取り込み装置が、データ取り込み時にサーチエンジン又はコーパスと通信できないことがある。この理由のため、デバイスのオフライン使用に有用な情報を事前にデバイスに、或いはデバイスが通信できる何らかのエンティティにダウンロードすることができる。場合によっては、コーパスに関連付けられたインデックスの全て又はかなりの部分をダウンロードすることができる。このトピックについては、セクション15.3で更に検討する。
3.5. Local caching / offline use of indexes for performance The capture device may not be able to communicate with the search engine or corpus during data capture. For this reason, information useful for offline use of the device can be downloaded to the device in advance or to some entity with which the device can communicate. In some cases, all or a substantial portion of the index associated with the corpus can be downloaded. This topic will be discussed further in Section 15.3.

3.6.どのような形式であっても記録されて後で実行することができるクエリー
クエリーを伝達すること又は結果を受け取ることに関連する遅延又はコストが発生する可能性が高い場合、この事前にロードされた情報は、ローカルデバイスのパフォーマンスを向上させ、通信コストを低減し、更に有用且つタイムリーなユーザフィードバックを提供することができる。
3.6. Queries that can be recorded in any form and executed later This preloaded if there is a high probability of delay or cost associated with conveying queries or receiving results Information can improve local device performance, reduce communication costs, and provide more useful and timely user feedback.

通信が利用可能でない(ローカルデバイスが「オフライン」である)状況では、クエリーは保存され、通信が回復した時点などでシステムの残りに送信することができる。   In situations where communication is not available (local device is “offline”), the query is saved and can be sent to the rest of the system, such as when communication is restored.

これらの場合、各クエリーと共にタイムスタンプを送信することが重要とすることができる。取り込み時刻は、クエリーの解釈において重要な因子とすることができる。例えば、セクション13.1では、早期取り込みに関連して取り込み時刻の重要性について検討している。取り込み時刻は、クエリーが実行された時と常に同じにはならない点に留意することが重要である。   In these cases, it may be important to send a time stamp with each query. Capture time can be an important factor in query interpretation. For example, Section 13.1 discusses the importance of capture time in relation to early capture. It is important to note that the capture time is not always the same as when the query was executed.

3.7.パラレルサーチ
パフォーマンス上の理由から、単一の取り込みに応答して複数のクエリーを順次的又は並行して開始することができる。単一の取り込みに応答して、例えば新しいワードが取り込みに追加されたとき、或いは並行して複数のサーチエンジンに問い合わせするために幾つかのクエリーを送信することができる。
3.7. Parallel search For performance reasons, multiple queries can be initiated sequentially or in parallel in response to a single ingestion. In response to a single capture, several queries can be sent, for example when a new word is added to the capture, or to query multiple search engines in parallel.

例えば、幾つかの実施形態では、システムは、現在の文書の特別なインデックス、ローカル機械上のサーチエンジン、企業ネットワーク上のサーチエンジン、及びインターネット上の遠隔サーチエンジンにクエリーを送信する。   For example, in some embodiments, the system sends the query to a special index of the current document, a search engine on the local machine, a search engine on the corporate network, and a remote search engine on the Internet.

特定のサーチの結果には、他のサーチよりも高い優先順位を与えることができる。   Certain search results can be given higher priority than other searches.

所与のクエリーに対する応答は、他の保留クエリーが過剰のものであることを示す場合があり、これらは完了前に取り消すことができる。   A response to a given query may indicate that other pending queries are excessive, and these can be canceled before completion.

4.紙及びサーチエンジン
従来のオンラインクエリーを扱うサーチエンジンは、レンダリング文書から生じたクエリーも扱うことが望ましい場合が多い。従来のサーチエンジンは、説明されたシステムと共に使用するのにより好適にするために幾つかの方法で強化又は修正することができる。
4). Paper and search engines Traditional search engines that handle online queries often also want to handle queries that originate from rendered documents. Conventional search engines can be enhanced or modified in several ways to make them more suitable for use with the described system.

本システムのサーチエンジン及び/又は他のコンポーネントは、異なる又は追加の特徴を有するインデックスを作成及び保持することができる。システムは、入来する紙由来クエリーを修正するか、或いは結果として得られるサーチにおいてクエリーを扱う方法を変更することができ、従って、これらの紙由来クエリーをウェブブラウザ及び他のソースに打ち込まれたクエリーから生じたものとは区別することができる。システムは、紙由来のサーチによって結果が返されたときに、他のソースからのものと比較して異なる動作をとるか、或いは異なるオプションを提供することができる。これらのアプローチの各々を以下で説明する。   The search engine and / or other components of the system can create and maintain indexes with different or additional features. The system can modify incoming paper-derived queries or change the way queries are handled in the resulting search, so these paper-derived queries have been typed into web browsers and other sources It can be distinguished from that resulting from the query. The system may take different actions when compared to those from other sources or provide different options when results are returned by a paper-derived search. Each of these approaches is described below.

4.1.インデックス作成
多くの場合、紙由来又は従来のクエリーを使用して同じインデックスをサーチすることができるが、インデックスは、現在のシステムにおいて様々な方法で使用するために強化することができる。
4.1. Indexing In many cases, paper-derived or conventional queries can be used to search for the same index, but the index can be enhanced for use in various ways in current systems.

4.1.1.紙形式についての知識
紙ベースのサーチの場合の助けとなるインデックスに追加のフィールドを付加することができる。
4.1.1. Knowledge of the paper format Additional fields can be added to the index to aid in paper-based searches.

紙形式での文書可用性を示すインデックスエントリ
第1の実施例は、紙形式で文書が存在していること又は配布されていることが既知であるのを示すフィールドである。システムは、クエリーが紙から生じている場合には、このような文書に対し高い優先順位を与えることができる。
Index entry indicating document availability in paper format The first example is a field indicating that a document is known to exist or be distributed in paper format. The system can give high priority to such documents if the query comes from paper.

紙形式人気度の知識
この実施例では、紙文書の人気度に関する(及び、任意選択的に、これらの文書内のサブ領域に関する)統計的データ(例えば、スキャンアクティビティの量、発行者又は他のソースによって提供される発行部数など)は、これらの文書に高い優先順位を与えること、対応デジタル文書(例えば、ブラウザベースのクエリー又はウェブサーチに対する)の優先順位を引き上げることなどのために使用される。
Knowledge of paper form popularity In this example, statistical data (eg, amount of scan activity, issuer or other) about the popularity of paper documents (and optionally about sub-regions within these documents) The number of publications provided by the source) is used to give these documents high priority, increase the priority of corresponding digital documents (eg, for browser-based queries or web search), etc. .

レンダーフォーマットの知識
別の重要な実施例は、文書の特定のレンダリングのレイアウトについての情報の記録とすることができる。
Render Format Knowledge Another important example may be a record of information about the layout of a particular rendering of a document.

例えば、特定の版の本において、インデックスは、改行及び改ページがどこで発生するか、どのフォントが使用されたか、又はあらゆる例外的な大文字化についての情報を含むことができる。   For example, in a particular edition of the book, the index may include information about where line breaks and page breaks occur, which font was used, or any exceptional capitalization.

インデックスはまた、画像、テキストボックス、テーブル、及び広告など、ページ上の他の項目の近接性についての情報を含むことができる。   The index can also include information about the proximity of other items on the page, such as images, text boxes, tables, and advertisements.

オリジナルでの意味情報の使用
最後に、テキストの特定の部分が市場に出される品目に言及していること、又はあるパラグラフがプログラムコードを包含することなど、ソースマークアップから推定できるが紙文書では明らかではない意味情報をインデックスに記録することもできる。
Using semantic information in the original Finally, it can be inferred from source markup that a specific part of the text refers to an item being marketed or that a paragraph contains program code, but in a paper document Semantic information that is not obvious can also be recorded in the index.

4.1.2.取り込み方法の知識におけるインデックス作成
インデックスの性質を修正できる第2の要因は、使用される可能性が高い取り込みのタイプについての知識である。光学スキャンによって開始されるサーチは、インデックスがOCRプロセスにおいて混同し易い文字を考慮に入れる場合、或いは文書内に使用されたフォントの何らかの知識を含む場合に有利とすることができる。同様に、クエリーが音声認識により提供される場合には、類似の発音音素に基づくインデックスを遙かに効率的にサーチすることができる。説明されたモデルにおけるインデックスの使用に影響を与える可能性のある付加的な要因は、認識プロセス中の反復フィードバックの重要性である。テキストが取り込まれるときにサーチエンジンがインデックスからのフィードバックを提供できる場合、サーチエンジンは、取り込みの精度を大幅に高めることができる。
4.1.2. Indexing in knowledge of capture methods A second factor that can modify the nature of the index is knowledge of the type of capture that is likely to be used. A search initiated by an optical scan can be advantageous if the index takes into account characters that are likely to be confused in the OCR process or if it contains some knowledge of the fonts used in the document. Similarly, if the query is provided by speech recognition, an index based on similar phonemes can be searched much more efficiently. An additional factor that can affect the use of the index in the model described is the importance of iterative feedback during the recognition process. If the search engine can provide feedback from the index when the text is captured, the search engine can greatly increase the accuracy of the capture.

オフセットを用いたインデックス作成
インデックスがセクション9で説明したオフセットベース/自己相関OCR法を用いてサーチされる可能性が高い場合、幾つかの実施形態では、システムは、インデックス内に適切なオフセット又は署名情報を記憶する。
Indexing with offsets If the index is likely to be searched using the offset-based / autocorrelation OCR method described in Section 9, in some embodiments, the system may include an appropriate offset or signature within the index. Store information.

4.1.3.複数のインデックス
最後に、説明されたシステムでは、多くのインデックスに対してサーチを行うことが一般的とすることができる。インデックスは、企業ネットワークの複数の機械上で保持することができる。取り込み装置、或いは取り込み装置の近くにある機械に部分的なインデックスをダウンロードすることができる。特定の関心、習慣、又は許可を持つユーザ又はユーザのグループに対し、別個のインデックスを作成することができる。インデックスは、ファイルシステムごと、ディレクトリごと、ユーザのハードディスク上のファイルごとにでも存在することができる。インデックスは、ユーザ及びシステムによって発行され利用される。従って、配布、更新、併合、及び分割を効率的に行い得るインデックスを構成することが重要となる。
4.1.3. Multiple indexes Finally, in the system described, it can be common to perform a search on many indexes. The index can be maintained on multiple machines in the corporate network. A partial index can be downloaded to the capture device or a machine near the capture device. A separate index can be created for users or groups of users with specific interests, habits, or permissions. An index can exist for each file system, each directory, and each file on the user's hard disk. The index is issued and used by users and systems. Therefore, it is important to construct an index that can be efficiently distributed, updated, merged, and split.

4.2.クエリーの取扱い
4.2.1.紙からの取り込みであることの認知
サーチエンジンは、サーチクエリーが紙文書由来のものであることを認識したときに異なる動作をとることができる。エンジンは、例えばある取り込み方法において現われる可能性の高いエラーのタイプに対してより耐性のある手法でクエリーを扱うことができる。
4.2. Handling of queries 4.2.1. Recognition of capture from paper The search engine can take different actions when it recognizes that the search query is from a paper document. The engine can handle queries in a manner that is more tolerant to, for example, the types of errors that are likely to appear in certain capture methods.

サーチエンジンは、クエリーに含まれる何らかの指標(例えば、取り込みの性質を示すフラグ)からこれを推定することができ、或いはクエリー自体からこれを推定することができる(例えば、OCRプロセスに特有のエラー又は不確実性を認識することができる)。   The search engine can infer this from some indicator included in the query (eg, a flag indicating the nature of the ingest), or it can be inferred from the query itself (eg, an error or error specific to the OCR process) Uncertainty can be recognized).

或いは、取り込み装置からのクエリーは、他のソースからのものとは異なるチャンネル又はポート或いは接続のタイプによってエンジンに到達することができ、このようにして区別することができる。例えば、システムの幾つかの実施形態では、専用ゲートウェイを経由してクエリーをサーチエンジンにルーティングする。従って、サーチエンジンは、専用ゲートウェイを通過する全てのクエリーが紙文書に由来したものであることを認知している。   Alternatively, queries from the capture device can reach the engine by a different channel or port or connection type than those from other sources and can thus be distinguished. For example, in some embodiments of the system, queries are routed to a search engine via a dedicated gateway. Thus, the search engine knows that all queries that pass through the dedicated gateway are from paper documents.

4.2.2.コンテキストの使用
以下のセクション13では、取り込まれたテキスト自体の外部にあるが文書の識別において有意な助けとなり得る様々な異なる要因について説明する。これらは、最近のスキャンの履歴、特定のユーザの長期的読書習慣、ユーザの地理的ロケーション、及びユーザの特定の電子文書の最近の使用などの事柄を含む。このような要因は、本明細書では「コンテキスト」と呼ばれる。
4.2.2. Use of Context Section 13 below describes a variety of different factors that are outside the captured text itself but can significantly help in document identification. These include things such as the history of recent scans, a particular user's long-term reading habits, the user's geographic location, and the user's recent use of a particular electronic document. Such factors are referred to herein as “contexts”.

コンテキストの一部は、サーチエンジン自体によって扱われ、検索結果に反映される。例えば、サーチエンジンは、ユーザのスキャン履歴を追跡することができ、このスキャン履歴を従来のキーボードベースのクエリーと相互参照することができる。このような場合、サーチエンジンは、各個々のユーザについて従来の検索エンジンのほとんどが行うよりも多くの状態情報を保持及び使用し、サーチエンジンとの各対話は、複数のサーチにわたって、及び今日一般的であるよりも長い時間期間にわたって拡張されると考えることができる。   Part of the context is handled by the search engine itself and is reflected in the search results. For example, a search engine can track a user's scan history, and can cross-reference this scan history with conventional keyboard-based queries. In such cases, the search engine retains and uses more state information for each individual user than most traditional search engines do, and each interaction with the search engine is common across multiple searches and today It can be thought of as extending over a longer period of time than is desired.

コンテキストの一部は、サーチクエリーにおいてサーチエンジンに送信することができ(セクション3.3)、場合によっては、将来のクエリーにおいてある程度機能するようにエンジンに記憶することができる。最後に、コンテキストの一部は、他の場所で扱われるのが最も良く、サーチエンジンからの結果に適用されるフィルタ又は二次サーチとなる。   Some of the context can be sent to the search engine in a search query (section 3.3) and in some cases can be stored in the engine to work to some extent in future queries. Finally, some of the context is best handled elsewhere, resulting in a filter or secondary search applied to the results from the search engine.

サーチに対するデータストリーム入力
サーチプロセスへの重要な入力は、ユーザのコミュニティが文書のレンダリングバージョンとどのように対話しているか、例えばどの文書が誰によって最も広く読まれているかに関する広範なコンテキストである。最も頻繁にリンクされたページ、或いは過去のサーチ結果から最も頻繁に選択されたページを返すウェブサーチに関する類似性が存在する。このトピックについての更なる検討は、セクション13.4及び14.2を参照されたい。
Data Stream Input for Search An important input to the search process is the broad context regarding how the user community interacts with the rendered version of the document, for example which document is most widely read by who. There are similarities for web searches that return the most frequently linked pages or the most frequently selected pages from past search results. See Sections 13.4 and 14.2 for further discussion on this topic.

4.2.3.文書サブ領域
説明されたシステムは、文書全体についての情報だけでなく、個々のワードに至るまで文書のサブ領域についての情報も提供し使用することができる。多くの既存のサーチエンジンは、単に、特定のクエリーに関連性のある文書又はファイルの位置を特定することに的が絞られている。細粒度がより高いものに作用し且つ文書内のロケーションを識別することができるサーチエンジンは、説明されたシステムに対し有意な利益を提供するであろう。
4.2.3. Document Subregion The described system can provide and use not only information about the entire document, but also information about subregions of the document down to individual words. Many existing search engines are focused solely on locating documents or files that are relevant to a particular query. A search engine that works on higher granularity and can identify locations within a document will provide significant benefits to the described system.

4.3.結果を返す
サーチエンジンは、現在保持している追加情報の一部を使用して返された結果に影響を及ぼすことができる。
4.3. Returning results The search engine can use some of the additional information it currently maintains to influence the returned results.

本システムはまた、紙コピーを所有していることの結果としてユーザがアクセスした特定の文書だけを返すことができる(セクション7.4)。   The system can also return only certain documents accessed by the user as a result of having a paper copy (section 7.4).

サーチエンジンはまた、テキストの単純な取り出し以外に、説明されたシステムに適切な新しい動作又はオプションを提供することができる。   The search engine can also provide new actions or options appropriate to the described system besides simple text retrieval.

5.マークアップ、注釈、及びメタデータ
取り込み−サーチ−取り出しプロセスを行うことに加えて、説明されたシステムはまた、追加の機能を文書、詳細には文書内のテキストの特定のロケーション又はセグメントと関連付ける。この追加の機能は、限定ではないが、その対応電子文書と関連付けられることによってレンダリング文書と関連付けられることが多い。一実施例として、ウェブページにおけるハイパーリンクは、そのウェブページのプリントアウトがスキャンされたときに同じ機能を有することができる。場合によっては、この機能は、電子文書では定義されないが、他の場所で記憶又は生成される。
5. Markup, Annotation, and Metadata In addition to performing the capture-search-retrieve process, the described system also associates additional functionality with a document, specifically a specific location or segment of text within the document. This additional functionality is often, but not limited to, associated with the rendered document by being associated with its corresponding electronic document. As one example, a hyperlink in a web page may have the same function when a printout of that web page is scanned. In some cases, this functionality is not defined in the electronic document, but is stored or generated elsewhere.

追加の機能のこのレイヤを本明細書では「マークアップ」と称する。   This layer of additional functionality is referred to herein as “markup”.

5.1.オーバーレイ、静的及び動的
マークアップの一手法は、文書に対する「オーバーレイ」としてみなすものであり、文書又は文書の一部分についての更なる情報を提供し、これら関連する動作を指定することができる。マークアップは、人間可読のコンテンツを含むことができるが、多くの場合、ユーザに不可視のもの、及び/又は機械用途を意図したものである。実施例としては、ユーザがレンダリング文書の特定のエリアからテキストを取り込んだときに付近のディスプレイ上にポップアップメニューで表示されるオプション、及び特定のフレーズの発音を示すオーディオサンプルが挙げられる。
5.1. Overlay, static and dynamic One approach to markup is what can be considered as an “overlay” for a document, providing additional information about the document or part of the document and specifying these related actions. Markups can include human-readable content, but are often invisible to the user and / or intended for machine applications. Examples include options that are displayed in a pop-up menu on a nearby display when the user captures text from a particular area of the rendered document, and audio samples that show the pronunciation of a particular phrase.

5.1.1.場合によっては複数のソースから提供される複数のレイヤ
どの文書も複数のオーバーレイを同時に有することができ、これらは、様々なロケーションをソースとすることができる。マークアップデータは、文書の作者によって、或いはユーザによって、もしくは他の何らかの当事者によって作成又は供給することができる。
5.1.1. Multiple layers provided from multiple sources in some cases Any document can have multiple overlays at the same time, and these can be sourced from various locations. The markup data can be created or supplied by the author of the document, by the user, or by some other party.

マークアップデータは、電子文書に添付又は埋め込むことができる。これは、従来のロケーション(例えば、文書と同じ場所にあるが異なるファイル名サフィックスを有する)で見つけることができる。マークアップデータは、元の文書を位置付けるクエリーのサーチ結果に含まれるか、或いは同じ又は別のサーチエンジンへの別々のクエリーによって見つけることができる。マークアップデータは、元の取り込みテキスト及び他の取り込み情報又はコンテキスト情報を使用して見つけることができ、或いは、文書及び取り込みのロケーションについて既に推測された情報を使用して見つけることができる。マークアップデータは、マークアップ自体が文書に含まれていない場合でも文書において指定されたロケーションで見つけることができる。   Markup data can be attached or embedded in an electronic document. This can be found at a conventional location (eg, at the same location as the document but with a different filename suffix). The markup data can be included in the search results of the query that locates the original document, or can be found by separate queries to the same or another search engine. The markup data can be found using the original capture text and other capture information or context information, or can be found using information already guessed about the document and capture location. Markup data can be found at a location specified in the document even if the markup itself is not included in the document.

マークアップは、従来のhtmlウェブページ上のリンクが多くの場合html文書内に静的データとして埋め込まれるのと類似した、高度に静的で且つ文書に固有のものとすることができるが、マークアップはまた、多数の文書に対して動的に生成及び/又は適用することができる。動的マークアップの実施例は、文書内で言及されている会社の最新株価を含む文書に添付された情報である。広く適用されているマークアップの実施例は、特定の言語の複数の文書又は文書のセクションで自動的に利用可能な翻訳情報である。   Markup can be highly static and document-specific, similar to the way links on traditional html web pages are often embedded as static data in html documents, Up can also be dynamically generated and / or applied to multiple documents. An example of dynamic markup is information attached to a document that includes the latest stock prices of the companies mentioned in the document. A widely applied example of markup is translation information that is automatically available in multiple documents or document sections in a particular language.

5.1.2.個人用「プラグ−イン」レイヤ
ユーザはまた、マークアップデータをインストールするか、或いはマークアップデータの特定のソースに加入し、これによって特定の取り込みに対するシステム応答を個人化することができる。
5.1.2. Personal “plug-in” layer users can also install markup data or subscribe to specific sources of markup data, thereby personalizing system responses to specific captures.

5.2.キーワード及びフレーズ、商標及びロゴ
文書における幾つかの要素は、特定の文書におけるロケーション以外の固有の特徴に基づいて特定の「マークアップ」又は関連する機能を有することができる。実施例としては、純粋にスキャンされることを目的として文書内に印刷される特別なマーク、並びにユーザを関心のある組織についての更なる情報にリンク可能なロゴ及び商標が含まれる。同じことが、テキストにおける「キーワード」又は「キーフレーズ」にも当てはまる。組織は、関連付けられる、又は関連付けられることを望む特定のフレーズを登録し、当該フレーズがスキャンされた場所であればどこでも利用可能な特手のマークアップをそのフレーズに添付することができる。
5.2. Keywords and phrases, trademarks, and logos Some elements in a document may have specific “markup” or related functionality based on unique features other than location in the specific document. Examples include special marks that are printed in the document for pure scanning purposes, as well as logos and trademarks that can link the user to further information about the organization of interest. The same applies to “keywords” or “key phrases” in text. An organization can register a specific phrase to be associated with, or want to be associated with, and attach to it a special-purpose markup that is available wherever the phrase is scanned.

あらゆるワード、フレーズなどは、関連するマークアップを有することができる。例えばシステムは、「本」というワード、又は本のタイトル、もしくは本に関係するトピックをユーザが取り込んだときには常に、特定の項目をポップアップメニューに追加することができる(例えば、オンラインブックストアへのリンク)。システムの幾つかの実施形態では、対応デジタル文書又はインデックスを照会して、「本」というワード又は本のタイトル、もしくは本に関係するトピックの近くで取り込みが行われたかどうか、及びシステムの動作がキーワード要素に対するこの近接度に従って修正されたかどうかを判定する。前述の実施例では、マークアップにより、非商用テキスト又は文書から取り込まれたデータが商取引をトリガできるようになる点に留意されたい。   Every word, phrase, etc. can have an associated markup. For example, the system can add a specific item to a pop-up menu whenever the user captures the word “book” or the title of a book or a topic related to a book (eg, a link to an online book store). ). In some embodiments of the system, the corresponding digital document or index is queried to determine whether a capture was made near the word “book” or the title of the book, or a topic related to the book, and the operation of the system. Determine if it has been modified according to this proximity to the keyword element. It should be noted that in the foregoing embodiment, markup allows data captured from non-commercial text or documents to trigger a commercial transaction.

5.3.ユーザ提供コンテンツ
5.3.1.マルチメディアを含むユーザコメント及び注釈
注釈は、文書に関連付けることができる別のタイプの電子情報である。例えばユーザは、後で音声注釈として取り出すために特定の文書についてのユーザの見解の音声ファイルを添付することができる。マルチメディア注釈の別の実施例として、ユーザは、文書内で言及された場所の写真を添付することができる。ユーザは、一般に、文書に対する注釈を提供するが、システムは、他のソースからの注釈を関連付けることができる(例えば、ワークグループ内の他のユーザが注釈を共有することができる)。
5.3. User-provided content 5.3.1. User comments and annotations, including multimedia Annotations are another type of electronic information that can be associated with a document. For example, the user can attach an audio file of the user's view of a particular document for later retrieval as a voice annotation. As another example of multimedia annotation, the user can attach a photo of the location mentioned in the document. Users generally provide annotations for documents, but the system can associate annotations from other sources (eg, other users in a workgroup can share the annotations).

5.3.2.校正からの注記
ユーザソースのマークアップの重要な実施例は、校正、編集又はレビュープロセスの一部としての紙文書の注釈である。
5.3.2. Notes from Proofread An important example of user source markup is the annotation of paper documents as part of the proofreading, editing or review process.

5.4.サードパーティコンテンツ
前述のように、マークアップデータは、多くの場合、文書の他の読者などのサードパーティによって供給することができる。特定の作業関するコミュニティ管理情報、ボランティア貢献による翻訳及び説明のような、オンラインディスカッション及びレビューは好適な実施例である。
5.4. Third Party Content As mentioned above, markup data can often be provided by a third party, such as other readers of a document. Online discussions and reviews, such as community management information about specific tasks, translations and explanations by volunteer contributions, are preferred embodiments.

サードパーティマークアップの別の実施例は、広告主によって提供されるものである。   Another example of third party markup is that provided by an advertiser.

5.5.他のユーザのデータストリームに基づく動的マークアップ
本システムの複数のユーザか又は全てのユーザが文書から取り込まれたデータを解析することによって、コミュニティのアクティビティ及び関心事項に基づいてマークアップを生成することができる。実施例として、実際に、「この本を楽しんだ人は....も楽しんだ」とユーザに示すマークアップ又は注釈を作成するオンラインブックストアとすることができる。マークアップは、匿名性が低いものとすることができ、ユーザの連絡先リストのうちの誰がこの文書を最近読んだかをユーザに示すことができる。データストリーム解析の他の実施例は、セクション14に含まれる。
5.5. Dynamic markup based on other users' data streams Multiple or all users of the system generate markup based on community activity and interests by analyzing data captured from documents be able to. As an example, it could actually be an online book store that creates markups or annotations that indicate to the user that “the person who enjoyed this book also enjoyed ...”. The markup can be less anonymous and can indicate to the user who in the user's contact list has recently read this document. Other examples of data stream analysis are included in section 14.

5.6.外部事象及びデータソースに基づくマークアップ
マークアップは、多くの場合、企業データベースからの入力、公衆インターネットからの情報、或いはローカルオペレーティングシステムによって収集された統計などの外部事象及びデータソースに基づくことになる。
5.6. Markup based on external events and data sources Markups are often based on external events and data sources, such as input from corporate databases, information from the public Internet, or statistics collected by the local operating system .

データソースはまた、よりローカルとすることができ、特にユーザのコンテキスト、すなわちユーザのアイデンティティ、ロケーション、及びアクティビティについての情報を提供することができる。例えば、システムは、ユーザの携帯電話と通信し、ユーザが最近電話で話した人に文書を送信するオプションをユーザに与えるマークアップレイヤを提供することができる。   Data sources can also be more local, and in particular can provide information about the user's context, ie the user's identity, location, and activity. For example, the system can provide a markup layer that communicates with the user's cell phone and gives the user the option to send the document to the person the user recently spoke on the phone.

6.認証、個人化、及びセキュリティ
多くの場合、ユーザのアイデンティティは既知となる。場合によっては、これは、例えば取り込み装置のシリアルナンバーによってのみユーザが識別される「匿名アイデンティティ」となる。しかしながら、一般的には、システムがユーザの遙かに詳細な知識を有しており、システムを個人化するため、及びユーザの名前でアクティビティ及び取引を実行できるようにするために用いることができると予想される。
6). Authentication, personalization, and security In many cases, a user's identity is known. In some cases this will be an “anonymous identity” where the user is identified only by the serial number of the capture device, for example. However, in general, the system has much more detailed knowledge of the user and can be used to personalize the system and to perform activities and transactions with the user's name. It is expected to be.

6.1.ユーザ履歴及び「ライフライブラリ」
システムが実行できる最も単純で最も有用な機能の1つは、ユーザが取り込んだテキスト、見つかったあらゆる文書の詳細、その文書内のロケーション、及び結果として取られるあらゆる動作を含む、当該取り込みに関するあらゆる追加情報のユーザについての記録を維持することである。
6.1. User history and "life library"
One of the simplest and most useful functions that the system can perform is any additions to the capture, including text captured by the user, details of every document found, location within that document, and any action taken as a result. Maintaining a record of the information about the user.

この記憶された履歴は、ユーザ及びシステムの両方にとって有益である。   This stored history is beneficial to both the user and the system.

6.1.1.ユーザに関して
ユーザには、ユーザが読んで取り込んだ全てのものの記録である「ライフライブラリ」を提示することができる。これは、単に個人の関心を目的としたものとすることができるが、例えば、ユーザの次回の論文の参考文献のための資料を収集している研究者によってライブラリ内で使用することができる。
6.1.1. About the User The user can be presented with a “life library” that is a record of everything the user has read and captured. This can be solely for personal interest, but can be used in a library by a researcher collecting material for a reference for a user's next paper, for example.

状況によっては、ユーザは、ウェブログと類似の方式でライブラリをウェブ上に公開することなどによって、ライブラリを公にすることを望むことができ、これによってユーザが読んで興味を持ったものを他者が見ることができるようになる。   In some situations, a user may wish to make the library public, such as by publishing the library on the web in a manner similar to a weblog, which allows others to read and be interested in Will be able to see.

最後に、ユーザが何らかのテキストを取り込み、システムが取り込みに即座に対応できない状況(例えば、文書の電子版が未だ利用可能でない理由により)では、取り込みをライブラリ内に記憶することができ、自動的に或いはユーザ要求に応答して後で処理することができる。ユーザはまた、新しいマークアップサービスに加入し、これらを以前に取り込まれたスキャンに適用することができる。   Finally, in situations where the user captures some text and the system cannot respond immediately to the capture (eg, because an electronic version of the document is not yet available), the capture can be stored in the library and automatically Alternatively, it can be processed later in response to a user request. Users can also subscribe to new markup services and apply them to previously captured scans.

6.1.2.システムに関して
ユーザの過去の取り込みの記録は、システムにとっても有用である。システムオペレーションの多くの態様は、ユーザの読書習慣及び履歴を知ることによって強化することができる。最も単純な実施例では、ユーザによって行われたいずれのスキャンもユーザが最近スキャンした文書から生じたものである可能性が高く、特に、前回のスキャンがここ数分以内であった場合には、同じ文書からのものである可能性が極めて高い。同様に、文書が最初から最後の順序で読まれている可能性が高い。従って、英語文書では、より後でのスキャンは文書中のかなり下の方で起こる可能性も高い。このような要因は、システムが曖昧な場合に取り込みのロケーションを確立するのを助けることができ、取り込む必要のあるテキストの量を低減することもできる。
6.1.2. About the system Recording the user's past captures is also useful for the system. Many aspects of system operation can be enhanced by knowing the user's reading habits and history. In the simplest example, any scan performed by a user is likely to have originated from a document that the user recently scanned, especially if the last scan was within the last few minutes, Very likely from the same document. Similarly, it is likely that the document has been read from the beginning to the end. Thus, for English documents, later scans are likely to occur much lower in the document. Such factors can help establish the location of the capture when the system is ambiguous and can also reduce the amount of text that needs to be captured.

6.2.支払い、アイデンティティ、及び認証デバイスとしてのスキャナ
取り込みプロセスは、一般に、ある種のデバイス、通常は光学スキャナ又はボイスレコーダから始まるので、このデバイスは、ユーザを識別してある特定の動作を許可するキーとして使用することができる。
6.2. Scanner as a payment, identity, and authentication device The capture process generally begins with some type of device, usually an optical scanner or voice recorder, so this device identifies the user as a key to allow certain actions. Can be used.

6.2.1.スキャナを電話又は他のアカウントに関連付ける
デバイスは、携帯電話に内蔵するか、或いは他の何らかの方法で携帯電話アカウントに関連付けることができる。例えば、スキャナは、アカウントに関連付けられたSIMカードをスキャナに挿入することによって、携帯電話アカウントに関連付けることができる。同様に、デバイスは、クレジットカード又は他の支払いカードに埋め込むことができ、或いはこのようなカードが接続される機能を有することができる。従ってデバイスは、支払いトークンとして使用することができ、レンダリング文書からの取り込みによって金融取引を開始することができる。
6.2.1. Associating a scanner with a phone or other account The device can be built into the cell phone or associated with the cell phone account in some other way. For example, a scanner can be associated with a mobile phone account by inserting a SIM card associated with the account into the scanner. Similarly, the device can be embedded in a credit card or other payment card, or can have the functionality to which such a card is connected. Thus, the device can be used as a payment token and can initiate a financial transaction upon capture from a rendered document.

6.2.2.認証のためのスキャナ入力の使用
スキャナはまた、特定のユーザ又はアカウントに関連する何らかのトークン、記号、又はテキストをスキャンするプロセスを介して、当該ユーザ又はアカウントに関連付けることができる。更にスキャナは、例えばユーザの指紋をスキャンすることによってバイオメトリック識別に使用することができる。音声ベースの取り込み装置の場合、システムは、ユーザの声紋を一致させることによって、又はユーザに特定のパスワード又はフレーズを話すよう要求することによってユーザを識別することができる。
6.2.2. Using Scanner Input for Authentication A scanner can also be associated with a particular user or account through the process of scanning any token, symbol, or text associated with that particular user or account. Furthermore, the scanner can be used for biometric identification, for example by scanning the user's fingerprint. For voice-based capture devices, the system can identify the user by matching the user's voiceprint or by requesting the user to speak a particular password or phrase.

例えば、ユーザが本からの引用をスキャンし、オンライン小売業者からその本を購入するオプションを提供された場合、ユーザは、このオプションを選択でき、次いで取引を確認するためにユーザの指紋をスキャンするよう促される。   For example, if a user scans a citation from a book and is offered an option to purchase the book from an online retailer, the user can select this option and then scan the user's fingerprint to confirm the transaction Prompted.

セクション15.5及び15.6も参照されたい。   See also sections 15.5 and 15.6.

6.2.3.セキュアスキャンデバイス
取り込み装置を用いて、ユーザを識別及び認証し、ユーザに代わって取引を開始する場合、デバイスとシステムの他の部分との間の通信がセキュアであることが重要である。また、別のデバイスがスキャナになりすますような状況、及びデバイスと他のコンポーネントとの間の通信が傍受されるいわゆる「中間者」攻撃に対して防御することが重要である。
6.2.3. Secure Scan Device When a capture device is used to identify and authenticate a user and initiate a transaction on behalf of the user, it is important that the communication between the device and the rest of the system is secure. It is also important to defend against situations where another device impersonates a scanner and so-called “man-in-the-middle” attacks where communication between the device and other components is intercepted.

このようなセキュリティを提供するための技術は、当該技術分野において十分に理解されており、種々の実施形態では、システム内のデバイス及び他の場所にあるハードウェア及びソフトウェアは、このような技術を実装するよう構成される。   Techniques for providing such security are well understood in the art, and in various embodiments, the devices and other hardware and software in the system may use such techniques. Configured to be implemented.

7.モデル及び要素の発行
説明されたシステムの利点は、システムの利点の多くを得るために、文書を作成、印刷、又は発行する従来のプロセスを変更する必要がない点である。しかしながら、文書の作成者又は発行者(以下、単に「発行者」と称する)は、説明されたシステムをサポートするための機能性の作成を望む可能性があるという理由がある。
7). Publishing Models and Elements An advantage of the described system is that it does not require changes to the traditional process of creating, printing, or publishing documents to obtain many of the benefits of the system. However, there are reasons that document creators or publishers (hereinafter simply referred to as “issuers”) may wish to create functionality to support the described system.

このセクションでは、主として、発行された文書自体に関係している。広告などの他の関係のある商取引についての情報は、「Pコマース」と題されたセクション10を参照されたい。   This section is primarily concerned with the published document itself. For information on other relevant commercial transactions, such as advertisements, see Section 10 entitled “P-Commerce”.

7.1.電子文書と印刷文書
本システムによって、印刷文書は、関連する電子プレゼンスを有することが可能になる。従来は、発行者が、更なるデジタル情報、チュートリアルムービー及び他のマルチメディアデータ、サンプルコードもしくは文書、或いは更なる関連資料を包含するCD−ROMを本と共に出荷することが多かった。更に、一部の発行者は、このような資料だけでなく、正誤表、追加コメント、更新された関連資料、参考文献及び関連データの更なるソース、並びに他の言語への翻訳といった発行後に更新できる情報を提供する特定の発行物に関連付けられたウェブサイトを保持する。オンラインフォーラムによって、読者は、発行物についてのコメントを寄稿することが可能になる。
7.1. Electronic and Printed Documents The system allows printed documents to have an associated electronic presence. Traditionally, publishers often ship CD-ROMs with books that contain additional digital information, tutorial movies and other multimedia data, sample code or documents, or additional related materials. In addition, some publishers update not only such materials but also post-publishing errata, additional comments, updated related materials, additional sources of references and related data, and translations into other languages. Maintain a website associated with a specific publication that provides information that it can do. Online forums allow readers to contribute comments about the publication.

説明されたシステムにより、このような資料をレンダリング文書にこれまでよりもより密接に関連させることが可能となり、これらの発見及びこれらとの対話をユーザにとって遙かに容易にすることができるようになる。文書からテキストの一部を取り込むことによって、システムは、文書に関連する、より具体的には文書の特定部分に関連するデジタル資料にユーザを自動的に結び付けることができる。同様に、ユーザは、テキストのセクションについて論じているオンラインコミュニティ、或いは他の読者による注釈及び解釈に結び付けられる。過去には、このような情報は通常、特定のページ番号又はチャプターをサーチすることによって見つける必要があった。   The described system allows such materials to be more closely related to rendered documents than ever before, making their discovery and interaction with them much easier for the user. Become. By capturing a portion of text from a document, the system can automatically tie the user to digital material associated with the document, and more specifically, associated with a particular portion of the document. Similarly, users are tied to annotations and interpretation by online communities or other readers discussing sections of text. In the past, such information typically had to be found by searching for specific page numbers or chapters.

この例示的な応用は、学術書の分野範囲にある(セクション17.5)。   This exemplary application is in the field of academic books (section 17.5).

7.2.印刷文書に対する「購読」
一部の発行者は、新しい関連事項を通知して欲しい場合、或いは本の新版が発行されたときに読者が購読できるメーリングリストを有することができる。説明されたシステムでは、ユーザは、場合によっては発行者が何らかのこのような機能を提供することを検討する前であっても、特定の文書又は文書の一部への関心を容易に登録することができる。読者の関心は発行者に提供され、更新、更なる情報、新版、又は既存の本に関心があることが分かったトピックに関する全く新しい発行物を提供する時期及び場所についての決定に影響を及ぼす場合がある。
7.2. "Subscription" for printed documents
Some publishers may have mailing lists that readers can subscribe to if they want to be notified of new related matters or when a new edition of a book is published. In the described system, users can easily register interest in a particular document or part of a document, even before the publisher considers providing any such functionality. Can do. The reader's interest is provided to the publisher and affects decisions about when and where to provide updates, more information, new editions, or entirely new publications on topics found to be of interest to existing books There is.

7.3.特別な意味を持つ、又は特別なデータを含む印刷マーク
システムの多くの態様は、単に文書内に既に存在しているテキストの使用を介して可能になる。しかしながら、システムと共に使用できるという知識において文書が作成される場合、追加の情報を特別なマークの形式で印刷することにより追加の機能性を付加することができ、これを利用してテキスト又は要求される動作をより密接に識別するか、或いはシステムとの文書の対話を強化することができる。最も単純で最も重要な実施例は、文書がシステムを介して明確にアクセス可能であることの読者への表示である。例えば、特別なアイコンを用いて、文書が関連するオンラインディスカッションフォーラムを有することを示すことができる。
7.3. Many aspects of print mark systems that have special meaning or contain special data are made possible simply through the use of text already present in the document. However, if a document is created with the knowledge that it can be used with the system, additional functionality can be added by printing additional information in the form of special marks, which can be used to create text or required Actions can be more closely identified, or document interaction with the system can be enhanced. The simplest and most important example is an indication to the reader that the document is clearly accessible through the system. For example, a special icon can be used to indicate that the document has an associated online discussion forum.

このような記号は、純粋に読者を対象としたものとすることができ、或いは、スキャンされ何らかの動作を開始するために使用されるときにシステムが認識することができる。単に記号だけでなくそれ以上のものを識別するために、十分なデータを記号内に符号化することができ、例えば、文書、版、及び記号のロケーションについての情報を記憶することもでき、これらはシステムが認識し読み取ることができる。   Such symbols can be purely intended for the reader, or can be recognized by the system when scanned and used to initiate some action. Enough data can be encoded in symbols to identify more than just symbols, for example, information about the location of documents, editions, and symbols can be stored, these Can be recognized and read by the system.

7.4.紙文書の所有を通じた許可
印刷文書の所有又はこれへのアクセスにより、ユーザに対し一定の特権、例えば文書の電子コピー又は追加資料へのアクセスが与えられることになる場合が幾つかある。説明されたシステムを使用すると、このような特権は、単にユーザが文書からテキストの一部を取り込んだ又は特別に印刷された記号をスキャンした結果として付与することができる。ユーザが文書全体を所有していたことをシステムが確認する必要がある場合、システムは、特定のページからの特定の項目又はフレーズ、例えば「46ページの2行目」をスキャンするようユーザに促すことができる。
7.4. Authorization through possession of a paper document Ownership or access to a printed document can give the user certain privileges, such as an electronic copy of the document or access to additional material. Using the described system, such privileges can be granted simply as a result of a user scanning a portion of text from a document or a specially printed symbol. If the system needs to verify that the user owned the entire document, the system prompts the user to scan a specific item or phrase from a specific page, for example, “second line on page 46”. be able to.

7.5.期限切れの文書
印刷文書が追加の資料及び機能性に対するゲートウェイである場合、このような機能へのアクセスも期限付きとすることができる。有効期限後、ユーザは、再度この記事にアクセスするためには手数料を支払うか、或いは文書のより新しい版を取得することが要求される場合がある。勿論、紙文書は依然として使用可能であるが、その強化された電子機能性の一部を失うことになる。例えば、電子資料へのアクセスに対して手数料を受け取ること、或いは適宜新しい版を購入するようユーザに要求することで発行者に収益があるので、或いは、未だ流通している印刷文書の旧版に関連する不利益があるので、これは望ましいとすることができる。クーポンは、有効期限を持つことができる商業文書のタイプの実施例である。
7.5. Expired Documents If the printed document is a gateway to additional materials and functionality, access to such functions can also be timed. After the expiration date, the user may be required to pay a fee or obtain a newer version of the document to access the article again. Of course, paper documents can still be used, but some of their enhanced electronic functionality will be lost. For example, because the publisher is profitable by receiving a fee for access to electronic materials, or by asking the user to purchase new editions as appropriate, or related to older versions of printed documents that are still in circulation This can be desirable because there are disadvantages to doing. A coupon is an example of a type of commercial document that can have an expiration date.

7.6.人気解析及び発行決定
セクション10.5では、著者への報酬及び広告の価格設定に影響を与える、システムの統計の使用について議論する。
7.6. Popularity analysis and publication decisions Section 10.5 discusses the use of system statistics to influence author rewards and advertising pricing.

幾つかの実施形態では、システムは、関連する電子コミュニティにおけるアクティビティから並びに紙文書の使用から発行物の人気を推測する。これらの要因は、発行者が将来発行するものに関する決定を行うのを助けることができる。例えば、既存の本のチャプターが極めて人気があることが判明した場合、別個の発行物に展開する価値があるものとすることができる。   In some embodiments, the system infers the popularity of the publication from activity in the associated electronic community as well as from the use of paper documents. These factors can help issuers make decisions about what will be issued in the future. For example, if an existing book chapter turns out to be very popular, it may be worth deploying in a separate publication.

8.文書アクセスサービス
説明されたシステムの重要な態様は、文書のレンダリングコピーにアクセスできるユーザにその文書の電子版へのアクセスができるようにする機能である。場合によっては、文書は、ユーザがアクセスできるパブリックネットワーク又はプライベートネットワーク上で自由に利用可能である。システムは、取り込まれたテキストを使用して、文書を識別し、位置特定し、及び取り出し、場合によってはこれをユーザの画面に表示するか、或いはユーザの電子メールの受信トレイに預ける。
8). Document Access Service An important aspect of the described system is the ability to allow a user with access to a rendered copy of a document to access an electronic version of the document. In some cases, documents are freely available on public or private networks accessible to the user. The system uses the captured text to identify, locate, and retrieve the document, possibly displaying it on the user's screen, or depositing it in the user's email inbox.

場合によっては、文書は、電子形式で利用可能であっても、様々な理由によりユーザがアクセスできないことがある。幾つか例を挙げると、文書を取り出すのに十分な接続性がない場合があり、ユーザが文書を取り出す権利を与えられていない場合があり、文書へのアクセスに関連するコストがかかる場合があり、或いは文書が回収され、場合によっては新しい版に代わっている場合があるなどである。システムは通常、これらの状況についてユーザにフィードバックを提供する。   In some cases, even though the document is available in electronic form, the user may not be able to access it for various reasons. In some cases, there may not be enough connectivity to retrieve the document, the user may not be entitled to retrieve the document, and there may be costs associated with accessing the document. Or, the document may have been collected and in some cases replaced with a new version. The system typically provides feedback to the user about these situations.

セクション7.4で述べたように、ユーザが文書の印刷されたコピーに既にアクセスできることが既知である場合には、特定のユーザに付与されるアクセスの程度又は性質は異なるものであってもよい。   As described in Section 7.4, the degree or nature of access granted to a particular user may vary if it is known that the user already has access to a printed copy of the document. .

8.1.認証された文書アクセス
文書へのアクセスは、指定されたユーザ又は特定の条件を満たすユーザに制限することができ、或いは、例えばユーザがセキュアネットワークに接続されている場合のようなある一定の環境においてのみ利用可能とすることができる。セクション6は、ユーザ及びスキャナのクレデンシャルを確立することができる方法の幾つかについて説明している。
8.1. Authenticated document access Access to documents can be restricted to designated users or users who meet certain conditions, or in certain circumstances, such as when the user is connected to a secure network. Can only be available. Section 6 describes some of the ways in which user and scanner credentials can be established.

8.2.文書購入−著作権所有者の報酬
一般公衆には自由に利用可能でない文書は、多くの場合発行者又は著作権所有者への報酬として、手数料を支払うことによってアクセス可能にすることができる。システムは、支払い機能を直接的に実装することができ、或いはセクション6.2で説明したものを含む、ユーザに関連する他の支払い方法を利用することができる。
8.2. Document Purchase—Copyright Owner Reward Documents that are not freely available to the general public can be made accessible by paying a fee, often as a reward to the issuer or copyright owner. The system can directly implement the payment function, or can utilize other payment methods associated with the user, including those described in Section 6.2.

8.3.文書エスクロー及び積極的な検索
電子文書は、一時的なものである場合が多く、レンダリング文書のデジタルソース版は、現在は利用可能であるが、将来はアクセスできない可能性がある。システムは、ユーザが要求しなかった場合でも、ユーザに代わって既存の版を取り出して記憶することができ、従って、ユーザが将来要求した場合にその可用性を保証する。また、これにより、例えば将来の取り込みを識別するプロセスの一部としてサーチするためにシステムを利用することができるようになる。
8.3. Document Escrow and Active Search Electronic documents are often temporary and digital source versions of rendered documents are currently available but may not be accessible in the future. The system can retrieve and store an existing version on behalf of the user, even if the user does not request it, thus ensuring its availability if the user requests it in the future. This also allows the system to be used to search, for example, as part of the process of identifying future captures.

文書にアクセスするのに支払いが要求される事象では、信頼できる「文書エスクロー」サービスは、少額の手数料を支払うなどにより、ユーザに代わって文書を取り出すことができ、ユーザがサービスに文書を要求する場合には著作権所有者が将来完全に報酬が支払われることが保証される。   In the event that payment is required to access a document, a reliable "document escrow" service can retrieve the document on behalf of the user, such as by paying a small fee, and the user requests the document from the service In some cases, the copyright owner is guaranteed to be fully paid in the future.

取り込みの時点で文書が電子形式で利用可能でない場合には、本主題の変形形態を実装することができる。ユーザは、電子文書が後日利用可能になった場合にユーザに代わって文書の要求を提出すること、又はその文書の支払いを行うことをサービスに許可することができる。   Variations of the present subject matter can be implemented if the document is not available in electronic form at the time of capture. The user can authorize the service to submit a document request or pay for the document on behalf of the user when the electronic document becomes available at a later date.

8.4.他の購読及びアカウントとの関連付け
場合によっては、別のアカウント又は購読とのユーザの既存の関連付けに基づき、支払いを放棄、削減、或いは返済することができる。新聞の印刷版の購読者には、例えば、電子版を取り出す権限を自動的に与えることができる。
8.4. Association with other subscriptions and accounts. In some cases, payments can be abandoned, reduced, or repaid based on the user's existing association with another account or subscription. For example, a subscriber to a printed version of a newspaper can be automatically authorized to retrieve an electronic version.

他の場合には、関連付けを完全に直接的にすることができず、ユーザは、雇い主によって設定されたアカウントに基づいて、或いは加入者である友人が所有する印刷されたコピーのスキャンに基づいてアクセスを認めることができる。   In other cases, the association cannot be made completely direct and the user can be based on an account set up by the employer or based on a scan of a printed copy owned by a friend who is a subscriber. Access can be granted.

8.5.写真複写に代わるスキャン及び印刷
紙文書からテキストを取り込み、電子オリジナルを識別し、そのオリジナル又は取り込みに関連する当該オリジナルの一部を印刷するプロセスは、多くの利点により、従来の写真複写に対する代替形態を形成する。すなわち、
・紙文書は、最終プリントアウトと同じロケーションにある必要はなく、いずれの場合でも同時に存在する必要はない
・写真複写プロセスによって文書、特に古く脆弱な貴重な文書に生じる磨耗及び損傷を回避することができる
・通常、コピーの品質が遙かに高い
・どの文書又は文書の一部が最も頻繁にコピーされるかついての記録を保持することができる
・プロセスの一部として著作権所有者に支払いを行うことができる
・許可されないコピーは禁止することができる
8.5. Scanning and printing as an alternative to photocopying The process of taking text from a paper document, identifying an electronic original, and printing that original or part of the original associated with the capture is an alternative to conventional photocopying, with many advantages. Form. That is,
Paper documents do not need to be in the same location as the final printout, and need not be present at the same time in any case. Avoid wear and damage caused by the photocopying process, especially old and vulnerable valuable documents.・ Usually the copy quality is much higher ・ You can keep a record of which documents or parts of documents are most frequently copied ・ Pay the copyright owner as part of the process・ Unauthorized copying can be prohibited

8.6.写真複写による価値のあるオリジナルの位置付け
歴史的又は他の特定の意義を有する法律上の証書又は文書の場合のように、文書が特に貴重である場合、通常は、多くの場合何年にもわたってこれらの文書のコピーで作業することができ、オリジナルは安全なロケーションに保管している。
8.6. A worthy original position by photocopying If the document is particularly valuable, as in the case of a legal deed or document of historical or other specific significance, it is usually often over many years. You can work with copies of these documents and keep your originals in a secure location.

説明されたシステムは、例えばアーカイブ倉庫内にオリジナル文書のロケーションを記録するデータベースに結合することができ、アーカイブされたオリジナル紙文書の位置を特定するために、誰でもがコピーにアクセスし易くする。   The described system can be coupled, for example, to a database that records the location of the original document in an archive warehouse, making it easy for anyone to access the copy to locate the archived original paper document.

9.テキスト認識技術
従来、光学式文字認識(OCR)技術は、例えば、ページ全体を取り込むフラットベッドスキャナからの大量のテキストを含む画像に的を絞ってきた。OCR技術は多くの場合、有用なテキストを生成するためにユーザによる相当なトレーニング及び補正を必要とする。OCR技術は、OCRを行う機械に相当な処理能力を要求することが多く、多くのシステムが辞書を使用する場合、これらは一般に、事実上無限の語彙で動作することが予想される。
9. Text Recognition Technology Traditionally, optical character recognition (OCR) technology has focused on images containing large amounts of text from, for example, flatbed scanners that capture entire pages. OCR techniques often require considerable training and correction by the user to produce useful text. OCR technology often requires significant processing power on the machine performing OCR, and when many systems use dictionaries, they are generally expected to operate with a virtually unlimited vocabulary.

上記の従来の特徴の全ては、説明されたシステムにおいて改善することができる。   All of the above conventional features can be improved in the described system.

このセクションではOCRに焦点を当てるが、検討した問題の多くは、他の認識技術、特に音声認識に直接対応付けられる。セクション3.1で述べたように、紙から取り込むプロセスは、ユーザが音声を取り込むデバイスにテキストを声に出して読むことよって達成することができる。当業者であれば、画像、フォント、及びテキストフラグメントに関して本明細書で検討した原理が、音声サンプル、ユーザ音声モデル、及び音素にも当てはまることが多い点を理解するであろう。   Although this section focuses on OCR, many of the issues considered are directly mapped to other recognition technologies, particularly speech recognition. As described in Section 3.1, the process of capturing from paper can be accomplished by reading the text aloud to a device where the user captures the sound. One skilled in the art will appreciate that the principles discussed herein with respect to images, fonts, and text fragments often apply to speech samples, user speech models, and phonemes.

9.1.適切なデバイスの最適化
説明されたシステムと共に使用するスキャンデバイスは、多くの場合、小型で、ポータブルで、低電力になる。スキャンデバイスは、一度に数ワードしか取り込むことができず、幾つかの実装では、一度に文字全体を取り込まず、テキストを通る水平スライスを取り込み、多くのこのようなスライスをまとめて、テキストを推測できる認識可能な信号を形成する。スキャンデバイスはまた、極めて限定された処理能力又は記憶装置を有することができるが、幾つかの実施形態では、OCRプロセス自体の全てを実行することができ、多くの実施形態は、場合によっては後で取り込まれた信号をテキストに変換するためにより強力なデバイスへの接続に依存することになる。最後に、スキャンデバイスは、ユーザ対話のために極めて限定された機能を有することがあり、そのため、ユーザ入力のどのような要求も後に延期し、或いは現在一般的であるよりも高い程度まで「最良推定」モードで動作することを必要とすることがある。
9.1. Appropriate Device Optimization Scanning devices for use with the described systems are often small, portable and low power. Scanning devices can only capture a few words at a time, and some implementations do not capture the entire character at once, but instead capture a horizontal slice through the text and put together many such slices to infer the text Form a recognizable signal that can be recognized. The scanning device can also have very limited processing power or storage, but in some embodiments, all of the OCR process itself can be performed, and many embodiments may be later in some cases. Rely on the connection to a more powerful device to convert the captured signal into text. Finally, the scanning device may have very limited capabilities for user interaction, so any request for user input will be postponed later or "best" to a higher extent than is currently common. It may be necessary to operate in "estimate" mode.

9.2.「不確実な」OCR
説明されたシステム内のOCRの主な新しい特徴は、一般に他の場所に存在しデジタル形式で取り出し得るテキストの画像を調べることである。従って、テキストの正確な転写は、OCRエンジンから常に要求される訳ではない。OCRシステムは、場合によっては確率加重を含む実施可能な一致のセット又はマトリックスを出力することができ、これらを使用してデジタルオリジナルをサーチすることができる。
9.2. "Uncertain" OCR
The main new feature of the OCR in the described system is to examine images of text that are generally present elsewhere and can be retrieved in digital form. Therefore, accurate transcription of the text is not always required from the OCR engine. The OCR system can output a set or matrix of possible matches, possibly including probability weights, which can be used to search for digital originals.

9.3.反復OCR−推定、曖昧除去、推定・・・
認識を実行するデバイスが処理の時点で文書インデックスと接触できる場合、OCRプロセスは、進行するときに文書コーパスのコンテンツにより通知することができ、場合によってはかなり優れた認識精度を提供することができる。
9.3. Iterative OCR-estimation, disambiguation, estimation ...
If the device performing recognition can contact the document index at the time of processing, the OCR process can be notified by the content of the document corpus as it progresses, and in some cases can provide significantly better recognition accuracy. .

このような接続によって、デバイスはまた、デジタルソースを識別するために十分なテキストが取り込まれたときにユーザに通知することが可能になる。   Such a connection also allows the device to notify the user when enough text has been captured to identify the digital source.

9.4.起こり得るレンダリングの知識の使用
システムが、印刷に使用されたフォント書体、又はページのレイアウト、或いはどのセクションがイタリック体になっているかなど、文書の起こり得る印刷レンダリングの態様の知識を有する場合には、このことは認識プロセスの助けとなることができる(セクション4.1.1)。
9.4. Use of possible rendering knowledge If the system has knowledge of the possible print rendering aspects of the document, such as the font typeface used for printing, or the layout of the page, or which sections are italicized This can help the recognition process (section 4.1.1).

9.5.フォントキャッシング−ホスト上でフォントを決定し、クライアントにダウンロードする
文書コーパスにおける候補ソーステキストが識別されると、そのフォント又はレンダリングは、認識を助けるためにデバイスにダウンロードすることができる。
9.5. Font caching—Determine font on host and download to client Once candidate source text in the document corpus is identified, the font or rendering can be downloaded to the device to aid recognition.

9.6.自己相関及び文字オフセット
テキストフラグメントのコンポーネント文字は、文書署名として使用できるテキストのフラグメントを表す最も評価された方法とすることができるが、デジタル文書及び/又はデータベースにおいてテキストフラグメントの位置を特定しようとする際、或いはテキストフラグメントの表示を曖昧除去して可読形式にする際に、テキストフラグメントの実際のテキストを使用する必要がないテキストの他の表示は、十分に良好に作用することができる。テキストフラグメントの他の表示は、実際のテキストの表示が無いという利点を提供することができる。例えば、テキストフラグメントの光学式文字認識は、フラグメント全体について光学式文字認識を用いることなくテキストフラグメントをサーチ及び/又は再作成するのに使用できる取り込まれたテキストフラグメントの他の表示とは異なり、多くの場合エラーを生じやすい。このような方法は、現在のシステムと共に使用する幾つかのデバイスにとってより好適とすることができる。
9.6. Autocorrelation and character offset The component characters of a text fragment can be the most appreciated method of representing a fragment of text that can be used as a document signature, but attempt to locate the text fragment in a digital document and / or database In other words, or in disambiguating the display of the text fragment into a readable form, other displays of text that do not need to use the actual text of the text fragment can work well enough. Other displays of text fragments can provide the advantage that there is no display of actual text. For example, optical character recognition of text fragments differs from other representations of captured text fragments that can be used to search and / or recreate text fragments without using optical character recognition for the entire fragment. In this case, an error is likely to occur. Such a method may be more suitable for some devices for use with current systems.

当業者及び他者は、テキストフラグメントの外観を記述する多くの方法が存在することを理解するであろう。テキストフラグメントのこうした特徴付けは、限定ではないが、ワード長、相対ワード長、文字高、文字幅、文字形状、文字頻度、トークン頻度、及び同様のものを含むことができる。幾つかの実施形態では、一致テキストトークン間のオフセット(すなわち、介在するトークの数プラス1)が、テキストのフラグメントを特徴付けるのに使用される。   Those skilled in the art and others will appreciate that there are many ways to describe the appearance of text fragments. Such characterizations of text fragments can include, but are not limited to, word length, relative word length, character height, character width, character shape, character frequency, token frequency, and the like. In some embodiments, the offset between matching text tokens (ie, the number of intervening talks plus one) is used to characterize text fragments.

従来のOCRは、フォント、文字構造、及び形状についての知識を使用して、スキャンされたテキストにおける文字を判定しようと試みる。本発明の実施形態はこれとは異なり、すなわち、認識プロセスを支援するためにレンダリングテキスト自体を使用する様々な方法を用いる。これらの実施形態は、「互いを認識する」ために文字(又はトークン)を使用する。このような自己認識を指す1つの方法は、「テンプレートマッチング」であり、「畳み込み」と類似している。このような自己認識を実行するために、システムは、テキストのコピーをシステム自体の上で水平方向にスライドさせ、テキスト画像の一致領域を確認する。従来のテンプレートマッチング及び畳み込み技術は、様々な関連技術を含む。文字/トークンをトークン化及び/又は認識するためのこれらの技術は、文字/トークンを一致させる際に自己コンポーネント部分と相関付けるのにテキストが使用される場合に本明細書では総称的に「自己相関」と称する。   Conventional OCR uses knowledge of fonts, character structures, and shapes to attempt to determine characters in scanned text. Embodiments of the present invention are different, that is, use various methods that use the rendered text itself to assist the recognition process. These embodiments use characters (or tokens) to “recognize each other”. One way to refer to such self-recognition is “template matching”, which is similar to “convolution”. In order to perform such self-recognition, the system slides a copy of the text horizontally on the system itself to check the matching area of the text image. Conventional template matching and convolution techniques include a variety of related techniques. These techniques for tokenizing and / or recognizing characters / tokens are collectively referred to herein as “self” when text is used to correlate with self-component parts in matching characters / tokens. This is called “correlation”.

自己相関時には、一致する完全接続領域が対象となる。これは、文字(又は文字のグループ)が同じ文字(又はグループ)の他のインスタンスに重なるときに起こる。一致する完全接続領域は、コンポーネントトークンへのテキストのトークン化を自動的に提供する。テキストの2つのコピーが互いにスライドして通り過ぎるときに、完全一致が生じた領域(すなわち、垂直スライスにおける全画素が一致している)が確認される。文字/トークンが自己一致する場合、この一致の水平範囲(例えばテキストの接続された一致部分)も一致する。   At the time of autocorrelation, the matched completely connected area is targeted. This happens when a character (or group of characters) overlaps another instance of the same character (or group). The matching fully connected region automatically provides text tokenization into component tokens. As the two copies of the text slide past each other, an area where an exact match has occurred (ie, all the pixels in the vertical slice match) is identified. If the characters / tokens self-match, the horizontal range of this match (eg, the connected matched portion of the text) also matches.

この段階では、各トークンの実際のアイデンティティ(すなわち、トークン画像に対応する特定の文字、数字又は記号、或いはこれらのグループ)を求める必要がなく、スキャンされたテキストにおいて同じトークンの次の発生に対するオフセットのみでよい点に留意されたい。オフセット数は、同じトークンが次に発生するまでの間隔(トークンの数)である。トークンがテキスト文字列内で一意的である場合、オフセットはゼロ(0)である。このようにして生成されたトークンオフセットのシーケンスは、スキャンされたテキストを識別するのに使用できる署名である。   At this stage, there is no need to determine the actual identity of each token (ie, the specific letter, number or symbol corresponding to the token image, or a group thereof), and an offset to the next occurrence of the same token in the scanned text Please note that it is only necessary. The offset number is an interval (number of tokens) until the next occurrence of the same token. If the token is unique within the text string, the offset is zero (0). The sequence of token offsets thus generated is a signature that can be used to identify the scanned text.

幾つかの実施形態では、スキャンされたトークンの文字列について求められたトークンオフセットは、これらのコンテンツのトークンオフセットに基づいて電子文書のコーパスにインデックスを作成するインデックスと比較される(セクション4.1.2)。他の実施形態では、スキャンされたトークンの文字列について求められたトークンオフセットがテキストに変換され、これらのコンテンツに基づいて電子文書のコーパスをインデックス作成する従来型インデックスと比較される。   In some embodiments, the token offset determined for the scanned token string is compared to an index that indexes the corpus of the electronic document based on the token offsets of these contents (section 4.1). .2). In another embodiment, the token offset determined for the scanned token string is converted to text and compared to a conventional index that indexes the corpus of the electronic document based on these contents.

前述のように、取り込みプロセスが話し言葉の音声サンプルからなる場合には、同様のトークン相関プロセスを音声フラグメントに適用することができる。   As described above, if the capture process consists of spoken speech samples, a similar token correlation process can be applied to the speech fragments.

9.7.フォント/文字「自己認識」
従来のテンプレートマッチングOCRは、スキャンされた画像を文字画像のライブラリと比較する。本質的には、アルファベットは各フォントで記憶され、新しくスキャンされた画像は、この記憶画像と比較されて一致する文字を見つける。プロセスは、一般に、正しいフォントが識別されるまで初期遅延を有する。ほとんどの文書が全体を通じて同じフォントを使用するので、その後のOCRプロセスは比較的迅速である。従って、後続の画像は、最近識別されたフォントライブラリとの比較することによってテキストに変換することができる。
9.7. Font / character "self-recognition"
Conventional template matching OCR compares the scanned image with a library of character images. In essence, the alphabet is stored with each font, and the newly scanned image is compared with this stored image to find a matching character. The process generally has an initial delay until the correct font is identified. Since most documents use the same font throughout, the subsequent OCR process is relatively quick. Thus, subsequent images can be converted to text by comparison with a recently identified font library.

最も一般的に使用されるフォントの文字の形状は関係がある。例えば、ほとんどのフォントにおいて、「t」と「f」などのように、文字「c」と文字「e」とは視覚的に関係がある。OCRプロセスは、この関係を利用することによって拡張され、未だスキャンされていない文字のテンプレートを構成する。例えば、スキャンされた画像を比較する画像テンプレートのセットをシステムが持たないような以前には遭遇していないフォントの紙文書からのテキストの短い文字列を読者がスキャンした場合、システムは、アルファベットの文字全てに遭遇したことがない場合でも、フォントテンプレートライブラリを構成するためにある一定の文字間の推定関係を活用することができる。次にシステムは、構成されたフォントテンプレートライブラリを使用して、後続のスキャンテキストを認識し、構成されたフォントライブラリを更に改良することができる。   The shape of the character of the most commonly used font is relevant. For example, in most fonts, the letter “c” and the letter “e” are visually related, such as “t” and “f”. The OCR process is extended by taking advantage of this relationship to construct a template for characters that have not yet been scanned. For example, if a reader scans a short string of text from a paper document of a font that has not been encountered before, the system does not have a set of image templates that compare the scanned images, the system Even if you have never encountered all the characters, you can take advantage of certain estimated relationships between characters to construct a font template library. The system can then use the configured font template library to recognize subsequent scan text and further improve the configured font library.

9.8.サーバに認識されていないもの(グラフィクスを含む)の送信
サーチプロセスで使用するのに好適な形式に画像を機械転写できない場合、ユーザが後で使用するために、実施可能なマニュアル転写のため、或いは異なるリソースがシステムに利用可能になる後日処理するために画像自体を保存することができる。
9.8. Sending unrecognized servers (including graphics) If the image cannot be mechanically transferred to a form suitable for use in the search process, for manual transfer that can be performed by the user for later use, or The image itself can be saved for later processing when different resources become available to the system.

10.P−コマース
本システムによって実施可能になる動作の多くは、何らかの商取引を生じることになる。語句「P−コマース」とは、本明細書ではシステムを介して紙から開始される商業活動を記述するのに使用される。
10. P-Commerce Many of the operations that can be performed by this system will result in some commercial transaction. The phrase “P-commerce” is used herein to describe commercial activities initiated from paper through the system.

10.1.物理的な印刷コピーからの文書の販売
ユーザが文書からテキストを取り込むときには、ユーザに対して紙又は電子形式のいずれかで購入するよう当該文書を提供することができる。また、ユーザに対して紙文書に引用又は言及されたもの、又は同様の対象に関するもの、或いは同じ著者によるものなど、関連文書を提供することができる。
10.1. Selling a document from a physical printed copy When a user captures text from a document, the document can be provided to the user for purchase in either paper or electronic form. Also, relevant documents can be provided to the user, such as those cited or referred to in paper documents, or related to similar objects, or by the same author.

10.2.紙によって開始又は助長される他のものの販売
テキストの取り込みは、様々な方法で他の商業活動にリンクさせることができる。取り込まれたテキストは、品目を販売するよう明確に設計されたカタログ内に存在することができ、この場合、テキストは、品目の購入にかなり直接的に関連付けられることになる(セクション18.2)。テキストはまた、広告の一部とすることができ、この場合、広告されている品目の販売が引き続いて発生することができる。
10.2. Sales of other things initiated or facilitated by paper The capture of text can be linked to other commercial activities in various ways. The captured text can be in a catalog that is specifically designed to sell the item, in which case the text will be fairly directly related to the purchase of the item (section 18.2). . The text can also be part of the advertisement, in which case the sale of the advertised item can continue to occur.

別の場合において、ユーザは、商取引における潜在的な関心を推測することができる他のテキストを取り込む。例えば、特定の国の小説セットの読者は、その国の休日に関心を示す可能性がある。新車のレビューを読む人は、新車の購入を検討している可能性がある。ユーザは、何らかの商業上の機会が結果としてユーザに提示されることになること、或いはユーザの取り込みアクティビティの副次的作用になる場合があることが分かっているテキストの特定のフラグメントを取り込むことができる。   In another case, the user captures other text that can infer potential interest in commerce. For example, readers of a novel set for a particular country may be interested in holidays for that country. People reading new car reviews may be considering buying a new car. The user may capture specific fragments of text that are known to result in some commercial opportunity being presented to the user or may be a side effect of the user's capture activity. it can.

10.3.販売を生じる結果となる品目上のラベル、アイコン、シリアルナンバー、バーコードの取り込み
品目又はそのパッケージ上にテキスト又は記号が実際に印刷されている場合がある。実施例としては、電子機器の一部の後面又は下面のラベルに見られることが多いシリアルナンバー又は製造IDである。システムは、当該テキストを取り込むことによって同じ品目の1つ又はそれ以上を購入する従来の方法をユーザに提供することができる。また、マニュアル、サポート又は修理サービスも提供することができる。
10.3. Capturing labels, icons, serial numbers, barcodes on items that result in a sale There may be actual text or symbols printed on the item or its package. Examples include serial numbers or manufacturing IDs often found on labels on the back or bottom of some electronic devices. The system can provide the user with a conventional way to purchase one or more of the same items by capturing the text. Manuals, support or repair services can also be provided.

10.4.コンテキスト広告
広告からのテキストの直接取り込みに加えて、システムは、レンダリング文書において必ずしも明確ではないが、人々が読んでいるものに基づいた新しい種類の広告を可能にする。
10.4. Contextual advertisements In addition to capturing text directly from advertisements, the system allows for a new kind of advertisements based on what people are reading, although not necessarily obvious in rendered documents.

10.4.1.スキャンコンテキスト及び履歴に基づく広告
従来の紙の発行物において、広告は、一般に新聞記事のテキストに対して大量のスペースを費やし、限定された数の広告を特定の記事の周りに配置することができる。説明されたシステムでは、広告は個々のワード又はフレーズに関連付けることができ、ユーザが当該テキストを取り込み、場合によっては過去のスキャンの履歴を考慮することによって示した特定の関心に従って選択することができる。
10.4.1. Ads based on scan context and history In traditional paper publications, ads typically spend a lot of space on the text of newspaper articles and can place a limited number of ads around a particular article. . In the system described, advertisements can be associated with individual words or phrases and can be selected according to the particular interest indicated by the user capturing the text and possibly considering the history of past scans. .

説明されたシステムでは、購入を特定の印刷文書に結び付け、広告主が、特定の印刷発行物において広告する効果についてのより多くのフィードバックを有意に得ることができる。   With the described system, purchases can be tied to a particular printed document, and advertisers can get significantly more feedback on the effectiveness of advertising in a particular print publication.

10.4.2.ユーザコンテキスト及び履歴に基づく広告
システムは、ユーザ自身の使用に対するユーザのコンテキストの他の態様について大量の情報を収集することができ(セクション13)、ユーザの地理的ロケーションの推定値は良い実施例である。このようなデータを使用して、システムのユーザに提示される広告を調整することができる。
10.4.2. User context and history based advertising The system can collect a large amount of information about other aspects of the user's context for their own use (section 13), and an estimate of the user's geographic location is a good example. is there. Such data can be used to coordinate advertisements presented to users of the system.

10.5.報酬のモデル
本システムは、広告主及びマーケティング担当者への報酬の幾つかの新しいモデルを可能にする。広告を含む印刷文書の発行者は、これらの文書から発生した購入から幾らかの収入を受け取ることができる。これは、元の印刷形式で広告が存在しているか否かに関わらず当てはまり、発行者、広告主、又はあるサードパーティのいずれかによって電子的に追加することができ、このような広告のソースは、ユーザが加入することができるものである。
10.5. Compensation models The system enables several new models of compensation to advertisers and marketers. Publishers of printed documents containing advertisements can receive some revenue from purchases generated from these documents. This is true whether or not the advertisement exists in its original print format and can be added electronically by either the publisher, advertiser, or some third party, and the source of such advertisement Can be subscribed to by the user.

10.5.1.人気ベースの報酬
システムによって生成された統計の解析は、発行物のある特定の部分の人気を示すことができる(セクション14.2)。例えば新聞では、特定のページ又は記事を読者が見るのに費やす時間量、或いは特定のコラムニストの人気を示すことができる。状況によっては、書かれたワード又は配布されたコピー数など、より従来的な評価指標ではなく、読者のアクティビティに基づく報酬を著者又は発行者が受け取ることが適切とすることができる。著作物がある主題について頻繁に読まれた権威のあるものになった著者は、その本が同じ数のコピーを販売したがめったに開かれない著者とは将来の契約において異なると考えることができる(セクション7.6を参照)。
10.5.1. Analysis of the statistics generated by the popularity-based reward system can indicate the popularity of certain parts of the publication (Section 14.2). For example, a newspaper can indicate the amount of time a reader spends viewing a particular page or article, or the popularity of a particular columnist. In some situations, it may be appropriate for the author or publisher to receive a reward based on the reader's activity rather than a more traditional metric such as a written word or the number of copies distributed. Authors whose work has become authoritatively read on a subject can be considered different in future contracts than authors whose books sell the same number of copies but rarely open ( (See section 7.6).

10.5.2.人気ベースの広告
文書における広告についての決定は、読者層についての統計に基づくことができる。最も人気のあるコラムニストの周りの広告スペースは、割増料金で販売することができる。広告主は、文書が発行された後しばらくして、文書がどのように受け取られたかについての知識に基づいて請求され、又は報酬が支払われることができる。
10.5.2. Popularity-based advertising Decisions about advertising in documents can be based on statistics about readership. The advertising space around the most popular columnists can be sold for an extra charge. Advertisers can be charged or paid for some time after the document is published based on their knowledge of how the document was received.

10.6.ライフライブラリに基づくマーケティング
セクション6.1及び16.1で説明された「ライフライブラリ」又はスキャン履歴は、ユーザの関心及び習慣についての極めて価値のある情報のソースとすることができる。適切な承諾及びプライバシー問題に従って、このようなデータは、ユーザへの商品又はサービスの提供を通知することができる。匿名形式でも、収集された統計は極めて有用なものとすることができる。
10.6. Life Library Based Marketing The “Life Library” or scan history described in Sections 6.1 and 16.1 can be a source of extremely valuable information about user interests and habits. In accordance with appropriate consent and privacy issues, such data can inform the user of the provision of goods or services. Even in anonymous form, the collected statistics can be extremely useful.

10.7.後日の販売/情報(利用可能になった場合)
商取引のための広告及び他の機会は、テキスト取り込み時に即座にユーザに提示されない場合がある。例えば、小説の続編を購入する機会は、ユーザが小説を読んでいる時点では利用可能になることはできないが、システムは、続編が発行されたときにその機会をユーザに提示することができる。
10.7. Later sales / information (when available)
Advertising and other opportunities for commerce may not be presented to the user immediately upon text capture. For example, the opportunity to purchase a sequel to a novel cannot be made available when the user is reading the novel, but the system can present the opportunity to the user when the sequel is published.

ユーザは、購入又は他の商取引に関するデータを取り込むことができるが、取り込みが行われたときに取引を開始/及び又は終了しないことを選択することができる。幾つかの実施形態では、取り込みに関するデータは、ユーザのライフライブラリ内に記憶され、これらのライフライブラリエントリを「アクティブ」のままにすることができる(すなわち、取り込みが行われた時点で利用可能になるものと同様に次の対話が可能である)。従って、ユーザは、幾らか後の時間で取り込みをレビューし、任意選択的にその取り込みに基づいて取引を完了することができる。システムは元の取り込みが発生した時間及び場所を追跡することができるので、取引に包含関与する全ての関係者に適切に報酬を支払うことができる。例えば、ユーザがデータを取り込んだ広告に隣接して表示されていた物語を書いた著者、及びその物語を発行した発行者は、6ヶ月後、ユーザがそのライフライブラリを訪れて、履歴からその特定の取り込みを選択し、及びポップアップメニューから「アマゾンでこの品目を購入」(取り込み時に任意選択的に提示されるメニューに類似又は同一のものとすることができる)を選択すると報酬が支払われることが可能である。   The user can capture data regarding purchases or other commercial transactions, but can choose not to start / end the transaction when the capture occurs. In some embodiments, ingestion data is stored in the user's life library, and these life library entries can remain “active” (ie, available when the ingestion occurs). The following dialogue is possible as well as: Thus, the user can review the capture at some later time and optionally complete the transaction based on the capture. Since the system can track the time and place where the original capture occurred, it can properly reward all parties involved in the transaction. For example, an author who wrote a story that was displayed adjacent to an advertisement that the user took in data, and a publisher who published the story, visited the life library six months later, and identified it from the history. You may be rewarded if you choose to capture and select “Purchase this item on Amazon” from the pop-up menu (which can be similar or identical to the menu that is optionally presented at the time of capture) Is possible.

11.オペレーティングシステム及びアプリケーション統合
最新オペレーティングシステム(OS)及び他のソフトウェアパッケージは、説明されたシステムでの使用に有利に利用することができる多くの特徴を有し、また、この使用に対してより良好なプラットフォームを提供するために種々の方法で修正することができる。
11. Operating System and Application Integration Modern operating systems (OS) and other software packages have many features that can be used to advantage in the described system and are better for this use. It can be modified in various ways to provide a platform.

11.1.メタデータ及びインデックス作成へのスキャン及び印刷関連情報の組み込み
新しい及び次回のファイルシステム及びこれらの関連データベースは、各ファイルに関連する様々なメタデータを記憶する機能を有することが多い。従来、このメタデータは、ファイルを作成したユーザのID、作成日時、最終修正、及び最終使用などを含んでいた。より新しいファイルシステムによって、キーワード、画像特徴、文書ソース、及びユーザコメントなどのような追加の情報を記憶することが可能になり、幾つかのシステムでは、このメタデータを恣意的に拡張することができる。従って、ファイルシステムを用いて、現在のシステムを実装するのに有用となる情報を記憶することができる。例えば、所与の文書が最後に印刷された日付は、説明されたシステムを使用してどのテキストが、いつ、誰によって紙から取り込まれたかを詳述できるように、ファイルシステムが記憶することができる。
11.1. Incorporating scan and print related information into metadata and indexing New and next file systems and their associated databases often have the ability to store various metadata associated with each file. Conventionally, this metadata includes the ID of the user who created the file, the creation date and time, the last modification, and the last use. Newer file systems can store additional information such as keywords, image features, document sources, user comments, etc., and some systems can arbitrarily extend this metadata. it can. Thus, the file system can be used to store information that is useful for implementing the current system. For example, the date that a given document was last printed may be stored by the file system so that it can detail which text was taken from paper by who and when using the described system. it can.

オペレーティングシステムはまた、ユーザがローカルファイルをより容易に見つけ得るサーチエンジン機能を組み込むことを始めている。これらの機能は、システムが有利に使用することができる。これは、セクション3及び4で検討されたサーチ関連概念の多くが、今日のインターネットベース及び同様のサーチエンジンに対してだけでなく、あらゆるパーソナルコンピュータにも適用されることを意味する。   Operating systems are also beginning to incorporate search engine functionality that allows users to find local files more easily. These functions can be used advantageously by the system. This means that many of the search related concepts discussed in Sections 3 and 4 apply not only to today's Internet-based and similar search engines, but also to any personal computer.

場合によっては、特定のソフトウェアアプリケーションが、OSによって提供される機能に加えてシステムに対するサポートをも含むことになる。   In some cases, a particular software application will include support for the system in addition to the functionality provided by the OS.

11.2.取り込み装置に対するOSサポート
取り込み装置の適用性は単一のソフトウェアアプリケーションを超えて拡張されているので、ペン型スキャナのような取り込み装置の使用が益々一般的になると、マウス及びプリンタに対してサポートが提供されるのとほぼ同じように、取り込み装置のサポートをオペレーティングシステムに組み込むことが望ましいものとなる。同じことは、システムのオペレーションの他の態様に対しても当てはまる。幾つかの実施例を以下で検討する。幾つかの実施形態では、説明されたシステム全体或いはそのコアがOSによって提供される。幾つかの実施形態では、システムのサポートは、システムの態様を直接的に実装するものを含む、他のソフトウェアパッケージによって使用できるアプリケーションプログラミングインターフェース(API)によって提供される。
11.2. OS support for capture devices As the applicability of capture devices extends beyond a single software application, support for mice and printers becomes more common as the use of capture devices such as pen scanners becomes more common. In much the same way as provided, it would be desirable to incorporate capture device support into the operating system. The same is true for other aspects of system operation. Several examples are discussed below. In some embodiments, the entire described system or its core is provided by the OS. In some embodiments, system support is provided by an application programming interface (API) that can be used by other software packages, including those that directly implement aspects of the system.

11.2.1.OCR及び他の認識技術のサポート
レンダリング文書からテキストを取り込む方法のほとんどは、ソースデータ(通常はスキャンされた画像又は何らかの話し言葉)をシステムで使用するのに好適なテキストとして解釈するために何らかの認識ソフトウェアを必要とする。過去においてOCRの使用は通常、アプリケーションの狭い範囲に限られていたので、OSによっては音声又は手書き文字認識のサポートを含むが、OSがOCRのサポートを含むことはあまり一般的ではない。
11.2.1. Support for OCR and other recognition technologies Most methods for capturing text from rendered documents include some recognition software to interpret the source data (usually scanned images or some spoken language) as text suitable for use in the system. Need. In the past, the use of OCR has usually been limited to a narrow range of applications, and some OSs include support for speech or handwriting recognition, but it is not very common for the OS to include OCR support.

認識コンポーネントがOSの一部になると、これら認識コンポーネントは、OSによって提供される他の機能をより上手く利用することができる。多くのシステムは、例えば、スペリング辞書、文法解析ツール、国際化及び地方化機能を含み、特にこれらは、ユーザが一般的に遭遇するワード及びフレーズを含むよう特定のユーザに対してカスタマイズすることができるので、これらの全ては、説明されたシステムが認識プロセス用に有利に利用することができる。   When the recognition components become part of the OS, these recognition components can better utilize other functions provided by the OS. Many systems include, for example, spelling dictionaries, grammar analyzers, internationalization and localization functions, and in particular these can be customized for a particular user to include words and phrases commonly encountered by the user. All of these can be advantageously used for the recognition process by the described system because it can.

オペレーティングシステムがフルテキストインデックス作成機能を含む場合、これらを用いて、セクション9.3に説明されたように認識プロセスに通知することができる。   If the operating system includes full-text indexing capabilities, these can be used to notify the recognition process as described in Section 9.3.

11.2.2.スキャン時に行われる動作
光学スキャン又は他の取り込みが生じてOSに提示されると、他のサブシステムが取り込みの所有権を請求しない場合にはデフォルト動作を取らせることができる。デフォルト動作の実施例は、ユーザに代替の選択肢を提示すること、又は取り込まれたテキストをOSの組み込みサーチ機能に実行依頼することである。
11.2.2. Actions Taken During Scanning When an optical scan or other capture occurs and is presented to the OS, the default action can be taken if the other subsystem does not claim capture ownership. Examples of default behavior are presenting alternative choices to the user or submitting the captured text to the OS's built-in search function.

11.2.3.OSが特定の文書又は文書タイプに対するデフォルト動作を有する
レンダリング文書のデジタルソースが見つかった場合、OSは、その特定の文書又はその分類の文書がスキャンされたときにとることになる標準的な動作を有することができる。アプリケーション及び他のサブシステムは、ある一定のファイルタイプを扱うこれらの機能を適用することによる通知と同様にして、取り込みの特定のタイプの可能性のあるハンドラとしてOSに登録することができる。
11.2.3. When the OS finds a digital source of a rendered document that has default behavior for a particular document or document type, the OS takes the standard action that will be taken when that particular document or document of that classification is scanned. Can have. Applications and other subsystems can register with the OS as potential handlers for a particular type of capture, similar to notifications by applying these functions that handle certain file types.

レンダリング文書、又は文書からの取り込みに関連するマークアップデータは、特定のアプリケーションを起動し、アプリケーションに引数、パラメータ、又はデータなどをわたすためのオペレーティングシステムへの命令を含むことができる。   The markup data associated with the rendering document, or capture from the document, can include instructions to the operating system to launch a particular application and pass arguments, parameters, data, etc. to the application.

11.2.4.ジェスチャーの解釈及び標準的動作へのマッピング
セクション12.1.3では、特に光学スキャンの場合における「ジェスチャー」の使用が検討されており、ここで、ハンドヘルドスキャナによって行われる特定の移動が、テキスト領域の始まりと終わりをマーキングするなどの標準的動作を表すことができる。
11.2.4. Interpretation of gestures and mapping to standard behavior Section 12.1.3 discusses the use of “gestures”, particularly in the case of optical scanning, where the specific movement performed by the handheld scanner is Can represent standard actions such as marking the beginning and end of

これは、カーソルキーを用いてテキスト領域を選択しながらキーボード上のシフトキーを押下すること、又はマウス上のホイールを使用して文書をスクロールさせることのような動作に似ている。ユーザによるこのような動作は、OSによってシステムワイドな手法で解釈される十分に標準的なものであり、従って、一貫した挙動が保証される。スキャナジェスチャー及び他のスキャナ関連動作についても同様であることが望ましい。   This is similar to actions such as pressing the shift key on the keyboard while selecting a text area using the cursor keys, or scrolling the document using the wheel on the mouse. Such actions by the user are sufficiently standard to be interpreted in a system wide manner by the OS, thus ensuring consistent behavior. The same is desirable for scanner gestures and other scanner-related operations.

11.2.5.標準的(及び非標準的)アイコン/テキスト印刷メニュー項目に対する応答の設定
同様に、テキスト又は他の記号のあるアイテムは、スキャン時に標準動作を引き起こすようにすることができ、OSは、これらの選択を可能にすることができる。一実施例には、何らかの文書においてテキスト「[印刷]」をスキャンすることにより、OSが当該文書のコピーを取り出して印刷することが挙げられる。OSはまた、このような動作を登録して特定のスキャンと関連付ける手法を提供することができる。
11.2.5. Setting Responses to Standard (and Non-Standard) Icon / Text Print Menu Items Similarly, items with text or other symbols can cause standard behavior when scanning, and the OS can select these Can be made possible. In one embodiment, the OS retrieves a copy of the document by printing the text “[PRINT]” in some document and prints it. The OS can also provide a way to register such actions and associate them with a particular scan.

11.3.一般的なスキャン開始による動作のためのシステムGUIコンポーネントにおけるサポート
ほとんどのソフトウェアアプリケーションは、OSによって提供される標準的なグラフィカルユーザインターフェースコンポーネントに実質的に基づいている。
11.3. Support in system GUI components for general scan-initiated operation Most software applications are substantially based on standard graphical user interface components provided by the OS.

開発者がこれらのコンポーネントを使用すると、複数のパッケージにわたって一貫した挙動を保証するのに役立ち、例えば、全てのプログラマーが同じ機能を別々に実装するのを必要とせずに、何らかのテキスト編集コンテキストにおいて左カーソルキーを押下するとカーソルを左に動かすことになる。   Developers can use these components to help ensure consistent behavior across multiple packages, e.g. left in some text editing context without requiring all programmers to implement the same functionality separately. Pressing the cursor key moves the cursor to the left.

これらのコンポーネントにおける同様の一貫性は、説明されたシステムのテキスト取り込み又は他の態様によって動作が開始される場合に望ましい。以下に実施例を幾つか挙げる。   Similar consistency in these components is desirable when operations are initiated by text capture or other aspects of the described system. Some examples are given below.

11.3.1.特定のテキストコンテンツを見つけるためのインターフェース
システムの一般的な使用は、ユーザが紙文書のあるエリアをスキャンすること、並びにシステムが、表示又は編集できるソフトウェアパッケージにおいて対応電子文書を開き、そのパッケージにスキャンされたテキストまでスクロールさせて強調表示させることとすることができる(セクション12.2.1)。電子文書を見つけて開くこのプロセスの第1パートは通常OSによって提供され、ソフトウェアパッケージの間で標準である。しかしながら、文書内でテキストの特定の部分の位置を特定し、パッケージにこの部分までスクロールさせて強調表示させる第2パートは、未だ標準化されておらず、各パッケージ毎に異なるよう実装されることが多い。この機能の標準APIの可用性は、システムのこの態様のオペレーションを大幅に向上させることができる。
11.3.1. Interface for finding specific text content A common use of the system is for a user to scan an area of a paper document, as well as open a corresponding electronic document in a software package that the system can view or edit and scan into that package. Scroll to the highlighted text and highlight it (Section 12.2.1). The first part of this process of finding and opening electronic documents is usually provided by the OS and is standard among software packages. However, the second part, which locates a specific part of text in a document and causes a package to scroll to this part and highlight it, is not yet standardized and may be implemented differently for each package. Many. The availability of a standard API for this function can greatly improve the operation of this aspect of the system.

11.3.2.テキスト対話
テキストの一部分が文書内で位置付けられると、システムは、そのテキストに様々なオペレーションの実行を望むことができる。一実施例として、システムは、周囲のテキストを要求することができ、これによりユーザの数ワードの取り込みで、これらを含むセンテンス又はパラグラフ全体にシステムがアクセスする結果をもたらすことができる。この場合も同様に、この機能は、テキストを扱うソフトウェアのあらゆる部分に実装されるのではなく、OSが有効に提供することができる。
11.3.2. Text interaction Once a portion of text is located in a document, the system may want to perform various operations on that text. As one example, the system can request surrounding text, which can result in the system accessing the entire sentence or paragraph that contains them with the user's capture of several words. Again, this function is not implemented in every part of the text handling software, but can be effectively provided by the OS.

11.3.3.コンテキスト(ポップアップ)メニュー
システムによって可能になるオペレーションの幾つかは、ユーザフィードバックを要求することになり、これは、データを扱うアプリケーションのコンテキスト内で最適に要求することができる。幾つかの実施形態では、システムは、あるテキスト上でマウスボタンを右クリックすることに従来関連付けられたアプリケーションのポップアップメニューを使用する。システムは、このようなメニューに追加のオプションを挿入して、これらを紙文書のスキャンなどの動作の結果として表示させる。
11.3.3. Some of the operations enabled by the context (pop-up) menu system will require user feedback, which can be optimally requested within the context of the application handling the data. In some embodiments, the system uses an application pop-up menu conventionally associated with right clicking a mouse button on some text. The system inserts additional options into such menus and displays them as a result of operations such as scanning a paper document.

11.4.ウェブ/ネットワークインターフェース
今日の次第にネットワーク化されてきた世界では、個々の機械で利用可能な機能性の大部分はまた、ネットワーク上でアクセスすることができ、説明されたシステムに関連する機能も例外ではない。一実施例として、オフィス環境では、ユーザが受け取る多くの紙文書は、同じ企業ネットワーク上の他のユーザの機械が印刷していた可能性がある。1つのコンピュータ上のシステムは、取り込みに応答して、適切な許可制御に従い当該取り込みに対応することができる文書について他の機械に問い合わせすることができる。
11.4. Web / Network Interface In today's increasingly networked world, most of the functionality available on individual machines can also be accessed over the network, with the exception of the functions associated with the described system. Absent. As an example, in an office environment, many paper documents received by a user may have been printed by other users' machines on the same corporate network. In response to the capture, a system on one computer can query other machines for documents that can respond to the capture according to appropriate authorization controls.

11.5.文書の印刷により生じる保存
紙文書とデジタル文書の統合における重要な要因は、両者間の移行についてできる限り多くの情報を維持することである。幾つかの実施形態では、OSは、ある文書がいつ誰によって印刷されたかの単純な記録を保持する。幾つかの実施形態では、OSは、システムと共に使用するのにより好適な1つ又はそれ以上の更なる動作をとる。実施例には以下のものが挙げられる。
・文書が印刷されるソースについての情報と共にあらゆる印刷文書のデジタルレンダリング版を保存すること。
・将来のスキャン解釈を助けることができる印刷された版についての有用な情報のサブセット(例えば、使用されたフォント及び改行が行われる場所)を保存すること。
・あらゆる印刷されたコピーに関連するソース文書の版を保存すること。
・印刷時に自動的に文書のインデックスを作成し、将来のサーチのためにその結果を記憶すること。
11.5. Preservation resulting from document printing An important factor in the integration of paper and digital documents is to maintain as much information as possible about the transition between them. In some embodiments, the OS keeps a simple record of when and when a document was printed by. In some embodiments, the OS takes one or more additional actions that are more suitable for use with the system. Examples include the following.
Save a digitally rendered version of every printed document along with information about the source from which the document is printed.
Save a subset of useful information about the printed version that can aid in future scan interpretation (eg, the font used and where the line breaks are made).
• Save a version of the source document associated with any printed copy.
• Automatically index documents when printing and store the results for future searches.

11.6.(印刷/スキャン済み)マイドキュメント
OSは、特定の重要性を有するフォルダ又はファイルのあるカテゴリーを維持する場合が多い。ユーザの文書は、規定又は設計により、例えば「マイドキュメント」フォルダ内で見つけることができる。標準ファイルオープニングダイアログは、最近開いた文書のリストを自動的に含むことができる。
11.6. My Documents (Printed / Scanned) The OS often maintains a certain category of folders or files of particular importance. The user's document can be found by convention or design, for example in the “My Documents” folder. The standard file opening dialog can automatically include a list of recently opened documents.

説明されたシステムと共に使用するために最適化されたOSでは、このようなカテゴリーは、記憶ファイルの紙版とのユーザの相互作用を考慮に入れるようにして拡張又は増強することができる。「印刷済みマイドキュメント」又は「最近読んだマイドキュメント」などのカテゴリーは、オペレーションに有用に識別され組み込むことができる。   In an OS optimized for use with the described system, such categories can be expanded or augmented to take into account user interaction with the paper version of the storage file. Categories such as “Printed My Documents” or “Recently Read My Documents” can be usefully identified and incorporated into operations.

11.7.OS−レベルマークアップ階層
システムの重要な態様は、通常セクション5で検討された「マークアップ」概念を使用して提供されるので、複数のアプリケーション並びにOS自体にアクセス可能であるようにしてOSによって提供されるこうしたマークアップのサポートを有することが有利であるのは明らかである。更に、マークアップのレイヤは、制御下での文書の固有の知識及び提供できる機能に基づいてOSによって提供される。
11.7. OS-Level Markup Hierarchy Important aspects of the system are usually provided using the “markup” concept discussed in Section 5, so that the OS can access multiple applications as well as the OS itself. Clearly, it would be advantageous to have such markup support provided. Furthermore, the markup layer is provided by the OS based on the inherent knowledge of the document under control and the functions that can be provided.

11.8.OS DRM機能の使用
ある形式の「デジタル著作権管理」、すなわち特定のユーザ、ソフトウェアエンティティ、又は機械に付与される権利に従って特定のデータの使用を制御する機能をサポートするオペレーティングシステムの数が益々増えてきている。これは、例えば特定の文書の許可されていないコピー又は配布を禁止することができる。
11.8. Use of OS DRM functionality An increasing number of operating systems support some form of “digital rights management”, ie the ability to control the use of specific data according to the rights granted to specific users, software entities or machines It is coming. This can, for example, prohibit unauthorized copying or distribution of certain documents.

12.ユーザインターフェース
本システムのユーザインターフェースは、取り込み装置が比較的ダムでありケーブルによってPCに接続されている場合には完全にPC上に存在し、或いは、取り込み装置が高性能であり且つそれぞれが有意な処理能力を有する場合には、完全に装置上に存在することができる。場合によっては、何らかの機能は各コンポーネントに存在する。システムの機能の一部又は全てはまた、携帯電話又はPDAなどの他のデバイス上に実装することができる。
12 User Interface The user interface of the system is either completely on the PC when the capture device is relatively dam and connected to the PC by cable, or the capture device is high performance and each is significant. If it has processing power, it can be present entirely on the device. In some cases, some functionality is present in each component. Some or all of the functions of the system can also be implemented on other devices such as mobile phones or PDAs.

従って、以下のセクションにおける説明は、特定の実装に望ましいとすることができるものを示すが、これらは必ずしも全てに対して適切なものではなく、幾つかの手法で修正することができる。   Accordingly, the description in the following sections shows what may be desirable for a particular implementation, but these are not necessarily appropriate for all and can be modified in several ways.

12.1.取り込み装置上
全ての取り込み装置、特に光学スキャナの場合には、ユーザの注意は一般的に、スキャン時のデバイス及び紙にある。よって、スキャンプロセスの一部として必要とされる何らかの入力及びフィードバックは、ユーザの注意が他の場所(例えばコンピュータの画面上)にあることを必要以上に要求されないことが極めて望ましい。
12.1. On the capture device For all capture devices, especially optical scanners, the user's attention is generally on the device and paper during scanning. Thus, it is highly desirable that any input and feedback required as part of the scanning process does not unnecessarily require the user's attention to be elsewhere (eg, on a computer screen).

12.1.1.スキャナでのフィードバック
ハンドヘルドスキャナは、特定の状況についてのフィードバックをユーザに提供する様々な方法を有することができる。最も明確なタイプは、スキャナがインジケータライト又はフルディスプレイまで組み込む直接目に見えるもの、及びスキャナがビープ音、クリック音、又は他の音を出すことができる聴覚的なものである。重要な代替形態は、スキャナが振動し、ブザー音を出し、或いはユーザのタッチ感覚を刺激することができる触覚フィードバック、及び光のカラースポットから何かを紙に投影させることによってステータスを高性能ディスプレイに示す投影フィードバックを含む。
12.1.1. Scanner Feedback Handheld scanners can have a variety of ways to provide feedback to a user about a particular situation. The most obvious types are those that the scanner incorporates directly into the indicator light or full display, and those that are audible that the scanner can emit beeps, clicks, or other sounds. An important alternative is a high-performance display that allows the scanner to vibrate, emit a buzzer, or tactile feedback that can stimulate the user's touch sensation, and project something from the light color spot onto the paper Including projection feedback.

デバイス上に提供できる重要な即時フィードバックは、以下を含む。
・スキャンプロセスでのフィードバック−速すぎる速度で、大きすぎる角度で、或いは特定のライン上での高すぎる又は低すぎるドリフトでのユーザスキャン。
・十分なコンテンツ−存在する場合に一致を見つけるのを極めて確実にするよう十分にスキャンされた−分離オペレーションに重要。
・既知のコンテキスト−位置が特定されたテキストのソース。
・既知の固有コンテキスト−位置が特定されたテキストの1つの固有ソース。
・コンテンツの可用性−コンテンツがユーザに自由に利用可能であるか又は費用がかかるかの表示。
Important immediate feedback that can be provided on the device includes:
• Feedback in the scanning process-user scans at too fast speed, too large angles, or too high or too low drift on a particular line.
• Sufficient content-well scanned to make sure it finds a match if it exists-important for separation operations.
Known context-the source of the located text.
Known Unique Context-One unique source of located text.
Content availability-an indication of whether content is freely available to users or costly.

本システムの後の段階に通常関連するユーザ対話の多くはまた、例えば文書の一部又は全てを表示するのに十分な能力を有する場合には、取り込み装置上で行うことができる。   Many of the user interactions normally associated with later stages of the system can also be performed on the capture device, for example if they have sufficient capabilities to display some or all of the document.

12.1.2.スキャナの制御
デバイスは、基本テキスト取り込みに加えて入力を可能にする様々な方法をユーザに提供することができる。デバイスが、キーボード及びマウスなどの入力オプションを有するホスト機械と密接に関連している場合でも、例えば、スキャナの操作とマウスの使用をユーザが切り替えるために混乱を生じさせる可能性がある。
12.1.2. Scanner control The device can provide the user with various ways to allow input in addition to basic text capture. Even if the device is closely associated with a host machine that has input options such as a keyboard and mouse, it can cause confusion for the user to switch between operating the scanner and using the mouse, for example.

ハンドヘルドスキャナは、ボタン、スクロール/ジョグホイール、タッチ感知式表面、及び/又はデバイスの動きを検出するための加速度計を有することができる。これらの幾つかにより、スキャナを保持しながら対話のより豊富なセットが可能になる。   The handheld scanner can have buttons, scroll / jog wheels, touch sensitive surfaces, and / or accelerometers to detect device movement. Some of these allow for a richer set of interactions while holding the scanner.

例えば、あるテキストのスキャンに応答して、システムは、ユーザに幾つかの可能な一致文書のセットを提示する。ユーザは、スキャナの側面にあるスクロールホイールを使用してリストから1つを選択し、ボタンをクリックして選択を確認する。   For example, in response to a scan of a text, the system presents the user with a set of several possible matching documents. The user uses the scroll wheel on the side of the scanner to select one from the list and clicks the button to confirm the selection.

12.1.3.ジェスチャー
紙全体にスキャナを動かす主な理由は、テキストを取り込むためであるが、幾つかの動きをデバイスによって検出し、これを用いて他のユーザの意図を示すことができる。このような動きは、本明細書では「ジェスチャー」と称する。
12.1.3. Gestures The main reason for moving the scanner across the paper is to capture text, but some movements can be detected by the device and used to indicate the intentions of other users. Such movement is referred to herein as a “gesture”.

一実施例として、ユーザは、従来の左から右の順序で最初の数ワードを、更に逆の順序、すなわち右から左に最後の数ワードをスキャンすることによって、テキストの大きな領域を示すことができる。ユーザはまた、スキャナを数行にわたってページの下に向けて動かすことによって、関心のあるテキストの垂直方向の範囲を示すことができる。後方スキャンは、前回のスキャンオペレーションの取り消しを示すことができる。   As one example, a user may indicate a large area of text by scanning the first few words in a conventional left-to-right order and then the reverse order, ie the last few words from right to left. it can. The user can also indicate the vertical range of text of interest by moving the scanner down the page over several lines. A backward scan can indicate the cancellation of a previous scan operation.

12.1.4.オンライン/オフライン動作
システムの多くの態様は、スキャナなどのシステムのコンポーネントとホストラップトップとの間、或いは企業データベース及びインターネットサーチに対する接続形式での外部とのいずれかのネットワーク接続性に依存することができる。この接続性は、必ずしも存在するとは限らないが、システムの一部又は全てが「オフライン」であるとみなすことができる場合もあることになる。システムがこれらの状況で継続して有効に機能できることが望ましい。
12.1.4. Online / Offline Operation Many aspects of the system may rely on network connectivity either between system components such as scanners and the host laptop, or externally in the form of connections to corporate databases and Internet search. it can. This connectivity is not necessarily present, but some or all of the system may be considered “offline”. It is desirable that the system can continue to function effectively in these situations.

デバイスは、システムの他の部分と接触していないときにテキストを取り込むよう用いることができる。極めて単純なデバイスは、取り込みに関連する、理想的には取り込まれた時間を示すタイムスタンプに関連する画像又は音声データを単に記憶することができる。種々の取り込みは、デバイスが次にシステムと接触したときにシステムの他の部分にアップロードされ、次いで処理することができる。デバイスはまた、取り込みに関連する他のデータ、例えば、光学スキャンに関連する音声注釈、又はロケーション情報をアップロードすることができる。   The device can be used to capture text when not in contact with other parts of the system. A very simple device can simply store image or audio data associated with capture, ideally associated with a timestamp indicating the time of capture. The various captures can be uploaded to other parts of the system the next time the device contacts the system and then processed. The device can also upload other data related to capture, such as audio annotations related to optical scans, or location information.

また、より高性能のデバイスは、これ自体が切断されているにも関わらず、システムオペレーションの一部又は全てを実行することができる。これを行うための機能を向上させる種々の技術がセクション15.3で検討される。オフライン中に所望の動作の全てではなく一部を実行することができることが多い。例えば、テキストを認識できるが、ソースの識別は、インターネットベースのサーチエンジンへの接続に依存する場合がある。従って、幾つかの実施形態では、デバイスは、各オペレーションがシステムの他の部分に対してどの程度進行したかについての十分な情報を記憶し、接続性が回復されたときに効率的に進められる。   Also, a higher performance device can perform some or all of the system operations despite being disconnected. Various techniques for improving the functionality to do this are discussed in section 15.3. Often it is possible to perform some but not all of the desired operations while offline. For example, text can be recognized, but source identification may depend on a connection to an Internet-based search engine. Thus, in some embodiments, the device stores sufficient information about how far each operation has progressed relative to the rest of the system and is efficiently advanced when connectivity is restored. .

本システムのオペレーションは、一般に、即座に利用可能な接続性による利益が得られることになるが、複数の取り込みを実行した後にバッチとして処理することで利点を有することができる場合がある。例えば、以下のセクション13で検討するように、特定の取り込みのソースの識別は、ほぼ同時にユーザによって行われた他の取り込みを調べることによって、大幅に向上させることができる。ユーザに生のフィードバックが提供される完全に接続されたシステムでは、システムは、現在の取り込みを処理しているときには、過去の取り込みを使用することしかできない。しかしながら、取り込みがオフライン時にデバイスによって記憶されたバッチの1つである場合、システムは、その解析を行っているときに以前の取り込み並びに後の取り込みから利用可能なあらゆるデータを考慮に入れることができることになる。   The operation of the system will generally benefit from connectivity that is readily available, but may have the benefit of processing multiple batches and then processing as a batch. For example, as discussed in Section 13 below, the identification of the source of a particular capture can be greatly improved by examining other captures made by the user at about the same time. In a fully connected system where raw feedback is provided to the user, the system can only use past captures when processing the current capture. However, if the capture is one of the batches stored by the device when offline, the system can take into account any data available from previous captures as well as subsequent captures when doing its analysis become.

12.2.ホストデバイス上
スキャナは、ユーザとのより詳細な対話を含むシステムの機能の多くを実行するために、PC、PDA、電話、又はデジタルカメラなどの他の何らかのデバイスと通信することが多い。
12.2. On-host devices Scanners often communicate with some other device such as a PC, PDA, phone, or digital camera to perform many of the functions of the system, including more detailed interaction with the user.

12.2.1.取り込みに応答して実行される動作
ホストデバイスは、取り込みを受け取ると様々な動作を開始することができる。位置特定後にシステムによって実行される可能なアクティビティの未完リスト並びに取り込み及びその文書内のロケーションに関連する対応電子文書は以下の通りである。
・取り込みの詳細は、ユーザの履歴内に記憶することができる。(セクション6.1)
・文書は、ローカルストレージ又はリモートロケーションから取り出すことができる。(セクション8)
・オペレーティングシステムのメタデータ及び文書に関連する他の記録を更新することができる。(セクション11.1)
・文書に関連するマークアップを調べて、次の関連オペレーションを決定することができる。(セクション5)
・文章上でソフトウェアアプリケーションの編集、ビュー、又はオペレーションを開始することができる。アプリケーションの選択は、ソース文書、又はスキャンのコンテンツ、或いは取り込みの他の何らかの態様に依存することができる。(セクション11.2.2、11.2.3)
・アプリケーションは、取り込みロケーションへのスクロール、取り込みロケーションの強調表示、取り込みロケーションへの挿入ポイントの移動、或いは取り込みロケーションの表示を行うことができる。(セクション11.3)
・取り込まれたテキストの正確な範囲は、例えば取り込まれたテキストの周りのワード全体、センテンス、又はパラグラフを選択するよう修正することができる。(セクション11.3.2)
・ユーザには、取り込みテキストをクリップボードにコピーする、或いは取り込みテキストに対し他の標準的なオペレーティングシステム又はアプリケーション特有のオペレーションを実行するためのオプションを与えることができる。
・注釈は、文書又は取り込まれたテキストに関連付けることができる。これら注釈は、即時ユーザ入力から生じることができ、或いは、例えば光学スキャンに関連する音声注釈の場合に早期に取り込まれたものとすることができる。(セクション19.4)
・マークアップを調べて、ユーザが選択する更なる可能なオペレーションのセットを求めることができる。
12.2.1. Operations Performed in Response to Capture The host device can initiate various operations upon receiving capture. The incomplete list of possible activities performed by the system after locating and the corresponding electronic document associated with the capture and location within that document are as follows:
• Details of capture can be stored in the user's history. (Section 6.1)
Documents can be retrieved from local storage or remote locations. (Section 8)
Update operating system metadata and other records related to the document. (Section 11.1)
The markup associated with the document can be examined to determine the next related operation. (Section 5)
Can start editing, viewing, or operating a software application on a sentence. Application selection may depend on the source document, or the content of the scan, or some other aspect of the capture. (Sections 11.2.2, 11.2.3)
The application can scroll to the capture location, highlight the capture location, move the insertion point to the capture location, or display the capture location. (Section 11.3)
The exact range of captured text can be modified to select, for example, the entire word, sentence, or paragraph around the captured text. (Section 11.3.2)
The user can be given the option to copy the captured text to the clipboard or perform other standard operating system or application specific operations on the captured text.
An annotation can be associated with a document or captured text. These annotations can arise from immediate user input or can have been captured early, for example in the case of audio annotations associated with optical scans. (Section 19.4)
The markup can be examined to determine a further set of possible operations for the user to select.

12.2.2.コンテキストポップアップメニュー
システムによってとられる適切な動作は明らかな場合もあるが、ユーザによって行われる選択を必要とする場合もある。これを行うための1つの良い手法は、「ポップアップメニュー」の使用によるものであり、又は、コンテンツが画面上にも表示される場合は、コンテンツ付近に現われるいわゆる「コンテキストメニュー」を使用する。(セクション11.3.3を参照)。幾つかの実施形態では、スキャナデバイスが、紙文書の上にポップアップメニューを投影する。ユーザは、キーボード及びマウスなどの従来の方法を使用して、或いは取り込み装置上の制御機構(セクション12.1.2)の使用、ジェスチャー(12.1.3)、或いはスキャナを使用してコンピュータディスプレイと対話することによって(セクション12.2.4)、こうしたメニューから選択することができる。幾つかの実施形態では、取り込みの結果として現われることができるポップアップメニューは、ユーザが応答しない場合、例えばユーザがメニューを無視し別の取り込みを行った場合に行われる動作を表すデフォルト項目を含む。
12.2.2. The appropriate action taken by the context pop-up menu system may be obvious, but may require selections made by the user. One good way to do this is through the use of a “pop-up menu” or, if the content is also displayed on the screen, use a so-called “context menu” that appears near the content. (See section 11.3.3). In some embodiments, the scanner device projects a pop-up menu onto the paper document. The user can use a conventional method such as a keyboard and mouse, or use a control mechanism on the capture device (section 12.1.2), gesture (12.1.3), or scanner. By interacting with the display (section 12.2.4), one can select from these menus. In some embodiments, pop-up menus that can appear as a result of capture include default items that represent actions that are performed if the user does not respond, for example, if the user ignores the menu and performs another capture.

12.2.3.曖昧除去のフィードバック
ユーザがテキストの取り込みを開始すると、最初に、一致する可能性のある幾つかの文書又は他のテキストロケーションが存在することになる。より多くのテキストが取り込まれ、他の要因が考慮されるときには(セクション13)、候補ロケーションの数は、実際のロケーションが識別されるまで低減され、曖昧性を更に除去するには、ユーザ入力なしでは不可能である。幾つかの実施形態では、システムは、例えばリスト、サムネイル画像又はテキストセグメント形式で見つけられた文書又はロケーションのリアルタイム表示を提供し、取り込みが継続するにつれて当該表示内の要素の数を低減するようにする。幾つかの実施形態では、システムは、全ての候補文書のサムネイルを表示し、ここでサムネイルのサイズ又は位置は、正確に一致する確率に依存する。
12.2.3. Disambiguation feedback When a user begins capturing text, there will initially be several documents or other text locations that may match. When more text is captured and other factors are considered (section 13), the number of candidate locations is reduced until the actual location is identified, and no further user input is required to further remove ambiguity Then it is impossible. In some embodiments, the system provides a real-time display of documents or locations found, for example, in the form of lists, thumbnail images or text segments, so as to reduce the number of elements in the display as capture continues. To do. In some embodiments, the system displays thumbnails of all candidate documents, where the thumbnail size or position depends on the probability of an exact match.

取り込みが一義的に識別されると、例えば音声フィードバックを使用してこの事実をユーザに強調することができる。   Once the capture has been uniquely identified, this fact can be highlighted to the user using, for example, audio feedback.

取り込まれたテキストが多くの文書において存在し、引用文として認識されることがある。システムは、例えば元のソース文書の周りの引例を包含する文書をグループ化することによって画面上でこれを示すことができる。   Captured text exists in many documents and may be recognized as a quote. The system can indicate this on the screen, for example by grouping documents that contain references around the original source document.

12.2.4.画面からのスキャン
一部の光学スキャナは、画面並びに紙上に表示されたテキストを取り込むことができる。従って、レンダリング文書という用語は、本明細書では、紙への印刷がレンダリングの唯一の形式ではないこと、及びシステムが使用するテキスト又は記号の取り込みは、そのテキストが電子ディスプレイ上に表示されたときと同等の価値があるものとすることができることを示すのに使用される。
12.2.4. Scanning from the screen Some optical scanners can capture text displayed on the screen as well as on paper. Thus, the term rendering document is used herein to indicate that printing on paper is not the only form of rendering, and capturing text or symbols used by the system is when the text is displayed on an electronic display. Used to indicate that it can be of equal value.

説明されたシステムのユーザは、オプションのリストから選択することなどの様々な他の理由により、コンピュータ画面と対話することが要求される場合がある。ユーザがスキャナを下に置き、マウス又はキーボードを使い始めることは不便なことがある。他のセクションでは、このツールの変更を必要としない入力方法としてスキャナ上の物理的制御機構(セクション12.1.2)又はジェスチャー(セクション12.1.3)を説明したが、画面自体にスキャナを使用して何らかのテキスト又は記号をスキャンすることは、システムによって提供される重要な代替形態である。   A user of the described system may be required to interact with the computer screen for various other reasons, such as selecting from a list of options. It may be inconvenient for the user to put the scanner down and start using the mouse or keyboard. Other sections have described physical control mechanisms (section 12.1.2) or gestures (section 12.1.3) on the scanner as input methods that do not require any changes to this tool, but the scanner itself appears on the screen itself. Scanning some text or symbols using is an important alternative provided by the system.

幾つかの実施形態では、スキャナの光学機器によって、ライトペンと同様の方式でスキャナを使用することが可能になり、場合によってはコンピュータ上の特別なハードウェア又はソフトウェアの助けを借りて、実際にテキストをスキャンする必要なく画面上の位置を直接感知する。   In some embodiments, the scanner's optics allow the scanner to be used in a manner similar to a light pen, and in some cases actually with the help of special hardware or software on the computer. Sense position directly on screen without having to scan text.

13.コンテキスト解釈
説明されたシステムの重要な態様は、使用中の文書の識別を助けるため、テキストの文字列を単に取り込む以外に他の要因を使用することである。適度な量のテキストの取り込みは、文書を一意的に識別できることが多いが、多くの場合、識別するのは少数の候補文書になる。1つの解決策は、スキャンされる文書を確認するようユーザに促すことであるが、好ましい代替形態は、他の要因を利用して可能性を自動的に狭めることである。このような補足情報は、取り込む必要のあるテキストの量を劇的に低減でし、及び/又は対応電子文書内のロケーションを識別できる信頼性及び速度を向上させることができる。この追加の資料は、「コンテキスト」と呼ばれ、セクション4.2.2.で簡単に説明した。ここで更に深く検討する。
13. Context Interpretation An important aspect of the described system is to use other factors besides simply capturing text strings to help identify the document in use. While a moderate amount of text capture can often uniquely identify a document, in many cases it will be a small number of candidate documents. One solution is to prompt the user to confirm the document to be scanned, but a preferred alternative is to use other factors to automatically narrow the possibilities. Such supplemental information can dramatically reduce the amount of text that needs to be captured and / or improve the reliability and speed with which locations in the corresponding electronic document can be identified. This additional material is called “context” and is described in section 4.2.2. Explained briefly. Let's examine it further here.

13.1.システム及び取り込みコンテキスト
恐らくは、このような情報の最も重要な実施例は、ユーザの取り込み履歴である。
13.1. System and Capture Context Perhaps the most important example of such information is the user's capture history.

特に前回の取り込みがこの数分の間に行われた場合には、いずれかの所与の取り込みは、前回と同じ文書、或いは関連文書から生じたものである可能性が高い(セクション6.1.2)。対照的に、2つのスキャンの間にフォントが変更されたことをシステムが検出した場合には、これらは異なる文書からのものである可能性が高い。   In particular, if a previous capture was made in the last few minutes, any given capture is likely to originate from the same document as the previous or related documents (Section 6.1). .2). In contrast, if the system detects that the font has changed between two scans, they are likely from different documents.

ユーザのより長期間の取り込み履歴及び読書習慣もまた有用である。また、これらを用いて、ユーザの関心事項及び関連付けのモデルを開発することができる。   The user's longer acquisition history and reading habits are also useful. They can also be used to develop models of user interests and associations.

13.2.ユーザの実世界コンテキスト
有用なコンテキストの別の実施例は、ユーザの地理的ロケーションである。パリにいるユーザは、例えば、「Seattle Times」よりも「Le Monde」を読んでいる可能性が遙かに高い。従って、文書の印刷版のタイミング、サイズ、及び地理的配布が重要とすることができ、システムのオペレーションからある程度推測することができる。
13.2. User's Real World Context Another example of a useful context is the user's geographic location. The user in Paris is much more likely to read “Le Monde” than “Seattle Times”, for example. Thus, the timing, size, and geographical distribution of the printed version of the document can be important and can be inferred to some extent from system operation.

例えば、出勤中にいつもあるタイプの発行物を読み、ランチタイム又は帰宅中の列車では別のものを読むユーザの場合には、1日の時刻も関連する可能性がある。   For example, for a user who always reads one type of issue during work and reads another at lunchtime or on the train home, the time of day may also be relevant.

13.3.関連のデジタルコンテキスト
より従来の手段によりサーチ又は取り出されたものを含む電子文書のユーザの最近の使用はまた、有用な指標となり得る。
13.3. Related Digital Context Users' recent use of electronic documents, including those searched or retrieved by more conventional means, can also be a useful indicator.

場合によっては、企業ネットワーク上などで他の要因が有用と考えられることがある。
・どの文書が最近印刷されたか?
・どの文書が、企業ファイルサーバ上で最近修正されたか?
・どの文書が、最近電子メールで送られたか?
In some cases, other factors may be useful, such as on a corporate network.
• Which documents have been printed recently?
• Which documents have been recently modified on the corporate file server?
• Which documents have been recently emailed?

これらの実施例の全ては、ユーザがこれらの文書の紙バージョンを読んでいる可能性が高いことを示唆することができる。対照的に、文書が存在するレポジトリが、文書が印刷されたことがない、或いは印刷できる場所に送られていないことを確認できる場合には、紙に由来する何らかのサーチにおいて安全に削除することができる。   All of these examples can suggest that the user is likely reading a paper version of these documents. In contrast, if the repository in which the document resides can be confirmed that the document has never been printed or sent to a printable location, it can be safely deleted in any search originating from paper. it can.

13.4.他の統計−グローバルコンテキスト
セクション14は、紙ベースのサーチから結果として得られるデータストリームの解析を対象として含むが、他の読者に対する文書の人気、その人気のタイミング、及び最も頻繁にスキャンされた文書の部分についての統計は全て、サーチプロセスにおいて有益となり得る追加要因の実施例である点に留意されたい。システムは、紙の世界にGoogleタイプのページランキングの可能性をもたらす。
13.4. Other Statistics-Global Context Section 14 covers the analysis of data streams resulting from paper-based searches, but the popularity of the document to other readers, the timing of its popularity, and the most frequently scanned documents It should be noted that all statistics for this part are examples of additional factors that can be beneficial in the search process. The system brings Google-type page ranking possibilities to the paper world.

サーチエンジンのためのコンテキストの使用に関する他の何らかの暗示については、セクション4.2.2を参照されたい。   See Section 4.2.2 for some other implications on the use of context for search engines.

14.データストリーム解析
システムの使用は、副次的な結果として極めて貴重なデータストリームを発生する。このストリームは、ユーザが何時何を読んでいるかについての記録であり、多くの場合、ユーザが読んだ中で特に貴重であると考えたものの記録である。このようなデータは、紙文書に対してこれまでは利用可能でなかった。
14 The use of the data stream analysis system produces a very valuable data stream as a side result. This stream is a record of when and what the user is reading, and in many cases is a record of what the user thinks is particularly valuable. Such data has not previously been available for paper documents.

このデータがシステム及びシステムのユーザにとって有用とすることができる幾つかの手法については、セクション6.1で説明されている。このセクションでは、その他の使用に集中している。勿論、人々が読んでいるものについてのデータのあらゆる配布に関しては、考慮すべき実質的なプライバシー問題があるが、データの匿名性を保護する問題は、当業者には公知である。   Some techniques for which this data can be useful to the system and system users are described in Section 6.1. This section concentrates on other uses. Of course, for any distribution of data about what people are reading, there are substantial privacy issues to consider, but the problem of protecting data anonymity is known to those skilled in the art.

14.1.文書追跡
いずれかの所与のユーザがどの文書を読んでいるかをシステムが知っている場合、システムは、いずれかの所与の文書を読んでいるのが誰であるかを推測することができる。これにより、組織全体を通じた文書の追跡が可能になり、例えば、誰がいつこれを読んでいるか、どれくらい広く配布されているか、配布するのにどれくらい時間がかかったか、及び他の者が期限切れのコピーから未だ作業している間に誰が現在の版を見ているかについて解析できるようになる。
14.1. Document tracking If the system knows which document is being read by any given user, the system can infer who is reading any given document. . This makes it possible to track documents throughout the organization, for example, when they read it, how widely distributed, how long it took to distribute, and others that have expired copies Now you can analyze who is viewing the current version while still working.

より広範に配布される発行文書では、個々のコピーの追跡はより困難であるが、読者層の分布の解析は依然として可能である。   With more widely distributed published documents, tracking individual copies is more difficult, but readership distribution analysis is still possible.

14.2.読書ランキング−文書及びサブ領域の人気
ユーザが自分にとって特に関心のあるテキスト又は他のデータを取り込む状況では、システムは、幾つかの文書及びこれらの文書の特定のサブ領域の人気を推測することができる。これは、システム自体に対し価値のある入力(セクション4.2.2)及び、著者、発行者、及び広告主にとって重要な情報ソース(セクション7.6、セクション10.5)を形成する。このデータは、例えば、レンダリング文書から生じるクエリーのサーチ結果のランク付けを支援するため、及び/又はウェブブラウザに打ち込まれた従来のクエリーのランク付けを支援するために、サーチエンジン及びサーチインデックスに統合される場合に有用である。
14.2. Reading ranking-popularity of documents and sub-regions In situations where users capture text or other data of particular interest to them, the system may infer the popularity of some documents and specific sub-regions of these documents. it can. This forms a valuable input to the system itself (section 4.2.2) and an important information source for authors, publishers and advertisers (section 7.6, section 10.5). This data is integrated into the search engine and search index, for example, to help rank search results for queries originating from rendered documents, and / or to help rank traditional queries typed into a web browser Useful if you are.

14.3.ユーザの解析−プロフィールの構築
ユーザが何を読んでいるかについての知識によって、システムは、ユーザの関心及びアクティビティの極めて詳細なモデルを作成可能になる。これは、抽象的統計ベースにおいて有用とすることができ−すなわち、「この新聞を購入するユーザの35%はその著者の最新本を読む」−しかしながら、以下に説明されるような個々のユーザとの他の対話も可能にすることができる。
14.3. Analyzing the user-building a profile Knowledge of what the user is reading allows the system to create a very detailed model of the user's interests and activities. This can be useful on an abstract statistical basis—ie, “35% of users who purchase this newspaper read the author's latest book” —however, with individual users as described below Other interactions can also be possible.

14.3.1.ソーシャルネットワーキング
1つの実施例は、1人のユーザを関連する関心を有する他者に接続することである。これらは、ユーザにとって既知の人とすることができる。システムは、大学の教授に、「XYZ大学のあなたの同僚もこの論文を読んだばかりであることを知っていますか?」と尋ねることができる。システムは、ユーザに「ジェーンエアを読んでいるあなたの近所の人とリンクすることを望みますか?」と尋ねることができる。このようなリンクは、現実の世界又はオンラインのいずれかでブッククラブ及び同様の社会組織を自動形成するための基礎となることができる。
14.3.1. Social Networking One example is to connect one user to others with related interests. These can be people known to the user. The system can ask university professors, "Do you know that your colleagues at XYZ University have just read this paper?" The system can ask the user, "Do you want to link with your neighbor reading Jane Air?" Such links can be the basis for automatically forming book clubs and similar social organizations either in the real world or online.

14.3.2.マーケティング
セクション10.6は、本システムとのユーザの対話に基づいて個々のユーザに製品及びサービスを提供するという概念について既に言及した。例えば、現在のオンライン書籍販売業者は、ユーザの書籍販売業者と前回の対話に基づいてユーザに推薦することが多い。このような推薦は、これらが実際の本との対話に基づいたものである場合により有用となる。
14.3.2. Marketing section 10.6 already mentioned the concept of providing products and services to individual users based on user interaction with the system. For example, current online book sellers often recommend users based on previous interactions with their book sellers. Such recommendations are more useful when they are based on dialogue with actual books.

14.4.データストリームの他の態様に基づくマーケティング
本システムが、文書を発行する人々、これらを通じて広告する人々、及び紙から開始される他の販売に影響を与える可能性のある方法の幾つかについて説明してきた(セクション10)。一部の商業活動は、紙文書との直接対話を全く持たない場合があるが、これらによって影響を受ける可能性はある。例えば、あるコミュニティの人々が新聞の金融欄よりもスポーツ欄を読むことにより多くの時間を費やすという知識は、ヘルスクラブを設立しようとする人にとって関心のあるものとすることができる。
14.4. Marketing Based on Other Aspects of Data Streams The system has described some of the ways people can publish documents, advertise through them, and other sales that start with paper (Section 10). Some commercial activities may not have any direct interaction with paper documents, but may be affected by these. For example, the knowledge that people in a community spend more time reading the sports section than the financial section of a newspaper can be of interest to those seeking to establish a health club.

14.5.取り込むことができるデータのタイプ
どの文書のどの部分を誰がいつどこで読んでいるかなど、検討された統計に加えて、文書の位置が特定されているかどうかに関わらず、取り込まれたテキストの実際のコンテンツを調べることは関心の対象となることができる。
14.5. Types of data that can be captured In addition to the statistics considered, such as who is reading which part of which document, where the document is located, the actual content of the captured text Finding out can be of interest.

多くの場合、ユーザはまた、あるテキストを取り込むだけでなく、結果としてある動作を行わせていることになる。例えば、その文書に対する参考資料を知人に電子メールで送ることができる。ユーザのアイデンティティ又は電子メールの受診についての情報がない場合でも、誰かがその文書を電子メールで送信する価値があると考えているという知識は、極めて有用である。   In many cases, the user will not only capture some text but also cause some action. For example, reference materials for the document can be sent to an acquaintance by e-mail. Even if there is no information about the user's identity or e-mail visit, the knowledge that someone believes that the document is worth sending by e-mail is extremely useful.

特定の文書又はテキストの一部の価値を推測するために検討された種々の方法に加えて、状況によっては、ユーザは、これに格付けを割り当てることによって価値を明確に示すことになる。   In addition to the various methods that have been considered for inferring the value of a particular document or part of text, in some situations the user will clearly indicate the value by assigning a rating to it.

最後に、ユーザの特定のセットがあるグループを形成することが既知である場合、例えば特定の会社の従業員であることが知られている場合、そのグループの総統計を用いて、そのグループに対する特定の文書の重要性を推測することができる。   Finally, if it is known that a particular set of users will form a group, for example, if it is known to be an employee of a particular company, the group's total statistics can be used to The importance of a particular document can be inferred.

15.デバイスの特徴及び機能
本システムと共に使用する取り込み装置は、文書のレンダリング版からテキストを取り込む手法を必要とするに過ぎない。上述(セクション1.2)のように、この取り込みは、文書の一部の写真を撮ること、又は携帯電話のキーパッドに数ワードを打ち込むことを含む、様々な方法を介して実現することができる。この取り込みは、一度にテキストの1行又は2行を記録できる小型ハンドヘルド光学スキャナ、或いはユーザが文書からテキストを読み込むボイスレコーダのような音声取り込み装置を使用して実現することができる。使用されるデバイスは、例えば音声注釈も記録できる光学スキャナなど、これらの組合せとすることができ、取り込み機能は、携帯電話、PDA、デジタルカメラ、又はポータブル音楽プレーヤーなどの他の何らかのデバイスに組み込むことができる。
15. Device Features and Functions The capture device used with the system only requires a technique for capturing text from a rendered version of the document. As described above (section 1.2), this capture can be accomplished through various methods, including taking a picture of a portion of the document, or typing a few words on the cell phone keypad. it can. This capture can be accomplished using a small handheld optical scanner that can record one or two lines of text at a time, or a voice capture device such as a voice recorder where a user reads text from a document. The device used can be a combination of these, for example an optical scanner that can also record voice annotations, and the capture function is incorporated into some other device such as a mobile phone, PDA, digital camera, or portable music player Can do.

15.1.入力及び出力
このようなデバイスのための場合によっては有利で付加的な入力及び出力機能の多くは、セクション12.1で説明した。これらは、入力としてボタン、スクロールホイール、及びタッチパッドを、更に出力としてディスプレイ、インジケータライト、音声及び触覚変換器を含む。デバイスは、これらの多くを組み込むことがあり、極めて少ない場合もある。取り込み装置は、例えば無線リンクを使用して既にこれらの機能を有している別のデバイスと通信できる場合もあり(セクション15.6)、取り込み機能をこのような他のデバイスに組み込むこともある(セクション15.7)。
15.1. Input and Output Many of the potentially advantageous additional input and output functions for such devices have been described in Section 12.1. These include buttons, scroll wheels, and touchpads as inputs, and displays, indicator lights, voice and haptic transducers as outputs. Devices may incorporate many of these and may be very few. The capture device may be able to communicate with another device that already has these capabilities using, for example, a wireless link (section 15.6) and may incorporate the capture functionality into such other devices. (Section 15.7).

15.2.接続性
幾つかの実施形態では、デバイスは、システム自体の大部分を実装する。しかしながら、幾つかの実施形態では、デバイスは、PC又は他のコンピューティングデバイスと、及び通信機能を使用してより広範な世界と通信することが多い。
15.2. Connectivity In some embodiments, the device implements most of the system itself. However, in some embodiments, the device often communicates with a PC or other computing device and with a wider world using communication capabilities.

これらの通信機能は、Ethenet、802.11、又はUWBなどの汎用データネットワーク、或いは、USB、IEEE−1394(Firewire)、Bluetooth(商標)又は赤外線などの標準周辺接続ネットワークの形式である。Firewire又はUSBなどの有線接続が使用されるときには、デバイスは、同じ接続を通じて電力を受け取ることができる。状況によっては、取り込み装置は、接続された機械がUSB記憶装置などの従来の周辺機器であるように見なすことができる。   These communication functions are in the form of a general-purpose data network such as Ethernet, 802.11, or UWB, or a standard peripheral connection network such as USB, IEEE-1394 (Firewire), Bluetooth (trademark), or infrared. When a wired connection such as Firewire or USB is used, the device can receive power through the same connection. In some situations, the capture device can be viewed as if the connected machine is a conventional peripheral such as a USB storage device.

最後に、デバイスは、状況によっては、当該デバイスと連動して使用されるか或いは好都合な記憶装置として別のデバイスと「ドッキング」することができる。   Finally, in some situations, a device can be used in conjunction with the device or “docked” with another device as a convenient storage device.

15.3.キャッシング及び他のオンライン/オフライン機能
セクション3.5及び12.1.4では、分離オペレーションのトピックを取り上げた。取り込み装置がシステムの全機能の限定されたサブセットを有し、更にシステムの他の部分と通信していないときには、依然としてデバイスは有用とすることはできるが、場合によっては利用可能な機能性が低減されることになる。最も単純なレベルでは、デバイスは、取り込まれる生画像又は音声データを記録することができ、これを後で処理することができる。しかしながら、ユーザの利益のために、可能であれば、取り込まれたデータが進行中のタスクにとって十分であるかどうか、認識できるか或いは認識可能であう可能性があるかどうか、及びデータのソースを識別できるか又は後で識別可能になる可能性があるかどうかについてのフィードバックを与えることが重要とすることができる。次にユーザは、この取り込み動作に価値があるかどうかを認知することになる。上記の全てが未知である場合でも、少なくともユーザが後でこれらを参照できるように生データを記憶することができる。例えばスキャンがOCRプロセスによって認識できない場合、スキャンの画像をユーザに提示することができる。
15.3. Caching and other online / offline features Sections 3.5 and 12.1.4 addressed the topic of separation operations. The device can still be useful when the capture device has a limited subset of the full functionality of the system and is not in communication with other parts of the system, but in some cases the available functionality is reduced Will be. At the simplest level, the device can record raw image or audio data that is captured and can process it later. However, for the benefit of the user, if possible, identify whether the captured data is sufficient for the task in progress, whether it can or can be recognized, and the source of the data It can be important to give feedback as to whether it can be or can be identified later. The user will then recognize whether this capture operation is valuable. Even if all of the above are unknown, the raw data can be stored so that at least the user can refer to them later. For example, if the scan cannot be recognized by the OCR process, an image of the scan can be presented to the user.

利用可能なオプションの範囲の一部を例示するために、幾分低機能の光学スキャンデバイスとはるかにフル装備のデバイスの両方を以下に説明する。多くのデバイスは、2つの間の中間点を占める。   To illustrate some of the range of options available, both a somewhat less functional optical scanning device and a much more fully equipped device are described below. Many devices occupy an intermediate point between the two.

15.3.1.シンプルスキャナ(SimpleScanner)−低価格オフライン実施例
シンプルスキャナは、テキスト行の長さに沿って移動するときにページから画素を読み取ることができるスキャンヘッドを有する。シンプルスキャナは、ページに沿った動きを検出し、この動きについての幾つかの情報と共に画素を記録することができる。シンプルスキャナはまたクロックを有し、これによって各スキャンにタイムスタンプすることができる。クロックは、シンプルスキャナが接続性を有するときにホストデバイスと同期する。クロックは、実際の時刻を表すことはできないが、クロックから相対時間を求めることができ、これによりホストは、スキャンの実際の時間、或いは最悪の場合でもスキャン間の経過時間を導出することができる。
15.3.1. SimpleScanner-Low Cost Offline Example A simple scanner has a scan head that can read pixels from a page as it moves along the length of a text line. A simple scanner can detect movement along the page and record the pixels with some information about this movement. Simple scanners also have a clock, which allows each scan to be time stamped. The clock synchronizes with the host device when the simple scanner has connectivity. The clock cannot represent the actual time, but the relative time can be determined from the clock, which allows the host to derive the actual time of the scan, or at worst, the elapsed time between scans. .

シンプルスキャナは、どのようなOCR自体を実行するのにも十分な処理能力を持たないが、一般的なワード長、ワード間隔、及びフォントサイズとの関係についての幾らかの基本的な知識を有する。シンプルスキャナは、スキャンが読み取れる可能性があるかどうか、紙の上のヘッドの動きが早すぎるか、遅すぎるか、又は不正確であるかどうか、及び識別される文書に対して所与のサイズの十分なワードがスキャンされた可能性が高いといつ判断されたかをユーザに知らせる幾つかの基本的なインジケータライトを有する。   Simple scanners do not have enough processing power to perform any OCR itself, but have some basic knowledge of the relationship between general word length, word spacing, and font size. . A simple scanner is a scan that can be read, whether the head movement on the paper is too fast, too slow, or inaccurate, and a given size for the document being identified It has several basic indicator lights that let the user know when it is determined that a sufficient number of words have been scanned.

シンプルスキャナは、USBコネクタを有し、コンピュータ上のUSBポートに差し込むことができ、ここで充電されることになる。コンピュータにとっては、タイムスタンプされたデータファイルが記録されたUSB記憶装置であるように見え、残りのシステムソフトウェアが、このポイントから引き継ぐ。   The simple scanner has a USB connector and can be plugged into a USB port on the computer where it will be charged. To the computer, it appears to be a USB storage device with a time-stamped data file recorded, and the rest of the system software takes over from this point.

15.3.2.スーパースキャナ(SuperScanner)−高性能オフラインの実施例
スーパースキャナもまた、そのフルオペレーションのための接続性に依存するが、オフラインの間に取り込まれたデータについてより適切に判断するのを助けることができる相当な量のオンボード記憶装置及び処理能力を有する。
15.3.2. SuperScanner-High Performance Offline Example A superscanner also depends on connectivity for its full operation, but can help make better decisions about data captured while offline It has a significant amount of on-board storage and processing power.

スーパースキャナがテキストのラインに沿って移動すると、取り込まれた画素がまとめられ、テキストを認識しようと試みるOCRエンジンにわたされる。ユーザのPC上のユーザのスペリングチェッカー辞書と同期されてユーザが頻繁に遭遇するワードの多くを包含する辞書を有するように、ユーザが最も読んだ発行物からのものを含む、多数のフォントがこのタスクの実行を助けるためにダウンロードされている。スキャナにはまた、辞書と組み合わせることができる、これらの標準的な使用頻度を持つワード及びフレーズのリストが記憶されている。スキャナは、認識プロセスに役立ち、且つテキストの十分な量がいつ取り込まれたかについての判断を通知するための頻度統計を用いることができ、より頻繁に使用されるフレーズは、サーチクエリーの基準として有用である可能性は低い。   As the superscanner moves along the line of text, the captured pixels are grouped together and passed to the OCR engine attempting to recognize the text. Numerous fonts, including those from the publications most read by the user, have this font, so that it has a dictionary that is synchronized with the user's spelling checker dictionary on the user's PC and contains many of the words that the user frequently encounters Has been downloaded to help perform the task. The scanner also stores a list of these standard usage words and phrases that can be combined with a dictionary. Scanners can use frequency statistics to help in the recognition process and inform decisions about when a sufficient amount of text has been captured, and more frequently used phrases are useful as criteria for search queries Is unlikely.

更に、ユーザがオンライン書籍販売業者から最近購入した本のインデックスのような、又はユーザがここ数ヶ月内にスキャンした、最近の新聞記事の完全なインデックス及びユーザが最も一般的に読んでいる定期刊行物がデバイス上に記憶される。最後に、システムにとって利用可能なデータを有する最も人気のある数千の発行物のタイトルが記憶されており、これによって他の情報がなくても、ユーザはタイトルをスキャンでき、特定の作品からの取り込みが後で電子形式で取り出すことが可能であるかどうかに関して良好なアイデアを持つようになる。   In addition, a complete index of recent newspaper articles, such as an index of books recently purchased by online users from online book sellers, or scanned by users within the last few months, and periodicals that users read most commonly Things are stored on the device. Finally, the titles of thousands of the most popular publications with data available to the system are stored, which allows the user to scan titles without any other information and from specific works You will have a good idea as to whether the capture can later be retrieved in electronic form.

スキャンプロセス中、システムは、取り込まれたデータが十分な品質であること、及び接続性が回復したときに電子コピーを取り出せるような十分な性質であることをユーザに通知する。システムは、スキャンが成功したことが知られていること、及びコンテキストがオンボードインデックスの1つで認識されていること、或いは関連の発行物は、データがシステムに利用可能であることが知られており、よって後の取り出しが成功するはずであることをユーザに示すことが多い。   During the scanning process, the system informs the user that the captured data is of sufficient quality and of sufficient nature that the electronic copy can be retrieved when connectivity is restored. The system knows that the scan was successful and that the context is recognized by one of the onboard indexes, or the associated publication knows that the data is available to the system. Therefore, it often indicates to the user that later retrieval should be successful.

スーパースキャナは、PCのFirewire又はUSBポートに接続されたクレードルにドッキングし、この時点では、取り込まれたデータのアップロードに加えて、その種々のオンボードインデックス及び他のデータベースが、最近のユーザ動作及び新しい発行物に基づいて更新される。スーパースキャナはまた、無線公衆網への接続機能、或いはBluetoothを介した携帯電話との通信機能、更にこれらの機能が利用可能であるときに公衆網と通信する機能を有する。   The superscanner docks in a cradle connected to the PC's Firewire or USB port, at which point, in addition to uploading the captured data, its various on-board indexes and other databases can be used for recent user actions and Updated based on new issue. The super scanner also has a function of connecting to a wireless public network, a function of communicating with a mobile phone via Bluetooth, and a function of communicating with the public network when these functions are available.

15.4.光学スキャンの特徴
次に、光学スキャナデバイスで特に望ましいとすることができる特徴の幾つかを検討する。
15.4. Optical Scan Features Next, some of the features that may be particularly desirable in an optical scanner device are considered.

15.4.1.フレキシブルな位置決め及び好都合な光学機器
依然として紙に人気がある理由の1つは、例えばコンピュータが実用的でないか又は不便である幅広い状況において使い易いためである。従って、紙とのユーザの対話のかなりの部分を取り込むことを意図したデバイスは、同様に使用が好都合でなくてはならない。これは、過去のスキャナではなかったことであり、最も小さなハンドヘルドデバイスでも幾分扱い難かった。ページと接触するよう設計されたハンドヘルドデバイスは、紙に対して正確な角度で保持し、スキャンされるテキストの長さに沿って極めて注意深く動かさなくてはならない。これは、オフィスデスクでビジネスレポートをスキャンする場合には許容できるが、列車を待つ間に小説からフレーズをスキャンする場合には非実用的とすることができる。紙からある距離で動作するカメラタイプの光学機器に基づくスキャナは、幾つかの状況で同様に有用とすることができる。
15.4.1. Flexible positioning and convenient optics One of the reasons why paper is still popular is because it is easy to use, for example, in a wide range of situations where computers are impractical or inconvenient. Therefore, devices that are intended to capture a significant portion of user interaction with paper should be equally convenient to use. This was not a past scanner, and it was somewhat tricky even with the smallest handheld devices. Handheld devices designed to contact the page must be held at an accurate angle to the paper and moved very carefully along the length of the text being scanned. This is acceptable when scanning business reports at the office desk, but can be impractical when scanning phrases from novels while waiting for a train. Scanners based on camera-type optics that operate at a distance from the paper can be equally useful in some situations.

システムの幾つかの実施形態は、紙に接触してスキャンし、レンズの代わりに、光ファイバー束である画像コンジットを使用してページから光センサーデバイスに画像を送信するスキャナを利用する。このようなデバイスは、自然な位置に保持できるような形状にすることができ、例えば、幾つかの実施形態では、ページに接触する部分はくさび形であり、ユーザの手が蛍光ペンを使用したのと同様の動きでページ上をより自然に動かすことができるようになる。コンジットは、紙に直接接触するか、又は近接しており、起こり得る損傷から画像コンジットを保護できる交換可能な透明先端を有することができる。セクション12.2.4で述べたように、スキャナを用いて画面並びに紙からスキャンすることができ、先端の材料は、このような表示に対する損傷の可能性を低減するよう選択することができる。   Some embodiments of the system utilize a scanner that scans in contact with the paper and transmits the image from the page to the optical sensor device using an image conduit that is a fiber optic bundle instead of a lens. Such a device can be shaped so that it can be held in a natural position, for example, in some embodiments, the portion that contacts the page is wedge-shaped and the user's hand used a highlighter pen. You can move on the page more naturally with the same movement. The conduit can be in direct contact with or in close proximity to the paper and have a replaceable transparent tip that can protect the image conduit from possible damage. As described in Section 12.2.4, a scanner can be used to scan from the screen as well as paper, and the tip material can be selected to reduce the possibility of damage to such a display.

最後に、デバイスの幾つかの実施形態では、ユーザのスキャンが早すぎる、遅すぎる、均一でない、或いはスキャンされる行のドリフティングが高すぎる又は低すぎる場合に、光、音、又は触覚フィードバックを使用することによって示すフィードバックをスキャンプロセス中にユーザに提供することになる。   Finally, some embodiments of the device provide light, sound, or haptic feedback if the user scans too early, too late, is not uniform, or the scanned row is drifting too high or too low. Use will provide feedback to the user during the scanning process.

15.5.セキュリティ、アイデンティティ、認証、個人化、及び請求
セクション6で説明されたように、取り込み装置は、セキュアな取引、購入、及び様々な他のオペレーションに対する識別及び承認の重要な部分を形成することができる。従って、取り込み装置は、このような役割に必要な回路及びソフトウェアに加えて、スマートカードリーダー、RFID、又はPINを打ち込むためのキーパッドのような、よりセキュアにすることができる種々のハードウェア機能を組み込むことができる。
15.5. Security, Identity, Authentication, Personalization, and Billing As described in Section 6, capture devices can form an important part of identification and authorization for secure transactions, purchases, and various other operations. . Thus, in addition to the circuitry and software necessary for such a role, the capture device can be made more secure, such as a smart card reader, RFID, or keypad for typing a PIN. Can be incorporated.

取り込み装置は、ユーザの識別を助けるための種々のバイオメトリックセンサを含むことができる。例えば、光学スキャナの場合、スキャンヘッドが指紋を読み取ることもできる。ボイスレコーダの場合、ユーザの声紋を使用することができる。   The capture device can include various biometric sensors to help identify the user. For example, in the case of an optical scanner, the scan head can read a fingerprint. In the case of a voice recorder, the user's voiceprint can be used.

15.6.デバイス関連付け
幾つかの実施形態では、デバイスは、それ自体又はその機能を向上させるために他の近隣のデバイスとの関連付けを形成することができる。幾つかの実施形態では、例えばデバイスは、近隣のPC又は電話のディスプレイを使用して、そのオペレーションについてのより詳細なフィードバックを提供するか、或いはそのネットワーク接続性を使用する。他方、デバイスは、他のデバイスによって実行されるオペレーションを認証するために、セキュリティ及び識別デバイスとしての役割を果たすことができる。或いは、デバイスは単に、そのデバイスへの周辺機器として機能するように関連付けを形成することができる。
15.6. Device Association In some embodiments, a device can form an association with itself or other neighboring devices to improve its functionality. In some embodiments, for example, the device uses a nearby PC or telephone display to provide more detailed feedback about its operation or use its network connectivity. On the other hand, devices can act as security and identification devices to authenticate operations performed by other devices. Alternatively, the device can simply form an association to function as a peripheral to the device.

このような関連付けの興味深い態様は、デバイスの取り込み機能を使用して関連付けを開始及び認証することができる点である。例えば、ユーザ自体を公衆コンピュータ端末に対してセキュアに識別させたいユーザは、デバイスのスキャン機能を使用して、端末の画面の特定のエリアに表示されたコード又は記号をスキャンし、キー転送を行うことができる。音声記録デバイスによってピックアップされた音声信号を使用して類似のプロセスを実行することができる。   An interesting aspect of such association is that the device capture function can be used to initiate and authenticate the association. For example, a user who wants to identify himself / herself securely to a public computer terminal scans a code or symbol displayed in a specific area of the terminal screen using the scan function of the device and performs key transfer be able to. A similar process can be performed using an audio signal picked up by an audio recording device.

15.7.他のデバイスとの統合
幾つかの実施形態では、取り込み装置の機能は、既に使用されている他のデバイスと統合される。統合デバイスは、電源、データ取り込み及び記憶機能、並びにネットワークインターフェースを共有可能にすることができる。このような統合は、コスト低減のため、或いは他の場合に利用可能でない機能を可能にするために単に便宜上行うことができる。
15.7. Integration with other devices In some embodiments, the functionality of the capture device is integrated with other devices already in use. The integrated device can enable sharing of power, data capture and storage functions, and network interfaces. Such integration can be done for convenience only to reduce costs or to allow functions that are not otherwise available.

取り込み機能を統合できるデバイスの幾つかの実施例を以下に挙げる。
・マウス、スタイラス、USB「ウェブカム」カメラ、Bluetooth(商標)ヘッドセット、又はリモコン装置などの既存の周辺機器:
・PDA、MP3プレーヤー、ボイスレコーダ、デジタルカメラ、又は携帯電話などの別の処理/記憶装置:
・時計、宝石、ペン、車のキーホルダなど、単に便宜上持ち運ぶことの多い他のアイテム:
Some examples of devices that can integrate capture functions are listed below.
Existing peripherals such as a mouse, stylus, USB “webcam” camera, Bluetooth ™ headset, or remote control device:
Another processing / storage device such as a PDA, MP3 player, voice recorder, digital camera, or mobile phone:
Other items that are often carried for convenience, such as watches, jewelry, pens, and car keychains:

15.7.1.携帯電話統合
統合の利点の一実施例として、取り込み装置としての修正された携帯電話の使用を考察する。
15.7.1. Cellular Phone Integration As one example of the benefits of integration, consider the use of a modified cell phone as a capture device.

幾つかの実施形態では、電話器ハードウェアは、テキスト取り込みが音声認識を介して適切に行うことができる場合、テキスト取り込みが電話自体によって処理されるか、又は通話の相手方にあるシステムによって扱うことができる場合、或いは、将来の処理のために電話のメモリ内に記憶できる場合などで、システムをサポートするようには修正されていない。多くの最近の電話は、システムの幾つかの部分を実装できるソフトウェアをダウンロードする機能を有する。このような音声取り込みは、多くの状況では次善最適になる可能性が高いが、例えば、かなりの暗騒音がある場合、正確な音声認識は最も良いときでも困難なタスクである。音声機能は、音声注釈を取り込むために使用されるのが最適とすることができる。   In some embodiments, the phone hardware can handle text capture by the phone itself or by the system at the other end of the call if the text capture can be done properly via speech recognition. Is not modified to support the system, such as if it can be stored in the phone's memory for future processing. Many modern phones have the ability to download software that can implement several parts of the system. Such speech capture is likely to be suboptimal in many situations, but accurate speech recognition is a difficult task even at best, for example, when there is significant background noise. The voice function may be optimally used to capture voice annotations.

幾つかの実施形態では、多くの携帯電話に組み込まれたカメラは、テキストの画像を取り込むのに使用される。通常はカメラのビューファインダーとして機能する電話器のディスプレイは、画像の品質及びOCRに対する適合性について、テキストのどのセグメントが取り込まれるかについて、及びOCRが電話器上で実行できる場合にはテキストの表現形式についての情報をライブカメラ画像上にオーバーレイすることができる。   In some embodiments, cameras built into many cell phones are used to capture images of text. The phone display, usually functioning as a camera viewfinder, is a representation of text for image quality and OCR suitability, which segments of text are captured, and if OCR can be performed on the phone. Information about the format can be overlaid on the live camera image.

幾つかの実施形態では、電話器は、専用の取り込み機能を追加し、或いは電話と通信するクリップオンアダプタ或いはBluetooth接続の別個の周辺機器におけるこのような機能を提供するよう修正される。取り込みメカニズムの性質に関わらず、最新の携帯電話との統合には他の多くの利点がある。電話器は、より広い世界との接続性を有し、これは、クエリーを遠隔サーチエンジン又はシステムの他の部分に提出できること、及び文書のコピーを即時に記憶又は表示するために取り出すことができることを意味する。電話は通常、システムの機能の多くをローカルで実行するのに十分な処理能力と、データの妥当な量を取り込むのに十分な記憶装置とを有する。記憶量はまた、ユーザによって拡張できることが多い。電話器は、ユーザにフィードバックを提供するのに適度に良好なディスプレイ及び音声機能と、多くの場合に触覚フィードバックのための振動機能とを有する。電話器は良好な電源も有する。   In some embodiments, the phone is modified to add a dedicated capture function or to provide such functionality in a clip-on adapter or a separate Bluetooth connected peripheral that communicates with the phone. Regardless of the nature of the capture mechanism, integration with modern cell phones has many other advantages. The phone has connectivity to the wider world, which allows queries to be submitted to remote search engines or other parts of the system, and copies of documents to be retrieved for immediate storage or display Means. A telephone typically has enough processing power to perform many of the functions of the system locally and enough storage to capture a reasonable amount of data. The amount of storage is also often expandable by the user. Telephones have reasonably good display and audio capabilities to provide feedback to the user, and often vibration capabilities for haptic feedback. The telephone also has a good power source.

全ての中で最も重要なことは、電話器は多くのユーザが既に携帯しているデバイスであるということである。   The most important of all is that the phone is a device that many users already carry.

第3部−システムの例示的なアプリケーション
このセクションは、システム及びシステムに組み込まれるアプリケーションの例示的な使用をリストする。このリストは、純粋に例証のためのものであり、網羅的な意味ではないものとする。
Part 3-Exemplary Applications of the System This section lists exemplary uses of the system and applications incorporated into the system. This list is purely illustrative and is not meant to be exhaustive.

16.個人用アプリケーション
16.1.ライフライブラリ
ライフライブラリ(セクション6.1.1も参照)は、加入者が保存したいあらゆる重要な文書のデジタルアーカイブであり、システムのサービスセットの実施形態である。重要な本、雑誌記事、新聞切り抜きなどは全て、ライフライブラリ内にデジタル形式で保存することができる。更に、加入者の注釈、コメント、及びメモを文書と共に保存することができる。ライフライブラリは、インターネット及びワールドワイドウェブを介してアクセスすることができる。
16. Personal application 16.1. Life Library The Life Library (see also Section 6.1.1) is a digital archive of any important document that a subscriber wants to store and is an embodiment of the system's service set. All important books, magazine articles, newspaper clippings, etc. can be stored in digital form in the Life Library. In addition, subscriber annotations, comments, and notes can be saved with the document. The life library can be accessed via the Internet and the World Wide Web.

システムは、加入者のためのライフライブラリ文書アーカイブを作成し管理する。加入者は、文書から情報をスキャンすることによって、或いは特定の文書が加入者のライフライブラリに追加されることをシステムに示すことによって、加入者がどの文書を加入者のライフライブラリに保存させたいのかを示す。スキャン情報は、一般に、文書からのテキストであるが、バーコード又は文書を識別する他のコードとすることもできる。システムはコードを受け付けて、これを用いてソース文書を識別する。文書が識別された後、システムは、ユーザのライフライブラリ内での文書のコピー又は文書を取得できるソースへのリンクを記憶することができる。   The system creates and manages a life library document archive for subscribers. The subscriber wants the subscriber to store which document in the subscriber's life library by scanning information from the document or by indicating to the system that a particular document is added to the subscriber's life library Indicate. The scan information is typically text from the document, but can also be a barcode or other code that identifies the document. The system accepts the code and uses it to identify the source document. After the document is identified, the system can store a copy of the document in the user's life library or a link to a source from which the document can be obtained.

ライフライブラリシステムの1つの実施形態では、加入者が電子コピーの取得を許可されているかどうかをチェックすることができる。例えば、読者がニューヨークタイムズ(NYT)の記事のコピーからテキスト又は識別子をスキャンし、これによって記事が読者のライフライブラリに追加されるようにする場合、ライフライブラリシステムは、読者がNYTのオンライン版に加入しているかどうかをNYTが検証し、加入している場合、読者は、自分のライフライブラリアカウントに記憶された記事のコピーを取得し、加入していない場合、文書を識別する情報及び文書の注文方法が読者のライフライブラリアカウントに記憶される。   In one embodiment of the life library system, it can be checked whether the subscriber is authorized to obtain an electronic copy. For example, if a reader scans text or identifiers from a copy of a New York Times (NYT) article, thereby allowing the article to be added to the reader's life library, the life library system will allow the reader to join the online version of NYT. If NYT verifies that you are subscribed and if you are subscribed, the reader will get a copy of the article stored in your life library account, and if not subscribed, the information identifying the document and the document's The ordering method is stored in the reader's life library account.

幾つかの実施形態では、システムは、アクセス権情報を含む各加入者についての加入者プロフィールを維持する。文書アクセス情報は、幾つかの方法でコンパイルすることができ、このうちの2つは、1)加入者が、ライフライブラリシステムに文書アクセス情報を加入者のアカウント名及びパスワード等と共に供給すること、又は2)ライフライブラリのサービスプロバイダが発行者に加入者の情報について問い合わせをし、ライフライブラリ加入者が資料にアクセスすることが許可されている場合に発行者が文書の電子コピーへのアクセスを与えることによって応答することである。ライフライブラリ加入者が文書の電子コピーを有することが許可されていない場合、発行者は、ライフライブラリのサービスプロバイダに価格を提示し、次いで、顧客に電子文書を購入するオプションを提供する。この場合、ライフライブラリのサービスプロバイダは、発行者に直接支払い、後でライフライブラリの顧客に請求するか、或いはライフライブラリのサービスプロバイダが、その購入に対して顧客のクレジットカードに直ちに課金する。ライフライブラリのサービスプロバイダは、購入価格の一定のパーセンテージ、或いは取引を容易にするための小額の固定手数料を受け取ることになる。   In some embodiments, the system maintains a subscriber profile for each subscriber that includes access rights information. Document access information can be compiled in several ways, two of which are: 1) the subscriber supplies the document access information to the life library system along with the subscriber's account name and password, etc. Or 2) The life library service provider queries the publisher for subscriber information and gives the publisher access to an electronic copy of the document if the life library subscriber is authorized to access the material. Is to respond. If the life library subscriber is not authorized to have an electronic copy of the document, the issuer presents the price to the life library service provider and then provides the customer the option to purchase the electronic document. In this case, the life library service provider pays the issuer directly and later charges the life library customer, or the life library service provider immediately charges the customer's credit card for the purchase. Life Library service providers will receive a certain percentage of the purchase price or a small fixed fee to facilitate the transaction.

システムは、加入者がアーカイブ権を有する加入者の個人ライブラリ及び/又は他の何らかのライブラリ内の文書をアーカイブすることができる。例えば、ユーザが印刷文書からテキストをスキャンすると、ライフライブラリシステムは、レンダリング文書及びその対応電子文書を識別することができる。ソース文書が識別された後、ライフライブラリシステムは、加入者がアーカイブ権を有するユーザの個人ライブラリ及びグループライブラリ内にソース文書についての情報を記録することができる。グループライブラリは、プロジェクトで共に作業するグループ、学術研究者のグループ、グループウェブログ、その他向けの文書レポジトリのような共同アーカイブである。   The system can archive documents in the subscriber's personal library and / or some other library for which the subscriber has archiving rights. For example, when a user scans text from a printed document, the life library system can identify the rendered document and its corresponding electronic document. After the source document is identified, the life library system can record information about the source document in the user's personal and group libraries for which the subscriber has archiving rights. A group library is a collaborative archive such as a document repository for groups working together on a project, groups of academic researchers, group weblogs, and others.

ライフライブラリは、多くの方法、すなわち時系列、トピック毎、加入者の関心のレベル毎、発行のタイプ(新聞、本、雑誌、技術論文など)毎、読み込む場所、読み込む時間、ISBN毎、或いはデューイ十進毎など、様々に編成することができる。1つの代替形態では、システムは、他の加入者が同じ文書をどのように分類したかに基づいて分類を学習することができる。システムは、ユーザに分類を提案するか、或いはユーザのために自動的に文書を分類することができる。   A life library can be in many ways: time series, topic, subscriber level of interest, type of publication (newspaper, book, magazine, technical paper, etc.), reading location, reading time, ISBN, or Dewey. It can be organized in various ways, such as every decimal. In one alternative, the system can learn the classification based on how other subscribers have classified the same document. The system can suggest a classification to the user or can automatically classify the document for the user.

種々の実施形態では、注釈は、直接文書に挿入することができ、或いは別のファイルに維持することができる。例えば、加入者が新聞記事からテキストをスキャンすると、記事は、スキャンされたテキストが強調表示されて加入者のライフライブラリ内にアーカイブされる。或いは、記事は、関連の注釈ファイルと共に加入者のライフライブラリ内にアーカイブされる(従って、アーカイブ文書は未修正のままである)。システムの実施形態は、各加入者のライブラリ内にソース文書に1つのコピー、多くの加入者がアクセスできるマスターライブラリに1つのコピー、又は発行者によって保持されているコピーへのリンクを保持することができる。   In various embodiments, the annotation can be inserted directly into the document or can be maintained in a separate file. For example, when a subscriber scans text from a newspaper article, the article is archived in the subscriber's life library with the scanned text highlighted. Alternatively, the article is archived in the subscriber's life library along with the associated annotation file (thus the archived document remains unmodified). Embodiments of the system maintain one copy of the source document in each subscriber's library, one copy in a master library accessible to many subscribers, or a link to a copy maintained by the publisher Can do.

幾つかの実施形態では、ライフライブラリは、文書に対するユーザの修正(例えば、強調表示など)と文書のオンライン版へのリンク(他の場所に記憶されている)だけを記憶する。システム又は加入者は、加入者が次に文書を取り出すときに、文書に対してこの変更を併合する。   In some embodiments, the life library stores only user modifications (eg, highlighting) to the document and links to online versions of the document (stored elsewhere). The system or subscriber merges this change into the document when the subscriber next retrieves the document.

注釈が別々のファイルに保持されている場合、ソース文書及び注釈ファイルは加入者に提供され、加入者が、これらを組み合わせて修正文書を作成する。或いは、システムは、2つのファイルを加入者に提示する前に組み合わせる。別の代替形態では、注釈ファイルは、文書ファイルへのオーバーレイであり、加入者のコンピュータ内のソフトウェアによって文書上にオーバーレイすることができる。   If the annotations are kept in separate files, the source document and the annotation file are provided to the subscriber and the subscriber combines them to create a modified document. Alternatively, the system combines the two files before presenting them to the subscriber. In another alternative, the annotation file is an overlay to the document file and can be overlaid on the document by software in the subscriber's computer.

ライフライブラリサービスへの加入者は、毎月の手数料を支払い、システムに加入者のアーカイブを維持させる。或いは、加入者は、アーカイブに記憶された各文書に対して小額(例えば、マイクロペイメント)を支払う。或いは、加入者は、1アクセス当たりの手数料で支払って加入者のアーカイブにアクセスする。或いは、加入者は、ライブラリをコンパイルし、ライフライブラリのサービスプロバイダ及び著作権所有者との収益シェアモデル上で資料/注釈に他者がアクセスできるようにする。或いは、ライフライブラリのサービスプロバイダは、ライフライブラリ加入者が文書を注文したときに発行者から支払いを受け取る(出版者との収益シェアモデル、ここではライフライブラリのサービスプロバイダが発行者の収益の持ち分を受け取る)。   Subscribers to the Life Library service pay a monthly fee and let the system maintain the subscriber's archive. Alternatively, the subscriber pays a small amount (eg, micropayment) for each document stored in the archive. Alternatively, the subscriber accesses the subscriber's archive for a fee per access. Alternatively, the subscriber compiles the library and allows others to access the material / annotations on the revenue share model with the life library service provider and copyright owner. Alternatively, the life library service provider receives payment from the publisher when a life library subscriber orders a document (revenue share model with publisher, where the life library service provider is responsible for the share of the publisher's revenue). Receive).

幾つかの実施形態では、ライフライブラリのサービスプロバイダは、加入者と著作権所有者(又はCCCとして知られるCopyright Clearance Centerなどの著作権所有者の代理人)との間の仲介人としての役割を果たし、著作権のある資料に対する請求及び支払いを容易にする。ライフライブラリのサービスプロバイダは、この仲介サービスを提供するために加入者の請求情報及び他のユーザアカウント情報を使用する。基本的に、ライフライブラリのサービスプロバイダは、加入者との既存の関係を活用して、加入者に代わって著作権のある資料を購入できるようにする。   In some embodiments, the life library service provider acts as an intermediary between the subscriber and the copyright owner (or an agent of a copyright owner such as the Copyright Clearance Center known as CCC). In fact, it facilitates billing and payment for copyrighted materials. The life library service provider uses the subscriber's billing information and other user account information to provide this intermediary service. Basically, a life library service provider can leverage existing relationships with subscribers to purchase copyrighted material on behalf of subscribers.

幾つかの実施形態では、ライフライブラリシステムは、文書からの抜粋を記憶することができる。例えば、加入者が紙文書からテキストをスキャンしたときに、文書全体がライフライブラリにアーカイブされるのではなく、スキャンされたテキストの周りの領域が抜粋され、ライフライブラリに配置される。これは、オリジナルスキャンの状況を保存することで加入者が関心のある部分を見つけるために文書を再読しないようにするので、文書が長い場合は特に有利である。勿論、紙文書の対応電子文書全体へのハイパーリンクは、抜粋資料と共に含めることができる。   In some embodiments, the life library system can store excerpts from documents. For example, when a subscriber scans text from a paper document, the entire document is not archived in the life library, but the area around the scanned text is extracted and placed in the life library. This is particularly advantageous when the document is long, as it preserves the original scan status so that the subscriber does not reread the document to find the part of interest. Of course, a hyperlink to the entire electronic document corresponding to the paper document can be included with the excerpt material.

幾つかの実施形態では、システムはまた、著者、発行タイトル、発行日付、発行者、著作権所有者(又は著作権所有者のライセンス代理人)、ISBN、文書の公開注釈へのリンク、読書ランキングなどの文書についての情報をライフライブラリ内に記憶する。文書についてのこの付加的な情報の幾つかは、紙文書メタデータの形式である。サードパーティは、一般公衆のような自己以外の人のアクセスに対する公開注釈ファイルを作成することができる。文書に関するサードパーティのコメントへのリンクは、他のユーザの注釈ファイルを読むことで加入者の文書の理解が深まるので有利である。   In some embodiments, the system may also include an author, publication title, publication date, publisher, copyright owner (or copyright owner's license agent), ISBN, link to the public annotation of the document, reading ranking. Information about documents such as is stored in the life library. Some of this additional information about the document is in the form of paper document metadata. Third parties can create public annotation files for access by people other than themselves, such as the general public. Links to third-party comments about the document are advantageous because reading the other user's annotation file deepens the subscriber's understanding of the document.

幾つかの実施形態では、システムはクラス毎に資料をアーカイブする。この特徴によって、ライフライブラリ加入者は、各紙文書にアクセスすることなく紙文書のクラス全体に対する対応電子文書を迅速に記憶することができる。例えば、加入者が、National Geographic誌のコピーからあるテキストをスキャンした場合、システムは、National Geographicの全てのバックナンバーをアーカイブするオプションを加入者に提供する。加入者が全てのバックナンバーのアーカイブを選択した場合、ライフライブラリのサービスプロバイダは、加入者がアーカイブすることを許可されているかどうかをNational Geographic Societyに確認する。許可されていない場合、ライフライブラリのサービスプロバイダは、National Geographic誌のコレクションをアーカイブする権利の購入を仲介することができる。   In some embodiments, the system archives material by class. This feature allows life library subscribers to quickly store corresponding electronic documents for the entire class of paper documents without accessing each paper document. For example, if a subscriber scans some text from a copy of National Geographic magazine, the system provides the subscriber with an option to archive all National Geographic back numbers. If the subscriber chooses to archive all back numbers, the life library service provider checks with the National Geographic Society to see if the subscriber is authorized to archive. If not, the life library service provider can mediate the purchase of the right to archive the National Geographic collection.

16.2.ライフセーバ
ライフライブラリの概念のバリエーション又は拡張は、「ライフセーバ」であり、システムは、ユーザによって取り込まれたテキストを使用してユーザの他の動作について更に推測する。特定のレストランからのメニュー、特定の劇場公演からのプログラム、特定の鉄道駅の時刻表、又は地方の新聞からの記事をスキャンすることによって、システムは、ユーザのロケーション及び社会活動について推測できるようになり、例えば、ウェブサイトのように社会活動の自動ダイアリーを構成することができる。ユーザは、ダイアリーを編集及び修正し、写真などの付加的な資料を追加し、更に、勿論、スキャンされた項目を再度見ることができる。
16.2. Life Saver A variation or extension of the life library concept is a “life saver”, where the system further infers other actions of the user using text captured by the user. By scanning menus from specific restaurants, programs from specific theater performances, timetables at specific railway stations, or articles from local newspapers, the system can infer about user locations and social activities For example, an automatic diary of social activities can be configured like a website. The user can edit and modify the diary, add additional material such as photos, and of course, view the scanned items again.

17.学術アプリケーション
説明されたシステムによってサポートされるポータブルスキャナは、学術的設定において多くの有力な用途がある。ポータブルスキャナは、生徒/教師の対話を向上させ、学習経験を高めることができる。他の使用の中で、生徒らは、生徒固有のニーズに合うように学習材料に注釈を付けることができ、教師は、学業成績をモニタすることができ、教師は、生徒の課題に引用されたソース資料を自動的に検証することができる。
17. Academic applications Portable scanners supported by the described system have many potential uses in academic settings. Portable scanners can improve student / teacher interaction and enhance the learning experience. Among other uses, students can annotate learning materials to meet student specific needs, teachers can monitor academic performance, and teachers are cited in student assignments. Source material can be verified automatically.

17.1.子供の本
本などの紙文書との子供の対話は、当該システムの実施形態の特定のセットを用いる読み書き能力習得システムによってモニタされる。子供は、読み書き能力習得システムの他の要素と通信するポータブルスキャナを使用する。ポータブルスキャナに加えて、読み書き能力習得システムは、ディスプレイ及びスピーカを有するコンピュータと、コンピュータがアクセス可能なデータベースとを含む。スキャナは、コンピュータに結合されている(ハードワイヤード、短距離RFなど)。子供が本の中の知らないワードを調べるときに、子供は、そのワードをスキャナでスキャンする。1つの実施形態では、読み書き能力習得システムは、スキャンされたテキストをそのデータベース内のリソースと比較して、そのワードを識別する。データベースは、辞書、シソーラス、及び/又はマルチメディアファイル(例えば、音声、グラフィクスなど)を含む。ワードが識別された後、システムは、コンピュータスピーカを使用して、そのワードと定義を子供に音読する。別の実施形態では、ワードとその定義が、読み書き能力習得システムによってコンピュータのモニタ上に表示される。スキャンされたワードについてのマルチメディアファイルはまた、コンピュータのモニタ及びスピーカを通じて再生することができる。例えば、「Goldilocks and the Three Bears」を読んでいる子供が「bear」というワードをスキャンした場合、システムは、「bear」というワードを音読し、コンピュータのモニタ上に熊についてのショートビデオを再生することができる。このようにして、子供は、書いたワードの発音を学び、マルチメディア表現を介してそのワードの意味を視覚的に教わる。
17.1. Children's Books Children's interactions with paper documents such as books are monitored by a reading and writing ability acquisition system that uses a specific set of embodiments of the system. The child uses a portable scanner that communicates with other elements of the literacy learning system. In addition to the portable scanner, the read / write learning system includes a computer having a display and speakers and a database accessible to the computer. The scanner is coupled to a computer (hardwired, short range RF, etc.). When the child looks up an unknown word in the book, the child scans the word with a scanner. In one embodiment, the literacy learning system compares the scanned text with resources in its database to identify the word. The database includes dictionaries, thesaurus, and / or multimedia files (eg, audio, graphics, etc.). After the word is identified, the system reads the word and definition aloud to the child using a computer speaker. In another embodiment, the word and its definition are displayed on a computer monitor by a literacy learning system. Multimedia files for scanned words can also be played through a computer monitor and speakers. For example, if a child reading “Goldilocks and the Three Bears” scans the word “bear”, the system reads the word “bear” and plays a short video about the bear on the computer monitor. be able to. In this way, the child learns the pronunciation of the written word and visually learns the meaning of the word through multimedia expressions.

読み書き能力習得システムは、学習プロセスを向上させる聴覚及び/又は視覚情報を即時に提供する。子供は、この補足情報を使用して、書かれた資料を迅速により深く理解する。システムを用いて、初心者の読者に読むことを教えること、より多くの語彙を子供が取得するのを助けることなどが可能である。システムは、子供がよく知らないワードについての情報又は子供がより多くの情報を望むワードについての情報を子供に提供する。   A literacy acquisition system provides immediate audio and / or visual information that improves the learning process. The child uses this supplemental information to quickly and deeply understand the written material. The system can be used to teach novice readers to read, to help children acquire more vocabulary, and so on. The system provides the child with information about words that the child is not familiar with or information about words that the child wants more information.

17.2.読み書き能力習得
幾つかの実施形態では、システムは、個人辞書をコンパイルする。読者が、新しい、興味のある、又は特に有用もしくは問題となるワードを調べる場合、読者は、このワードを(その定義と共に)コンピュータファイルに保存する。このコンピュータファイルは、読者の個人化された辞書になる。この辞書は、一般に、通常の辞書よりも小さなサイズであるので、移動局又は関連デバイスにダウンロードすることができ、従って、システムに即座にアクセスできない場合でも利用可能とすることができる。幾つかの実施形態では、個人用辞書エントリは、適切なワードの発音を支援するための音声ファイルと、ワードがスキャンされた紙文書を識別する情報とを含む。
17.2. Read / Write Capability In some embodiments, the system compiles a personal dictionary. When a reader looks up a new, interesting, or particularly useful or problematic word, the reader saves this word (with its definition) in a computer file. This computer file becomes the reader's personalized dictionary. Since this dictionary is generally smaller in size than a normal dictionary, it can be downloaded to a mobile station or associated device, and thus can be made available even if the system is not immediately accessible. In some embodiments, the personal dictionary entry includes an audio file to assist in proper word pronunciation and information identifying the paper document from which the word was scanned.

幾つかの実施形態では、システムは、生徒のためにカスタマイズされたスペリング及びボキャブラリーのテストを作成する。例えば、生徒が課題を読むときに、その生徒は、ポータブルスキャナで知らないワードをスキャンすることができる。システムは、生徒がスキャンしたワード全てのリストを記憶する。後で、システムは、関連するモニタ上で生徒にカスタマイズされたスペリング/ボキャブラリーテストを実施する(或いは、関連のプリンタに当該テストを印刷する)。   In some embodiments, the system creates customized spelling and vocabulary tests for students. For example, when a student reads an assignment, the student can scan an unknown word with a portable scanner. The system stores a list of all words scanned by the student. Later, the system performs a spelling / vocabulary test customized to the student on the associated monitor (or prints the test on the associated printer).

17.3.音楽教育
譜表上の音符の配列は、テキストの1行における文字の配列に類似している。本システムにおいてテキストを取り込むための上述の同じスキャンデバイスを用いて、音符を取り込むことができ、既知の音楽作品のデータベースに対するサーチを構成する類似のプロセスによって、取り込みが行われた作品が識別可能になり、次いで、取り出し、再生、又は何らかの更なる動作のベースとなることができる。
17.3. Music Education The arrangement of notes on the staff is similar to the arrangement of characters in one line of text. The system can capture notes using the same scanning device described above for capturing text in this system, and a similar process that constitutes a search against a database of known musical compositions makes it possible to identify the captured works Can then be the basis for retrieval, playback, or some further action.

17.4.盗用検出
教師は、生徒の紙文書からテキストをスキャンしてスキャンされたテキストをシステムに提出することによって、盗用を検出又はソースを検証するためにシステムを使用することができる。例えば、生徒の紙文書における引用が、生徒が挙げたソースからのものであることを検証したい教師は、引用の部分をスキャンし、システムによって識別された文書のタイトルと生徒が挙げた文書のタイトルとを比較することができる。同様に、システムは、生徒の元の作品として提出された課題からのテキストのスキャンを使用して、テキストが代わりにコピーされたものであるかどうかを明らかにすることができる。
17.4. Theft detection The teacher can use the system to detect plagiarism or verify the source by scanning the text from the student's paper document and submitting the scanned text to the system. For example, a teacher who wants to verify that a citation in a student's paper document is from a student-listed source, scans the citation, and the document title identified by the system and the title of the document listed by the student Can be compared. Similarly, the system can use a scan of text from an assignment submitted as the student's original work to determine if the text was copied instead.

17.5.強化された教科書
幾つかの実施形態では、学術的教科書からテキストを取り込むことは、生徒又は職員を、より詳細な説明、更なる演習、資料に関する生徒と職員の討議、関係のある過去の試験問題の例、主題に関する更なる読み込み、主題に関する講義の記録などとリンクする(セクション7.1を参照)。
17.5. Enhanced textbooks In some embodiments, capturing text from academic textbooks can help students or staff to provide more detailed explanations, more exercises, student-staff discussions on materials, and related past exam questions. Links to examples, further reading on the subject, lecture recording on the subject, etc. (see Section 7.1).

17.6.言語学習
幾つかの実施形態では、システムは、外国語を教えるために使用される。例えば、スペイン語のワードをスキャンすると、英語でのその定義と共に、そのワードをスペイン語で音読される。
17.6. Language Learning In some embodiments, the system is used to teach a foreign language. For example, when a Spanish word is scanned, the word is read aloud in Spanish with its definition in English.

システムは、新しい言語習得プロセスを強化させるために聴覚及び/又は視覚情報を直ちに提供する。読者は、この補足情報を使用し、資料を迅速且つより深く理解するようにする。システムを用いて、初心者の生徒に外国語の読み方を教え、生徒がより多くの語彙を取得するなどを助けることができる。システムは、読者がよく知らない外国語の単語についての情報、或いは読者がより多くの情報を望むワードについての情報を提供する。   The system immediately provides auditory and / or visual information to enhance the new language acquisition process. Readers use this supplemental information to help them understand the material quickly and deeply. The system can be used to teach novice students how to read foreign languages, help students acquire more vocabulary, and so on. The system provides information about words in foreign languages that the reader is not familiar with, or about words that the reader wants more information.

新聞又は本などの紙文書と読者との対話は、言語スキルシステムによってモニタされる。読者は、言語スキルシステムと通信するポータブルスキャナを有する。幾つかの実施形態では、言語スキルシステムは、ディスプレイ及びスピーカを有するコンピュータと、コンピュータがアクセス可能なデータベースとを含む。スキャナは、コンピュータと通信する(ハードワイヤード、短距離RFなど)。読者が記事の中の知らないワードを調べるときに、読者は、このワードをスキャナでスキャンする。データベースは、外国語辞書、シソーラス、及び/又はマルチメディアファイル(音声、グラフィクス、その他)を含む。1つの実施形態では、システムは、スキャンされたテキストをそのデータベース内のリソースと比較し、スキャンされたワードを識別する。ワードが識別された後、システムはコンピュータスピーカを使用して、ワードとその定義を読者に音読する。幾つかの実施形態では、ワードとその定義は両方とも、コンピュータのモニタ上に表示される。スキャンされたワードに関連する文法的ヒントについてのマルチメディアファイルはまた、コンピュータのモニタ及びスピーカを介して再生することができる。例えば、「to speak」というワードがスキャンされた場合、システムは「hablar」というワードを発音し、適切なスペイン語の発音を示す短いオーディオクリップを再生し、「hablar」の種々の活用の完全なリストを表示することができる。このようにして、生徒は、書かれたワードの発音を学び、マルチメディア表現を介してそのワードのスペリングを視覚的に教わり、動詞の活用法を学ぶ。システムはまた、慣用句と共に「hablar」の適切な用法についての文法的ヒントを示すことができる。   The interaction between a paper document, such as a newspaper or book, and a reader is monitored by a language skill system. The reader has a portable scanner that communicates with the language skill system. In some embodiments, the language skill system includes a computer having a display and speakers and a database accessible to the computer. The scanner communicates with the computer (hardwired, short range RF, etc.). When a reader looks up an unknown word in an article, the reader scans this word with a scanner. The database includes foreign language dictionaries, thesaurus, and / or multimedia files (speech, graphics, etc.). In one embodiment, the system compares the scanned text with resources in its database and identifies the scanned word. After the word is identified, the system reads the word and its definition to the reader using a computer speaker. In some embodiments, both the word and its definition are displayed on a computer monitor. Multimedia files for grammatical hints associated with scanned words can also be played through a computer monitor and speakers. For example, if the word “to spike” is scanned, the system will pronounce the word “hablar”, play a short audio clip showing the appropriate Spanish pronunciation, and complete the various uses of “hablar”. A list can be displayed. In this way, students learn the pronunciation of the written word, learn the spelling of the word visually through multimedia expressions, and learn how to use verbs. The system can also provide grammatical hints about proper usage of “hablar” along with idioms.

幾つかの実施形態では、ユーザは、ユーザの母国語(又はユーザが適度に知っている他の言語)以外の言語におけるレンダリング文書からのあるワード又は短いフレーズをスキャンする。幾つかの実施形態では、システムは、ユーザの「好ましい」言語の優先順位リストを保持する。システムは、レンダリング文書の対応電子文書を識別し、文書内のスキャンのロケーションを求める。システムはまた、ユーザの好みの言語の1つに翻訳された文書の第2対応電子文書を識別し、元の文書におけるスキャンのロケーションに対応する翻訳文書におけるロケーションを求める。対応するロケーションが正確に知られていない場合、システムは、スキャンされたロケーションの対応するロケーションを含む小領域(例えば、パラグラフ)を識別する。次いで、対応する翻訳ロケーションがユーザに提示される。これは、語順ベースで正確に翻訳することが困難なことが多いあらゆるスラング又は他の慣用的用法を含む、スキャンされたロケーションでの特定の用法の正確な翻訳をユーザに提供する。   In some embodiments, the user scans a word or short phrase from the rendered document in a language other than the user's native language (or other language that the user knows reasonably). In some embodiments, the system maintains a priority list of the user's “preferred” languages. The system identifies the corresponding electronic document of the rendered document and determines the location of the scan within the document. The system also identifies a second corresponding electronic document of the document that has been translated into one of the user's preferred languages and determines a location in the translated document that corresponds to the location of the scan in the original document. If the corresponding location is not accurately known, the system identifies a small region (eg, paragraph) that includes the corresponding location of the scanned location. The corresponding translation location is then presented to the user. This provides the user with an accurate translation of a particular usage at the scanned location, including any slang or other idiomatic usage that is often difficult to translate accurately on a word order basis.

17.7.研究資料の収集
特定のトピックを調査しているユーザは、印刷物及び画面上の両方で全ての種類の資料に遭遇する可能性があり、ユーザは、ある個人用アーカイブにおいてそのトピックに関連するものとして記録することを望む場合がある。システムにより、資料のいずれの部分における短いフレーズをスキャンした結果としてこのプロセスを自動的に行うことが可能となり、また、この主題に関する発行物に掲載するのに好適な参考文献を作成することができる。
17.7. Collection of research material Users who are investigating a particular topic may encounter all types of material, both in print and on the screen, and the user is considered to be related to that topic in a personal archive. You may want to record. The system can automatically perform this process as a result of scanning a short phrase in any part of the material, and can create a suitable reference for publication in a publication on this subject. .

18.商用アプリケーション
明らかに、商業活動は、本明細書で記載されたほとんどどのプロセスから説明することができるが、ここでは幾つかの明白な収益の流れに重点を置く。
18. Commercial Applications Clearly, commercial activities can be explained from almost any process described herein, but here we will focus on some obvious revenue streams.

18.1.手数料ベースのサーチ及びインデックス作成
従来のインターネットサーチエンジンは通常、電子文書の無料サーチを提供しており、また、インデックス内にこれらのコンテンツを含むことに対してコンテンツプロバイダに課金していない。幾つかの実施形態では、システムは、システムのオペレーション及び使用に関してユーザへの課金及び/又はサーチエンジン及び/又はコンテンツプロバイダへの支払いを可能にする。
18.1. Fee-based search and indexing Conventional Internet search engines typically provide free search for electronic documents and do not charge content providers for including these content in the index. In some embodiments, the system allows users to be billed and / or paid to search engines and / or content providers for the operation and use of the system.

幾つかの実施形態では、システムのサービスへの加入者は、紙文書のスキャンに由来するサーチに対して手数料を支払う。例えば、株式仲買人は、会社Xによって提供される新しい製品についてWall Street Journalの記事を読んでいる可能性がある。紙文書から会社Xの名前をスキャンして、必要な手数料を支払うことに同意することによって、株式仲買人は、システムを使用し、特別な又は専用データベースをサーチして、アナリストのレポートのような企業に関するプレミアム情報を取得する。システムはまた、例えば特定の日に発行された新聞の全てにインデックスが作成され、新聞が街に出るまでに確実に利用可能にすることによって、紙形式で読まれる可能性が最も高い文書のインデックス作成を優先させるように取り決めることができる。   In some embodiments, subscribers to the services of the system pay a fee for searches that result from scanning paper documents. For example, a stock broker may have read a Wall Street Journal article about a new product offered by Company X. By scanning the company X name from a paper document and agreeing to pay the necessary fee, the stockbroker uses the system to search a special or dedicated database, such as an analyst report Get premium information about the company. The system also indexes documents that are most likely to be read in paper form, for example by indexing all newspapers published on a particular day and ensuring that the newspaper is available before it enters the city. Arrange to prioritize creation.

コンテンツプロバイダは、紙文書から提出されたサーチクエリーにおける幾つかの用語と関連付けられた手数料を支払うことができる。例えば、1つの実施形態では、システムは、プロバイダについての付加的なコンテキストに基づいて最も好ましいコンテンツプロバイダを選択する(コンテキストとは、この場合、結果リストが繰り上がるようにコンテンツプロバイダが手数料を支払ったということである)。本質的に、サーチプロバイダは、コンテンツプロバイダとの既にある支払い協定に基づいて紙文書のサーチ結果を調整している。セクション5.2のキーワード及びキーフレーズの説明も参照されたい。   Content providers can pay a fee associated with some terms in a search query submitted from a paper document. For example, in one embodiment, the system selects the most preferred content provider based on the additional context for the provider (the context is in this case the content provider paid a fee so that the results list is advanced) That's what it means). In essence, search providers adjust paper document search results based on existing payment agreements with content providers. See also the description of keywords and key phrases in section 5.2.

特定のコンテンツへのアクセスが特定のグループの人々(クライアント又は従業員など)に制限される必要がある場合、このようなコンテンツは、ファイアウォールによって保護され、従って一般的にはサードパーティによるインデックス作成を行うことができない。それでもコンテンツプロバイダは、保護されたコンテンツにインデックスを提供したいと望む場合がある。このような場合、コンテンツプロバイダは、サービスプロバイダに支払いをして、コンテンツプロバイダのインデックスをシステム加入者に提供することができる。例えば、法律事務所は、クライアントの文書の全てにインデックスを作成することができる。文書は、法律事務所のファイアウォールの背後に記憶される。しかしながら、法律事務所は、その従業員及びクライアントにポータブルスキャナを介して文書にアクセスすることを望むので、サービスプロバイダにインデックス(又はインデックスへのポインタ)を提供して、法律事務所の従業員又はクライアントが自分のポータブルスキャナを介して紙をスキャンしたサーチ用語を提出したときに法律事務所のインデックスをサーチする。法律事務所は、従業員及び/又はクライアントのリストをサービスプロバイダのシステムに提供してこの機能を有効にすることができ、又は、システムは、法律事務所のインデックスのサーチの前に法律事務所に問い合わせをすることによってアクセス権を検証することができる。上記の実施例において、法律事務所によって提供されるインデックスは、そのクライアントの文書だけであり、法律事務所における全文書のインデックスではない点に留意されたい。従って、サービスプロバイダは、法律事務所がクライアントに対してインデックスを作成した文書への法律事務所のクライアントアクセスだけが認められる。   If access to specific content needs to be restricted to a specific group of people (such as clients or employees), such content is protected by a firewall and is therefore generally not indexed by a third party. I can't do it. Nevertheless, content providers may wish to provide an index for protected content. In such a case, the content provider can pay the service provider and provide the content provider's index to the system subscriber. For example, a law firm can create an index on all of a client's documents. The document is stored behind the law firm's firewall. However, since the law firm wants its employees and clients to access the document via a portable scanner, it provides the service provider with an index (or pointer to the index) to allow the law firm employee or Search a law firm index when a client submits a search term that scans paper through their portable scanner. The law firm can provide a list of employees and / or clients to the service provider's system to enable this feature, or the system can support the law firm prior to searching the law firm's index. The access right can be verified by inquiring. Note that in the above example, the index provided by the law firm is only that client's document, not the index of all documents in the law firm. Thus, the service provider is only allowed the law firm's client access to the documents that the law firm has indexed for the client.

紙文書に由来するサーチの結果とすることができる少なくとも2つの別々の収益の流れがあり、1つは、サーチ機能からの収益の流れであり、もう1つはコンテンツ配信機能からの収益の流れである。サーチ機能の収益は、スキャナユーザからの支払い済み購読料から発生することができるが、1サーチ当たりの課金で生成することもできる。コンテンツ配信収益は、コンテンツプロバイダ又は著作権所有者と分配することができる(サービスプロバイダは、各配信に対して小額決済などの販売のある割合又は固定手数料を取ることができる)が、サービスプロバイダが取引を仲介するかどうかに関わらず、加入者がオンラインカタログから注文し、システムが配達又は提供する全ての項目に対して手数料又はある割合を取る「照会」モデルによっても発生することができる。幾つかの実施形態では、システムサービスプロバイダは、識別された製品の購入が行われたときに、所定時間期間又は以降のある時間において加入者がコンテンツプロバイダから行った全ての購入に対して収益を受け取る。   There are at least two separate revenue streams that can be the result of a search derived from paper documents, one is the revenue stream from the search function and the other is the revenue stream from the content distribution function. It is. Search function revenue can be generated from paid subscription fees from scanner users, but can also be generated at a charge per search. Content distribution revenue can be shared with content providers or copyright owners (service providers can take a percentage of sales such as small payments for each distribution or a fixed fee) Regardless of whether or not to broker a transaction, it can also be generated by a “query” model where a subscriber orders from an online catalog and takes a fee or a percentage for all items delivered or offered by the system. In some embodiments, the system service provider earns revenue for all purchases made by the subscriber from the content provider during a predetermined time period or some time thereafter when the identified product purchase is made. receive.

18.2.カタログ
消費者は、ポータブルスキャナを使用して紙のカタログから買い物をすることができる。加入者は、カタログから情報をスキャンして、該カタログを識別する。この情報は、カタログからのテキスト、バーコード、又はカタログの別の識別子である。加入者は、購入したい製品を識別する情報をスキャンする。カタログの宛名ラベルは、カタログベンダーに対して顧客を識別する顧客識別番号を包含できる。この場合、加入者はまた、この顧客識別番号をスキャンすることができる。システムは、加入者とベンダーとの間の仲介者としての役割を果たし、顧客の選択及び顧客識別番号をベンダーに提供することによってカタログ購入を容易にする。
18.2. Catalog Consumers can shop from a paper catalog using a portable scanner. The subscriber scans information from the catalog to identify the catalog. This information is text from the catalog, a barcode, or another identifier for the catalog. The subscriber scans for information identifying the product that they want to purchase. The catalog address label can include a customer identification number that identifies the customer to the catalog vendor. In this case, the subscriber can also scan this customer identification number. The system acts as an intermediary between the subscriber and the vendor, facilitating catalog purchases by providing the vendor with a customer selection and customer identification number.

18.3.クーポン
消費者は、紙クーポンをスキャンし、後で取り出して使用するために、スキャナ内、又はコンピュータなどの遠隔デバイス内にクーポンの電子コピーを保存する。電子記憶装置の利点は、消費者が紙クーポンを持ち歩く負担から解放される点である。更なる利点は、電子クーポンがあらゆるロケーションから取り出すことができることである。幾つかの実施形態では、システムは、クーポンの有効期限を追跡し、まもなく期限切れとなるクーポンについて消費者に通知し、及び/又は期限切れのクーポンを記憶装置から削除することができる。クーポンの発行者にとっての利点は、誰がクーポンを使おうとしているか、及びいつどこでクーポンが取り込まれて使用されたかに関してより多くのフィードバックを受け取る可能性があることである。。
18.3. Coupons Consumers scan paper coupons and store an electronic copy of the coupon in a scanner or remote device such as a computer for later retrieval and use. The advantage of an electronic storage device is that the consumer is freed from the burden of carrying paper coupons. A further advantage is that electronic coupons can be taken from any location. In some embodiments, the system can track coupon expiration dates, notify consumers about coupons that are about to expire, and / or delete expired coupons from storage. An advantage for the coupon issuer is that they may receive more feedback regarding who is trying to use the coupon and when and where the coupon was captured and used. .

19.一般的なアプリケーション
19.1.形式
システムは、紙形式に対応する電子文書を自動的にポピュレートするために使用できる。ユーザは、紙形式を一意的に識別する何らかのテキスト又はバーコードをスキャンする。スキャナは、フォームのアイデンティティ及びユーザを識別する情報を近くのコンピュータに通信する。近くのコンピュータは、インターネット接続を有する。近くのコンピュータは、フォームの第1データベースと、スキャナのユーザに関する情報を有する第2データベース(サービスプロバイダの加入者情報データベースなど)にアクセスすることができる。近くのコンピュータは、第1データベースから紙形式の電子版にアクセスし、第2データベースから取得されたユーザの情報からフォームのフィールドを自動的にポピュレートする。次いで、近くのコンピュータは、完成したフォームを指定受信者に電子メールで送信する。或いは、コンピュータは、完成したフォームを近くのプリンタで印刷することができる。
19. General application 19.1. Format The system can be used to automatically populate electronic documents that correspond to paper formats. The user scans some text or barcode that uniquely identifies the paper form. The scanner communicates the form identity and information identifying the user to a nearby computer. Nearby computers have an internet connection. A nearby computer can access a first database of forms and a second database (such as a service provider's subscriber information database) that contains information about the user of the scanner. A nearby computer accesses the electronic version of the paper form from the first database and automatically populates the fields of the form from the user information obtained from the second database. The nearby computer then emails the completed form to the designated recipient. Alternatively, the computer can print the completed form on a nearby printer.

外部データベースにアクセスするのではなく、幾つかの実施形態では、システムは、アイデンティティモジュール、SIM、又はセキュリティカードなどにユーザの情報を包含するポータブルスキャナを有する。スキャナは、フォームを識別する情報を近くのPCに提供する。近くのPCは、電子フォームにアクセスして、何らかの必要情報についてスキャナに問い合わせをし、そのフォームに記入する。   Rather than accessing an external database, in some embodiments, the system has a portable scanner that contains the user's information, such as in an identity module, SIM, or security card. The scanner provides information identifying the form to a nearby PC. A nearby PC accesses the electronic form, queries the scanner for any necessary information, and fills in the form.

19.2.名刺
システムは、紙文書から電子アドレス帳又は他の連絡先リストを自動的にポピュレートするのに使用できる。例えば、新しい知人の名刺を受け取ったときに、ユーザは、ユーザの携帯電話を用いて名刺の画像を取り込むことができる。システムは、名刺の電子コピーの位置を特定し、これを用いて、新しい知人の連絡先情報によって携帯電話のオンボードアドレス帳を更新することができる。電子コピーは、新しい知人についての情報を名刺に詰め込むよりも多く含めることができる。更に、オンボードアドレス帳はまた、電子コピーへのリンクを記憶することができ、これによって、電子コピーに対するどのような変更も携帯電話のアドレス帳において自動的に更新されることになる。この実施例では、名刺は、電子コピーの存在を示す記号又はテキストを任意選択的に含む。電子コピーが存在しない場合、携帯電話は、OCR及び標準的な名刺フォーマットの知識を使用して、新しい知人についてアドレス帳のエントリに記入することができる。記号は、画像から直接的に情報を抽出するプロセスを支援することができる。例えば、名刺の電話番号の隣りにある電話アイコンを認識し、電話番号の所在地を特定することができる。
19.2. The business card system can be used to automatically populate electronic address books or other contact lists from paper documents. For example, when a business card of a new acquaintance is received, the user can capture an image of the business card using the user's mobile phone. The system can locate the electronic copy of the business card and use it to update the mobile phone's onboard address book with the contact information of the new acquaintance. Electronic copies can contain more information about new acquaintances than stuffing business cards. In addition, the onboard address book can also store a link to the electronic copy, so that any changes to the electronic copy are automatically updated in the mobile phone address book. In this embodiment, the business card optionally includes a symbol or text indicating the presence of an electronic copy. In the absence of an electronic copy, the mobile phone can use the OCR and standard business card format knowledge to fill in an address book entry for a new acquaintance. Symbols can assist in the process of extracting information directly from an image. For example, a telephone icon next to a business card telephone number can be recognized to specify the location of the telephone number.

19.3.校正/編集
本システムは、校正及び編集プロセスを拡張することができる。システムが編集プロセスを拡張することができる1つの方法は、紙文書との編集者の対話をその対応電子文書にリンク付けすることに基づく。編集者が紙文書を読み込み、文書の種々の部分をスキャンすると、システムは、紙文書の対応電子文書に対して適切な注釈又は編集を行うことになる。例えば、編集者がテキストの一部分をスキャンし、スキャナを用いて「新しいパラグラフ」の制御ジェスチャーを行った場合、スキャナと通信するコンピュータは、文書の電子コピー内のスキャンされたテキストのロケーションにおいて「新しいパラグラフ」改行を挿入する。
19.3. Proofreading / editing The system can extend the proofreading and editing process. One way that the system can extend the editing process is based on linking the editor's interaction with a paper document to its corresponding electronic document. As an editor reads a paper document and scans various parts of the document, the system will make appropriate annotations or edits to the corresponding electronic document of the paper document. For example, if an editor scans a portion of text and uses a scanner to perform a “new paragraph” control gesture, the computer communicating with the scanner will be “new” at the location of the scanned text in the electronic copy of the document. Insert a paragraph break.

19.4.音声注釈
ユーザは、文書からテキストの一部分をスキャンし、次いでスキャンされたテキストに関連する音声記録を行うことによって、その文書に音声注釈を付けることができる。幾つかの実施形態では、スキャナは、ユーザの口頭注釈を記録するためのマイクロフォンを有する。口頭注釈が記録された後、システムは、テキストがスキャンされた文書を識別し、文書内でスキャンされたテキストの位置を特定し、更にそのポイントに音声注釈を添付する。幾つかの実施形態では、システムは、音声をテキストに変換して、テキストコメントとして注釈を添付する。
19.4. Voice Annotation A user can annotate a document by scanning a portion of the text from the document and then making a voice recording associated with the scanned text. In some embodiments, the scanner has a microphone for recording the user's verbal annotations. After the verbal annotation is recorded, the system identifies the document from which the text was scanned, locates the scanned text within the document, and attaches a voice annotation at that point. In some embodiments, the system converts speech to text and attaches annotations as text comments.

幾つかの実施形態では、システムは、注釈を文書から分離して保持し、注釈に対する参照だけが文書と共に保持される。次いで注釈は、特定の加入者又はユーザのグループにとって文書に対する注釈マークアップレイヤとなる。   In some embodiments, the system keeps the annotation separate from the document and only a reference to the annotation is kept with the document. The annotation then becomes an annotation markup layer for the document for a particular subscriber or group of users.

幾つかの実施形態では、各取り込み及び関連する注釈に対して、本システムは、文書を識別し、ソフトウェアパッケージを使用して文書を開き、スキャンのロケーションまでスクロールして、音声注釈を再生する。次いでユーザは、音声注釈、提案された変更、或いは自分又は他の誰かが記録した他のコメントを参照しながら文書と対話することができる。   In some embodiments, for each capture and associated annotation, the system identifies the document, opens the document using a software package, scrolls to the location of the scan, and plays the audio annotation. The user can then interact with the document with reference to voice annotations, proposed changes, or other comments recorded by himself or someone else.

19.5.テキスト形式のヘルプ
説明されたシステムを用いて、電子ヘルプメニューによって紙文書を拡張することができる。幾つかの実施形態では、紙文書に関連するマークアップレイヤは、文書についてのヘルプメニュー情報を包含する。例えば、ユーザが文書の特定の部分からテキストをスキャンすると、システムは、文書に関連するマークアップをチェックし、ユーザにヘルプメニューを提示する。ヘルプメニューは、スキャナのディスプレイ上、又は関連する近くのディスプレイ上に提示される。
19.5. Text Help Using the described system, a paper document can be extended with an electronic help menu. In some embodiments, the markup layer associated with a paper document includes help menu information about the document. For example, when a user scans text from a particular part of a document, the system checks the markup associated with the document and presents a help menu to the user. The help menu is presented on the scanner's display or on an associated nearby display.

19.6.ディスプレイとの使用
状況によっては、テレビ、コンピュータモニタ、又は他の同様のディスプレイから情報をスキャンできるようにすることが有利である。幾つかの実施形態では、ポータブルスキャナを用いて、コンピュータモニタ及びテレビからの情報をスキャンする。幾つかの実施形態では、ポータブル光学スキャナは、照射センサを有し、ラスタ化、画面ブランキング、その他のような従来の陰極線管(CRT)ディスプレイ技術と連動するよう最適化される。
19.6. Depending on the situation of use with the display, it may be advantageous to be able to scan information from a television, computer monitor, or other similar display. In some embodiments, a portable scanner is used to scan information from computer monitors and televisions. In some embodiments, the portable optical scanner has an illumination sensor and is optimized to work with conventional cathode ray tube (CRT) display technologies such as rasterization, screen blanking, etc.

文書からテキストを音読しているユーザの音声を取り込むことによって動作する音声取り込み装置は通常、その文書が、紙面上、ディスプレイ上、又は他の何らかの媒体上にあるかどうかに関わらず動作することになる。   An audio capture device that operates by capturing the voice of a user who is reading text from a document typically operates whether the document is on paper, on a display, or on some other medium. Become.

19.6.1.公衆ブース及び動的セッションID
ディスプレイの直接スキャンの1つの用途は、セクション15.6で説明されたデバイスの関連付けである。例えば、幾つかの実施形態では、公衆ブースが、そのモニタ上に動的セッションIDを表示する。ブースは、インターネット又は企業イントラネットなどの通信ネットワークに接続されている。セッションIDは、定期的に代わるが、しかしながら、少なくともブースを使用して全ユーザに対して新しいセッションIDが表示されるようにされる度に変わる。ブースを使用するために、加入者は、ブースに表示されたセッションIDをスキャンし、セッションIDをスキャンすることによって、ユーザは、印刷された文書のスキャンから又はブース画面自体から生じたコンテンツを配信するためにユーザのスキャナにブースを一時的に関連付けたいことをシステムに通知する。スキャナは、スキャナを認証するセッションID及び他の情報(シリアルナンバー、アカウント番号、又は他の識別情報など)を直接的にシステムに伝達することができる。例えば、スキャナは、ユーザの携帯電話(Bluetooth(商標)を介してユーザのスキャナとペアにされた)を介してセッション開始メッセージを送信することによって、システムと直接通信することができる(ここでの「直接」とは、ブースを介してメッセージをわたすことがないことを意味する)。或いは、スキャナは、セッション開始情報をブースに転送する(恐らくは、Bluetooth(商標)などの短距離RFを介して)ことによって、ブースとの無線リンクを確立して、ブースの通信リンクを使用することができ、これに応答して、ブースは、インターネット接続を介してセッション開始情報をシステムに送信する。
19.6.1. Public booth and dynamic session ID
One application of direct scanning of the display is the device association described in section 15.6. For example, in some embodiments, a public booth displays a dynamic session ID on its monitor. The booth is connected to a communication network such as the Internet or a corporate intranet. The session ID changes periodically, but changes whenever a new session ID is displayed to all users, at least using the booth. To use the booth, the subscriber scans the session ID displayed in the booth, and by scanning the session ID, the user delivers content resulting from scanning the printed document or from the booth screen itself In order to do so, the system is informed that the booth is temporarily associated with the user's scanner. The scanner can communicate directly to the system the session ID and other information (such as a serial number, account number, or other identification information) that authenticates the scanner. For example, the scanner can communicate directly with the system by sending a session initiation message via the user's mobile phone (paired with the user's scanner via Bluetooth ™) (where "Direct" means you don't pass a message through the booth). Alternatively, the scanner establishes a wireless link with the booth and uses the booth's communication link by transferring session initiation information to the booth (possibly via a short range RF such as Bluetooth ™). In response, the booth sends session initiation information to the system over the Internet connection.

システムは、デバイスがスキャナに関連付けられている期間(又はセッション)の間に既にスキャナに関連付けられているデバイスを他者が使用できないようにすることができる。この特徴は、別の人のセッションが終了する前に公衆ブースを他者が使用できないようにするのに有用である。インターネットカフェでのコンピュータの使用に関するこの概念の実施例として、ユーザは、ユーザが使用したいPCのモニタ上のバーコードをスキャンし、これに応答して、システムは、表示するモニタにセッションIDを送信し、ユーザが、モニタからセッションIDをスキャンする(又はポータブルスキャナ上のキーパッド又はタッチ画面もしくはマイクロフォンを介してセッションIDを入力する)ことによってセッションを開始し、システムは、そのデータベースにおいてセッションIDを自分のスキャナのシリアルナンバー(又はユーザのスキャナを一意に識別する他の識別子)に関連付けるので、別のスキャナは、ユーザのセッション中にセッションIDをスキャンし、モニタを使用できないようになる。スキャナは、モニタに関連付けられたPCと(Bluetooth(商標)などの無線リンク、ドッキングステーションなどのハードワイヤードリンク、その他を介して)通信するか、或いは携帯電話などの別の手段を介してシステムと直接(すなわち、PCを経由することなく)通信する。   The system can prevent others from using a device that is already associated with the scanner during the period (or session) in which the device is associated with the scanner. This feature is useful to prevent others from using the public booth before the end of another person's session. As an example of this concept for using a computer in an Internet cafe, the user scans a bar code on the PC monitor that the user wants to use, and in response, the system sends a session ID to the display monitor. The user starts the session by scanning the session ID from the monitor (or entering the session ID via the keypad or touch screen or microphone on the portable scanner), and the system stores the session ID in its database. Because it is associated with your scanner serial number (or other identifier that uniquely identifies the user's scanner), another scanner will scan the session ID during the user's session and will not be able to use the monitor. The scanner communicates with the PC associated with the monitor (via a wireless link such as Bluetooth ™, a hard wire drink such as a docking station, etc.) or with the system via another means such as a mobile phone. Communicate directly (ie, without going through a PC).

第4部−システムの詳細
レンダリング文書から光学的又は音響的にキーワードを取り込むことに応答して、或いは取り込まれたキーワードに基づいて文書を識別することに応答して広告などの動作をトリガするためのソフトウェア及び/又はハードウェアシステムについて説明する(「システム」)。場合によっては、システムは、キーワードに対する広告を提示し、注釈を表示し、或いは動作を修正又は適用する。本明細書で使用されるキーワードとは、1つ又はそれ以上のワード、アイコン、記号、又は画像を意味する。本出願では用語「ワード」及び「複数のワード」が使用されることが多いが、幾つかの実施形態ではアイコン、記号、又は画像を用いることができる。本明細書で使用されるキーワードはまた、1つ又はそれ以上の隣接する記号から構成されるフレーズを指す。本明細書で使用されるキーワードは、取り込みに応答して識別されレンダリング文書又はレンダリング文書の一部分と共に検討されるトピック又は主題に関連するワードを含む。キーワードは、正規表現アルゴリズム又は画像処理によって認識可能なオブジェクトのクラスを任意選択的に含むことができる。オブジェクトのこのようなクラスは、電子メールアドレス、郵送先住所、電話番号、URL、ハイパーリンク、並びにコンテンツ、引用、商標、ロゴ、正式名称、時刻、日付などへの他のポインタを含むことができる。
Part 4-System Details To trigger an action such as an advertisement in response to capturing a keyword optically or acoustically from a rendered document or in response to identifying a document based on the captured keyword The software and / or hardware system will be described (“system”). In some cases, the system presents advertisements for keywords, displays annotations, or modifies or applies actions. As used herein, a keyword means one or more words, icons, symbols, or images. Although the terms “word” and “multiple words” are often used in this application, in some embodiments, icons, symbols, or images may be used. A keyword as used herein also refers to a phrase composed of one or more adjacent symbols. As used herein, keywords include words associated with topics or subjects that are identified in response to capture and considered with the rendered document or portion of the rendered document. The keywords can optionally include a class of objects that can be recognized by regular expression algorithms or image processing. Such classes of objects can include email addresses, mailing addresses, telephone numbers, URLs, hyperlinks, and other pointers to content, quotes, trademarks, logos, full names, times, dates, etc. .

キーワードは、「過負荷状態」であると考えられる、すなわち、キーワードは、テキスト又は記号のようなユーザにとって一般的な(例えば視覚的な)意味を超えた、ある関連する意味或いは動作を有する。幾つかの実施形態では、キーワードと意味又は動作の間の関連付けは、マークアッププロセス又はデータによって設定される。幾つかの実施形態では、キーワード又は文書と意味又は動作との間の関連付けは、取り込み又は識別が行われた時点でシステムに既知となる。幾つかの実施形態では、キーワード又は文書と意味又は動作との間の関連付けは、取り込み又は識別が行われた後に設定される。   Keywords are considered "overloaded", i.e., keywords have some associated meaning or action beyond the general (e.g. visual) meaning for the user, such as text or symbols. In some embodiments, the association between keywords and meanings or actions is set by a markup process or data. In some embodiments, the association between a keyword or document and a meaning or action is known to the system when it is captured or identified. In some embodiments, the association between keywords or documents and meanings or actions is established after capture or identification has taken place.

幾つかの実施形態では、本システムは文書を識別し、ユーザに提示される広告をトリガ及び選択するために文書のコンテンツを使用する。場合によっては、システムは、文書を解析し、文書のコンテンツを1つ又はそれ以上のキーワードに関連付けることができる。場合によっては、システムは、全文書のコンテンツに基づいて広告(動作)を選択する。場合によっては、システムは、取り込まれたテキストを包含するか又はその近傍にある文書の一部分に基づいて広告を選択する。場合によっては、システムは、文書を識別するときに使用されていない文書のコンテンツに基づいて広告を選択する。   In some embodiments, the system uses the content of the document to identify the document and to trigger and select advertisements presented to the user. In some cases, the system can parse the document and associate the content of the document with one or more keywords. In some cases, the system selects an advertisement (action) based on the content of the entire document. In some cases, the system selects an advertisement based on a portion of the document that includes or is near the captured text. In some cases, the system selects an advertisement based on the content of the document that is not used when identifying the document.

説明されたシステムの幾つかの実施形態において、レンダリング文書におけるキーワードとの対話には、文書からの取り込みが具体的にキーワードを包含すること、或いは識別された文書に関連するキーワードが特定のキーワードであることを必要としない。取り込みが、キーワードを全体的に含む、キーワードと重なる(キーワードの一部を包含する)、キーワードに近接する(例えば、同じパラグラフ又は同じページ上にある)、或いはキーワードに包含される情報に類似した情報又は関連する情報(例えば、ワード、アイコン、トークン、記号、画像)を包含する場合には、取り込みは、キーワードに関連する動作をトリガすることができる。キーワードに関連する動作は、ユーザがキーワードに含まれるワードの同義語を取り込んだ場合、或いは文書がキーワードの同義語に関連付けられている場合に呼び出すことができる。例えば、キーワードがワード「猫」を含み、ユーザがワード「ネコ科動物」を含むテキストを取り込んだ場合、任意選択的に、「猫」に関連する動作を呼び出すことができる。或いは、ユーザがワード「猫」又はワード「ネコ科動物」を包含するページ上のどこかを取り込んだ場合、任意選択的に、「猫」を包含するキーワードに関連する動作を呼び出すことができる。   In some embodiments of the described system, interaction with a keyword in a rendered document includes that the capture from the document specifically includes the keyword, or that the keyword associated with the identified document is a specific keyword. You don't need to be. Ingestion includes the keyword as a whole, overlaps with the keyword (includes part of the keyword), is close to the keyword (eg, on the same paragraph or on the same page), or is similar to information contained in the keyword Incorporating information or related information (eg, words, icons, tokens, symbols, images) can trigger an action associated with the keyword. The action associated with the keyword can be invoked when the user captures a synonym for the word contained in the keyword or when the document is associated with a synonym for the keyword. For example, if the keyword includes the word “cat” and the user captures text including the word “feline”, an action associated with “cat” can optionally be invoked. Alternatively, if the user captures somewhere on the page that includes the word “cat” or the word “feline”, optionally an action associated with a keyword that includes “cat” can be invoked.

同様に、システムが、「ネコ科動物」を含む文書を識別し、その文書のコンテンツを解析し、更にその文書のキーワードを決定した場合、システムは、キーワード「猫」に関連する動作(広告メッセージなど)を呼び出すことができる。   Similarly, if the system identifies a document that contains “Feline”, parses the contents of the document, and further determines a keyword for the document, the system will perform an action (advertisement message) associated with the keyword “cat”. Etc.) can be called.

幾つかの実施形態では、取り込みがどのようにキーワードに関係するか、及びこれらの取り込みからどの特定の動作が生じるかを指定する特定の命令及び/又はデータが、システム内にマークアップとして記憶される。   In some embodiments, specific instructions and / or data specifying how captures are related to keywords and what specific actions result from these captures are stored as markup in the system. The

幾つかの実施形態では、キーワードに関連してとられる動作は、一つには、取り込みがどのように行われたかによって決定される。キーワードの近傍、キーワードへの重なり、キーワードに加えて他の資料を包含する、及びキーワードを厳密に包含する取り込みは各々、種々の動作のセットをもたらすことができる。周りに資料がない状態でキーワード「IBM」を取り込むと、ユーザのブラウザをIBMのウェブサイトに差し向けることができる。周囲のセンテンス内でIBMを取り込むと、システムが他の取り込まれた資料を処理しこれに応答している間、IBMの広告を表示させることができる。幾つかの実施形態では、キーワードをネストすることができ、或いはコーワードを重ねることができる。システムは、「IBMデータ」、「データサーバ」、及び「データ」に関連する動作を有することができ、ユーザが「IBMデータサーバ」というフレーズを取り込んだときに、これらのキーワードの一部又は全てに関連する動作を呼び出すことができる。   In some embodiments, the action taken in conjunction with the keyword is determined in part by how the capture was performed. The proximity of keywords, overlaps to keywords, inclusions in addition to keywords, and inclusions that strictly contain keywords can each result in a different set of actions. Incorporating the keyword “IBM” with no material around it allows the user's browser to be directed to the IBM website. Capturing an IBM within the surrounding sentence can cause an IBM advertisement to be displayed while the system processes and responds to other captured material. In some embodiments, keywords can be nested or codewords can be superimposed. The system can have actions related to “IBM data”, “data server”, and “data”, and when the user captures the phrase “IBM data server”, some or all of these keywords You can call actions related to.

キーワードの実施例は、用語「IBM」であり、文書におけるそのキーワードの出現は、読者のウェブブラウザをIBMウェブサイトに誘導することに関連付けることができる。キーワードの他の実施例は、フレーズ「ソニーヘッドセット」、製品型式番号「DR−EX151」、及び本のタイトル「Learning Bash Shell」である。これらのキーワードに関連する動作は、Amazon.comでの販売の対象物のリストを照会すること、含まれる用語の1つ又はそれ以上を販売の1つ又はそれ以上の対象物に一致させること、及びユーザにAmazonを介してこれらの対象物を購入する機会を提供することとすることができる。   An example of a keyword is the term “IBM”, and the occurrence of that keyword in a document can be associated with directing the reader's web browser to the IBM website. Other examples of keywords are the phrase “Sony Headset”, product model number “DR-EX151”, and the book title “Learning Bash Shell”. The actions associated with these keywords are described in Amazon. querying a list of objects for sale at com, matching one or more of the terms included to one or more objects for sale, and prompting the user for these objects via Amazon Can provide an opportunity to purchase.

幾つかの実施形態では、システムは、テキストの取り込みに基づいて対応電子文書を識別し、次に、識別に基づいた動作(広告の提示など)を実行する。例えば、テキスト「DR−EX151仕様書」の取り込みは、その製品モデルに対する製品仕様文書を識別することができる。この実施例では、システムは、文書の電子版を取り出し、関連の広告と共にこの文書をユーザに提示する。システムは、(類似の製品に関連する情報を提供する電子メールメッセージを送信することなどによって)文書とは別に広告を提示することができ、或いは(対応電子文書内に埋め込むことなどによって)対応電子文書内に広告を提示することができる。   In some embodiments, the system identifies the corresponding electronic document based on the text capture and then performs an action based on the identification (such as presenting an advertisement). For example, the capture of the text “DR-EX151 specification” can identify the product specification document for that product model. In this example, the system retrieves an electronic version of the document and presents the document to the user along with the associated advertisement. The system can present the advertisement separately from the document (such as by sending an email message that provides information related to a similar product), or Advertisements can be presented in documents.

開示されるシステムの幾つかの実施形態は、レンダリング文書からのデータ取り込みに応答してコンテキスト動作を実行する。コンテキスト動作とは、レンダリング文書内の特定のロケーションから取り込まれたテキスト内又はその近傍の情報のような、他の情報のコンテキストにおいて、或いは他の情報に応答してユーザ選択のメニューを提示する又は広告メッセージを提示するといった動作の開始又は取り掛かりを実施することを意味する。   Some embodiments of the disclosed system perform contextual operations in response to data capture from the rendered document. A contextual action presents a menu of user choices in the context of or in response to other information, such as information in or near text captured from a particular location in the rendered document, or This means that an operation such as an advertisement message is started or started.

コンテキスト動作の1つのタイプは、コンテキスト広告であり、これは、取り込まれた情報及び何らかのコンテキストに基づいて選択された広告をユーザに提示することを意味する。本明細書で「動的コンテキスト広告」と呼ばれるコンテキスト広告のサブセットは、関連コンテンツに関して提示する幾つかの利用可能な広告メッセージの1つを動的に選択する段階を含む。   One type of context action is a context advertisement, which means presenting the user with an advertisement selected based on the captured information and some context. A subset of context advertisements, referred to herein as “dynamic context advertisements”, includes dynamically selecting one of several available advertisement messages to present for relevant content.

コンテキスト広告は、広告主の製品に関心を持つ人々がその関心を調べている時点で広告メッセージが配信されるので、特に効果的である。動的コンテキスト広告は、コンテンツが作成又は発行された時点では利用可能でなかった広告メッセージをコンテンツが読まれている時に提示する融通性を保持するので、特に効果的である。   Contextual advertising is particularly effective because the advertising message is delivered when people interested in the advertiser's product are examining their interest. Dynamic contextual advertising is particularly effective because it retains the flexibility to present advertising messages that were not available when the content was created or published when the content is being read.

種々の実施形態は、レンダリング文書に対するコンテキスト動作を提供する。コンテキスト動作は、特定のコンテキストに適した動作及び応答を提供することができ、すなわち、動作は、コンテキストの変化に応じて変わることができる。システムにおけるコンテキスト動作の実施例は、ユーザが文書からテキストを取り込んだときに、ポータブル取り込み装置302に付随するディスプレイ上に現れるメニューである。このメニューは、取り込まれたテキスト、テキストが取り込まれたロケーション、その他に応じて動的に変わることができる。   Various embodiments provide contextual behavior for rendered documents. Context actions can provide actions and responses appropriate to a particular context, i.e., actions can change in response to context changes. An example of contextual action in the system is a menu that appears on a display associated with the portable capture device 302 when a user captures text from a document. This menu can change dynamically depending on the text captured, the location where the text was captured, etc.

動作は、「表示する」などの動詞、及び「広告メッセージ」などの目的語を任意選択的に含むことができる。幾つかの実施形態でシステムによってサポートされる付加的な動詞は、送る又は受け取る(例えば、電子メールメッセージ、インスタントメッセージ、取り込み又はキーワードを含む文書のコピー)、印刷する(例えば、パンフレット)、「ブラウズする」(例えば、ウェブページ)、及び「起動する」(例えば、コンピュータアプリケーション)を含む。   The action can optionally include a verb such as “display” and an object such as “advertisement message”. Additional verbs supported by the system in some embodiments can be sent or received (eg, email message, instant message, capture or copy of document containing keywords), printed (eg, brochure), “browse” ”(For example, a web page), and“ run ”(for example, a computer application).

幾つかの実施形態では、トリガされる動作は、広告主又はスポンサーに代わって広告メッセージを提示する段階を含む。幾つかの実施形態では、動作は、全ての文書、文書のグループ、単一の文書、又は文書の一部分に関連付けることができる。   In some embodiments, the triggered action includes presenting an advertising message on behalf of an advertiser or sponsor. In some embodiments, an operation can be associated with all documents, a group of documents, a single document, or a portion of a document.

幾つかの実施形態では、トリガされる動作は、実施可能なユーザ開始動作又は選択のメニューを提示する段階を含む。幾つかの実施形態では、選択のメニューは、例えば携帯電話ディスプレイ、パーソナルコンピュータディスプレイ421、又は取り込み装置302に統合されたディスプレイなど、関連するディスプレイデバイス上に提示される。幾つかの実施形態では、選択のメニューはまた、ユーザがユーザアカウント履歴又はライフライブラリから後で取り込みをレビューしたときに、全体的に又は部分的に利用可能である。幾つかの実施形態では、動作のメニューは、キーワード、レンダリング文書、又は文書のより大きなグループもしくはクラスに関連付けられたマークアップデータ及び/又はマークアッププロセスによって決定される。   In some embodiments, the triggered action includes presenting a menu of possible user-initiated actions or selections. In some embodiments, the menu of choices is presented on an associated display device, such as a cell phone display, a personal computer display 421, or a display integrated with the capture device 302, for example. In some embodiments, the menu of choices is also available in whole or in part when the user reviews the capture later from the user account history or life library. In some embodiments, the menu of actions is determined by a markup data and / or markup process associated with a keyword, a rendered document, or a larger group or class of documents.

幾つかの実施形態では、動作のメニューは、ゼロ、1、又はそれ以上のデフォルト動作を任意選択的に有することができる。幾つかの実施形態では、デフォルト動作は、ユーザがメニューと対話しない場合、例えばユーザが後続の取り込みに進んだ場合に開始される。幾つかの実施形態では、デフォルト動作は、キーワード、レンダリング文書、又は文書のより大きなグループもしくはクラスに関連付けられたマークアップデータ及び/又はマークアッププロセスによって決定される。   In some embodiments, the menu of actions can optionally have zero, one, or more default actions. In some embodiments, the default action is initiated when the user does not interact with the menu, eg, when the user proceeds to a subsequent capture. In some embodiments, the default behavior is determined by markup data and / or markup processes associated with keywords, rendered documents, or larger groups or classes of documents.

幾つかの実施形態では、動作のメニューは、ユーザによって選択される可能性の高い項目がメニューリストのトップなど、何らかの既知のロケーション又は参考文献により近く現れるように提示される。選択の可能性は、幾つかの実施形態では、システムのこのユーザによって及び他のユーザによって過去に選択された項目を追跡することにより決定することができる。幾つかの実施形態では、動作のメニューは、システムによって用いられる標準的な動作のサブセットを含むことができる。特定の取り込みに固有のメニュー項目と共に、標準的な動作は、種々のコンテキストにおける種々の組み合わせにおいて現れることができる。幾つかの標準的な動作は、キーワードが認識されていない場合及び/又は取り込みのコンテキストが知られていない場合にメニューに現れることができる。幾つかの標準的な動作は、取り込み装置302がシステムの他のコンポーネントから分離されたときに生成されるメニューに現れることができる。   In some embodiments, the action menu is presented such that items that are likely to be selected by the user appear closer to some known location or reference, such as the top of the menu list. The likelihood of selection may be determined in some embodiments by tracking items previously selected by this user of the system and by other users. In some embodiments, the menu of actions can include a subset of standard actions used by the system. Standard menus can appear in various combinations in various contexts, with menu items specific to a particular capture. Some standard actions can appear in the menu if the keyword is not recognized and / or if the capture context is not known. Some standard actions can appear in a menu that is generated when the capture device 302 is disconnected from other components of the system.

標準的な動作は、特に以下のものを含むことができる。
・このワード/フレーズを話す
・これを別の言語に翻訳する(及び話す、表示する、又は印刷する)
・ヘルプ機能
・これについて詳細に知る
・この写真を表示する
・ブックマークする
・下線を引く
・抜粋する(コピーする)
・マイカレンダーに追加する
・マイ連絡先リストに追加する
・これを購入する
・電子メールで受け取る
・マイアーカイブに保存する
・音声注釈を追加する
・いずれかの関連音声注釈を再生する
・関連付けられたコンテンツを表示する
・関係のあるコンテンツを表示する
・コンテンツのインデックス又はテーブルにおいてこの主題を見つける
・このトピックに関心があることをメモする
・このウェブサイトに行く
・これに関する情報を受け取る
・完成したこのフォームを自分宛に送る
・自分用のこのフォームを終了する
・私の情報と共にこのフォームを提出する
・ウェブ上でこれをサーチする
・この文書を印刷する
・この文書を自分のコンピュータ画面又は関連するディスプレイ上にアップする
・自分のディスプレイに文書内のこのワード/フレーズの出現を全て表示する
・他のコンテキストで使用されたときにこのワード/フレーズをサーチして表示する
・この項目を選択する(例えば、複数の選択)
・注記のリニアファイルに抜粋する
・他者がこの文書/ページ/行/フレーズについて記述又は口述したことを表示する
・この電話番号に電話する
・この文書がオンラインで利用可能になったときに通知してもらう
・利用可能になった場合/タイミングについての情報を受け取る
・電子メールをこの人/会社/アドレスに送る
・このコンテキスト/賞/オファーの勝者である場合に通知をもらう
・このイベント、賞/抽選会/宝くじに登録する
・この一節を読んだことを記録する
・この声明/契約/条項に同意することを記録する
・このトピックに関する新しい情報が利用可能になったときに通知をもらう
・自分についてのトピックを見る
・この文書が変わったタイミング/場合に通知をもらう
Standard operations can include in particular:
・ Speak this word / phrase ・ Translate this into another language (and speak, display, or print)
-Help function-Learn more about this-Display this photo-Bookmark-Underline-Extract (copy)
・ Add to My Calendar ・ Add to My Contact List ・ Purchase this ・ Receive by e-mail ・ Save to My Archive ・ Add voice annotation ・ Play any related voice annotation ・ Associated Display content ・ Display relevant content ・ Find this subject in the content index or table ・ Make note of interest in this topic ・ Go to this website ・ Receive information about this ・ This completed Send the form to me-Close this form for yourself-Submit this form with my information-Search this on the web-Print this document-Make this document on your computer screen or related Upload on the display ・ This word / frame in the document is displayed on your display. Selecting this item, and displays the search for this word / phrase when used in-other contexts to display all occurrences of over's (e.g., multiple choice)
• Extracted into a linear file of notes • Shows that others have written or dictated this document / page / line / phrase • Call this phone number • Notify when this document is available online • Receive information about when / when it is available • Send email to this person / company / address • Get notified if you are the winner of this context / award / offer • This event, award / Lottery / Register in lottery ・ Record reading of this passage ・ Record acceptance of this statement / contract / clause ・ Notify when new information on this topic becomes available ・See topics about you • Get notified when / when this document changes

幾つかの実施形態では、動作のメニューが、コンテンツ近傍、並びにユーザによって具体的に取り込まれたコンテンツに対し任意選択的に提示される。幾つかの実施形態では、システムは、前の取り込みで選択された選択肢を使用して、文書との後続の対話にどの項目を提示するか、及びプレゼンテーションのこれらの順序を決定する。頻繁に選択されるメニュー項目は、メニュープレゼンテーションのトップに表示することができる。幾つかの実施形態では、メニュー項目は、関係する選択肢の付加的なサブメニューを任意選択的に呼び出すことができる。   In some embodiments, a menu of actions is optionally presented in the vicinity of the content as well as for content specifically captured by the user. In some embodiments, the system uses the choices selected in the previous capture to determine which items to present in subsequent interactions with the document and their order of presentation. Menu items that are frequently selected can be displayed at the top of the menu presentation. In some embodiments, the menu item can optionally invoke additional submenus of related options.

以下の文章は、後で更に詳細に説明された添付図面における表記を参照する。複数の動作が単一のキーワードに対して利用可能な場合、システムの幾つかの実施形態は、様々な行動規則を使用して、実行するこれらの動作のサブセットを選択し、例えば該規則は、どの動作が他の動作よりも優先されるかを決定付けるための階層を指定することができる。例えば、規則は、動作が適用されるコンテンツ本体のサイズの昇順でシステムが動作を選択するよう指示することができる。一実施例として、特定の発行者によって発行された特定の教科書の特定のチャプターでキーワードが取り込まれた場合、システムは、教科書のチャプターに関連する第1動作を選択し、次いで、特定の教科書に関連する第2動作を選択し、次に、発行者によって発行された教科書の全てに関連する第3動作を選択することができる。システムはまた、取り込み時に取り込み装置302が存在する地理的領域もしくはロケーション、キーワードが取り込まれた時間又は日付範囲、取り込みに関する種々の他の種類のコンテキスト情報、ユーザに関連する種々の種類のプロフィール情報、及び/又はスポンサーに動作を提供するのにスポンサーが同意したお金の額又は他の報酬に基づいて動作を選択することができる。   The following text refers to the notation in the accompanying drawings, described in more detail later. If multiple actions are available for a single keyword, some embodiments of the system use various action rules to select a subset of these actions to perform, for example, A hierarchy can be specified to determine which operations have priority over other operations. For example, the rules can instruct the system to select an action in ascending order of the size of the content body to which the action applies. As an example, if a keyword is captured in a specific chapter of a specific textbook issued by a specific issuer, the system selects the first action associated with the textbook chapter and then enters the specific textbook. The associated second action can be selected, and then the third action associated with all of the textbooks issued by the issuer can be selected. The system also includes the geographic region or location where the capture device 302 is present at the time of capture, the time or date range that the keyword was captured, various other types of context information regarding capture, various types of profile information associated with the user, And / or an action may be selected based on the amount of money or other rewards that the sponsor has agreed to provide the action to the sponsor.

幾つかの実施形態では、システムは、コンピュータ212システムに無線接続されたハンドヘルド光学及び/又は音響取り込み装置302、或いは携帯電話における音響及び/又は撮像コンポーネント、或いはPDA(「パーソナルデジタルアシスタント」)に統合された同様のコンポーネントなどのハンドヘルド光学及び/又は音響取り込み装置を利用する。   In some embodiments, the system is integrated into a handheld optical and / or sound capture device 302 wirelessly connected to the computer 212 system, or an acoustic and / or imaging component in a mobile phone, or a PDA (“Personal Digital Assistant”). Utilize handheld optical and / or acoustic capture devices such as similar components.

幾つかの実施形態では、システムは、レンダリング文書から取り込み、キーワード登録情報を記憶するキーワードサーバ440と通信するのに使用される光学及び/又は音響取り込み装置302を含む。幾つかの実施形態では、キーワード登録情報は、登録されたキーワードのデータベース内に記憶される。幾つかの実施形態では、この情報は、マークアップデータのデータベース内に記憶される。幾つかの実施形態では、この情報は、レンダリング文書に関連するマークアップ文書内に記憶される。   In some embodiments, the system includes an optical and / or acoustic capture device 302 that is used to communicate with a keyword server 440 that captures from a rendered document and stores keyword registration information. In some embodiments, the keyword registration information is stored in a database of registered keywords. In some embodiments, this information is stored in a database of markup data. In some embodiments, this information is stored in a markup document associated with the rendered document.

幾つかの実施形態では、取り込み装置302は、一度にページ全体をスキャンする「フラットベッド」型スキャナではなく、1行ずつテキストをスキャンするのに好適なスキャンアパーチャを有する「ペン」型スキャナのようなポータブル又はハンドヘルドスキャナである。フラットベッドスキャナは、一般的にはポータブルではなく、ペン型スキャナよりもかなり大きいものである。ペン型スキャナは、キーワードがスキャンされたときにユーザに示すためのインジケータを有することができる。例えばスキャナは、LED332を発光させて、スキャンされたワードがキーワードとして認識されたことをユーザに知らせることができる。ユーザは、スキャナ上のボタンを押下して(或いは、スキャナを用いてジェスチャーを実行して)プロセスを開始することができ、例えば、キーワードに関係する情報がユーザに送信された場合に、関連動作が行われるようになる。   In some embodiments, the capture device 302 is not a “flatbed” scanner that scans an entire page at a time, but a “pen” scanner that has a scan aperture suitable for scanning text line by line. Portable or handheld scanner. Flatbed scanners are generally not portable and are much larger than pen-type scanners. The pen scanner can have an indicator to indicate to the user when a keyword has been scanned. For example, the scanner can light the LED 332 to inform the user that the scanned word has been recognized as a keyword. The user can start the process by pressing a button on the scanner (or performing a gesture using the scanner), for example, when information related to a keyword is sent to the user Will be done.

取り込み装置302は、関連するディスプレイデバイスを有することができる。関連するディスプレイデバイスの実施例は、パーソナルコンピュータディスプレイ421及び携帯電話(216)上のディスプレイを含む。動作及び他の対話並びに情報データのメニューは、関連ディスプレイデバイス上に表示することができる。取り込み装置302が携帯電話内に統合されるか、或いは携帯電話のコンポーネントを使用する場合、携帯電話キーパッドを使用して携帯電話ディスプレイに提示されたメニューから選択肢を選択すし、説明されたシステム及び機能を制御及び対話することができる。   The capture device 302 can have an associated display device. Examples of related display devices include a personal computer display 421 and a display on a mobile phone (216). A menu of actions and other interactions and information data can be displayed on the associated display device. When the capture device 302 is integrated into a mobile phone or uses a mobile phone component, the mobile phone keypad is used to select an option from a menu presented on the mobile phone display and the described system and Functions can be controlled and interacted with.

取り込み装置302が取り込み中にキーワードサーバ440と通信しない場合には、取り込み装置302内に人気のあるキーワード、関連動作、マークアップデータ、及びその他のローカルキャッシュを有し、取り込み装置302がローカルで且つ独立して動作を開始できるようになる。ローカルで独立した動作の実施例は、キーワードの収集を指示すること、選択メニューをユーザに提示すること、及びメニューに対するユーザの応答を受け取ることである。取り込み装置302が次にキーワードサーバ440と通信すると、キーワード、マークアップ、その他についての付加的な情報が求められ、これに基づいて動作することができる。   If the capture device 302 does not communicate with the keyword server 440 during capture, it has popular keywords, related actions, markup data, and other local caches within the capture device 302, and the capture device 302 is local and independent. To start the operation. An example of a local independent operation is to direct keyword collection, present a selection menu to the user, and receive a user response to the menu. When the capture device 302 then communicates with the keyword server 440, additional information about keywords, markups, etc. is determined and can be operated on.

種々の実施形態では、ワード又はフレーズを動作に関連付ける情報(例えばマークアップ情報)は、取り込み装置302内、取り込み装置302に接続されたコンピュータ212システム内、及び/又は説明されたシステムが通信可能な他のコンピュータシステム内に記憶することができる。キーワードの取り込みに応答して動作を実行するのには、同様に広い範囲のデバイスが関わることができる。   In various embodiments, information that associates a word or phrase with an action (eg, markup information) can be communicated in the capture device 302, in a computer 212 system connected to the capture device 302, and / or in the described system. It can be stored in other computer systems. A wide range of devices can be involved as well to perform operations in response to keyword capture.

取り込み装置302と組み合わせて、キーワードサーバ440は、テキストが取り込まれた文書を自動的に識別し、レンダリング文書の電子版の位置を特定することができる。例えば、取り込みにおけるテキストコンテンツは、文書署名として扱うことができる。このような署名は通常、一意に文書を識別するために10又はこれよりも少ないワードを必要とし、多くの場合、3から8ワードで十分である。付加的なコンテキスト情報が既知である場合、文書を識別するのに必要なワードの数は、更に低減することができる。複数の文書が1つの署名に一致する場合、最も可能性の高い一致(例えば、当該又は他のユーザによるほとんどの取り込みを包含するもの)を特別に、例えば、リスト又はメニューの第1項目としてユーザに提示することができる。複数の文書が1つの署名に一致した場合、前回の又は次の取り込みを使用して、候補の曖昧さを除去し、ユーザに所有されているレンダリング文書を正確に識別し、更に任意選択的にその対応デジタル文書の位置を正確に特定することができる。   In combination with the capture device 302, the keyword server 440 can automatically identify the document from which the text was captured and locate the electronic version of the rendered document. For example, text content in capture can be treated as a document signature. Such signatures typically require 10 or fewer words to uniquely identify the document, with 3 to 8 words being sufficient in many cases. If the additional context information is known, the number of words needed to identify the document can be further reduced. If multiple documents match a single signature, the most likely match (eg, one that includes most captures by that or other users) is specially designated, for example, as the first item in a list or menu Can be presented. If multiple documents match a signature, the previous or next capture is used to remove the ambiguity of the candidate, accurately identify the rendering document owned by the user, and optionally The position of the corresponding digital document can be specified accurately.

システムの幾つかの実施形態において提供される文書取り出しサービスの加入者であるユーザに対して、キーワードサーバ440は、取り込まれたテキストに関するコンテンツ、或いは取り込みが実行されたコンテキスト(例えば、パラグラフ、ページ、雑誌記事)の主題に関するコンテンツを配信することができる。従って、取り込みへの応答は、取り込みのコンテキストに動的に依存し、更に、キーワードサーバ440に既知のユーザの習慣及び好みに依存することができる。   For users who are subscribers to the document retrieval service provided in some embodiments of the system, the keyword server 440 may provide content related to the captured text or the context in which the capture was performed (eg, paragraph, page, The content on the subject of (magazine articles) can be distributed. Thus, the response to the capture may depend dynamically on the context of the capture, and may further depend on user habits and preferences known to the keyword server 440.

システムは、レンダリング発行物から取り込まれたテキスト又は他の情報(商標、記号、トークン、画像など)に関係する電子コンテンツの効率的な配信を可能にする。システムは、新聞及び雑誌などのレンダリング発行物に基づいて製品及びサービスを広告及び販売する新しい方法を可能にする。従来の新聞では、ニュース記事自体は広告を包含していない。このシステムによって、あらゆる記事のテキストが、製品、サービス、会社などに関連付けられたキーワードの使用を介して潜在的に広告を含むことができるようになる。   The system enables efficient delivery of electronic content related to text or other information (trademarks, symbols, tokens, images, etc.) captured from rendering publications. The system enables new ways to advertise and sell products and services based on rendering publications such as newspapers and magazines. In conventional newspapers, the news article itself does not include advertisements. This system allows any article text to potentially contain advertisements through the use of keywords associated with products, services, companies, and the like.

システムがレンダリング発行物に対して拡張されたコンテンツを配信する方法の1つは、レンダリングテキストにおけるキーワードの使用に基づく。予め設定されたキーワードがユーザによって取り込まれると、取り込まれたキーワードにより、キーワードに関連付けられたコンテンツの配信がトリガされる。幾つかの実施形態では、キーワードがキーワードサーバ440によって再認識され、これによってコンテンツがデータベースから抽出され、ユーザに関連するデバイス(任意選択的にディスプレイ又はスピーカなどの出力デバイス)に送信されるようになる。関連デバイスは、近くのディスプレイ又はプリンタとすることができる。システムは、各レンダーキーワード(又はキーワードの組み合わせ)を製品又はサービスの広告に関連付けることができる。実施例として、ユーザがレンダリング文書(自動車雑誌など)から「新車」というワードを取り込んだ場合、システムは、ローカルのFord販売代理店の広告をポータブル取り込み装置302のロケーション近くのディスプレイに送信するようトリガすることができる。   One way in which the system delivers enhanced content for rendering publications is based on the use of keywords in the rendered text. When a preset keyword is captured by the user, distribution of content associated with the keyword is triggered by the captured keyword. In some embodiments, keywords are re-recognized by the keyword server 440 so that content is extracted from the database and sent to a device associated with the user (optionally an output device such as a display or speaker). Become. The associated device can be a nearby display or printer. The system can associate each render keyword (or combination of keywords) with a product or service advertisement. As an example, if a user captures the word “new car” from a rendered document (such as a car magazine), the system triggers to send a local Ford dealership advertisement to a display near the location of the portable capture device 302. can do.

同様に、ユーザが取り込み装置302を使用してレンダリング文書から商標を取り込んだ場合、システムは、商標所有者の製品ラインについての情報をユーザに送ることができる。ユーザが商標及び製品名を取り込んだ場合、ユーザに送られる情報は、その製品に固有の情報を提供するように更に絞られることになる。例えば、ユーザが「Sanford」というワードを取り込んだ場合、システムは、このワードをSanfordオフィスサプライ社の商標として認識し、ユーザにSanfordオフィスサプライのカタログの電子コピーを提供することができる(或いはその代わりに、システムは、カタログのオンラインコピーを有するSanfordウェブページへのリンクを提供できる)。別の実施例として、ユーザが「Sanfordユニボール」を取り込んだ場合、システムは、これらのキーワードをSanford社製のユニボールインクペンに関係付けるようにプログラムすることができる。この場合、システムは、Sanfordのユニボールインクペンのラインについての情報をユーザに配信することになる。システムは、電子メールの形式でこの情報(Sanfordユニボールインクペンについての情報又はペンについての情報を有するウェブページへのホットリンクを有する)を、ユーザの近くのディスプレイへのプッシュマルチメディアメッセージとして、近くのプリンタに送信されるカタログとしてなどでユーザの電子メールアカウントに配信することができる。   Similarly, if a user captures a trademark from a rendered document using the capture device 302, the system can send information about the trademark owner's product line to the user. If the user captures the trademark and product name, the information sent to the user will be further narrowed down to provide information specific to that product. For example, if the user captures the word “Sanford”, the system can recognize this word as a trademark of the Sanford office supply company and provide the user with an electronic copy of the catalog of the Sanford office supply (or alternatively). In addition, the system can provide a link to a Sanford web page with an online copy of the catalog). As another example, if the user captures “Sanford Uniball”, the system can be programmed to associate these keywords with a Sanford Uniball ink pen. In this case, the system will deliver to the user information about the Sanford Uniball ink pen line. The system sends this information in the form of an email (with information about the Sanford uniball ink pen or a hot link to a web page with information about the pen) as a push multimedia message to the display near the user. Can be distributed to the user's e-mail account as a catalog sent to the printer.

レンダリング発行物から取り込まれたキーワードをユーザへの付加的なコンテンツの配信に関連付けるこの方法は、広告及び他の資料を目標に効率的に提供するのに極めて有用である。ユーザによって取り込まれたキーワードを識別することにより、システムは、適時且つ有用な情報をユーザに提供することができる。プリンタ製造業者は、ユーザが「コンピュータプリンタ」というキーワードを取り込んだときにユーザに送信される製造業者のプリンタの広告を出すことに支払いをすることができる。更に、特定のキーワードの権利は、コンテンツの1つ又はそれ以上のタイプ(例えば、特定の雑誌内、特定のトピックに関連した記事内、又はトピックに当てはまる他のキーワードの近く)に関して販売又はリースすることができる。システムは、「コンピュータプリンタ」というキーワードを単一のプリンタ製造業者に独占的に関連付けることができ、或いは、これらのキーワードを幾つかのプリンタ製造業者に関連付けることができる(又は、トピックが「コンピュータ」というキーワードに関連付けられる記事のコンテキストにおけるワードキーワード「プリンタ」)。複数のプリンタ製造業者がキーワードに関連付けられている場合、システムは、各製造業者から、広告、クーポン、その他を配信することができる(或いは、各製造業者が、別のコンテキストにおいてキーワードの権利を取得できる)。ユーザがクリックスルーして、提供品のいずれかを利用するか、或いは製造業者のウェブサイトを訪れた場合、製造業者には、システムのオペレータが小額の支払い(マイクロペイメントと呼ばれることが多い)を課金することができる。幾つかの実施形態では、取り込み装置302又は関連のコンピュータ212は、後で使用するためのクーポンを記憶することができる。   This method of associating keywords captured from rendering publications with the delivery of additional content to the user is extremely useful for efficiently providing advertising and other materials to the goal. By identifying keywords captured by the user, the system can provide the user with timely and useful information. The printer manufacturer may pay to advertise the manufacturer's printer that is sent to the user when the user captures the keyword “computer printer”. In addition, certain keyword rights are sold or leased for one or more types of content (eg, within a particular magazine, within articles related to a particular topic, or near other keywords that apply to a topic). be able to. The system can associate the keyword “computer printer” exclusively with a single printer manufacturer, or can associate these keywords with several printer manufacturers (or the topic “computer”). Word keyword “printer” in the context of the article associated with the keyword. If more than one printer manufacturer is associated with a keyword, the system can deliver advertisements, coupons, etc. from each manufacturer (or each manufacturer gets keyword rights in a different context) it can). If the user clicks through to use one of the deliverables or visits the manufacturer's website, the system operator can make a small payment (often called micropayment) to the system operator. You can charge. In some embodiments, the capture device 302 or associated computer 212 can store coupons for later use.

システムはまた、ユーザがテキストを取り込んだ状況についてのコンテキストを使用して、キーワード及び取り込みを更にカテゴリー化することができる。キーワードは、取り込みについてのコンテキストのシステム知識/認識に基づいて別個に処理することができる。コンテキストの実施例は、ユーザの取り込み履歴及び関心、同じ文書における他のユーザの取り込み履歴、ユーザのロケーション、テキストが取り込まれた文書、取り込み近傍の他のテキスト又は情報(例えば、取り込みと同じパラグラフ内又は同じページ上)、取り込みが行われた時刻などの知識である。例えば、システムは、ユーザのロケーションに応じて、或いはキーワードが出現する周りのテキストに応じて異なるように反応することができる。サービスプロバイダは、取り込み装置302のロケーションを知ることによって、種々の市場で同じキーワードを販売又はリースすることができる。実施例は、同じキーワードをニューヨークのユーザに対して広告主#1に販売し、シアトルのユーザに対して広告主#2に販売することである。サービスプロバイダは、「ハンマー」というキーワードを種々の都市のローカルの工具店に販売することができる。   The system can also further categorize keywords and captures using context about the situation in which the user captured the text. Keywords can be processed separately based on contextual system knowledge / recognition of capture. Examples of contexts include user capture history and interest, other user capture history in the same document, user location, document from which the text was captured, other text or information in the vicinity of the capture (eg, within the same paragraph as the capture) Or on the same page), such as the time of capture. For example, the system can react differently depending on the user's location or depending on the surrounding text in which the keyword appears. By knowing the location of the capture device 302, the service provider can sell or lease the same keyword in different markets. An example would be to sell the same keyword to advertiser # 1 for users in New York and to advertiser # 2 for users in Seattle. Service providers can sell the keyword “hammer” to local tool stores in various cities.

レンダリング文書のキーワードを「リース」又は販売する多くの方法が存在する。システムは、取り込み時刻、取り込みのロケーション、取り込まれた文書に基づいて他のキーワード(例えば、「釘」又は「建設」という語近くに出現する「ハンマー」)と組み合わせてキーワードのリースを分割することができる。一般的な製品記述をリースする1つの実施例として、「最新本タイトル」及び「ベストセラー」というキーワードを書籍販売業者に販売することができる。ユーザがレンダリング文書(新聞など)から「最新本タイトル」又は「ベストセラー」というワードを取り込むと、最も売れている本のリストが書籍販売業者のウェブページへのリンクと共に送信され、これによってユーザがこれらを購入することができるようになる。或いは、リンクが、キーワードサーバ440を介してルーティングされる「パス−スルー」リンク(これによって、システムはクリックスルー取引をカウント及び監査できる)とすることができ、これによって書籍販売業者はクリック−スルー販売の収益をシステムのオペレータと分けることができ、よって、書籍販売業者は、実績ベースで広告に対して支払いをすることができる(すなわち、販売結果に関わらず、サービスによって発生した各クリック−スルーに対する小額支払い)。同様に、印刷された文書における広告主は、その広告又は広告近傍の取り込みに基づいて支払うことができる。   There are many ways to “lease” or sell keywords in a rendered document. The system splits keyword leases in combination with other keywords (eg, “hammer” that appears near the word “nail” or “construction”) based on the capture time, capture location, and document captured. Can do. As one example of leasing general product descriptions, the keywords “latest book title” and “best seller” can be sold to book sellers. When a user captures the word “latest book title” or “best seller” from a rendered document (such as a newspaper), a list of the best-selling books is sent along with a link to the book seller's web page, which allows the user to Will be able to buy. Alternatively, the link can be a “pass-through” link routed through the keyword server 440 (which allows the system to count and audit click-through transactions), which allows the book seller to click-through. Sales revenue can be separated from system operators, so book sellers can pay for ads on a performance basis (ie, each click-through generated by the service, regardless of sales results). For small payments). Similarly, an advertiser in a printed document can pay based on the advertisement or in the vicinity of the advertisement.

組み合わされたキーワードの取り込みは、異なるコンテンツの配信を生じることができる。例えば、キーワード「釘」の近くにある(例えば、介在するワードの時間又は数が近い)キーワード「ハンマー(Hammer)」を取り込むことにより、工具店からの広告コンテンツの配信をもたらすことができる。一方、キーワード「M.C」の近傍で取り込まれたキーワード「ハンマー(Hammer)」は、エンターテイナーであるM.C.Hammerに関するコンテンツの配信をもたらすことになる。   Incorporation of combined keywords can result in the delivery of different content. For example, capturing the keyword “Hammer” near the keyword “nail” (eg, close in time or number of intervening words) can result in the delivery of advertising content from the tool store. On the other hand, the keyword “Hammer” taken in the vicinity of the keyword “MC” is the entertainer M.C. C. This will result in the distribution of content related to Hammers.

商標所有者は、システムを使用して、ユーザがレンダリング文書から商標所有者の商標をスキャンしたときに商標所有者の製品及びサービスについての広告及びメッセージを配信することができる。   The trademark owner can use the system to deliver advertisements and messages about the trademark owner's products and services when the user scans the trademark owner's trademark from the rendered document.

キーワードリースは、地理に基づいて分割することができる。例えば、キーワード「新車の購入」は、大きな自動車製造業者に対して全国的にリースすることができ、及び/又はローカルの自動車販売店に地域毎にリースすることができる。「新車の購入」がローカルの自動車販売店からのコンテンツに関連付けられる場合、ニューヨーク市で「新車の購入」を取り込む行為により、ニューヨーク市の自動車販売店からの広告の配信をもたらすことができ、フランスのパリで取り込まれた「新車の購入」という同じフレーズは、パリ近郊の自動車販売店からの広告の配信をもたらすことになる。   Keyword leases can be divided based on geography. For example, the keyword “buy new car” can be leased nationwide to large car manufacturers and / or leased to local car dealers on a regional basis. If a "new car purchase" is associated with content from a local car dealership, the act of incorporating a "new car purchase" in New York City can result in the delivery of advertisements from a New York City car dealership, The same phrase “buying a new car” captured in Paris will result in the delivery of advertisements from car dealers near Paris.

キーワードのリースは、テキストが取り込まれた文書に基づいて分割することができる。例えば、銃器雑誌からのキーワード「Assault Weapon Ban(攻撃用武器規制法)」を取り込むことで、National Rifle Association(全米ライフル協会)からの銃支持のコンテンツの配信をもたらすことができる。リベラル派の雑誌からの同じキーワード「攻撃用武器規制法」を取り込むことで、拳銃暴力に対するBrady Centerからの銃所持反対のコンテンツの配信をもたらすことができる。   Keyword leases can be split based on the document in which the text was captured. For example, by incorporating the keyword “Assault Weapon Ban (attack weapon control law)” from a firearm magazine, distribution of gun support content from the National Rifle Association (National Rifle Association) can be brought about. Incorporating the same keyword “Attack Weapons Control Law” from liberal magazines can result in the distribution of content against handgun violence from Brady Center against gun possession.

有名人の名前は、有名人がニュース及びメッセージをファンに配信するのを助けるために使用できる。例えば、フレーズ「Madonna」は、パフォーマーであるマドンナに関するコンテンツに関連付けることができる。ユーザがレンダリング文書からワード「Madonna」を取り込んだ場合、システムは、取り込みのロケーション近傍の開催地のマドンナのコンサート情報、Amzon.comでのマドンナの音楽を購入するためのリンク、マドンナのマーケティングカンパニーからの最新プロモーションのリリース、マドンナの最新ヒット曲からの要約MP3クリップ、その他を送信することができる。   The celebrity name can be used to help celebrities deliver news and messages to fans. For example, the phrase “Madonna” can be associated with content related to the performer Madonna. If the user captures the word “Madonna” from the rendered document, the system will send the concert information for the venue Madonna in the vicinity of the capture location, Amzon. You can send a link to buy Madonna music at com, release of the latest promotions from Madonna marketing company, summary MP3 clips from Madonna's latest hits, and more.

広告を特定の取り込まれたテキストに関連付けるコストは、取り込み時刻に応じて変えることができる。あるピーク時にリースするにはより多くのコストがかかり、閑散時にはより少ないコストになる可能性がある。例えば、用語「ダイヤモンド」は、毎年の所得税が支払われる期間よりもクリスマスショッピングシーズンのピーク期間にダイヤモンド販売者がリースするにはより多くのコストがかかる可能性がある。別の実施例として、「芝刈り機」のような用語は、(レンダリング文書からテキストを取り込むユーザの)深夜のオーディエンスは少ないことが推定されるので、午前9時から午後7時よりも、深夜から午前5時までがリースするのにより少ないコストがかかる可能性がある。   The cost of associating an advertisement with a particular captured text can vary depending on the capture time. Lease at certain peak costs more and can be less during off-season. For example, the term “diamond” may cost more for a diamond seller to lease during the peak period of the Christmas shopping season than the period in which the annual income tax is paid. As another example, terms such as “lawn mowers” are estimated to have less late night audience (for users capturing text from rendered documents), so late at night than 9 am to 7 pm From 1 am to 5 am may cost less to lease.

特定の広告又はメッセージは、多くのキーワードに関連付けることができる。例えば、Harley Davidsonオートバイの広告は、「Harley」、「Harley Davidson」、「新車オートバイ」、「クラシックオートバイ」などのキーワードに関連付けることができる。   A particular advertisement or message can be associated with many keywords. For example, an advertisement for a Harley Davidson motorcycle can be associated with keywords such as “Harley”, “Harley Davidson”, “new car motorcycle”, “classic motorcycle”.

広告又はメッセージは、相対位置など、あるキーワード間の関係に関連付けることができる。例えばユーザがレンダリング文書からワード「オートバイ」を取り込んだ場合、及びキーワード「買う」がキーワード「オートバイ」の6ワード以内にあった場合、オートバイに関係する広告又はメッセージがユーザに配信されることになる。文書コンテキストが既知であると、キーワード「買う」が取り込まれたワード「オートバイ」の一定の距離以内に存在する事実は、ワード「オートバイ」だけが取り込まれた場合でもシステムには既知となる。従って、キーワード「オートバイを買う」に関連する動作が、ワード「オートバイ」だけを取り込み且つ文書についてのコンテキストを適用してすることによってトリガされ、取り込まれたワードを更に解釈することができる。   An advertisement or message can be associated with a relationship between certain keywords, such as a relative position. For example, if the user captures the word “motorcycle” from the rendered document, and if the keyword “buy” is within 6 words of the keyword “motorcycle”, an advertisement or message related to the motorcycle will be delivered to the user. . If the document context is known, the fact that the keyword “buy” is within a certain distance of the captured word “motorcycle” is known to the system even if only the word “motorcycle” is captured. Thus, an action associated with the keyword “buy motorcycle” can be triggered by capturing only the word “motorcycle” and applying context on the document to further interpret the captured word.

幾つかの実施形態では、システムは、テキスト取り込みに基づく文書の識別に応答してキーワードを生成し、生成されたキーワードに基づいて動作を呼び出すことができる。次にシステムは、取り込まれたキーワードに関して上述したように、キーワードに対して広告を関連付けることができる。これらの実施形態に関する付加的な詳細を以下で説明する。   In some embodiments, the system can generate keywords in response to document identification based on text capture and invoke actions based on the generated keywords. The system can then associate the advertisement with the keyword as described above with respect to the captured keyword. Additional details regarding these embodiments are described below.

システムを添付の図面に関して以下で更に説明する。図4は、システムが動作することができる1つの環境を示すシステム図である。ユーザは、光学及び/又は音響取り込み装置302を使用して文書400からシーケンス401を取り込む。取り込み装置302は、無線接続、例えばIEEE802.11、802.16、WLAN、Bluetooth、又は赤外線接続などを介して、近くのユーザコンピュータシステム212と対話する。視覚ディスプレイ421及びレンダラー422を含む種々のデバイスは、ユーザコンピュータシステム212に接続できる。   The system is further described below with reference to the accompanying drawings. FIG. 4 is a system diagram illustrating one environment in which the system can operate. The user captures the sequence 401 from the document 400 using the optical and / or acoustic capture device 302. The capture device 302 interacts with a nearby user computer system 212 via a wireless connection, such as IEEE 802.11, 802.16, WLAN, Bluetooth, or infrared connection. Various devices including visual display 421 and renderer 422 can be connected to user computer system 212.

取り込み装置302は、取り込まれたシーケンスをユーザコンピュータシステム212にわたす。ユーザコンピュータシステム212は、シーケンスをネットワーク220(例えば、インターネット又は別のネットワーク)を介してキーワードサーバコンピュータシステム440に送信する。幾つかの実施形態では、キーワードサーバ440は、サービスプロバイダ又はシステムオペレータのネットワークの一部である。幾つかの実施形態では、ユーザコンピュータシステム212は、ユーザを識別する情報、ユーザのロケーションを識別する情報、取り込みの日付及び/又は時間を示す情報などの付加的な情報をシステムが使用可能なシーケンスと共に送信し、シーケンスが含むキーワードに関連する幾つかの実施可能な動作の1つを選択する。   The capture device 302 passes the captured sequence to the user computer system 212. User computer system 212 sends the sequence to keyword server computer system 440 over network 220 (eg, the Internet or another network). In some embodiments, the keyword server 440 is part of a network of service providers or system operators. In some embodiments, the user computer system 212 is a sequence that allows the system to use additional information such as information identifying the user, information identifying the user's location, information indicating the date and / or time of capture. And select one of several possible actions related to the keyword that the sequence contains.

以下で検討されるように、キーワードサーバ440は、特定のキーワードに対する特定の動作を指定するキーワード動作テーブル441(例えば、グローバルマークアップ文書)とシーケンスを比較する。幾つかの実施形態では、キーワードサーバ440は更に、文書識別インデックス442を使用して、取り込まれたシーケンスに基づいて文書を識別する。文書を識別できる限りは、キーワードサーバ440は、識別された文書についての文書動作マップ443(例えば、レンダリング文書に関連付けられた電子マークアップ文書)にアクセスし、該マップは、識別された文書或いは識別された文書の特定の部分における幾つかのキーワードを取り込むことに応答して実行される動作を識別することができる。キーワードサーバ440は、システムが使用できるユーザについてのデータを包含する、取り込み装置ユーザのためのユーザプロフィール444を更に記憶して、シーケンスが含むキーワードに対して実行するのに利用可能な代替の動作から選択することができる。   As discussed below, the keyword server 440 compares the sequence with a keyword action table 441 (eg, a global markup document) that specifies a particular action for a particular keyword. In some embodiments, the keyword server 440 further uses the document identification index 442 to identify documents based on the captured sequence. As long as the document can be identified, the keyword server 440 accesses a document behavior map 443 (eg, an electronic markup document associated with the rendered document) for the identified document, which map can be identified document or identification. An action to be performed in response to capturing a number of keywords in a particular portion of the rendered document. The keyword server 440 further stores a user profile 444 for the capture device user that contains data about the users available to the system, from alternative actions available to perform on the keywords included in the sequence. You can choose.

幾つかの実施形態では、キーワードに関連する動作は、実行する動作のタイプを示す動詞と、動作の目的となるコンテンツを識別する目的語とからなる。場合によっては、オブジェクトは、実際のコンテンツを包含することができ、他の場合では、オブジェクトは、実際のコンテンツのアドレス又は実際のコンテンツへのポインタを包含することができる。場合によっては、実際のコンテンツは、キーワードサーバ440上のどこか(例えば別のメモリロケーション)に記憶され、他の場合では、コンテンツ451(例えば広告コンテンツ)は、別個のコンピュータシステム450(広告主サーバなど)上に記憶される。   In some embodiments, the action associated with the keyword consists of a verb that indicates the type of action to perform and an object that identifies the content that is the purpose of the action. In some cases, an object can contain actual content, and in other cases, an object can contain an address of actual content or a pointer to actual content. In some cases, the actual content is stored somewhere on the keyword server 440 (eg, another memory location), and in other cases, the content 451 (eg, advertising content) is stored on a separate computer system 450 (advertiser server). Etc.) is stored on.

上記に説明された環境に関して種々の実施形態を説明しているが、当業者であれば、システムが、単一のコンピュータシステム並びにコンピュータシステム又は種々の方法で接続された同様のデバイスの他の種々の組み合わせを含む、様々な他の環境で実装できる点は理解されるであろう。   While various embodiments have been described with respect to the environment described above, those skilled in the art will recognize that the system may be a single computer system as well as other various similar devices connected in a computer system or in various ways. It will be appreciated that it can be implemented in a variety of other environments, including combinations of:

図5は、ユーザのキーワードの取り込みに応答して動作を実行するために、システムによって実行される例示的なステップを示すフロー図である。ステップ501で、本システムは、ユーザによって取り込まれたシーケンスを受け取る。任意選択的なステップ502で、システムは、ステップ501で受け取られた取り込みシーケンスを包含する文書、及びこの文書における取り込みシーケンスの位置を識別する。ステップ503で、システムは、1つ又はそれ以上の動作が指定される取り込みシーケンスにおけるワード、フレーズ、又は記号を識別する。動作は、キーワード動作テーブル、識別された文書400のための文書動作マップ、又はこの両方で指定することができる。ステップ504で、システムは、ステップ503で識別されたワード、フレーズ、又は記号に関連する動作を選択する。ステップ505で、システムは、選択された動作を実行する。ステップ505の後、システムはステップ501に戻り、次に取り込まれるシーケンスを受け取る。   FIG. 5 is a flow diagram illustrating exemplary steps performed by the system to perform an action in response to user keyword capture. In step 501, the system receives a sequence captured by a user. In optional step 502, the system identifies the document containing the capture sequence received in step 501 and the location of the capture sequence in this document. At step 503, the system identifies words, phrases, or symbols in the capture sequence where one or more actions are specified. The actions can be specified in a keyword action table, a document action map for the identified document 400, or both. In step 504, the system selects an action associated with the word, phrase, or symbol identified in step 503. In step 505, the system performs the selected operation. After step 505, the system returns to step 501 to receive the next captured sequence.

当業者であれば、図5に示されたステップを様々な方法で変更できる点は理解されるであろう。例えば、ステップの順序は再配置することができ、サブステップを並行して実行することができ、図示のステップを省略することができ、或いは他のステップを含めることができる、などである。   One skilled in the art will appreciate that the steps shown in FIG. 5 can be modified in various ways. For example, the order of steps can be rearranged, substeps can be performed in parallel, the illustrated steps can be omitted, or other steps can be included, and so forth.

図6は、キーワード動作テーブルのサンプルコンテンツを示すテーブル図である。キーワード動作テーブル600は、行601−605などの行から構成されており、各々が、特定の動作を一定の条件下での特定のキーワードに関連付けている。各行は、以下の列に分かれており、すなわち、キーワードを包含するキーワード列611、行のキーワードの取り込みに応答して行の動作を実行するために満たす必要のあるあらゆる条件を包含する条件列612、行の動作の動詞又は動作タイプを包含する動作動詞列613、及び行の動作の目的を包含する動作目的列614に分かれている。例えば、行601は、キーワード「ピペット」が文書ID01239876を有する文書から取り込まれたときに、以下の動作:すなわち取り込み装置のユーザからの電子メールメッセージをアドレス「info@garlabs.com」に送信する動作を実行することができることを示す。行602は、キーワード「ピペット」が文書ID012343210又は9766789を有する文書から取り込まれたときに、以下の動作:すなわちラベル「Filbertプレミアムピペットを試す」を有するハイパーテキストリンクとリンクソース「http://www.filbert.com」とをユーザに表示する動作を実行することができることを示す。行603は、キーワード「ピペット」が「教科書」タイプである文書から取り込まれたときに、以下の動作:すなわち「http://www.equips.com/products.htm」にあるウェブページを表示する動作を実行することができることを示す。行604は、キーワード「パイプスミス」が午後6時から午後11時までの時間の間に06465から06469までのZIPコードで取り込まれたときに、以下の動作:すなわち、ラベル「明日午前9時までに配管の見積りをもらう」を有するハイパーテキストリンクとリンクソース「http://www.webplumb.com」とをユーザに表示する動作を実行することができることを示す。行605は、プロフィールがガラス吹き製法への関心を示すユーザによって、キーワード「パイプスミス」が取り込まれたときに、以下の動作:すなわち「http://www.glassworkshop.com」にあるウェブページを表示する動作を実行することができることを示している。   FIG. 6 is a table showing sample contents of the keyword operation table. The keyword action table 600 is composed of lines such as lines 601-605, each of which associates a specific action with a specific keyword under certain conditions. Each row is divided into the following columns: a keyword column 611 that includes keywords, and a condition column 612 that includes any conditions that must be met in order to perform a row operation in response to the retrieval of the keywords in the row. , An action verb column 613 containing a row action verb or action type, and an action purpose column 614 containing the purpose of the line action. For example, line 601 shows the following operation when the keyword “pipette” is captured from a document having document ID 01239876: an operation to send an email message from the user of the capture device to the address “info@garlabs.com”. Indicates that can be performed. Line 602 shows a hypertext link with the following behavior: when the keyword “pipette” is imported from a document with document ID 0123432210 or 9766789: the link “Try the Premium Premium Pipette” and the link source “http: // www “.Ilbert.com” can be displayed to the user. Line 603 displays the web page at the following action: “http://www.equips.com/products.htm” when the keyword “pipette” is imported from a document of type “textbook”. Indicates that the action can be performed. Line 604 shows the following behavior when the keyword “Pipe Smith” was captured with a ZIP code from 06465 to 06469 during the time from 6pm to 11pm: label “until 9am tomorrow This indicates that an operation of displaying a hypertext link having “Get a pipe estimate” and a link source “http://www.weblumb.com” to the user can be executed. Line 605 displays a web page with the following behavior when the keyword “Pipe Smith” is captured by a user whose profile shows interest in glass blowing: “http://www.glassshop.com” It indicates that the operation to be displayed can be executed.

図6及び以下で検討されるテーブル図の各々は、コンテンツ及び組織が人間の読者によってより理解し易いように設計されたテーブルを示しているが、当業者であれば、この情報を記憶するためにシステムによって使用される実際のデータ構造は、例えば、異なる方式で編成することができる、図示されたもの以外の情報を多少含むことができる、圧縮及び/又は暗号化することができるなど、図示のテーブルとは異なる可能性がある点は理解されるであろう。   Each of the table diagrams discussed in FIG. 6 and below shows a table designed to make the content and organization more understandable by human readers, but those skilled in the art will need to store this information. The actual data structures used by the system are illustrated, eg, can be organized in different ways, can contain some information other than those shown, can be compressed and / or encrypted, etc. It will be appreciated that this table may be different.

図7は、特定の文書に対する文書動作マップのサンプルコンテンツを示すテーブル図である。文書動作マップは、行701−703のような行から構成されており、各々は、特定の動作を文書の特定の部分において取り込まれたときの特定のキーワードと関連付けている。各行は、以下の列に分かれており、すなわち、行を適用する文字位置の範囲を識別する文字範囲列711、キーワードを包含するキーワード列712、行の動作の動詞又は動作タイプを包含する動作動詞列713、及び行の動作の目的を包含する動作目的列714に分かれている。例えば、行701は、キーワード「ピペット」が、動作マップの表題である文書内の文字範囲1−15120のどこかで取り込まれた場合に、以下の動作:すなわち、文字列「SanLabs−あなたのピペットニーズの全てに」をユーザに表示する動作を実行することができることを示す。行702は、キーワード「ピペット」が、動作マップの表題である文書の文字範囲50−495のどこかで取り込まれた場合に、以下の動作:すなわち、「http://www.sanlabs.com/hardened_pipette20.htm」にあるウェブページを表示する動作を実行することができることを示す。行703は、キーワード「リトマス」が文字範囲600−1700のどこかで取り込まれた場合に、以下の動作:すなわち、ユーザコンピュータシステム212に接続されたプリンタなどのユーザの近くに位置付けられるプリンタに「http://www.hansen.com/testkit.pdf」から取り出されたパンフレットを印刷する動作を実行することができることを示す。   FIG. 7 is a table showing sample contents of a document action map for a specific document. The document action map is composed of lines such as lines 701-703, each associated with a particular keyword when a particular action is captured in a particular part of the document. Each row is divided into the following columns: a character range column 711 that identifies a range of character positions to which the row is applied, a keyword column 712 that includes keywords, an action verb that includes a row action verb or action type. It is divided into a column 713 and an operation purpose column 714 containing the purpose of the operation of the row. For example, line 701 shows that if the keyword “pipette” is captured anywhere in the character range 1-15120 in the document that is the title of the behavior map, the following behavior: It shows that the operation of displaying “all of needs” to the user can be executed. Line 702 displays the following behavior when the keyword “pipette” is captured somewhere in the text range 50-495 of the document that is the title of the behavior map: “http://www.sanlabs.com/ This indicates that the operation of displaying the web page at “hardened_pipette20.htm” can be executed. Line 703 displays the following behavior when the keyword “Litmus” is captured anywhere in the character range 600-1700: “For a printer located near the user, such as a printer connected to the user computer system 212” It shows that an operation of printing a pamphlet taken out from “http://www.hansen.com/testkit.pdf” can be executed.

図8は、キーワードに関係のない資料のユーザ取り込みに応答した動作、或いは図5に示されるようなキーワードに応答した付加的な処理として動作を実行するためにシステムによって実行される例示的なステップを示すフロー図である。ステップ801で、システムは、ユーザによって取り込まれたシーケンスを受け取る。任意選択的なステップ802で、システムは、ステップ801で受け取った取り込みシーケンスを包含する文書400、及びこの文書における取り込みシーケンスの位置を識別する。ステップ803で、システムは、文書400に関連付けられたマークアップデータ又はプロセス、文書におけるロケーション、又はスキャンされた特定のデータを識別する。動作は、レンダリング文書の対応デジタル文書、別のマークアップ文書、マークアップデータ及び命令のデータベースにおいて指定することができる。マークアップデータは、取り込み装置302上、近くのデバイス上のメモリ又は記憶装置内、或いは説明されたシステム内のサーバ上に記憶することができる。ステップ804で、システムは、ステップ803で決定されたマークアップに関連する動作を選択する。ステップ805で、システムは選択された動作を実行する。ステップ805の後、システムは、ステップ801に戻り、次に取り込まれるシーケンスを受け取る。   FIG. 8 illustrates exemplary steps performed by the system to perform an action in response to user capture of material unrelated to a keyword, or as an additional process in response to a keyword as shown in FIG. FIG. In step 801, the system receives a sequence captured by a user. In optional step 802, the system identifies the document 400 containing the capture sequence received in step 801 and the location of the capture sequence in this document. In step 803, the system identifies markup data or processes associated with document 400, location in the document, or specific data scanned. The action can be specified in the corresponding digital document of the rendered document, another markup document, markup data and a database of instructions. The markup data can be stored on the capture device 302, in memory or storage on a nearby device, or on a server in the described system. In step 804, the system selects an action associated with the markup determined in step 803. In step 805, the system performs the selected operation. After step 805, the system returns to step 801 to receive the next captured sequence.

幾つかの実施形態では、システムは、テキスト取り込みに基づく文書の識別に応答してキーワードを生成し、生成されたキーワードに基づいて動作を呼び出す。次にシステムは、キーワードに対して広告を関連付けることができる。システムは、全てのキーワードを同様に扱うことができ、すなわち、システムは、取り込まれたキーワードを特定の動作に関連付け、生成されたキーワードを同じか又は同様の動作に関連付けることができる。   In some embodiments, the system generates keywords in response to document identification based on text capture and invokes actions based on the generated keywords. The system can then associate the advertisement with the keyword. The system can treat all keywords in the same way, i.e., the system can associate a captured keyword with a particular action and associate a generated keyword with the same or similar action.

例えばユーザは、その文書に特有である(従って、文書を識別するのに使用できる)がその文書のテーマ又は主題を示すものではないワードの短いシーケンスを文書から取り込むことができる。この実施例では、ユーザは、フレーズ「私は迅速に後に続き、降りて行った」を文書から取り込む。取り込まれたフレーズを使用すると、システムは、この文書をHarman Melvilleの小説「白鯨」として識別する。文書のコンテンツ「白鯨」の解析は、捕鯨産業、Harman Melvilleの他の小説、その他に関する広告をトリガすることができる。取り込まれたシーケンスからのあらゆる可能なキーワードである、「迅速に」、「続き」、「後に」、又は「降りて」は、関連する広告メッセージをシステムがユーザに表示することにつながる可能性は低い。   For example, a user can capture a short sequence of words from a document that is unique to the document (and thus can be used to identify the document) but does not indicate the theme or subject of the document. In this example, the user captures the phrase “I followed quickly and went down” from the document. Using the captured phrase, the system identifies this document as the Harman Melville novel “White Whale”. Analysis of the document content “White Whale” can trigger advertising on the whaling industry, other novels of Harman Melville, and others. Any possible keyword from the captured sequence, “quickly”, “continue”, “after”, or “descend”, can lead to the system displaying relevant advertising messages to the user. Low.

更に、システムは、取り込まれたフレーズがその本の「朝食」と題されたチャプター5に位置付けられることを明らかにすることができる。これらの場合、広告は、本の該当する部分を向けることができ、朝食のシリアル、ユーザの近所でブランチをとる場所などに関係する広告を含むことができる。システムは、文書の一部分に関する細分性の種々のレベルに基づいて広告を決定することができる。例えば、この部分は、本のチャプター(或いは、上記で検討されたように本全体)程の大きさとすることができ、或いは、節の1又は2つのセンテンスとすることができる。   Furthermore, the system can reveal that the captured phrase is located in the chapter 5 entitled “Breakfast” of the book. In these cases, the advertisement can be directed to the relevant portion of the book, and can include advertisements related to breakfast cereals, brunch locations in the user's neighborhood, and the like. The system can determine the advertisement based on various levels of granularity with respect to a portion of the document. For example, this portion can be as large as a book chapter (or the entire book as discussed above), or it can be one or two sentences of a section.

従って、取り込まれたテキストは、ユーザによってスキャンされたレンダリング文書を識別できるが、システムは、広告をトリガするのに取り込まれたテキストを必要としない可能性がある。更に、ユーザは、関連の広告メッセージを呼び出すことになるどのようなキーワードも取り込まないが、システムは、ユーザのニーズ又は関心を満たそうとする動的広告を提供することができる。   Thus, although the captured text can identify rendered documents scanned by the user, the system may not require the captured text to trigger the advertisement. In addition, although the user does not capture any keywords that will trigger an associated advertising message, the system can provide dynamic advertisements that attempt to meet the user's needs or interests.

図9は、文書の識別に応答して広告を提示するために、システムによって行われる例示的なステップを示すフロー図である。ステップ901で、システムは、ユーザにより取り込まれたシーケンスを受け取る。ステップ902で、システムは、ステップ901で受け取られた取り込みシーケンスを包含する文書400、及びこの文書における取り込みシーケンスの位置を識別する。ステップ903で、システムは、文書400に関連付けられたマークアップデータ又はプロセス、文書における識別されたロケーション、又はスキャンされた特定のデータを識別する。広告は、レンダリング文書の対応デジタル文書、別のマークアップ文書、マークアップデータ及び命令のデータベースにおいて指定することができる。マークアップデータは、取り込み装置302上、近くのデバイス上のメモリ又は記憶装置内、或いは説明されたシステム内のサーバ上に記憶することができる。   FIG. 9 is a flow diagram illustrating exemplary steps performed by the system to present an advertisement in response to document identification. In step 901, the system receives a sequence captured by a user. In step 902, the system identifies the document 400 that contains the capture sequence received in step 901 and the location of the capture sequence in this document. In step 903, the system identifies the markup data or process associated with the document 400, the identified location in the document, or the particular data scanned. Advertisements can be specified in the corresponding digital document of the rendered document, another markup document, markup data, and a database of instructions. The markup data can be stored on the capture device 302, in memory or storage on a nearby device, or on a server in the described system.

任意選択的なステップ904で、システムは、識別された文書のコンテンツなどの識別された文書にキーワードを関連付ける。関連付けられたキーワードは、システムが生成することができ、或いは文書が識別されるか又はテキストがユーザによって取り込まれる前に、識別された文書に事前に関連付けることができる。   In optional step 904, the system associates keywords with the identified document, such as the content of the identified document. The associated keywords can be generated by the system or can be pre-associated with the identified document before the document is identified or the text is captured by the user.

システムは、幾つかの方法で識別された文書に対してキーワードを生成することができる。例えば、システムは、文書のテキストを解析して反復プロセスを実行し、文書に対する1つ又はそれ以上のキーワードを決定することができる。ワードの頻度(又は頻度なし)を考慮することができる。システムは、文書に関連付けられたメタデータに関心を向けることができる。例えば、文書は、メタデータ内のキーワードを事前に提供することができ、或いは文書に関する参考文献を提供することができる。更に、システムは、文書のコンテンツを解析するときに、逆文書頻度解析、語彙及び意味解析、及び/又は文書要約技術を行うことができる。   The system can generate keywords for documents identified in several ways. For example, the system can parse the text of the document and perform an iterative process to determine one or more keywords for the document. Word frequency (or no frequency) can be considered. The system can focus on the metadata associated with the document. For example, the document can provide keywords in the metadata in advance, or it can provide a reference for the document. In addition, the system can perform reverse document frequency analysis, vocabulary and semantic analysis, and / or document summarization techniques when analyzing document content.

更に、システムは、文書を識別した他の取り込みシーケンスを解析し、前回のシーケンスからキーワードを抽出することができる。システムは、キーワードの生成及び/又は識別文書との関連付の際にあらゆる数の技術を利用することができる。   In addition, the system can analyze other capture sequences that have identified the document and extract keywords from the previous sequence. The system can utilize any number of techniques in generating keywords and / or associating with identification documents.

ステップ905で、システムは、ステップ903で決定されたマークアップに関連付けられる広告を選択する。これは、コンテキストを使用して広告を選択する段階を含むことができる。コンテキストの実施例は、レンダリング文書のタイプ(小説、記事、アンケート調査などであるレンダリング文書)、レンダリング文書のソース(新聞、雑誌、教科書、表示されたウェブページなどが提供するレンダリング文書)を含む。コンテキストの他のタイプは、ユーザのアイデンティティ、ユーザのロケーション、ユーザがそのメンバーである人々のグループなどのようなユーザの属性を含むことができる。   In step 905, the system selects an advertisement associated with the markup determined in step 903. This can include selecting an advertisement using the context. Examples of contexts include the type of rendered document (rendered documents that are novels, articles, questionnaires, etc.) and the source of the rendered document (rendered documents provided by newspapers, magazines, textbooks, displayed web pages, etc.). Other types of context may include user attributes such as the user's identity, the user's location, the group of people the user is a member of, etc.

ステップ906で、システムは、選択された広告を提示する。幾つかの実施形態では、システムは、識別された文書内に広告を提示する。ユーザがテキストを取り込むレンダリング文書の対応電子文書を配信する際には、システムは、1つ又はそれ以上の広告を電子版に更に追加することができる。広告は、レンダリング文書に固有、各配信された電子版に固有、及び/又はユーザに固有のものとすることができる。例えば、イギリスのユーザは、「ワールドカップ2006ハイライト」というタイトルの記事からテキストを取り込むことができ、米国のユーザは、同じ記事からテキストを取り込むことができる。本システムは、記事の電子版をイギリスのユーザに対してイギリスのサッカーチームに関する広告(ロンドンのサッカーショップの広告など)を付けて配信することができ、米国のユーザは、米国チームに関する広告(オンラインショップが販売するジャージの広告など)を包含する電子版を受け取ることができる。これらの場合、システムは、同じ電子文書の異なるコピー内に異なる広告を提供することが可能である。   In step 906, the system presents the selected advertisement. In some embodiments, the system presents the advertisement in the identified document. When the user distributes the corresponding electronic document of the rendered document that captures the text, the system can add one or more advertisements to the electronic version. The advertisement can be unique to the rendering document, specific to each delivered electronic version, and / or specific to the user. For example, a British user can capture text from an article titled “World Cup 2006 Highlights” and a US user can capture text from the same article. The system can deliver electronic versions of articles to British users with advertisements for British football teams (such as advertisements for London soccer shops), and US users can receive advertisements for US teams (online You can receive an electronic version that includes advertisements for jerseys sold by the shop. In these cases, the system can provide different advertisements in different copies of the same electronic document.

幾つかの実施形態では、システムは、ユーザのスキャナ上、近くのディスプレイデバイス上、ユーザの携帯電話上などでユーザに広告を提示する。システムは、スキャンと同時に広告を提示することができる。例えば、上記の実施例を使用すると、イギリスのユーザは、「ワールドカップ2006ハイライト」の記事からテキストを取り込むと同時に、ユーザのコンピュータ上でサッカーショップの広告を受け取ることができる。   In some embodiments, the system presents advertisements to the user on the user's scanner, on a nearby display device, on the user's mobile phone, and the like. The system can present advertisements simultaneously with the scan. For example, using the above example, a British user can receive an advertisement for a soccer shop on the user's computer while simultaneously capturing text from an article in “World Cup 2006 Highlights”.

或いは、システムは、関連する広告を包含する電子メール又は他のメッセージをユーザ(ユーザの電子メールアドレスなど)に送信することができる。システムは、本明細書で検討された他の多くの方法でユーザに広告を提示することができる。   Alternatively, the system can send an email or other message containing the relevant advertisement to the user (such as the user's email address). The system can present advertisements to the user in many other ways discussed herein.

ステップ906の後、システムはステップ901に戻り、次の取り込みシーケンスを受け取る。   After step 906, the system returns to step 901 to receive the next capture sequence.

幾つかの実施形態では、システムは、テキスト取り込みには広告動作に関連したワードが含まれていないと判断した場合、ルーチン900のステップの一部又は全てを呼び出して、文書に関連付けられるキーワードを決定し、テキスト取り込みに関する広告を提示するようにすることができる。   In some embodiments, if the system determines that the text capture does not include words associated with the advertising action, it calls some or all of the steps of routine 900 to determine the keywords associated with the document. Then, an advertisement related to text capture can be presented.

幾つかの実施形態では、レンダリング文書から取り込まれたテキストを処理するための方法をコンピューティングシステムに組み入れている。このような実施形態では、システムは、ユーザによってレンダリング文書から光学的又は音響的に取り込まれた1つ又はそれ以上のワードのシーケンスを受け取る。システムは、シーケンスのワードの中で、動作が関連付けられているワード又はフレーズを識別する。システムは、ユーザに対して関連する動作を実行する。   In some embodiments, a method for processing text captured from a rendered document is incorporated into a computing system. In such an embodiment, the system receives a sequence of one or more words that are optically or acoustically captured by a user from a rendered document. The system identifies among the words in the sequence the word or phrase with which the action is associated. The system performs relevant actions for the user.

幾つかの実施形態では、レンダリング文書から取り込まれたテキスト内にキーワードを見つけるためのシステムを組み入れている。このような環境では、システムは、レンダリング文書から1つ又はそれ以上のワードのシーケンスを取り込むために、ユーザによって使用可能なハンドヘルド光学及び/又は音響取り込み装置302を含む。システムは更に、ハンドヘルド光学及び/又は音響取り込み装置302を用いて取り込まれるシーケンスのワードの中から、動作が関連付けられているワードを識別し、ユーザに対して関連する動作を実行するプロセッサを含む。   Some embodiments incorporate a system for finding keywords in text captured from a rendered document. In such an environment, the system includes a handheld optical and / or acoustic capture device 302 that can be used by a user to capture a sequence of one or more words from a rendered document. The system further includes a processor that identifies among the words of the sequence captured using the handheld optical and / or acoustic capture device 302, the word with which the operation is associated and performs the associated operation on the user.

幾つかの実施形態では、キーワードを動作にマップするデータ構造を記憶する1つ又はそれ以上のコンピュータメモリを組み込む。幾つかの実施形態では、データ構造は、ハンドヘルド光学及び/又は音響取り込み装置302を使用してレンダリング文書から取り込むことができる複数のキーワードの各々について、このキーワードに関して実行されることになる動作を指定する情報を包含するエントリを含む。   Some embodiments incorporate one or more computer memories that store data structures that map keywords to actions. In some embodiments, the data structure specifies, for each of a plurality of keywords that can be captured from the rendered document using handheld optical and / or acoustic capture device 302, an action to be performed on the keyword. It contains entries that contain information to be

幾つかの実施形態では、レンダリング文書の対応電子文書に広告を関連付けるためのシステムを組み込む。このような実施形態では、システムは、対応電子文書を識別し、対応電子文書に関連付けられるキーワードを任意選択的に生成して、対応電子文書に関連する広告又は任意選択的に生成されたキーワードを提示する。   Some embodiments incorporate a system for associating an advertisement with a corresponding electronic document of a rendered document. In such an embodiment, the system identifies the corresponding electronic document, optionally generates keywords associated with the corresponding electronic document, and generates advertisements or optionally generated keywords associated with the corresponding electronic document. Present.

幾つかの実施形態では、ユーザに対するレンダリング文書のディスプレイ上でキーワードを見つけるためのシステムを組み込む。このような環境では、システムは、ディスプレイを介してレンダリング文書から1つ又はそれ以上のワードのシーケンスを取り込むために、ユーザによって使用可能なハンドヘルド光学及び/又は音響取り込み装置302を含む。或いは、ユーザは、マウス又は他のポインティングデバイス、又はキーボードなどにより、ユーザによってディスプレイで操作されるカーソル又は他の表示アイコンを使用して、表示されたキーワードを取り込むことができる。システムは更に、取り込まれたシーケンスのワードの中から、動作が関連付けられているキーワードを識別し、をユーザに対して関連する動作を実行するプロセッサを含む。   Some embodiments incorporate a system for finding keywords on the display of the rendered document to the user. In such an environment, the system includes a handheld optical and / or acoustic capture device 302 that can be used by a user to capture a sequence of one or more words from a rendered document via a display. Alternatively, the user can capture the displayed keywords using a cursor or other display icon that is manipulated on the display by the user, such as with a mouse or other pointing device, or a keyboard. The system further includes a processor that identifies the keyword with which the action is associated from among the captured sequence of words and performs the associated action on the user.

例えば、システムは、ユーザに対してウェブページ上、ワードプロ文書内、PDF文書内、画像として、或いは他のグラフィカルもしくはテキスト形式内にコンテンツを表示するプレゼンテーションレイヤ・取り込みクライアントを含むことができる。これらのコンテンツフォーマットの各々へのインターフェースを設計しようとするのではなく、幾つかの実施形態では、このシステムは、コンテンツを表現するディスプレイの取り込みと、光学式文字認識(OCR)技術を使用した取り込み画像のテキストへの変換とに依存する。具体的には、ユーザによって使用されるビューイングデバイスの画面バッファの全て又は一部がシステムによって取り込まれる。画面バッファのコンテンツは、OCRコンポーネントに提供されて、取り込まれた画像を処理し、画像内に包含されたあらゆる文字の対応するテキストを生成する。システムは、広告又は他の動作に関するあらゆるコンテンツを、システムによって識別されたOCRテキストに自動的にマップする。このようにして、本システムは、コンテンツのフォーマットに関わらず、表示されたコンテンツに基づいて広告及び他の動作を提供することができる。   For example, the system may include a presentation layer and capture client that displays content to the user on a web page, in a word pro document, in a PDF document, as an image, or in other graphical or text formats. Rather than trying to design an interface to each of these content formats, in some embodiments, the system captures a display that represents the content and captures using optical character recognition (OCR) technology. Depends on the conversion of the image to text. Specifically, all or part of the viewing device screen buffer used by the user is captured by the system. The contents of the screen buffer are provided to the OCR component to process the captured image and generate the corresponding text for every character included in the image. The system automatically maps any content related to advertisements or other actions to the OCR text identified by the system. In this way, the system can provide advertisements and other actions based on the displayed content regardless of the content format.

幾つかの実施形態では、プレゼンテーションレイヤ・ディスプレイクライアントは、フォーマットに関わらずに広告メッセージをあらゆるコンテンツ上に重畳することができるようにされる。ユーザがビューイングデバイス上でコンテンツを見るときに、ビューイングデバイスの画面バッファの全て又は一部がシステムによって取り込まれる。画面バッファのコンテンツは、OCRコンポーネントに供給され、該コンポーネントが、取り込まれた画像を処理して、画像に包含されているあらゆる文字の対応するテキストを生成する。システムは、取り込まれたテキスト内で1つ又はそれ以上のテキストフラグメントを識別し、テキストフラグメントの図式化をコンテンツサーバに送信する。システムは、受け取られたテキストフラグメントを記憶されているテキストフラグメントと比較し、受け取られたテキストフラグメントに一致するあらゆる記憶テキストフラグメントを識別する。一致したテキストフラグメントに対応する広告は、機能毎に識別され、ディスプレイクライアントに送信される。ディスプレイクライアントは、一致したテキストフラグメントのロケーションに基づいて広告の適切なロケーションを特定し、ユーザが見ているコンテンツ上に重ね合わせられる半透明レイヤ内に広告を表示する。このようにして、広告は、見ているコンテンツのフォーマットに関わらずあらゆるコンテンツ上でユーザに表示することができる。   In some embodiments, the presentation layer display client is enabled to superimpose advertising messages on any content regardless of format. When the user views content on the viewing device, all or part of the viewing device's screen buffer is captured by the system. The contents of the screen buffer are supplied to the OCR component, which processes the captured image and generates the corresponding text for every character contained in the image. The system identifies one or more text fragments in the captured text and sends a text fragment schema to the content server. The system compares the received text fragment with the stored text fragment and identifies any stored text fragment that matches the received text fragment. An advertisement corresponding to the matched text fragment is identified for each function and transmitted to the display client. The display client identifies the appropriate location of the advertisement based on the location of the matched text fragment and displays the advertisement in a translucent layer that is overlaid on the content the user is viewing. In this way, the advertisement can be displayed to the user on any content regardless of the format of the content being viewed.

従って、幾つかの実施形態では、ディスプレイデバイスを介してユーザに表示されたレンダリング文書から画像を取り込むことに応答して広告を提示するシステムを組み込む。場合によっては、図9の一部又は全てのステップに関して検討されたように、表示されたレンダリング文書が識別され、ユーザに提示される。   Accordingly, some embodiments incorporate a system that presents an advertisement in response to capturing an image from a rendered document displayed to a user via a display device. In some cases, the displayed rendered document is identified and presented to the user as discussed with respect to some or all of the steps of FIG.

システムは、レンダリング文書の印刷版からユーザによって取り込まれたテキストフラグメントを受け取り、レンダリング文書の電子版を識別し、更にユーザに関連付けられたディスプレイデバイスを介してレンダリング文書をユーザに提示することができる。システムは、上記で検討されたようにレンダリング文書を提示し、ディスプレイの少なくとも一部分(カーソルでユーザによって強調表示又は選択された部分など)を取り込み、本明細書で説明された光学式文字認識(OCR)技術を使用して取り込まれた画像をテキストに変換し、ユーザに表示される広告などの動作と取り込まれた画像からのテキストの一部又は全てを一致させることができる。   The system can receive text fragments captured by the user from the printed version of the rendered document, identify the electronic version of the rendered document, and present the rendered document to the user via a display device associated with the user. The system presents the rendered document as discussed above, captures at least a portion of the display (such as the portion highlighted or selected by the cursor with the user), and optical character recognition (OCR) as described herein. ) Technology can be used to convert the captured image to text and match some or all of the text from the captured image with actions such as advertisements displayed to the user.

従って、本システムは、ユーザがあるレンダリング文書を使用することを示す環境を提供し、ユーザがレンダリング文書の印刷版又はレンダリング文書の表示版と継続して対話するかどうかに関係なく、広告の提示及び/又は動作の実行を容易にする。システムは、レンダリング文書の提示された版(印刷又はデジタル)からユーザ選択を受け取り、豊富な対話機能をユーザに提供することができる。   Thus, the system provides an environment that indicates that the user is using a rendered document and presents advertisements regardless of whether the user continues to interact with the printed version of the rendered document or the displayed version of the rendered document. And / or facilitate the execution of operations. The system can receive user selections from the presented version (printed or digital) of the rendered document and provide rich interaction capabilities to the user.

例えば、システムは、ユーザに関連付けられたディスプレイを介して、ひも理論に関する新聞記事の電子版をユーザに提示する。場合によっては、ユーザは、新聞記事の印刷版を持つこともあり、この場合、新聞の印刷版からのテキストシーケンスの取り込みにより、ユーザに対して電子版を表示するようシステムに指示する。この実施例では、ユーザは、電子版を介して継続して記事を読み、印刷版からはそれ以上テキストを取り込まない。場合によっては、ユーザは、電子版内でカーソルを使用して関心のあるワード又はフレーズを選択する(例えば、ユーザは、「プリンストン大学の研究者」というフレーズを選択する)。   For example, the system presents an electronic version of a newspaper article on string theory via a display associated with the user. In some cases, the user may have a printed version of a newspaper article, in which case the system is instructed to display the electronic version to the user by capturing a text sequence from the printed version of the newspaper. In this embodiment, the user continues to read articles via the electronic version and no further text is captured from the printed version. In some cases, the user uses the cursor in the electronic version to select the word or phrase of interest (eg, the user selects the phrase “Princeton University Researcher”).

選択を受け取ったことに応答して、システムは、取り込まれたフレーズの画像を受け取り、画像に対してOCRを実行して1つ又はそれ以上のテキストシーケンスを抽出し、1つ又はそれ以上のテキストシーケンスに関連付けられた広告を識別することができる。この実施例では、システムは、取り込まれた画像がキーワード「研究者」及び「プリンストン大学」を包含すると判定し、プリンストン大学が発行した本及びプリンストン大学で学べるオンラインコース及びセミナーに関する広告をユーザに提示する。従って、システムは、ユーザが文書の印刷版ともはや対話していなくても、ユーザに対して目的ベース、キーワードベース及び/又はロケーションベースの広告を継続して提供する。   In response to receiving the selection, the system receives an image of the captured phrase, performs OCR on the image to extract one or more text sequences, and extracts one or more texts. An advertisement associated with the sequence can be identified. In this example, the system determines that the captured image includes the keywords “Researcher” and “Princeton University,” and presents the user with books published by Princeton and advertisements for online courses and seminars that can be studied at Princeton University. To do. Thus, the system continues to provide purpose-based, keyword-based, and / or location-based advertisements to the user even when the user is no longer interacting with the printed version of the document.

結論
上述のシステムは、種々の手法で容易に改案又は拡張できる点は当業者であれば理解されるであろう。例えば、本システムは、広範なハードウェア、文書、動作タイプ、並びに記憶及び処理方式に関連して使用することができる。前述の説明は、種々の実施形態について言及しているが、本発明の範囲は、添付の請求項及び請求項に記載される要素によってのみ定められる。
CONCLUSION Those skilled in the art will appreciate that the system described above can be easily adapted or expanded in various ways. For example, the system can be used in connection with a wide range of hardware, documents, operation types, and storage and processing schemes. Although the foregoing description refers to various embodiments, the scope of the present invention is defined only by the appended claims and the elements recited in the claims.

Claims (31)

テキストの取り込みに応答するためのコンピューティングシステムにおける方法であって、
ユーザによってレンダリング文書から光学的又は音響的に取り込まれた1つ又はそれ以上のワードのシーケンスを受け取る段階と、
前記取り込まれたテキストに基づいて前記レンダリング文書の電子版を識別する段階と、
前記レンダリング文書の識別された電子版のコンテンツに基づいて、広告メッセージを選択する段階と、
前記選択された広告メッセージを前記ユーザに提示する段階と、
を含む方法。
A method in a computing system for responding to text capture comprising:
Receiving a sequence of one or more words optically or acoustically captured by a user from a rendered document;
Identifying an electronic version of the rendered document based on the captured text;
Selecting an advertising message based on the identified electronic version of the rendered document;
Presenting the selected advertising message to the user;
Including methods.
前記レンダリング文書が、サードパーティによってスポンサーされる、
ことを特徴とする請求項1に記載の方法。
The rendering document is sponsored by a third party;
The method according to claim 1.
前記広告メッセージを前記ユーザに提示する段階が、前記レンダリング文書の電子版のコピー内に前記広告メッセージを提示する段階を含む、
請求項1に記載の方法。
Presenting the advertisement message to the user comprises presenting the advertisement message in an electronic copy of the rendered document.
The method of claim 1.
前記レンダリング文書の電子版の識別に応答して、該電子版の解析から得られたキーワードを生成する段階を更に含み、前記選択段階が、前記生成されたキーワードに基づいている、
請求項1に記載の方法。
In response to identifying an electronic version of the rendered document, further comprising generating a keyword obtained from analysis of the electronic version, wherein the selecting step is based on the generated keyword.
The method of claim 1.
前記選択段階が、前記レンダリング文書のタイプに少なくとも一部基づいている、
請求項1に記載の方法。
The selection step is based at least in part on the type of the rendered document;
The method of claim 1.
前記選択段階が、前記レンダリング文書のソースに少なくとも一部基づいている、
請求項1に記載の方法。
The selection step is based at least in part on the source of the rendered document;
The method of claim 1.
前記選択段階が、前記ユーザの属性に少なくとも一部基づいている、
請求項1に記載の方法。
The selection step is based at least in part on the attributes of the user;
The method of claim 1.
前記選択段階が、前記ユーザのアイデンティティに少なくとも一部基づいている、
請求項1に記載の方法。
The selection step is based at least in part on the identity of the user;
The method of claim 1.
前記選択段階が、前記ユーザのロケーションに少なくとも一部基づいている、
請求項1に記載の方法。
The selection step is based at least in part on the location of the user;
The method of claim 1.
前記選択段階が、前記ユーザがメンバーである人のグループに少なくとも一部基づいている、
請求項1に記載の方法。
The selection step is based at least in part on a group of people of which the user is a member;
The method of claim 1.
前記広告メッセージが、前記レンダリング文書が作成された後に、前記レンダリング文書の識別された電子版に関連付けられる、
請求項1に記載の方法。
The advertising message is associated with an identified electronic version of the rendered document after the rendered document is created;
The method of claim 1.
前記広告メッセージが、前記レンダリング文書がレンダリングされた後に、前記識別された電子版に関連付けられる、
請求項1に記載の方法。
The advertising message is associated with the identified electronic version after the rendering document is rendered;
The method of claim 1.
前記動作が、前記レンダリング文書のみに対して前記レンダリング文書の識別された電子版に関連付けられている、
請求項1に記載の方法。
The action is associated with an identified electronic version of the rendered document for the rendered document only;
The method of claim 1.
広告メッセージを選択する段階が更に、
ワード頻度解析、逆文書頻度解析、語彙及び意味解析、又は文書要約技術を使用して前記レンダリング文書の識別された電子版のコンテンツを解析する段階を含む、
請求項1に記載の方法。
The step of selecting an advertising message
Analyzing the identified electronic version of the rendered document using word frequency analysis, inverse document frequency analysis, vocabulary and semantic analysis, or document summarization techniques,
The method of claim 1.
前記広告メッセージが、1つ又はそれ以上のワードの取り込みシーケンスを含まないコンテンツに基づいて選択される、
請求項1に記載の方法。
The advertising message is selected based on content that does not include a capture sequence of one or more words;
The method of claim 1.
レンダリング文書からのテキストの取り込みに応答するためのシステムであって、
レンダリング文書からの取り込まれたテキストのシーケンスを受け取る受信コンポーネントと、
前記取り込まれたテキストを包含する前記レンダリング文書の電子版を識別する識別コンポーネントと、
前記識別された電子版のコンテンツを解析するコンテンツ解析コンポーネントと、
前記コンテンツ解析に基づいて広告を選択する選択コンポーネントと、
を含むシステム。
A system for responding to ingestion of text from a rendered document,
A receiving component that receives a sequence of captured text from the rendered document;
An identification component that identifies an electronic version of the rendered document that contains the captured text;
A content analysis component for analyzing the identified electronic version of the content;
A selection component for selecting an advertisement based on the content analysis;
Including system.
前記コンテンツ解析が、ワード頻度解析、逆文書頻度解析、語彙及び意味解析、又は文書要約技術の1つ又はそれ以上である、
請求項16に記載のシステム。
The content analysis is one or more of word frequency analysis, inverse document frequency analysis, vocabulary and semantic analysis, or document summarization techniques;
The system of claim 16.
前記コンテンツ解析が、前記レンダリング文書のタイプ、前記レンダリング文書のソース、又は前記レンダリング文書内の前記取り込まれたテキストの位置を解析する段階を含む、
請求項16に記載のシステム。
The content analysis includes analyzing the type of the rendered document, the source of the rendered document, or the location of the captured text within the rendered document;
The system of claim 16.
前記コンテンツ解析が、前記システムのユーザのアイデンティティ、前記ユーザのロケーション、又は前記ユーザがメンバーである人のグループを解析する段階を含む、
請求項16に記載のシステム。
The content analysis comprises analyzing the identity of a user of the system, the location of the user, or a group of people of which the user is a member;
The system of claim 16.
前記コンテンツ解析コンポーネントが、
前記識別された電子版に関連付けられる1つ又はそれ以上のキーワードを生成するキーワード生成コンポーネントを更に含む、
ことを特徴とする請求項16に記載のシステム。
The content analysis component is
A keyword generation component that generates one or more keywords associated with the identified electronic version;
The system of claim 16.
レンダリング文書の電子版を広告に接続するデータ構造を集合的に包含する1つ又はそれ以上のコンピュータメモリであって、前記データ構造が、前記レンダリング文書の電子版を含み、前記電子版がユーザ取り込みテキストシーケンスを包含するという判定に基づいて前記電子版が選択され、前記電子版のコンテンツの解析に一部基づいて前記広告が選択される、
ことを特徴とするコンピュータメモリ。
One or more computer memories that collectively include an electronic version of the rendered document connected to the advertisement, the data structure including an electronic version of the rendered document, the electronic version captured by the user The electronic version is selected based on a determination that it includes a text sequence, and the advertisement is selected based in part on an analysis of the electronic version of the content;
A computer memory characterized by that.
選択された広告をユーザに表示するための方法であって、
レンダリング文書からテキストのシーケンスを示すデータを受け取る段階と、
前記受け取られたデータを解析して、前記レンダリング文書に対する対応電子文書を識別する段階と、
前記識別された対応電子文書のコンテンツの少なくとも一部分を処理して、1つ又はそれ以上の広告を前記対応電子文書に関連付ける段階と、
前記関連付けられた広告の1つ又はそれ以上を前記ユーザに提示する段階と、
を含む方法。
A method for displaying a selected advertisement to a user, comprising:
Receiving data indicating a sequence of text from the rendered document;
Analyzing the received data to identify a corresponding electronic document for the rendered document;
Processing at least a portion of the content of the identified corresponding electronic document to associate one or more advertisements with the corresponding electronic document;
Presenting one or more of the associated advertisements to the user;
Including methods.
前記処理段階が、前記レンダリング文書に関するコンテキスト情報に基づいて前記関連付けられた広告の1つを選択し、前記選択された関連広告を前記ユーザに提示する段階を含む、
ことを特徴とする請求項22に記載の方法。
The processing step includes selecting one of the associated advertisements based on contextual information about the rendered document and presenting the selected related advertisement to the user;
23. The method of claim 22, wherein:
前記処理段階が、前記ユーザに関するコンテキスト情報に基づいて、前記関連付けられた広告の1つを選択する段階を含む、
請求項22に記載の方法。
The processing step includes selecting one of the associated advertisements based on contextual information about the user;
The method of claim 22.
前記処理段階が、前記対応電子文書のコンテンツを表すキーワードを決定し、1つ又はそれ以上の広告を前記キーワードに関連付ける段階を含む、
請求項22に記載の方法。
The processing includes determining a keyword representing content of the corresponding electronic document and associating one or more advertisements with the keyword;
The method of claim 22.
前記提示段階が、前記対応電子文書内に広告を提示する段階を含む、
請求項22に記載の方法。
The presenting step includes presenting an advertisement in the corresponding electronic document;
The method of claim 22.
前記提示段階が、広告を前記ユーザに関連付けられたディスプレイデバイスに提示する段階を含む、
請求項22に記載の方法。
The presenting step includes presenting an advertisement on a display device associated with the user;
The method of claim 22.
動的ディスプレイデバイス上に表示される画像を取り出す段階と、
前記取り出された画像に対して光学式文字認識を行い、前記受け取られたデータによって示されるテキストのシーケンスを取得する段階と、
を更に含む、
請求項22に記載の方法。
Retrieving an image to be displayed on a dynamic display device;
Performing optical character recognition on the retrieved image to obtain a sequence of text indicated by the received data;
Further including
The method of claim 22.
広告メッセージを表示するための方法をコンテンツによってコンピューティングシステムが実行するようになるコンピュータ可読媒体であって、
前記方法が、
識別された動的ディスプレイデバイス上に表示された画像を取り出す段階と、
前記取り出された画像に光学式文字認識を実行してテキストのシーケンスを取得する段階と、
前記取得されたテキストのシーケンスの少なくとも一部分に関連付けられた広告メッセージを識別する段階と、
前記識別された広告メッセージを表示する段階と、
を含むことを特徴とするコンピュータ可読媒体。
A computer-readable medium that causes a computing system to perform a method for displaying an advertising message with content, comprising:
The method comprises
Retrieving an image displayed on the identified dynamic display device;
Performing optical character recognition on the retrieved image to obtain a sequence of text;
Identifying an advertising message associated with at least a portion of the obtained sequence of text;
Displaying the identified advertising message;
A computer readable medium comprising:
前記識別された広告メッセージが、前記識別された動的ディスプレイデバイス上に表示される、
ことを特徴とする請求項29に記載のコンピュータ可読媒体。
The identified advertising message is displayed on the identified dynamic display device;
30. The computer readable medium of claim 29.
前記識別された広告メッセージが、コンピューティングシステムのユーザによって見ることが可能な前記識別された動的ディスプレイデバイス以外の動的ディスプレイデバイス上に表示される、
ことを特徴とする請求項29に記載のコンピュータ可読媒体。
The identified advertising message is displayed on a dynamic display device other than the identified dynamic display device that is viewable by a user of a computing system;
30. The computer readable medium of claim 29.
JP2009513598A 2006-06-06 2007-06-06 Contextual dynamic ads based on captured rendering text Pending JP2009540404A (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US81162306P 2006-06-06 2006-06-06
US83313106P 2006-07-24 2006-07-24
US84336206P 2006-09-08 2006-09-08
US84489306P 2006-09-15 2006-09-15
US84489406P 2006-09-15 2006-09-15
US84560406P 2006-09-18 2006-09-18
US91043807P 2007-04-05 2007-04-05
PCT/EP2007/005038 WO2007141020A1 (en) 2006-06-06 2007-06-06 Contextual dynamic advertising based upon captured rendered text

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013191813A Division JP5752200B2 (en) 2006-06-06 2013-09-17 Contextual dynamic ads based on captured rendering text

Publications (1)

Publication Number Publication Date
JP2009540404A true JP2009540404A (en) 2009-11-19

Family

ID=38434718

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009513598A Pending JP2009540404A (en) 2006-06-06 2007-06-06 Contextual dynamic ads based on captured rendering text
JP2013191813A Active JP5752200B2 (en) 2006-06-06 2013-09-17 Contextual dynamic ads based on captured rendering text

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013191813A Active JP5752200B2 (en) 2006-06-06 2013-09-17 Contextual dynamic ads based on captured rendering text

Country Status (3)

Country Link
EP (1) EP2036017A1 (en)
JP (2) JP2009540404A (en)
WO (1) WO2007141020A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010506222A (en) * 2006-10-17 2010-02-25 シルバーブルック リサーチ ピーティワイ リミテッド How to send advertisements from a computer system
JP2014041620A (en) * 2006-06-06 2014-03-06 Google Inc Contextual dynamic advertising based upon captured rendered text
US10318995B2 (en) 2004-04-01 2019-06-11 Google Llc Contextual dynamic advertising based upon captured rendered text

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US10867123B2 (en) 2009-11-09 2020-12-15 Microsoft Technology Licensing, Llc Social browsing
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
WO2010105246A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Accessing resources based on capturing information from a rendered document
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
KR102068604B1 (en) * 2012-08-28 2020-01-22 삼성전자 주식회사 Apparatus and method for recognizing a character in terminal equipment
US9697541B1 (en) * 2013-09-12 2017-07-04 Isaac S. Daniel System and method of controlling multimedia display for a game of chance
JP6880556B2 (en) * 2016-03-10 2021-06-02 凸版印刷株式会社 Information presentation device, information presentation method, information presentation system, and program
US10409903B2 (en) 2016-05-31 2019-09-10 Microsoft Technology Licensing, Llc Unknown word predictor and content-integrated translator
JP2019537778A (en) * 2016-09-28 2019-12-26 マイケル ジョン ウェイカリー, Mobile web browser that provides contextual actions based on web page content
CN116089669B (en) * 2023-03-09 2023-10-03 数影星球(杭州)科技有限公司 Browser-based website uploading interception mode and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243256A (en) * 2000-01-14 2001-09-07 Ricoh Co Ltd Content display method, its device based on web advertisement and content display program
JP2001297248A (en) * 2000-04-12 2001-10-26 Planet Computer:Kk Distribution system for electronic document with advertisement
JP2002117049A (en) * 2000-10-05 2002-04-19 Fuji Xerox Co Ltd System and method for generating web page
JP2002269253A (en) * 2001-03-13 2002-09-20 Ricoh Co Ltd Electronic document conversion service system and accounting method of electronic document conversion service system
JP2005242711A (en) * 2004-02-26 2005-09-08 Value Commerce Co Ltd Advertisement delivery management network system
WO2005098597A2 (en) * 2004-02-15 2005-10-20 Exbiblio B.V. Data capture from rendered documents using handheld device
WO2005101192A2 (en) * 2004-04-19 2005-10-27 Exbiblio B.V. Processing techniques for visual capture data from a rendered document
WO2006020576A2 (en) * 2004-08-09 2006-02-23 Amazon Technologies, Inc. Method and system for identifying keywords for use in placing keyword-targeted advertisements
JP2006107495A (en) * 2004-10-01 2006-04-20 Ricoh Co Ltd Document search technology using image capture device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1187982C (en) * 2000-07-27 2005-02-02 皇家菲利浦电子有限公司 Transcript triggers for video enhancement
US7136814B1 (en) * 2000-11-03 2006-11-14 The Procter & Gamble Company Syntax-driven, operator assisted voice recognition system and methods
GB2378775A (en) * 2001-05-03 2003-02-19 Connextra Ltd Provision of Secondary Information based on Context of Primary Information
US20060069616A1 (en) 2004-09-30 2006-03-30 David Bau Determining advertisements using user behavior information such as past navigation information
KR100447526B1 (en) 2003-03-18 2004-09-08 엔에이치엔(주) A method of determining an intention of internet user, and a method of advertising via internet by using the determining method and a system thereof
WO2007141020A1 (en) * 2006-06-06 2007-12-13 Exbiblio B.V. Contextual dynamic advertising based upon captured rendered text

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243256A (en) * 2000-01-14 2001-09-07 Ricoh Co Ltd Content display method, its device based on web advertisement and content display program
JP2001297248A (en) * 2000-04-12 2001-10-26 Planet Computer:Kk Distribution system for electronic document with advertisement
JP2002117049A (en) * 2000-10-05 2002-04-19 Fuji Xerox Co Ltd System and method for generating web page
JP2002269253A (en) * 2001-03-13 2002-09-20 Ricoh Co Ltd Electronic document conversion service system and accounting method of electronic document conversion service system
WO2005098597A2 (en) * 2004-02-15 2005-10-20 Exbiblio B.V. Data capture from rendered documents using handheld device
JP2005242711A (en) * 2004-02-26 2005-09-08 Value Commerce Co Ltd Advertisement delivery management network system
WO2005101192A2 (en) * 2004-04-19 2005-10-27 Exbiblio B.V. Processing techniques for visual capture data from a rendered document
WO2006020576A2 (en) * 2004-08-09 2006-02-23 Amazon Technologies, Inc. Method and system for identifying keywords for use in placing keyword-targeted advertisements
JP2008509501A (en) * 2004-08-09 2008-03-27 アマゾン テクノロジーズ インコーポレイテッド Method and system for identifying keywords used when issuing keyword-targeted advertisements
JP2006107495A (en) * 2004-10-01 2006-04-20 Ricoh Co Ltd Document search technology using image capture device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10318995B2 (en) 2004-04-01 2019-06-11 Google Llc Contextual dynamic advertising based upon captured rendered text
JP2014041620A (en) * 2006-06-06 2014-03-06 Google Inc Contextual dynamic advertising based upon captured rendered text
JP2010506222A (en) * 2006-10-17 2010-02-25 シルバーブルック リサーチ ピーティワイ リミテッド How to send advertisements from a computer system

Also Published As

Publication number Publication date
EP2036017A1 (en) 2009-03-18
JP5752200B2 (en) 2015-07-22
WO2007141020A1 (en) 2007-12-13
JP2014041620A (en) 2014-03-06

Similar Documents

Publication Publication Date Title
JP5752200B2 (en) Contextual dynamic ads based on captured rendering text
US10318995B2 (en) Contextual dynamic advertising based upon captured rendered text
US10275455B2 (en) Triggering actions in response to optically or acoustically capturing keywords from a rendered document
KR101212929B1 (en) Secure data gathering from rendered documents
US8781228B2 (en) Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US7596269B2 (en) Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9268852B2 (en) Search engines and systems with handheld document data capture devices
US8346620B2 (en) Automatic modification of web pages
US8903759B2 (en) Determining actions involving captured information and electronic content associated with rendered documents
US8489624B2 (en) Processing techniques for text capture from a rendered document
US20100278453A1 (en) Capture and display of annotations in paper and electronic documents
JP2010511921A (en) Referral reward system for portable devices
US20060104515A1 (en) Automatic modification of WEB pages
US20110153653A1 (en) Image search using text-based elements within the contents of images
EP1771784A2 (en) Triggering actions in response to optically or acoustically capturing keywords from a rendered document

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100601

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120524

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120824

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120831

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120921

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121031

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130227

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130515