JP2023549652A - 文書の有形インスタンスのマッピング - Google Patents

文書の有形インスタンスのマッピング Download PDF

Info

Publication number
JP2023549652A
JP2023549652A JP2023523624A JP2023523624A JP2023549652A JP 2023549652 A JP2023549652 A JP 2023549652A JP 2023523624 A JP2023523624 A JP 2023523624A JP 2023523624 A JP2023523624 A JP 2023523624A JP 2023549652 A JP2023549652 A JP 2023549652A
Authority
JP
Japan
Prior art keywords
document
computer system
computer
user
implemented method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023523624A
Other languages
English (en)
Inventor
バロス,ブレット
ファーボーグ,アレクサンダー・ジェイムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2023549652A publication Critical patent/JP2023549652A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/604Tools and structures for managing or administering access control systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/12Protecting executable software
    • G06F21/14Protecting executable software against software analysis or reverse engineering, e.g. by obfuscation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Technology Law (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

コンピュータによって実行される方法は、第1のコンピュータシステムによって、第1の文書の有形インスタンスの第1のコンテンツを検出するステップと、第1のコンピュータシステムによって、第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成するステップと、第1のコンピュータシステムによって、第2のコンピュータシステムによる受信のために第1のハッシュを送信するステップと、第1のコンピュータシステムによって、第2のコンピュータシステムにより生成された第1のハッシュに対する応答を受信するステップとを含み、当該応答は、第1のコンテンツに関連付けられた第2の文書に対応する情報を含む。

Description

技術分野
本明細書は、文書の有形インスタンスをマッピングすることに関する。
背景
歴史的に、文書は、典型的には、耐久性のある媒体(例えば、紙)で作られてきた。同じ文書の2つ以上のコピーが作成された場合、これらのコピーはしばしばそれぞれ別々に配布され、個々のコピーに何が起こったかを常に追跡することは不可能または非現実的であった。例えば、ある人が紙文書を作成すると、その人が決して知り得ないことまたは対応し得ないこと等の多くのことが当該紙文書の紙片に起こる可能性があった。
コンピュータ技術の出現により、文書を電子形式で維持および編集することが可能となり、その結果、より組織的かつ信頼できるやり方で長期にわたり文書の展開および使用を監視することが可能となった。しかしながら、時間的および記号論理的に記録保持するためのこのような高い能力は、1および0の形式の表現によってデジタルで維持される電子記録自体にしか適用されてこなかった。他方で、このような電子文書を物理的にインスタンス化することは、人が文書を直接認識または理解するために必要であり、しばしば、歴史的に紙上の文書に関連付けられてきたのと同じ課題に晒される。
概要
第1の局面では、コンピュータによって実行される方法は、第1のコンピュータシステムによって、第1の文書の有形インスタンスの第1のコンテンツを検出するステップと、当該第1のコンピュータシステムによって、当該第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成するステップと、当該第1のコンピュータシステムによって、第2のコンピュータシステムによる受信のために当該第1のハッシュを送信するステップと、当該第1のコンピュータシステムによって、当該第2のコンピュータシステムにより生成された当該第1のハッシュに対する応答を受信するステップとを含み、当該応答は、当該第1のコンテンツに関連付けられた第2の文書に対応する情報を含む。
実現例は、以下の特徴のいずれかまたは全てを含み得る。当該第2のコンピュータシステムは、文書のコレクションのためのコラボレーションプログラムを制御する。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該応答に基づいて、当該第2のコンピュータシステムによる受信のために当該第1のコンテンツを送信するステップを含む。当該第2のコンピュータシステムは、当該第1のコンテンツを用いて当該コラボレーションプログラムについての新しい文書を生成する。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該応答に基づいて、当該第2のコンピュータシステムによる受信のために当該第1の文書のマークアップされた変更を送信するステップを含む。当該文書のコレクションは、当該第2の文書を含む。当該第2のコンピュータシステムは、当該第2の文書の第2のコンテンツを用いて第2のハッシュを生成し、当該第2のハッシュは第2の難読化コンテンツを含み、当該第2のハッシュは当該応答に含まれる。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該第2のハッシュを用いて、当該第1の文書と当該第2の文書との間の対応関係を検証するステップを含む。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該第2のコンピュータシステムから当該第2の文書を受信するステップを含む。当該第2のコンピュータシステムは、当該第1のハッシュを受信すると、当該第2のコンテンツの不正アクセスの検出を実行する。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該第1のコンピュータシステムのユーザについてのアクセスの履歴を受信するステップを含み、当該履歴は、当該第2のコンピュータシステムが当該第1のハッシュを受信したことに基づいて当該第2の文書にアクセスするためのエントリを含む。当該第2の文書にアクセスするための当該エントリは、当該ユーザが当該第1の文書のハードコピーまたは当該第1の文書のオンスクリーンプレゼンテーションのうちの少なくとも1つに近接していることを検出することに基づく。当該第2のコンピュータシステムは、当該ユーザが当該第2の文書へのアクセス許可を有していると判断することに応答して当該エントリを生成する。当該ユーザは、当該第2の文書へのアクセス許可を有しておらず、当該第2の文書に対応する当該情報は、当該ユーザが当該第2の文書へのアクセス許可を要求するためのコントロールを含む。当該ユーザは、当該第2の文書へのアクセス許可を有しておらず、当該第2のコンピュータシステムは、当該ユーザが少なくとも予め定められた時間にわたって当該第1の文書にアクセスしていると判断することに応答して当該ユーザに当該アクセス許可を与える。当該第1のコンピュータシステムは、当該第2のコンピュータシステムに対して当該第1のコンピュータシステムのユーザを識別し、当該文書のコレクションは、当該ユーザが当該文書のコレクションへのアクセス許可を有していることに基づいて定義される。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、ユーザから、当該第1の文書のテキスト読み上げサービスについての要求を受信するステップを含み、当該第2の文書は、構造マークアップを含み、さらに、当該第2の文書を用いて当該第1の文書の当該テキスト読み上げサービスを提供するステップを含む。当該第1のコンピュータシステムは、ディスプレイデバイス上に提示されている当該第1の文書に基づいて当該第1のコンテンツを検出する。当該ディスプレイデバイスは、当該第1のコンピュータシステムによって制御され、デスクトップ上に画面共有アプリケーションを提示し、当該第1の文書は、当該画面共有アプリケーションを用いて当該第1のコンピュータシステムと画面共有されている。当該第1のコンピュータシステムはさらに、当該デスクトップ上にブラウザを提示し、当該ブラウザは、当該コラボレーションプログラムを用いて当該デスクトップ上で当該第2の文書を開くためのコントロールを提供する。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該コラボレーションプログラムを用いて当該第2の文書を開くことをトリガするために当該第1の文書の表現をドラックすることを容易にするステップを含む。当該ドラッグすることにより、当該第2の文書を当該第1のコンピュータシステムの当該デスクトップ上に提示させる。当該ドラッグすることにより、他のコンピュータシステムが当該第1のコンピュータシステムによって検出されることに基づいて当該第2の文書を別のコンピュータシステム上に提示させる。当該第1のコンピュータシステムは、拡張現実(augmented-reality:AR)ヘッドセットを備え、当該第1のコンピュータシステムは、当該第1のコンテンツが当該ARヘッドセットの視野内にあることに基づいて当該第1のコンテンツを検出する。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該ARヘッドセットのユーザが当該AR視野内でジェスチャを実行することを検出し、検出に応答して、当該ジェスチャに従って当該AR視野内で当該第1の文書の表現を移動させるステップを含む。当該表現を移動させるステップは、当該コラボレーションプログラムを用いて当該第1のコンピュータシステム上で当該第2の文書を開くことを容易にする。当該表現を移動させるステップは、当該第1のコンピュータシステムによって検出される別のコンピュータシステム上で当該コラボレーションプログラムを用いて当該第2の文書を開くことを容易にする。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該情報を用いて、当該第2の文書の第2のコンテンツを提示するステップを含む。当該第1のコンピュータシステムは拡張現実(AR)ヘッドセットを備え、当該第1のコンピュータシステムは、当該第1のコンテンツが当該ARヘッドセットの視野内にあることに基づいて当該第1のコンテンツを検出し、当該第2のコンテンツを提示するステップは、第1の仮想注釈を当該第1の文書に適用するステップを含む。当該コンピュータによって実行される方法はさらに、当該第1のコンピュータシステムによって、当該第1の文書に変更を行なうことに対応しユーザによって生成される音声入力を受信し、当該第1の文書に対する第2の仮想注釈を当該AR視野に提示し、当該変更を当該第2のコンピュータシステムに送信するステップを含む。当該第2の文書は公的にアクセス可能であり、当該応答は当該第2の文書を含む。当該第1の文書および当該第2の文書は紙文書であり、当該第2のコンピュータシステムは、当該第1のハッシュおよび当該第2の文書の第2のハッシュを用いて、当該第1の文書に関連付けられている当該第2の文書を検出する。当該第1のハッシュおよび当該第2のハッシュは、当該第1のコンピュータシステムと当該第2のコンピュータシステムとの間における当該第1の文書または当該第2の文書に関する仮想注釈の共有を容易にする。
第2の局面では、コンピュータプログラム製品が非一時的な記憶媒体において有形に具現化され、当該コンピュータプログラム製品は、1つ以上のプロセッサによって実行されると当該1つ以上のプロセッサに以下の動作を実行させる命令を含み、当該以下の動作は、第1のコンピュータシステムによって、第1の文書の有形インスタンスの第1のコンテンツを検出する動作と、当該第1のコンピュータシステムによって、当該第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成する動作と、当該第1のコンピュータシステムによって、第2のコンピュータシステムによる受信のために当該第1のハッシュを送信する動作と、当該第1のコンピュータシステムによって、当該第2のコンピュータシステムにより生成された当該第1のハッシュに対する応答を受信する動作とを含み、当該応答は、当該第1のコンテンツに関連付けられた第2の文書に対応する情報を含む。
実現例は以下の局面を含み得る。当該コンピュータプログラム製品は、当該1つ以上のプロセッサによって実行されると、当該1つ以上のプロセッサに請求項1から33のいずれか1項に記載の方法を実行させる命令を含む。
一局面の任意の特徴は他の任意の局面と組合わされてもよい。
コンピュータシステムの例を示す図である。 図1のコンピュータシステムのストレージの例を示す図である。 文書の有形インスタンスに関する例を示す図である。 文書の有形インスタンスに関する例を示す図である。 文書の有形インスタンスに関する例を示す図である。 文書の有形インスタンスに関する例を示す図である。 文書の有形インスタンスに関する例を示す図である。 文書の有形インスタンスに関する例を示す図である。 有形インスタンスおよびコンピュータシステムに関する例を概念的に示す図である。 有形インスタンスおよびコンピュータシステムに関する例を概念的に示す図である。 ストレージドライブに関する例を示す図である。 図5のストレージドライブに関する例を示す図である。 ユーザが図3A~図3Dの有形インスタンスおよびAR視野を閲覧していることを示す図である。 図3A~図3Eの有形インスタンスおよびAR視野に関する例を示す図である。 図3A~図3Eの有形インスタンスおよびAR視野に関する例を示す図である。 図3A~図3Eの有形インスタンスおよびディスプレイデバイスに関する例を示す図である。 図3A~図3Eの有形インスタンスおよびディスプレイデバイスに関する例を示す図である。 図3A~図3Eの有形インスタンスおよびディスプレイデバイスに関する例を示す図である。 図3A~図3Eの有形インスタンスおよびディスプレイデバイスに関する例を示す図である。 図3A~図3Eの有形インスタンスおよびディスプレイデバイスに関する例を示す図である。 図8A~図8Eのディスプレイデバイスに関する例を示す図である。 図8A~図8Eのディスプレイデバイスに関する例を示す図である。 コンピュータによって実行される方法の例を示す図である。 本明細書に記載の技術を実装するために使用可能なコンピュータデバイスおよびモバイルコンピュータデバイスの例を示す図である。
様々な図面における同様の参照符号は同様の要素を示す。
詳細な説明
本明細書は、文書の有形インスタンス(例えば、紙コピーまたはオンスクリーンプレゼンテーション)のマッピングを実行する例を説明する。有形インスタンスは、2つの例を挙げると、有形インスタンス作成の元となった電子文書に、または(有形インスタンスがいずれも共通の電子原本から作成されなかった場合にも)同じ文書の別の有形インスタンスにマッピングすることができる。このようなマッピングは、ユーザ経験の更なる増大、個人情報または機密情報の保護の強化、記録保持の改善、および/または情報セキュリティの向上を容易にすることができる。
本明細書中の例はコンピュータシステムを参照する。本明細書で用いる場合、コンピュータシステムは、本明細書に記載のコンピュータ化された技術のうちの1つ以上を実行するようにハードウェア、ファームウェア、およびソフトウェアで構成された1つ以上のデバイスの任意の好適な組合わせを含むが、これらに限定されない。本明細書で用いられるコンピュータシステムは、単一のコンピューティングデバイスまたは集合的に作用する複数のコンピューティングデバイスであってもよく、データの格納および機能の実行は様々なコンピューティングデバイス間で分散されている。
本明細書中の例は、クライアントもしくはサーバによって実行される動作、またはクライアント側もしくはサーバ側で行われる動作を参照する。クライアントおよびサーバという語は、本明細書では例示のみを目的として用いられており、特定のタイプのコンピュータシステムまたはデバイスのみに限定されない。本明細書で用いる場合、クライアントまたはサーバは、特に指定のない限り、任意のタイプのコンピュータシステムを含み得る。例えば、サーバは物理サーバおよび/または仮想マシンを含み得る。例えば、クライアントは、ウェアラブルデバイス、タブレット、デジタルオーディオプレーヤ、ビデオゲームコンソール、デスクトップコンピュータ、ラップトップコンピュータ、プロジェクタ、テレビ、電子掲示板、携帯電話、携帯情報端末、および/またはスマートフォンを含み得る。
本明細書中の例は拡張現実(AR)を参照する。本明細書で用いる場合、ARは、少なくとも1つの仮想アスペクトおよび少なくとも1つの現実のアスペクトを含む感覚的知覚がコンピュータシステムによって容易にされているユーザ体験を指す。ARは、ウェアラブルデバイスを含むがこれに限定されない複数のタイプのコンピュータシステムのいずれかによって提供することができる。本明細書で用いる場合、ARヘッドセットは、ARを容易にする任意のコンピュータシステムを指す。ARヘッドセットは、ARグラス、別のウェアラブルARデバイス、タブレット、またはラップトップコンピュータを含み得るがこれらに限定されない。いくつかのタイプのARでは、ユーザは、コンピュータシステムによる介在なしに、自身の感覚で直接、現実のアスペクトを知覚することができる。例えば、いくつかのARヘッドセットは、ARヘッドセットによって生成されたものではない他の光の位置に眼を合わせることも可能にしつつ、画像(例えば、知覚される仮想アスペクト)をユーザの網膜に向けるように設計されている。別の例として、インレンズ型マイクロディスプレイをシースルーレンズに埋込むことができるか、または投影されたディスプレイをシースルーレンズ上に重ねることができる。他のタイプのARでは、コンピュータシステムは、1つ以上の方法で現実に関するユーザの印象(例えば、知覚される実際のアスペクト)を改善すること、補完すること、変更すること、および/または使用可能にすることができる。いくつかの実現例では、ARは、コンピュータシステムのディスプレイデバイスの画面上で感知される。例えば、いくつかのARヘッドセットは、ユーザの眼の正面に位置決めされたディスプレイデバイス上にユーザの周辺環境のカメラ画像を提示するように、カメラフィードスルーで設計される。
本明細書中の例は、ARヘッドセットによって検出されるジェスチャを参照する。本明細書で用いる場合、ジェスチャの検出は、ARヘッドセットがユーザからの入力を認識することを可能にする任意の方法を含む。ジェスチャは、視覚により検出された身体部分(例えば、手、指、もしくは腕)の動き、加速度計もしくは他の慣性測定ユニットによって検出される身体部分(例えば頭部)の動き、または、コントローラ(例えば、手持ち型コントローラ)を用いてなされる入力であってARヘッドセットによって検出される入力、のいずれかを含み得るがこれらに限定されない。
本明細書中の例は文書を参照する。本明細書で用いる場合、文書は媒体中の情報である。例えば、電子文書は、デジタル形式(例えば、記憶媒体上のコンピュータ可読ファイルとして)の情報を指す。別の例として、ハードコピー文書は、印刷された情報(例えば、紙に印刷された情報)を指す。別の例として、オンスクリーンプレゼンテーションは、ディスプレイデバイス上に示される情報を指す。本明細書中の例は、文書の有形インスタンスを参照する。本明細書で用いる場合、文書の有形インスタンスは、人によって知覚(および、場合によっては理解)可能な形式の文書のいずれの実施形態をも含む。本明細書で用いる場合、文書の有形インスタンスは、少なくとも、文書のハードコピーまたは文書のオンスクリーンプレゼンテーションを含む。有形インスタンスが文書と本質的に同一である場合、有形インスタンスは文書に対応し得る。例えば、有形インスタンスが文書から生成されたものである場合、有形インスタンスは文書に対応する。
本明細書中の例は文書のコンテンツを参照する。本明細書で用いる場合、コンテンツは文書の情報の一部または全てを含む。
本明細書中の例は、文書のコンテンツを用いてハッシュを生成するステップを参照する。本明細書で用いる場合、ハッシュを生成するステップ、または文書をハッシュするステップは、識別の目的で文書の仮想的に固有の表現を作成するいずれかおよび全ての方法を含む。ハッシュは、検証者に個人情報または他の機密情報を伝えることなく、2つ以上の文書が互いに対応する(例えば、それらが実質的に同一である)ことを検証するために用いることができる。いくつかの形式のハッシングでは、テキストの部分を選択することができる。文書をハッシュするために、規則的な間隔で文字または単語を選択することができる。いくつかの実現例では、nグラムの単語を識別することができ(nは1よりも大きい整数である)、nグラムの全てのm番目の単語(mは1よりも大きくn以下の整数である)をハッシュのために選択して単語列を形成することができる。例えば、複数の単語列の各々は、文書のテキストから単語を1つおきに選択することによって生成され得る。個人情報またはその他の機密情報を構成する単語を選択することを避けるために、ハッシュのために選択された単語を少なくとも1つの辞書で調べることができる。いくつかの実現例では、特定の位置にあるテキストの文字をハッシュのために選択することができる。例えば、テキストの全ての行の最初の文字を用いることができる。いくつかの実現例では、文書についてのデジタル情報をハッシュに変換することができる。例えば、文書の光学式文字認識(optical character recognition:OCR)をデジタルビットに変換(例えば、圧縮)することができ、デジタル情報の下位部分を選択することができる。いくつかの実現例では、ハッシュは、文書のトポグラフィに基づき得る。例えば、ハッシュは、文書内のコンテンツの形状、配置、向き、および/または編成に基づき得る。いくつかの実現例では、ハッシュは、テキストの配置もしくはテキストの書体に関する1つ以上の特性に少なくとも部分的に基づき得る。例えば、フォントまたはフォントファミリー、フォントのサイズ、文字間隔等のグリフ間隔、単語間隔、および/または行高さを用いることができる。いくつかの実現例では、文書中に後に行われる軽微な変更に対してよりロバストである、いわゆる「レイジーハッシュ(lazy hash)」を実行することができる。例えば、ハッシングは、文書のコンテンツの全てではないが、いくつかに選択的に適用することができる。いくつかの実現例では、文書のハッシュは文書のコンテンツのフィンガープリントを含み得る。1つの文書のために生成されたハッシュは、複数の文書のうちの1つが他の文書のコピーでない限り、別の文書から生成されたハッシュと相反するものとなる可能性を実質的に持たないはずである。例えば、2つの無関係の文書が相反するハッシュを有する確率は約1兆分の1のオーダーであり得る。
本明細書中の例は難読化コンテンツを参照する。本明細書で用いる場合、難読化コンテンツは、ある文書に由来しないものの当該文書のハッシュと組合わされるコンテンツである。いくつかの実現例では、難読化コンテンツは、認識可能な意味(例えば、無意味なテキストまたは他の文字もしくは記号)を含まないコンテンツである。難読化コンテンツをハッシュに含めることで、誰かにハッシュを送信することに基づいて個人情報または他の機密情報が暴露される可能性を実質的に排除することができる。いくつかの実現例では、ハッシュは、(例えば、適用可能な単語列の長さに達するまで単語を1つおきに選択することによって)文書から単語列を選択することを含む。さらに、難読化コンテンツは、文書中には生じない同じ長さの単語列を含み得る。例えば、難読化単語列は、辞書からランダムに選択された単語を含み得る。いくつかの実現例では、ハッシュは特定の割合の難読化コンテンツを含み得る。例えば、文書から得た数十の単語列よりも少ない数の単語列が存在する場合、難読化コンテンツの約100以上の単語列をハッシュに含めることができる。
本明細書中の例は、文書のコレクションのためのコラボレーションプログラムを参照する。本明細書で用いる場合、コラボレーションプログラムは、複数のコンピュータシステムが文書のコレクション中の同じ文書に同時にアクセスすることを可能にする。いくつかの実現例では、コラボレーションプログラムは、ユーザが、リアルタイムでファイル上の他のユーザと連携しながら、1つ以上のファイルをオンラインで作成、閲覧、および編集することを可能にする。例えば、コラボレーションプログラムは、文書処理、スプレッドシート操作、および/またはスライド提示のために設計され得る。
本明細書中の例は、コンピュータシステムの電子文書へのアクセス許可を参照する。本明細書で用いる場合、ユーザが、少なくとも文書の有形インスタンスを知覚することができるようにコンピュータシステムに対する十分な資格情報を有する場合、当該ユーザは電子文書へのアクセス許可を有する。
本明細書中の例はブラウザを参照する。本明細書で用いる場合、ブラウザは、情報を取出して表示することができるソフトウェアアプリケーション、ブラウザ拡張、および/またはそれらの任意の適切な組合わせを参照する。ブラウザは、ユニフォームリソースロケータ(uniform resource locator:URL)を用いて、文書のコンテンツ(例えば、連携プログラムの文書)を取出し、その後、文書のうち少なくとも一部をユーザに提示することができる。
本明細書中の例は画面共有アプリケーションを参照する。本明細書で用いる場合、画面共有アプリケーションは、あるコンピュータシステムが、その現在の画面コンテンツのうち少なくとも一部を別のコンピュータシステムの画面に実質的にリアルタイムで提示することを可能にするソフトウェアである。画面共有アプリケーションは、一例を挙げると、テレビ会議アプリケーションに含まれ得る。
図1はコンピュータシステム100の例を示す。コンピュータシステム100は、本明細書の他の箇所に記載する1つ以上の他の例とともに用いることができる。コンピュータシステム100は、コンピュータ可読媒体に格納された命令を少なくとも1つのプロセッサに実行させるように設計され得る。例えば、コンピュータシステム100は、図11を参照して以下で説明するいくつかまたは全ての構成要素を含み得る。
いくつかの実現例では、コンピュータシステム100は、クライアント役割を果たすものとして、および/またはクライアント側で実装されるものとして特徴付けることができる。例えば、コンピュータシステム100は、文書の有形インスタンスを検出してそれらのハッシュをサーバに提供するARヘッドセット(例えば、ARグラスまたは別のARデバイスのセット)であり得る。いくつかの実現例では、コンピュータシステム100は、サーバ役割を果たすものとして、および/またはサーバ側で実装されるものとして特徴付けることができる。例えば、コンピュータシステム100は、受信したハッシュに基づいて検索を実行することができ、サーバが一致を見つけた場合、さらなる情報をクライアントに提供することができる。
コンピュータシステム100は入力デバイス102を含む。いくつかの実現例では、入力デバイス102は、キーボードもしくは他のボタン、マウス、タッチスクリーン、1つ以上のセンサ、指紋リーダ、スキャナ、カメラもしくは他の画像センサ、光学系、マイクロフォン、視線追跡構成要素、慣性測定ユニット、および/または全地球測位システム(global positioning system:GPS)センサを含み得る。カメラは、文書の有形インスタンスのビューをキャプチャし、そのコンテンツを検出するのに用いることができる。タッチスクリーンは、本明細書に記載するようにユーザが入力を生成することを可能にし得る。マイクロフォンは、ユーザが、動作を実行するため、または文書を変更するため等の音声コマンドを入力することを可能にし得る。視線追跡構成要素は、(例えば、文書を参照して)ユーザが現在どこを見ているかをARヘッドセットが判断することを可能にし得る。慣性測定ユニットは、(例えば、別のコンピュータシステムに接近していることを検出するために)コンピュータシステム100が移動しているかどうかを検出することができる。GPSセンサは、(例えば、別のコンピュータシステムの存在を判断するために)コンピュータシステム100の位置を検出することができる。
コンピュータシステム100は出力デバイス104を含み得る。出力デバイス104は、ディスプレイデバイス、網膜プロジェクタ、触感構成要素、および/またはスピーカを含み得る。ディスプレイデバイスおよび/または網膜プロジェクタは、ユーザによって知覚される仮想アスペクトを提供するであろう視覚出力を生成する役割を果たし得る。例えば、1つ以上の文書、文書編集、制御、ページ、ウィンドウ、および/またはデスクトップを提示することができる。スピーカは、例えば、テキスト読み上げアプリケーションによって生成される音声出力を提供する役割を果たし得る。
コンピュータシステム100は少なくとも1つのストレージ106を含み得る。ストレージ106は、マッピング機能、AR構成要素、文書、ハッシュ、少なくとも1人のユーザに関するユーザ識別記録、少なくとも1人のユーザに関するアクセス許可、コンテンツをハッシュするためのハッシング構成要素、難読化コンテンツを生成するための難読化コンテンツ構成要素、ハッシュに難読化コンテンツを含めるためのハッシュコンバイナ、2つ以上のハッシュを比較するためのハッシュコンパレータ、文書のコレクションのためのコラボレーションプログラム、(例えば、非連携文書のための)文書編集プログラム、ブラウザ、(例えば、ビデオ会議アプリケーションの一部としての)画面共有プログラム、OCRプログラム、ジェスチャ認識プログラム、および/またはテキスト読み上げサービスアプリケーションを含み得る。
例えば、マッピング機能は、(例えば、有形インスタンスと電子文書との間のリンクを提供するために、および/または2つ以上の有形インスタンス間のリンクを提供するために)本明細書に記載するようないくつかまたは全ての動作を実行するようにプログラムされ得る。
別の実施例として、AR構成要素は、(例えば、マッピングに基づいて、コンテンツをキャプチャするために、および/または情報を送信、受信もしくは提示するために)本明細書に記載のいくつかまたは全ての例に従って動作するようにプログラムされ得る。
別の実施例として、文書は、コンピュータシステム100によってキャプチャ(例えば、スキャン)すること、および/または別のコンピュータシステムから受信することができる。
別の例として、ハッシュは、コンピュータシステム100によって生成すること、および/または別のコンピュータシステムから受信することができる。
別の例として、ユーザ識別記録は、ユーザが誰であるかを特定すること、および/またはユーザに関連付けられた1つ以上の他のコンピュータシステムを識別することができる。
別の例として、アクセス許可は、ユーザがコンピュータシステム100または別のコンピュータシステム内の電子文書にアクセスすることが許可されているかどうかを指定することができる。
別の例として、ハッシング構成要素は、個人情報または他の機密情報が暴露されるのを回避するように文書のコンテンツをハッシュすることができる。
別の例として、難読化コンテンツ構成要素は、個人情報または他の機密情報が暴露されるのを回避するように、文書コンテンツとは無関係のコンテンツを生成することができる。
別の例として、ハッシュコンバイナは、ハッシュされたコンテンツを難読化コンテンツと組合わせて、個人情報または他の機密情報が暴露されるのを回避するハッシュを生成することができる。
別の例として、ハッシュコンパレータは、2つ以上のハッシュが対応する文書に関係しているかどうか判断することができる。
別の例として、コラボレーションプログラムは、コンピュータシステム100のユーザおよび別個のコンピュータシステムの別のユーザが、電子文書に同時にアクセスして当該電子文書を編集することを可能にし得る。
別の例として、文書編集プログラムは、コンピュータシステム100のユーザがコラボレーションプログラムとは別個に文書を編集することを可能にし得る。
別の例として、ブラウザは、コンピュータシステム100のユーザが、コンピュータシステム100にローカルであろうと遠隔位置からであろうと、文書を閲覧することおよび/またはプログラムを実行することを可能にし得る。
別の例として、画面共有プログラムは、コンピュータシステム100のユーザが、別のコンピュータシステムから共有される文書の有形インスタンスを閲覧すること、および/または文書の有形インスタンスをこのような他のコンピュータシステムと共有することを可能にし得る。
別の例として、OCRプログラムは、文書の有形インスタンスからコンテンツをキャプチャすることができる。
別の例として、ジェスチャ認識プログラムは、例えばARヘッドセットを制御するために、コンピュータシステム100のユーザの位置またはユーザの身体の一部の位置を追跡することができる。
別の例として、テキスト読み上げサービスアプリケーションは、(例えば、電子文書またはその有形インスタンスからの)文書のコンテンツに基づいてコンピュータシステム100のユーザに音声出力を提供することができる。
コンピュータシステム100は、コンピュータシステム100と1つ以上の他のシステムおよび/またはデバイスとの間の通信を可能にする少なくとも1つのネットワークインターフェイス108を含み得る。ネットワークインターフェイス108は、無線および/または有線通信用に構成することができる。例えば、ネットワークインターフェイス108は、対応する文書を検索するための通信を容易にし得る。別の例として、ネットワークインターフェイス108は、コンピュータシステム100に関連付けられた(例えば、その近くにある)コンピュータシステムの検出を容易にし得る。
図2は、図1のコンピュータシステム100のストレージ200の例を示す。ストレージ200は、本明細書の他の箇所に記載する1つ以上の他の例とともに用いることができる。例えば、ストレージ200は、図1のストレージ106のいくつかまたは全ての構成要素を含み得るとともに、この逆もまた同様に可能である。
ストレージ200はN個の文書202を含み、この場合、Nは任意の整数である。ここでは、文書202は、それぞれ文書202-1、文書202-2、…、および文書202-Nとして概略的に示されている。文書202の各々は1つ以上のバージョン204で存在し得る。ここで、文書202の各々は、それぞれバージョン204-1、バージョン204-2、バージョン204-3、…、およびバージョン204-Mを有するものとして概略的に示されており、この場合、Mは任意の整数である。例えば、文書202のうちの1つに対して変更が加えられた場合、改訂を既存のバージョンの文書に組込むことができるか、または変更を含む文書を以前の文書の新しいバージョンと見なすことができるか、または新しい文書を作成することができる。バージョン管理のための他のアプローチを用いることができる。いくつかの実現例では、コラボレーションプログラムを制御するサーバは、文書202をユーザにとって利用可能にする。
ストレージ200はP個のハッシュ206を含み、この場合、Pは任意の整数である。ここでは、ハッシュ206は、それぞれ、ハッシュ206-1、ハッシュ206-2、ハッシュ206-3、…、およびハッシュ206-Pとして概略的に示される。いくつかの実現例では、ハッシュ206のうちの1つ以上は文書の有形インスタンスに基づいて生成することができる。ハッシュを別のコンピュータシステムに(例えば、サーバに)提供することで、他の任意の文書が、当該ハッシュの元となった文書に対応しているかどうか判断することができる。別の例として、コンピュータシステム(例えば、サーバ)は、発見された文書のハッシュを生成し、当該ハッシュを別のコンピュータシステム(例えば、クライアント)に提供することで、当該発見された文書が他のコンピュータシステムにおける文書の有形インスタンスに対応することを他のコンピュータシステムが検証することを可能にし得る。
以下の例は、AR体験およびその他の体験として文書コラボレーションを改善するために本明細書に記載の文書マッピングを用いることに関する。図3A~図3Fは文書の有形インスタンスに関する例を示す。有形インスタンスに関する例はいずれも、本明細書の他の箇所に記載する1つ以上の他の例とともに用いることができる。いくつかの実現例では、有形インスタンスはハードコピーまたはオンスクリーンプレゼンテーションであり得る。文書はテキストを含み、当該テキストは、ここでは簡潔にするために有形インスタンスにおいてプレースホルダのラテン語テキストによって表わされている。文書は、有形インスタンスによって現在反映されているものよりも長い(例えば、より多くのコンテンツを含む)可能性がある。
図3Aでは、有形インスタンス300がユーザによって知覚される。AR視野302は、ここでは、破線円を用いて概略的に表現される。いくつかの実現例では、有形インスタンス300に位置するユーザは、AR視野302を規定するARヘッドセットを装着している。ここで、ユーザは、AR視野302の内部および外部の両方で有形インスタンス300を見ることができ、AR視野302内の仮想アスペクト、ここではコントロール304、を知覚することができる。現在AR視野302内にある文書のコンテンツは、ARヘッドセットのコンピュータシステムにとって可視であり、したがって当該コンピュータシステムによって処理可能であり得る。例えば、ARヘッドセットは、AR視野302内にあるコンテンツに基づいて、有形インスタンス300のコンテンツ(例えば、テキスト)を検出することができる。例えば、ARヘッドセットはディスプレイデバイスを備える。ARヘッドセットは、例えば、有形インスタンスをキャプチャするためのカメラを備え得る。任意には、カメラによってキャプチャされた画像は、ARヘッドセットのディスプレイデバイス上に表示することができる。代替的または付加的には、仮想コンテンツが、ARヘッドセットのディスプレイデバイス上に表示されてもよい。例えば、ARヘッドセットのディスプレイデバイスは有形インスタンスに対して変位可能である。例えば、使用中、ARヘッドセットのディスプレイデバイスは、ユーザの眼の片方または両方とAR視野302内にある有形インスタンスとの間に配置され得る。
コントロール304は、ARヘッドセットのコンピュータシステムによって生成される。コントロール304は、ユーザが有形インスタンス300のマッピングをトリガすることを可能にし得る。例えば、このようなマッピングは、有形インスタンス300に対応し得る(例えば、その原型であった可能性のある)任意の電子文書を検索するために実行され得る。別の例として、このようなマッピングは、同じ文書の他の任意の有形インスタンスを検索するために実行され得る。
マッピングは、個人情報または他の機密情報を危険に晒すことなく実行することができる。有形インスタンス300に関するサーバにコンタクトを取る前に、有形インスタンス300のコンテンツのハッシュを生成することができる。当該ハッシュは難読化コンテンツも含む。ユーザは、2つの例を挙げると、AR視野302内で(例えば、手または指で)ジェスチャを行なうことによって、またはARヘッドセット上の専用入力機能によって、コントロール304を起動させることができる。すなわち、ユーザがコントロール304を起動させることで、ARヘッドセットに、機密情報を含まず有形インスタンス300(例えば、そのハッシュおよび難読化コンテンツ)に関連付けられたハッシュのみをサーバに送信することを実行させる。
ARヘッドセットによって送信された有形インスタンス300のハッシュを受信するサーバは、1回以上の検索においてハッシュを用いることができる。いくつかの実現例では、サーバは、コラボレーションプログラムに関連付けられた文書のコレクションを検索する。検索に含まれる文書コレクションの範囲は、ユーザのアクセス許可に基づいて定義することができる。例えば、ユーザがアクセス許可を有する文書のみが検索に含まれる。別の例として、検索は、公的にアクセス可能な文書(例えば、インターネット上で誰でも利用可能な文書)と、ユーザと明確に共有される文書とを含む。検索は、それぞれの検索ヒットが有形インスタンス300に対応する文書であるというサーバの信頼度に従って2つ以上の検索ヒットにランク付けすることを含み得る。例えば、ハッシュが文書の十分に固有な表現であるとき、対応する文書がサーバに存在する場合、検索により1つのヒットを生成することができ、または、対応する文書がサーバに存在しない場合、検索により生成できるヒットはない。
サーバは、ハッシュの受信に対する応答を生成し、当該応答をARヘッドセットに送信することができる。応答は、ハッシュに基づく検索の際に発見された少なくとも1つの文書に対応する情報を含み得る。いくつかの実現例では、サーバは、発見された文書のそれ自体のハッシングを実行することができる。このようなハッシングは、文書のハッシュを生成することと、当該ハッシュに難読化コンテンツを含めることとを含み得る。例えば、サーバは、実行されるARヘッドセットと同じ種類または異なる種類のハッシングを実行することができる。
上述の例は、コンピュータによって実行される方法が以下のステップを含み得ることを示す。当該以下のステップは、第1のコンピュータシステム(例えば、ARヘッドセット)によって、第1の文書の有形インスタンス(例えば、有形インスタンス300)の(例えば、AR視野302内の)第1のコンテンツを検出するステップと、第1のコンピュータシステムによって、(例えば、コントロール304の起動に応答して)第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成するステップと、第1のコンピュータシステムによって、第2のコンピュータシステム(例えば、サーバ)による受信のために第1のハッシュを送信するステップと、第1のコンピュータシステムによって、第2のコンピュータシステムにより生成された第1のハッシュに対する応答を受信するステップとを含み、当該応答は、第1のコンテンツに関連付けられた第2の文書に対応する情報(例えば、サーバのハッシュ)を含む。
サーバによって生成された応答を受信した後、ARヘッドセットは、当該応答を用いて、有形インスタンス300とサーバによって発見された文書との間の対応関係(例えば、文書同士が同じであること)を検証することができる。例えば、これにより、サーバがハッシュに基づく検索時に信頼できるジョブを行なったかどうかをARヘッドセットが評価することが可能になり得る。ARヘッドセットは、サーバのハッシュを有形インスタンス300と照らし合わせてチェックすることができる。
サーバによって生成された応答を受信した後、ARヘッドセットは、有形インスタンス300内のいくつかまたは全てのコンテンツをサーバに送信する機会をユーザに提供することができる。図3Bは、ARヘッドセットがAR視野302内にコントロール306を提示できることを示す。ユーザは、2つの例を挙げると、AR視野302内で(例えば、手または指で)ジェスチャを行うことによって、またはARヘッドセット上の専用入力機能によって、コントロール306を起動させることができる。例えば、コントロール306を起動させることで、ARヘッドセットに、有形インスタンス300の1つ以上のキャプチャ画像をサーバに送信することを実行させることができる。別の例として、有形インスタンス300のテキストを送信することができる。いくつかの実現例では、サーバは、ARヘッドセットによって提供されるコンテンツに基づいて、新しい電子文書、または発見された文書の新しいバージョンを生成することができる。いくつかの実現例では、ARヘッドセットは、有形インスタンス300のマークアップされた変更をサーバに送信する。このマークアップされた変更は、ARヘッドセットが有形インスタンス300とサーバによって発見された文書との間で検出した相違に対応する。
いくつかの実現例では、サーバは、発見された文書のコンテンツをARヘッドセットに送信する。例えば、これは、発見された文書が公的に利用可能である場合、または、サーバがARヘッドセットの代わりに確認を得ると、プレーンテキストで実行可能である。このような確認は、ARヘッドセットのユーザが発見された文書へのアクセス許可を有するという検証、および/または、発見された文書が実際に有形インスタンス300に対応しており、ARヘッドセットが発見された文書へのアクセスを望んでいるというARヘッドセットからの通知、を含み得る。
図3Cは、ARヘッドセットがAR視野302内の有形インスタンス300の仮想注釈を提示する例を示す。すなわち、ARヘッドセットのユーザに提示されている仮想注釈は、ユーザの現実のビュー(ここでは、有形インスタンス300のビュー)を拡張するマークアップされた変更を含む仮想アスペクトである。この例では、仮想注釈は、単語の削除308と、削除された単語の代わりの別の単語の挿入310とを含む。この例では、仮想注釈はまた、有形インスタンス300内の一文節の強調表示312と、強調表示された当該一文節に関連付けられたコメント314とを含む。
仮想注釈のいくつかは、サーバが有形インスタンス300のハッシュでの検索に基づいて発見した電子文書に対して別のユーザによって入力された編集である。視線追跡は、他のユーザが現在、電子文書の任意の特定の部分に焦点を合わせているかどうかを判断するために実行することができる。ここで、注視用インジケータ316は、他のユーザのこのような視線追跡に基づいてAR視野302内に提示することができる。すなわち、この例では、サーバが発見した文書は、コラボレーションプログラムに関連付けられた文書のコレクションの一部であった。この例における有形インスタンス300は、サーバが後に発見するであろう文書を実際に生で表現したものではなかったことに留意されたい。むしろ、有形インスタンス300は、2つの例を挙げると、その文書のハードコピーまたは会議室にて示されるオンスクリーンプレゼンテーションであった可能性がある。代わりに、有形インスタンス300上で実行されたマッピングにより、ここでは、有形インスタンス300を知覚したユーザが、有形インスタンス300に対応することが判明した電子文書からリアルタイムの仮想更新バージョンへのアクセスを得ることが可能となった。
上述のシナリオとは別のシナリオでは、サーバが発見した文書は、コラボレーションプログラムに関連付けられた文書のコレクションの一部ではない可能性がある。いくつかの実現例では、サーバは、ARヘッドセットから受信したハッシュと、別のコンピュータシステムから受信した別のハッシュとを用いて検索を実行することによって文書を発見した可能性がある。例えば、他のコンピュータシステムは、別の有形インスタンス(すなわち、有形インスタンス300ではない)からのコンテンツを検出することに基づいて、そのハッシュをアップロードした可能性もある。これらの2つのハッシュが互いに対応しているとサーバが判断したことに基づいて、サーバは、それぞれの有形インスタンスが互いに対応していると見なすことができる。例えば、これにより、サーバが有形インスタンスに対応する電子文書を発見しない場合にも、2つの有形インスタンス間でマッピングを確立することが可能となり得る。
本明細書に記載のマッピングにより、バージョン管理および/または不正アクセスの検出を改善させることができる。例えば、有形インスタンス300が映画スタジオで作成中の映画の未公開原稿であると仮定する。有形インスタンス300のハッシュは、映画原稿へのアクセス許可を有していないユーザが現在その映画原稿を閲覧していることをサーバが検出することを可能にし得る。
ARヘッドセットを有するユーザは、有形インスタンス300の編集を実行することができる。マッピングが確立されると、このような編集は、例えば、ここで説明するように、1人以上の他のユーザと共有することができる。図3Dは、ARヘッドセットを有するユーザが、ある表現の削除318と、削除された表現の代わりに別の表現の挿入320とにマーク付けしたことを示す。ARヘッドセットを有するユーザが入力した編集は、有形インスタンス300がハードコピーである場合はペンを用いて行なうことができ、または有形インスタンス300がオンスクリーンプレゼンテーションである場合は電子的に行なうことができる。有形インスタンス300のうち編集がなされた部分をAR視野302が含む場合、編集の共有を実行することができる。
当該編集が別のユーザと共有される場合、その他のユーザは当該編集をそれらの対応する有形インスタンスとともに閲覧することができる。図3E~図3Fは、別のユーザによって知覚されている有形インスタンス300′を示す。有形インスタンス300′は、上述の例におけるハッシュでの検索に基づいてサーバが発見したインスタンスである。図3Eから始めて、他のユーザは現在、電子形式で有形インスタンス300′で作業している。したがって、他のユーザは現在、ARを知覚していない可能性がある。この例では、他のユーザが有形インスタンス300′について付した注釈は、削除308(図3C)が対応する削除308′と、挿入310(図3C)が対応する挿入310′と、強調表示312(図3C)が対応する強調表示312′と、コメント314(図3C)が対応するコメント314′とを含む。他のユーザによるこれらの注釈は、有形インスタンス300′の基礎をなす文書において電子的に付されるものであり、仮想アスペクトではない。
有形インスタンス300を有するユーザによって図3Dで入力された1つ以上の注釈も、図3Eの有形インスタンス300′と関連付けて可視であり得る。ここで、このような注釈は、削除318(図3D)に対応する削除318′と、挿入320(図3D)に対応する挿入320′とを含む。
ここで図3Fを参照すると、有形インスタンス300′は、ここではハードコピー(例えば、印刷した紙)である。有形インスタンス300′を知覚している他のユーザは、ここでは、有形インスタンス300′に対してAR視野302′を規定するARヘッドセットを用いている。他のユーザが有形インスタンス300′について付した注釈は、削除308(図3C)が対応する削除308″と、挿入310(図3C)が対応する挿入310″と、強調表示312(図3C)が対応する強調表示312″と、コメント314(図3C)が対応するコメント314″とを含む。他のユーザによるこれらの注釈は、有形インスタンス300′であるハードコピー上で手作業で(例えば、ペンまたは強調表示を用いて)付されるものであり、仮想アスペクトまたは電子的なアスペクトではない。
図3Dで付された注釈は、図3FのAR視野302′に提示することができる。ここで、このような注釈は、削除318(図3D)に対応する削除318″と、挿入320(図3D)に対応する挿入320″とを含む。注視用インジケータ322は、有形インスタンス300(図3A~図3D)を有するユーザの視線追跡に基づいて、AR視野302′内に提示することができる。
上述の例は、デジタル形式で文書に電子的に行われたかまたはハードコピー上で手作業で行われた編集を示す。電子文書に関する編集、注釈もしくは他のマークアップされた変更、または他の任意のコマンドを入力する他の方法を用いることができる。いくつかの実現例では、音声インターフェイスは、ユーザが行う音声入力を登録し、それを、電子文書に変更を加えるための音声コマンドとして翻訳することができる。例えば、図3Eを参照すると、キーボードを用いて削除308′および挿入310′を入力する代わりに、ユーザは、「6行目、dolorをdoloreに置換える」と口述することができる。
本明細書に記載のマッピングは、視力の低い人等のための視覚情報へのアクセスし易さを改善することができる。例えば、図3Aの有形インスタンス300を知覚するユーザが、コンテンツについてのテキスト読み上げサービスを要求することを望んでいると仮定する。テキスト読み上げサービスがARヘッドセットによって検出された有形インスタンス300のテキストに基づいて実行された場合、テキスト読み上げサービスは、スピーチを生成する際の文書の特定の構造的アスペクト、例えば、並置された段落を読む順序、または或る段落が終わり次の段落が始まる位置等を推測しなければならない可能性もある。他方で、有形インスタンス300がある電子文書に対応する場合、その電子文書は、テキスト読み上げサービスが使用可能な構造マークアップを含み得る。構造マークアップは、ハイパーテキストマークアップ言語を含むがこれに限定されない任意の好適なマークアップ言語に応じた要素を含み得る。さらに、テキスト読み上げサービスは、有形インスタンス300のテキストをスピーチとしてより適切にレンダリングするために、電子文書のマークアップ要素によって反映される構造的概念を参照することができる。
図4A~図4Bは、有形インスタンス400および402ならびにコンピュータシステム404に関する例を概念的に示す。有形インスタンス400および402ならびにコンピュータシステム404は、本明細書の他の箇所に記載する1つ以上の他の例とともに用いることができる。
図4Aでは、コンピュータシステム404は、有形インスタンス400および402の各々が対応する電子文書406を含む。例えば、有形インスタンス400および402の各々は、電子文書406のハードコピーまたはオンスクリーンプレゼンテーションである。コンピュータシステム404は、有形インスタンス400に関連付けられたコンピュータシステムからハッシュを受信すると、電子文書406を識別したかもしれない。同様に、コンピュータシステム404は、有形インスタンス402に関連付けられたコンピュータシステムからハッシュを受信すると、電子文書406を識別したかもしれない。したがって、有形インスタンス400および402の各々は電子文書406にマッピングされ、有形インスタンス400および402は電子文書406によって互いの間にリンク408を有する。リンク408は、有形インスタンス400と402との間でのいずれかの方向または両方向についての識別のために、および/またはいずれかの方向または両方向への情報転送のために用いられ得る。
図4Bでは、コンピュータシステム404は、有形インスタンス400および402の各々が対応する電子文書を必ずしも含むわけではない。ここで、有形インスタンス400に関連付けられたコンピュータシステムは、有形インスタンス400のハッシュ410をコンピュータシステム404に提供している。同様に、有形インスタンス402に関連付けられたコンピュータシステムは、有形インスタンス402のハッシュ412をコンピュータシステム404に提供している。したがって、有形インスタンス400はハッシュ410にマッピングされ、有形インスタンス402はハッシュ412にマッピングされる。さらに、コンピュータシステム404は、ハッシュ410および412が(例えば、それらが同一であるので)互いに対応していると判断することができる。すなわち、コンピュータシステム404は、ハッシュ410および412を用いて、有形インスタンス402が有形インスタンス400に関連付けられていることを検出することができる。したがって、有形インスタンス400および402は、ハッシュ410および412によって互いの間にリンク414を有する。リンク414は、有形インスタンス400と402との間のいずれかの方向または両方向についての識別のために、および/またはいずれかの方向または両方向への情報転送のために用いられ得る。すなわち、リンク414は、有形インスタンス400と402との間に、それらがハードコピー(例えば、紙文書)である場合にもリアルタイムの動的な接続を提供する。例えば、リンク414は、有形インスタンス400または402に関する仮想注釈を、それらのそれぞれのコンピュータシステム間で共有することを容易にし得る。
本明細書に記載のマッピングは、有形インスタンスのコンテンツを電子的にキャプチャする簡便な方法を提供すること等によって、視覚的な形式で情報を文書化するプロセスを改善することができる。図5はストレージドライブ500に関する例を示す。いくつかの実現例では、ストレージドライブ500は、複数のユーザのファイルおよびフォルダのための中央ストレージソリューション(例えば、ファイルバックアップサービス)として提供することができ、複数のタイプのデバイスを用いたファイルへのアクセスを可能にし得る。例えば、ストレージドライブ500はクラウド内で利用可能にされ得る。
ストレージドライブ500において、ユーザは、コントロール502を起動して、枠504内のそのユーザのファイルの名前を見ることができる。コントロール506を用いることで、ストレージドライブ500以外の別のドライブ(例えば、ユーザに属してないがユーザと共有されているドライブ)にアクセスすることができる。コントロール508を起動して、ユーザが最近アクセスした文書の履歴を見ることができる。
ストレージドライブ500を制御するユーザが、保存すべかリサイクルすべきかを自身で判断する紙文書を所有していると仮定する。例えば、紙文書は、ユーザが購入した製品のユーザマニュアルであり得る。ユーザマニュアルを将来再び必要としないことを望んでリサイクルするよりむしろ、ユーザはARヘッドセットを着用し、紙文書のいくつかまたは全てのページをめくることができる。図3A~図3Bを参照して上述した例と同様に、ARヘッドセットは、ここでは、ユーザマニュアルのコンテンツをキャプチャし、その情報をサーバ、この例ではストレージドライブ500を制御するサーバ、に提供することができる。したがって、ユーザがその後ストレージドライブ500にアクセスする際、枠504は、ユーザがざっと目を通したユーザマニュアルに対応するアイテム510を含んでおり、このため、この情報を維持する簡便な方法を提供することができる。
本明細書に記載のマッピングは、ユーザが見た有形インスタンスの記録を提供すること等によって、ユーザが以前に閲覧した視覚情報へのアクセスを改善させることができる。図6Aは、図5のストレージドライブ500に関する例を示す。再び図3Aを簡単に参照すると、その例は、有形インスタンス300のハッシュをサーバに提供するARヘッドセットを説明している。これは、ARヘッドセットに関連付けられたユーザが有形インスタンス300を知覚したことをサーバに通知する。本例は、サーバがハッシュを用いて発見した文書へのアクセス許可をユーザが有すると当該サーバが判断する状況を含む。したがって、サーバは、有形インスタンス300についての識別子を、アクセスされた文書のユーザの履歴へのエントリとして追加する。いくつかの実現例では、ストレージドライブ500は、最近閲覧された文書のリストをユーザが見ることができるコントロール508を備える。コントロール508が起動されると、枠504は、ここでは有形インスタンス300に対応するエントリ512を含む、アクセス履歴のためのそれぞれのエントリを提示することができる。すなわち、ユーザが有形インスタンス300(例えば、印刷文書またはオンスクリーンプレゼンテーション)を観察している間ARヘッドセットを着用しているので、ストレージドライブ500は、ユーザのアクセス履歴に有形インスタンス300を反映させるように更新される。いくつかの実現例では、エントリ512は、ユーザが有形インスタンス300に近接している(例えば、閲覧している)ことを検出することに基づき得る。例えば、有形インスタンス300は、ハードコピー文書であり得るかまたは電子文書のオンスクリーンプレゼンテーションであり得る。
図3Aの状況では、サーバがハッシュを用いて発見する電子文書へのアクセス許可をユーザが有していない場合、追加の対話を行なうことができる。図6Bは、ユーザが有形インスタンス300およびAR視野302を閲覧していることを示す。上述のように、ARヘッドセットによって提供されたハッシュで検索を行なうと、サーバは、対応する電子文書を識別し、ユーザがそれに対するアクセス許可を有していないと判断する。ここで、サーバは、有形インスタンス300が対応している電子文書へのアクセス許可を有していないことをユーザに通知するプロンプト600をARヘッドセットに提示させることができる。プロンプト600は、実行可能な1つ以上のアクションをユーザに提供することができる。いくつかの実現例では、コントロール602は、ユーザが電子文書にアクセスする許可を求める要求を提出することを可能にする。例えば、サーバは、電子文書の所有者である人または電子文書を制御する人が検討できるようにするためにこのような要求を転送することができる。アクセス許可がユーザに与えられる場合、サーバは、図3A~図3Fを参照して上述した例のうちの1つ以上に従って次に進み得る。いくつかの実現例では、コントロール604は、ユーザがサーバで有し得る別のアカウントに当該ユーザがログインすることを可能にし、新しいアカウントが電子文書へのアクセス許可を有する場合、サーバは、図3A~図3Fを参照して上述した例のうちの1つ以上に従って次に進み得る。
いくつかの実現例では、情報の保護を改善するために、文書管理に対する実用的アプローチを適用することができる。仮定ではあるが、組織内では、電子文書の所有者または管理者には、上述したような多数のアクセス許可要求が頻繁に殺到する可能性がある。さらに、このような人は、単に、アクセスに関する全ての受信要求を適時に解決することができないという理由で、組織の文書保護ポリシーに反して、文書を保護状態から自由にアクセス可能な状態に変更することを選択する可能性がある。
上述の実用的なアプローチは、文書の有形インスタンスを知覚することができる人が、対応するコンピュータシステムにおいてアクセスが(まだ)正式に与えられていない場合であっても、実際には、文書への少なくとも最小限のアクセスを既に得ていることを認識することに基づき得る。再び図3Aを簡単に参照すると、ARヘッドセットを着用しているユーザは、このとき、有形インスタンス300の存在下にあり、恐らくそのコンテンツを知覚することができる。ユーザが短時間だけ有形インスタンス300に存在している場合、ユーザは意図せずに有形インスタンス300に接触したものの、そのコンテンツを完全にまたは深く知覚する理由または機会を有していなかった可能性がある。このような状況では、対応する電子文書へのアクセス許可を有していないので、ユーザのステータスを変更することは正当化されない可能性がある。しかしながら、ユーザが、少なくとも予め定められた時間にわたって有形インスタンス300の存在下にあった(例えば、ARヘッドセットを用いて閲覧している)ことが判明した場合、より望ましい行動方針は、対応する電子文書へのアクセス許可を、正式に要求する必要なしに該当する人に自動的に付与することであると考えられ得る。適切とみなされる時間の長さは、文書内の情報の性質、文書のサイズもしくは複雑さ、組織のタイプ、または組織内のユーザの役割に基づいて定義することができる。少なくとも予め定められた時間にわたってユーザが有形インスタンス300にアクセスした(例えば、その存在にあった)とサーバが判断すると、当該サーバは、プロンプト600を提示することなく、対応する電子文書へのアクセスをユーザに自動的に付与することができる。
本明細書に記載のマッピングは、例えば、その有形インスタンスを知覚することに基づいて連携文書を見つけてアクセスする簡便な方法を提供すること等によって、文書のコレクションのためのコラボレーションプログラムへのより容易なアクセスを容易にすることができる。図7A~図7Bは、図3A~図3Eの有形インスタンス300およびAR視野302に関する例を示す。本図を参照して記載する例は、本明細書の他の箇所に記載する1つ以上の他の例とともに用いることができる。
これらの例は、有形インスタンス300がコラボレーションプログラムに関連付けられた文書のコレクション内の文書に対応している状況を含む。図7Aでは、ARヘッドセットを装着しているユーザは、このとき、AR視野302内の有形インスタンス300を閲覧している。再び図3Bの状況を簡潔に参照すると、提供されたハッシュに基づいて、ユーザが対応する電子文書へのアクセス許可を有しているとサーバが判断すると、当該サーバは、1つ以上の追加の機能をユーザにとって利用可能にすることができる。いくつかの実現例では、コントロール700は、AR視野302に視覚的に含まれること等によって、ARヘッドセットによって提供され得る。ユーザは、対応する電子文書へのアクセスを得るためにコントロール700を起動させることができる。
いくつかの実現例では、図7Aを参照して説明した機能は、ジェスチャを実行することによってトリガされ得る。例えば、ユーザは、AR視野302内でジェスチャを実行することができる。ARヘッドセットは、この入力を、ARヘッドセットで閲覧されている有形インスタンス300から対応する電子文書を「ドラッグする」ための要求として翻訳することができる。このドラッグは、ユーザの手または指の位置および動きによって空間的に制御され得る。図7Bは、ユーザが、AR視野302内の有形インスタンス300の画像から遠ざかるように形状702をドラッグするジェスチャを実行することを示す。すなわち、形状702は、ARヘッドセットによってレンダリングされる一方で、有形インスタンス300は、AR視野302内で可視であるが、ARヘッドセットによってレンダリングされない。コントロール704はARヘッドセットのコンピュータシステムに対応する。例えば、ユーザは、コントロール704で形状702を「ドロップする」ことに対応するジェスチャを実行することができる。これにより、ARヘッドセットのコンピュータシステムに、コラボレーションプログラムの対応する電子文書へのアクセスを作成させることができる。当該アクセスは、ARヘッドセットを制御するコンピュータシステムのグラフィカルユーザインターフェイス上の電子文書の表現(例えば、リンクまたはアイコン)の形態で作成することができる。アクセスが作成されると、ユーザは、コラボレーションプログラムを用いてコンピュータシステム上で対応する電子文書を開くことができる。
さらに、コントロール706は、ARヘッドセットによって検出された付近のコンピュータシステムに対応する。例えば、ARヘッドセットは、近距離通信によって、ユーザのタブレットまたはラップトップコンピュータが付近にあると判断することができ、これにより、ARヘッドセットに、タブレットまたはラップトップをユーザに関連付けられた別のコンピュータシステムとして識別させることができる。ユーザは、コントロール706で形状702を「ドロップする」ことに対応するジェスチャを実行することができる。これにより、コラボレーションプログラムの対応する電子文書へのアクセスをその他のコンピュータシステムにおいて作成させることができる。他のコンピュータシステムにおけるアクセスは、グラフィカルユーザインターフェイス上の電子文書の表現(例えば、リンクまたはアイコン)の形態で作成することができる。アクセスが作成されると、ユーザは、コラボレーションプログラムを用いて、他のコンピュータシステム上で対応する電子文書を開くことができる。
本明細書に記載のマッピングは、同様にまたは代わりに、相互のコンピュータ文書管理を提供すること等によって、文書のコレクションのためのコラボレーションプログラムへの、ARの領域外でのより容易なアクセスを容易にすることができる。図8A~8Eは、図3A~図3Eの有形インスタンス300およびディスプレイデバイス800に関する例を示す。ディスプレイデバイス800を参照して説明する例は、本明細書の他の箇所に記載する1つ以上の他の例とともに用いることができる。
ディスプレイデバイス800は、このとき画面共有アプリケーション802を提示しているコンピュータシステムによって制御される。いくつかの実現例では、コンピュータシステムのユーザは、このとき、別個のコンピュータシステムを用いているとともに画面共有アプリケーション802を用いてコンテンツを共有している別の人とのテレビ会議に参加している。例えば、その人は、その別個のコンピュータシステムから電子文書を共有しており、当該電子文書は、ディスプレイデバイス800上に有形インスタンス804として現れている。
ディスプレイデバイス800のコンピュータシステムは、有形インスタンス804のコンテンツを、それがディスプレイデバイス800上に提示されることに基づいて検出することができる。コンピュータシステムは、コラボレーションプログラムを制御するサーバにハッシュを提供することができる。サーバが、提供されたハッシュを用いて、ユーザが対応する電子文書へのアクセス許可を有していると判断したことに応答して、1つ以上の追加の機能をユーザにとって利用可能にすることができる。図8Bは、ユーザが画面共有アプリケーション802の有形インスタンス804から対応する電子文書を表す形状806をドラッグし、形状806をディスプレイデバイス800のデスクトップ上に配置することを示す。これにより、ディスプレイデバイス800のコンピュータシステムに、コラボレーションプログラムの対応する電子文書へのアクセスを作成させることができる。図8Cは、デスクトップ上に位置している電子文書の表現808を示す。表現808は、対応する電子文書をコンピュータシステム上に提示するようにコラボレーションプログラムをトリガするリンクまたはアイコンを含み得る。
ディスプレイデバイス800のコンピュータプログラムによって実行されるアプリケーションは、同様にまたは代わりに、有形インスタンス804が検出されることに基づいて、コラボレーションプログラムへのアクセスを容易にすることができる。図8Dは、ディスプレイデバイス800のコンピュータシステムがブラウザ810を提示することを示す。ブラウザ810は、有形インスタンス804のコンテンツを検出し、それに応答して1つ以上の機能をユーザに提供することができる。いくつかの実現例では、ブラウザ810は、ディスプレイデバイス800のコンピュータシステムにおいて、コラボレーションプログラムの対応する電子文書へのアクセスを作成するためのコントロール812を提示する。これにより、表現808(図8C)をデスクトップに配置することができる。
いくつかの実現例では、ブラウザ810は、別のコンピュータシステムにおいて、コラボレーションプログラムの対応する電子文書へのアクセスを作成するためのコントロール814を提示する。他のコンピュータシステムは、ディスプレイデバイス800のコンピュータシステムによって検出される近傍のコンピュータシステムであり得る。例えば、ディスプレイデバイス800のコンピュータシステムは、近距離通信によって、ユーザのタブレットまたはラップトップコンピュータが付近にあると判断することができ、これにより、ディスプレイデバイス800のコンピュータシステムに、タブレットまたはラップトップをユーザに関連付けられた別のコンピュータシステムとして識別させることができる。コントロール814を起動させることで、コラボレーションプログラムの対応する電子文書へのアクセスをその他のコンピュータシステムにおいて作成させることができる。図8Eは、他のシステムがディスプレイデバイス816を有し、電子文書の表現818がそのデスクトップ上に位置していることを示す。表現818は、対応する電子文書を他のコンピュータシステム上に提示するようにコラボレーションプログラムをトリガするリンクまたはアイコンを含み得る。
前述のように、本明細書に記載のマッピングは、相互のコンピュータ文書管理を提供すること等によって、文書のコレクションのためのコラボレーションプログラムへのより容易なアクセスを容易にすることができる。図9A~図9Bは、図8A~図8Eのディスプレイデバイス800に関する例を示す。ディスプレイデバイス800は、特定のオペレーティングシステムを実行するコンピュータシステムによって制御され得るとともに、別のディスプレイデバイス900は、別のオペレーティングシステムを実行する別個のコンピュータシステムによって制御され得る。オペレーティングシステムは、例えば、Google(登録商標)によって設計されたChrome(登録商標)OSもしくはAndroid(登録商標)、Microsoft(登録商標)によって設計されたWindows(登録商標)、Apple(登録商標)によって設計されたmacOS(登録商標)もしくはiOS、またはオープンソースオペレーティングシステム(例えば、Linux(登録商標))であり得る。
ここで、有形インスタンス300は、ディスプレイデバイス800によって提示され、このときAR視野302内にある。図9Aは、ユーザがAR視野302内で有形インスタンス300の画像から遠ざかるように形状902をドラッグすることを示す。例えば、ユーザは、AR視野302内でジェスチャを実行することによって形状902をドラッグし、当該ジェスチャはARヘッドセットによって検出されて翻訳される。すなわち、形状902はARヘッドセットによってレンダリングされる一方で、有形インスタンス300は、AR視野302内で可視であるがディスプレイデバイス800によってレンダリングされる。
形状902がARヘッドセットによってAR視野302内でレンダリングされると、ユーザは、代わりに、図9Bに示されるように、ディスプレイデバイス900を注視することができる。例えば、ユーザは、AR視野302が代わりにディスプレイデバイス900に向けられるように、自分の頭部の向きを変えてもよい。別の例として、AR視野302は、ディスプレイデバイス800および900の両方を収容するのに十分な大きさであり得る。ARヘッドセットは、ディスプレイデバイス800および900のそれぞれのコンピュータシステムの各々に接続される。例えば、近距離通信ネットワークは、ARヘッドセットとコンピュータシステムとを互いに結合することができる。ユーザは、そのデスクトップの前方でジェスチャを実行することによって、ディスプレイデバイス900において形状902を「ドロップする」ことができる。ARヘッドセットがディスプレイデバイス900についてのコンピュータシステムのアイデンティティ、位置、およびネットワークアドレスを知っていることに基づいて、ARヘッドセットは、電子文書の表現904をディスプレイデバイス900のデスクトップ上に配置させることができる。表現904は、対応する電子文書をディスプレイデバイス900上に提示するようにコラボレーションプログラムをトリガするリンクまたはアイコンを含み得る。
図10は、コンピュータによって実行される方法1000の例を示す。コンピュータによって実行される方法1000は、本明細書の他の箇所に記載する1つ以上の例とともに用いることができる。特に指定のない限り、図示されるよりも多くの動作もしくは少ない動作を実行することができ、および/または2つ以上の動作を異なる順序で実行することができる。
コンピュータによって実行される方法1000は、第1のコンピュータシステムによって、第1の文書の有形インスタンスの第1のコンテンツを検出する動作1002を含み得る。例えば、クライアント側で機能するコンピュータシステム100(図1)のインスタンスは、有形インスタンス300(図3)のコンテンツを検出することができる。
コンピュータによって実行される方法1000は、第1のコンピュータシステムによって、第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成する動作1004を含み得る。例えば、クライアント側で機能するコンピュータシステム100(図1)のインスタンスは、有形インスタンス300(図3)のコンテンツのハッシュを生成することができる。
コンピュータによって実行される方法1000は、第1のコンピュータシステムによって、第2のコンピュータシステムによる受信のために第1のハッシュを送信する動作1006を含み得る。例えば、クライアント側で機能するコンピュータシステム100(図1)のインスタンスは、サーバ側で機能するコンピュータシステム100(図1)のインスタンスによる受信のために有形インスタンス300(図3)のコンテンツのハッシュを送信することができる。
コンピュータによって実行される方法1000は、第1のコンピュータシステムによって、第2のコンピュータシステムにより生成された第1のハッシュに対する応答を受信する動作1008を含み得る。当該応答は、第1のコンテンツに関連付けられた第2の文書に対応する情報を含む。例えば、クライアント側で機能するコンピュータシステム100(図1)のインスタンスは、サーバ側で機能するコンピュータシステム100(図1)のインスタンスによって生成された応答を受信することができる。
コンピュータによって実行される方法1000は、第1のコンピュータシステムによって、当該応答に基づいて、第2のコンピュータシステムによる受信のために第1のコンテンツを送信する動作1010を含み得る。例えば、クライアント側で機能するコンピュータシステム100(図1)のインスタンスは、サーバ側で機能するコンピュータシステム100(図1)のインスタンスによる受信のために有形インスタンス300(図3)のコンテンツを送信することができる。
図11は、本明細書に記載の技術を実現するために使用可能なコンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す。図11は、本明細書に記載の技術とともに用いられ得る汎用コンピュータデバイス1100および汎用モバイルコンピュータデバイス1150の一例を示す。コンピューティングデバイス1100は、ラップトップ、デスクトップ、タブレット、ワークステーション、携帯情報端末、テレビ、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピューティングデバイス等の様々な形態のデジタルコンピュータを表すことが意図されている。コンピューティングデバイス1150は、携帯情報端末、セルラー電話、スマートフォン、および他の同様のコンピューティングデバイス等の様々な形態のモバイルデバイスを表すことが意図されている。本明細書に示す構成要素、それらの接続および関係、ならびにそれらの機能は、例示的なものにすぎず、本明細書にて記載および/または主張する発明の実現例を限定することを意図するものではない。
コンピューティングデバイス1100は、少なくとも1つのプロセッサ1102と、メモリ1104と、ストレージデバイス1106と、メモリ1104および高速拡張ポート1110に接続する高速インターフェイス1108と、低速バス1114およびストレージデバイス1106に接続する低速インターフェイス1112とを含む。プロセッサ1102は半導体ベースのプロセッサであり得る。メモリ1104は半導体ベースのメモリであり得る。構成要素1102、1104、1106、1108、1110および1112の各々は、様々なバスを用いて相互接続され、共通のマザーボード上に、または必要に応じて他の態様で実装され得る。プロセッサ1102は、高速インターフェイス1108に結合されたディスプレイ1116等の外部入出力デバイス上にGUIに関するグラフィカル情報を表示するために、メモリ1104またはストレージデバイス1106に格納された命令を含む、コンピューティングデバイス1100内で実行すべき命令を処理することができる。他の実現例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数のタイプのメモリとともに適宜用いられ得る。また、複数のコンピューティングデバイス1100が接続されてもよく、各デバイスは、(例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の部分を提供する。
メモリ1104は、コンピューティングデバイス1100内に情報を格納する。一実現例では、メモリ1104は1つまたは複数の揮発性メモリユニットである。別の実現例では、メモリ1104は1つまたは複数の不揮発性メモリユニットである。メモリ1104はまた、磁気ディスクまたは光ディスク等の別の形態のコンピュータ可読媒体であり得る。
ストレージデバイス1106は、コンピューティングデバイス1100に大容量ストレージを提供することができる。一実現例では、ストレージデバイス1106は、コンピュータ可読媒体、例えば、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、もしくはテープデバイス等、または、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成内のデバイスを含むデバイスのアレイであり得るか、またはそれらを含み得る。コンピュータプログラム製品は、情報担体において有形に具現化することができる。コンピュータプログラム製品はまた、実行されると、上述したもの等の1つ以上の方法を実行する命令を含み得る。情報担体は、メモリ1104、ストレージデバイス1106、またはプロセッサ1102上のメモリ等のコンピュータ可読媒体または機械可読媒体である。
高速コントローラ1108は、コンピューティングデバイス1100のための帯域幅集約型動作を管理し、低速コントローラ1112は、より低い帯域幅集約型動作を管理する。このような機能の割当ては一例に過ぎない。一実現例では、高速コントローラ1108は、(例えば、グラフィックスプロセッサまたはアクセラレータを介して)メモリ1104、ディスプレイ1116に結合されるとともに、様々な拡張カード(図示せず)を受け入れ得る高速拡張ポート1110に結合される。この実現例では、低速コントローラ1112は、ストレージデバイス1106および低速拡張ポート1114に結合される。様々な通信ポート(例えば、USB、Bluetooth(登録商標)、イーサネット(登録商標)、無線イーサネット(登録商標))を含み得る低速拡張ポートは、例えばネットワークアダプタを介して、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータ等のネットワーキングデバイス等の1つ以上の入出力デバイスに結合され得る。
コンピューティングデバイス1100は、図に示すように、いくつかの様々な形態で実現され得る。コンピューティングデバイス1100は、例えば、標準サーバ1120として、またはそのようなサーバのグループ内で複数回実現され得る。また、コンピューティングデバイス1100は、ラックサーバシステム1124の一部として実現されてもよい。加えて、コンピューティングデバイス1100はラップトップコンピュータ1122等のパーソナルコンピュータにおいて実現され得る。代替的には、コンピューティングデバイス1100からの構成要素は、デバイス1150等のモバイルデバイス(図示せず)内の他の構成要素と組合わされてもよい。このようなデバイスの各々は、コンピューティングデバイス1100、1150のうちの1つ以上を含み得るとともに、システム全体は、互いに通信する複数のコンピューティングデバイス1100、1150から構成され得る。
コンピューティングデバイス1150は、他の構成要素の中でも特に、少なくとも1つのプロセッサ1152と、メモリ1164と、ディスプレイ1154等の入出力デバイスと、通信インターフェイス1166と、トランシーバ1168とを含む。デバイス1150はまた、追加のストレージを提供するために、マイクロドライブまたは他のデバイス等のストレージデバイスを備え得る。構成要素1150、1152、1164、1154、1166、および1168の各々は様々なバスを用いて相互接続されるとともに、当該構成要素のうちのいくつかは、共通のマザーボード上に、または、他の態様で適宜、実装され得る。
プロセッサ1152は、メモリ1164に格納された命令を含む命令を、コンピューティングデバイス1150内で実行することができる。プロセッサは、別個の複数のアナログプロセッサおよびデジタルプロセッサを含むチップのチップセットとして実装されてもよい。プロセッサは、例えば、ユーザインターフェイスの制御、デバイス1150によって実行されるアプリケーション、およびデバイス1150による無線通信等の、デバイス1150の他の構成要素の連携を提供し得る。
プロセッサ1152は、ディスプレイ1154に結合された制御インターフェイス1158およびディスプレイインターフェイス1156を介してユーザと通信してもよい。ディスプレイ1154は、例えば、薄膜トランジスタ液晶ディスプレイ(Thin-Film-Transistor Liquid Crystal Display:TFT LCD)または有機発光ダイオード(Organic Light Emitting Diode:OLED)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェイス1156は、グラフィカル情報および他の情報をユーザに提示するようにディスプレイ1154を駆動するための適切な回路を備え得る。制御インターフェイス1158は、ユーザからコマンドを受信し得るとともに、当該コマンドを変換してプロセッサ1152に提示し得る。加えて、デバイス1150と他のデバイスとの近距離通信を可能にするために、プロセッサ1152と通信する外部インターフェイス1162を設けてもよい。外部インターフェイス1162は、例えば、いくつかの実現例では有線通信を提供してもよく、または他の実現例では無線通信を提供してもよく、複数のインターフェイスが用いられてもよい。
メモリ1164は、コンピューティングデバイス1150内に情報を格納する。メモリ1164は、1つもしくは複数のコンピュータ可読媒体、1つもしくは複数の揮発性メモリユニット、または1つもしくは複数の不揮発性メモリユニットのうちの1つ以上として実現され得る。拡張メモリ1174が設けられてよく、例えば、シングルインラインメモリモジュール(Single In Line Memory Module:SIMM)カードインターフェイスを含み得る拡張インターフェイス1172を介してデバイス1150に接続され得る。このような拡張メモリ1174は、デバイス1150のための追加のストレージ空間を提供し得るか、または、デバイス1150のためのアプリケーションまたは他の情報を格納し得る。具体的には、拡張メモリ1174は、上述したプロセスを実行または補足するための命令を含み得るとともに、セキュリティ保護された情報も含み得る。したがって、例えば、拡張メモリ1174は、デバイス1150のためのセキュリティモジュールとして設けられてもよく、デバイス1150の安全な使用を可能にする命令でプログラムされてもよい。加えて、ハッキング不可能な態様でSIMMカード上に識別情報を配置するなどして、追加の情報とともに、セキュリティ保護されたアプリケーションがSIMMカードを介して提供され得る。
メモリは、以下に説明するように、例えば、フラッシュメモリおよび/またはNVRAMメモリを含み得る。一実現例では、コンピュータプログラム製品は情報担体において有形に具現化される。コンピュータプログラム製品は、実行されると、上述の方法等の1つ以上の方法を実行する命令を含む。情報担体は、メモリ1164、拡張メモリ1174、またはプロセッサ1152上のメモリ等のコンピュータ可読媒体または機械可読媒体であり、例えば、トランシーバ1168または外部インターフェイス1162を介して受信され得る。
デバイス1150は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス1166を介して無線で通信し得る。通信インターフェイス1166は、とりわけ、GSM(登録商標)音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRS等の様々なモードまたはプロトコル下での通信を提供し得る。このような通信は、例えば、無線周波数トランシーバ1168を通じて行なわれてもよい。加えて、Bluetooth(登録商標)、WiFi、または他のこのようなトランシーバ(図示せず)等を用いて短距離通信が行われてもよい。加えて、全地球測位システム(Global Positioning System:GPS)受信機モジュール1170は、デバイス1150上で実行されるアプリケーションによって適宜使用され得る追加のナビゲーション関連および位置関連の無線データをデバイス1150に提供し得る。
デバイス1150はまた、音声コーデック1160を用いて音声認識可能に通信してもよく、これは、ユーザからの発話情報を受信して、使用可能なデジタル情報に変換し得る。音声コーデック1160は、同様に、例えばデバイス1150のハンドセット内のスピーカ等を通じて、ユーザのために可聴音を生成し得る。そのような音は、音声電話通話からの音を含んでもよく、録音された音(例えば、音声メッセージ、音楽ファイル等)を含んでもよく、デバイス1150上で動作するアプリケーションによって生成される音を含んでもよい。
コンピューティングデバイス1150は、図に示すように、いくつかの異なる形態で実現され得る。例えば、コンピューティングデバイス1150は携帯電話1118として実現されてもよい。コンピューティングデバイス1150はまた、スマートフォン1182、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
本明細書に記載のシステムおよび技術の種々の実現例は、デジタル電子回路、集積回路、特別に設計された特定用途向け集積回路(application specific integrated circuit:ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合わせで実現することができる。これらの様々な実現例は、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスから/へのデータおよび命令の受信および送信を行なうように結合された、専用または汎用であり得る少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムでの実現例を含み得る。
(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても公知である)これらのコンピュータプログラムは、プログラマブルプロセッサのための機械命令を含むとともに、高水準手続き型および/もしくはオブジェクト指向型のプログラミング言語で、ならびに/またはアセンブリ/機械言語で実現され得る。「機械可読媒体」、「コンピュータ可読媒体」という語は、本明細書で用いられる場合、機械可読信号として機械命令を受信する機械可読媒体を含む、機械命令および/またはデータをプログラマブルプロセッサに提供するために用いられる任意のコンピュータプログラム製品、装置、および/またはデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(Programmable Logic Device:PLD))を指す。「機械可読信号」という語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために用いられる任意の信号を指す。
ユーザとの対話を提供するために、本明細書に記載のシステムおよび技術は、情報をユーザに表示するためのディスプレイデバイス(例えば、陰極線管(cathode ray tube:CRT)または液晶ディスプレイ(liquid crystal display:LCD)モニタ)と、入力をコンピュータに与えるためにユーザが使用することができるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを有するコンピュータ上で実現することができる。他の種類のデバイスを用いてユーザとの対話を行なうことができ、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバックまたは触覚フィードバック)であり得るとともに、ユーザからの入力は、音響入力、音声入力または触覚入力を含む任意の形態で受信することができる。
本明細書に記載のシステムおよび技術は、バックエンド構成要素を(例えば、データサーバとして)含むか、または、ミドルウェア構成要素(例えば、アプリケーションサーバ)を含むか、または、フロントエンド構成要素(例えば、本明細書に記載のシステムおよび技術の実現例とユーザが対話することを可能にするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含むか、または、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合わせを含むコンピューティングシステムにおいて実現することができる。システムの構成要素は、デジタルデータ通信(例えば、通信ネットワーク)の任意の形態または媒体によって相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(local area network:LAN)、ワイドエリアネットワーク(wide area network:WAN)、およびインターネットを含む。
コンピューティングシステムはクライアントおよびサーバを含み得る。クライアントおよびサーバは、概して、互いに遠隔にあり、典型的には通信ネットワークを通して互いに対話する。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行されるとともに互いに対してクライアント・サーバ関係を有するコンピュータプログラムによって生じるものである。
いくつかの実現例では、図11に示すコンピューティングデバイスは、仮想現実(VRヘッドセット1190)とインターフェイスを取るセンサを含み得る。例えば、図11に示すコンピューティングデバイス1150または他のコンピューティングデバイス上に含まれる1つ以上のセンサは、VRヘッドセット1190に入力を与えることができるか、または概して、VR空間に入力を与えることができる。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、バイオメトリックセンサ、温度センサ、湿度センサ、および周囲光センサを含み得るがこれらに限定されない。コンピューティングデバイス1150は、センサを用いて、VR空間におけるコンピューティングデバイスの絶対位置および/または検出された回転を判定することができ、さらに、VR空間への入力として用いることができる。例えば、コンピューティングデバイス1150は、コントローラ、レーザポインタ、キーボード、武器等の仮想オブジェクトとしてVR空間に組込まれてもよい。VR空間に組込まれた場合にユーザによってコンピューティングデバイス/仮想オブジェクトが位置決めされると、VR空間において仮想オブジェクトが特定の態様で見えるように、ユーザがコンピューティングデバイスを位置決めすることが可能になり得る。例えば、仮想オブジェクトがレーザポインタを表す場合、ユーザは、あたかも実際のレーザポインタであるかのようにコンピューティングデバイスを操作することができる。ユーザは、コンピューティングデバイスを左右、上下、円形等に移動させて、レーザポインタを用いるのと同様の態様でデバイスを用いることができる。
いくつかの実現例では、コンピューティングデバイス1150上に含まれるかまたはコンピューティングデバイス1150に接続する1つ以上の入力デバイスをVR空間への入力として用いることができる。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイクロフォン、入力機能を備えたイヤホンまたは耳内押込み型イヤホン、ゲームコントローラ、または他の接続可能な入力デバイスを含み得るが、これらに限定されない。コンピューティングデバイスがVR空間に組込まれた場合にコンピューティングデバイス1150上に含まれる入力デバイスと対話するユーザは、VR空間において特定のアクションを生じさせることができる。
いくつかの実現例では、コンピューティングデバイス1150のタッチスクリーンは、VR空間内のタッチパッドとしてレンダリングすることができる。ユーザは、コンピューティングデバイス1150のタッチスクリーンと対話することができる。当該対話は、例えば、VRヘッドセット1190において、VR空間内のレンダリングされたタッチパッド上の動きとしてレンダリングされる。レンダリングされた動きはVR空間内のオブジェクトを制御することができる。
いくつかの実現例では、コンピューティングデバイス1150上に含まれる1つ以上の出力デバイスは、VR空間内のVRヘッドセット1190のユーザに出力および/またはフィードバックを提供することができる。出力およびフィードバックは、視覚的、触覚的または聴覚的であり得る。出力および/またはフィードバックは、振動、1つ以上のライトまたはストロボのオンおよびオフまたは点滅および/または閃光、アラームを鳴らすこと、チャイムを鳴らすこと、曲の再生、ならびにオーディオファイルの再生を含み得るが、これらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含み得るが、これらに限定されない。
いくつかの実現例では、コンピューティングデバイス1150は、コンピュータが生成した3D環境において別のオブジェクトとして現われ得る。ユーザによるコンピューティングデバイス1150との対話(例えば、タッチスクリーンの回転、タッチスクリーンの揺動、タッチスクリーンへの接触、タッチスクリーン上での指のスワイプ)は、VR空間内のオブジェクトとの対話として翻訳することができる。VR空間内のレーザポインタの例では、コンピューティングデバイス1150は、コンピュータが生成した3D環境内の仮想レーザポインタとして現れる。ユーザがコンピューティングデバイス1150を操作すると、VR空間内のユーザにはレーザポインタの動きが見える。ユーザは、コンピューティングデバイス1150またはVRヘッドセット1190上のVR空間内のコンピューティングデバイス1150との対話からフィードバックを受取る。
いくつかの実施形態を説明してきたが、本発明の精神および範囲から逸脱することなく、種々の変更が行なわれ得ることが理解されるだろう。
加えて、図に示される論理フローは、所望の結果を達成するために、示される特定の順序または連続した順序を必要とするものではない。加えて、他のステップが設けられてもよく、または、説明したフローからステップが排除されてもよく、他の構成要素が、説明したシステムに追加されてもよく、またはそこから除去されてもよい。したがって、他の実施形態は添付の特許請求の範囲内にある。

Claims (35)

  1. 第1のコンピュータシステムによって、第1の文書の有形インスタンスの第1のコンテンツを検出するステップと、
    前記第1のコンピュータシステムによって、前記第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成するステップと、
    前記第1のコンピュータシステムによって、第2のコンピュータシステムによる受信のために前記第1のハッシュを送信するステップと、
    前記第1のコンピュータシステムによって、前記第2のコンピュータシステムにより生成された前記第1のハッシュに対する応答を受信するステップとを含み、前記応答は、前記第1のコンテンツに関連付けられた第2の文書に対応する情報を含む、コンピュータによって実行される方法。
  2. 前記第2のコンピュータシステムは、文書のコレクションのためのコラボレーションプログラムを制御する、請求項1に記載のコンピュータによって実行される方法。
  3. 前記第1のコンピュータシステムによって、前記応答に基づいて、前記第2のコンピュータシステムによる受信のために前記第1のコンテンツを送信するステップをさらに含む、請求項2に記載のコンピュータによって実行される方法。
  4. 前記第2のコンピュータシステムは、前記第1のコンテンツを用いて前記コラボレーションプログラムについての新しい文書を生成する、請求項3に記載のコンピュータによって実行される方法。
  5. 前記第1のコンピュータシステムによって、前記応答に基づいて、前記第2のコンピュータシステムによる受信のために前記第1の文書のマークアップされた変更を送信するステップをさらに含む、請求項2から4のいずれか1項に記載のコンピュータによって実行される方法。
  6. 前記文書のコレクションは前記第2の文書を含む、請求項2から5のいずれか1項に記載のコンピュータによって実行される方法。
  7. 前記第2のコンピュータシステムは、前記第2の文書の第2のコンテンツを用いて第2のハッシュを生成し、前記第2のハッシュは第2の難読化コンテンツを含み、前記第2のハッシュは前記応答に含まれる、請求項6に記載のコンピュータによって実行される方法。
  8. 前記第1のコンピュータシステムによって、前記第2のハッシュを用いて、前記第1の文書と前記第2の文書との間の対応関係を検証するステップをさらに含む、請求項7に記載のコンピュータによって実行される方法。
  9. 前記第1のコンピュータシステムによって、前記第2のコンピュータシステムから前記第2の文書を受信するステップをさらに含む、請求項8に記載のコンピュータによって実行される方法。
  10. 前記第2のコンピュータシステムは、前記第1のハッシュを受信すると、前記第2のコンテンツの不正アクセスの検出を実行する、請求項6から9のいずれか1項に記載のコンピュータによって実行される方法。
  11. 前記第1のコンピュータシステムによって、前記第1のコンピュータシステムのユーザについてのアクセスの履歴を受信するステップをさらに含み、前記履歴は、前記第2のコンピュータシステムが前記第1のハッシュを受信したことに基づいて前記第2の文書にアクセスするためのエントリを含む、請求項1から10のいずれか1項に記載のコンピュータによって実行される方法。
  12. 前記第2の文書にアクセスするための前記エントリは、前記ユーザが前記第1の文書のハードコピーまたは前記第1の文書のオンスクリーンプレゼンテーションのうちの少なくとも1つに近接していることを検出することに基づく、請求項11に記載のコンピュータによって実行される方法。
  13. 前記第2のコンピュータシステムは、前記ユーザが前記第2の文書へのアクセス許可を有していると判断することに応答して前記エントリを生成する、請求項11または12に記載のコンピュータによって実行される方法。
  14. 前記ユーザは、前記第2の文書へのアクセス許可を有しておらず、前記第2の文書に対応する前記情報は、前記ユーザが前記第2の文書へのアクセス許可を要求するためのコントロールを含む、請求項11または12に記載のコンピュータによって実行される方法。
  15. 前記ユーザは、前記第2の文書へのアクセス許可を有しておらず、前記第2のコンピュータシステムは、前記ユーザが少なくとも予め定められた時間にわたって前記第1の文書にアクセスしていると判断することに応答して前記ユーザに前記アクセス許可を与える、請求項11または12に記載のコンピュータによって実行される方法。
  16. 前記第1のコンピュータシステムは、前記第2のコンピュータシステムに対して前記第1のコンピュータシステムのユーザを識別し、前記文書のコレクションは、前記ユーザが前記文書のコレクションへのアクセス許可を有していることに基づいて定義される、請求項6から9のいずれか1項、または請求項6に従属する請求項10から13のいずれか1項に記載のコンピュータによって実行される方法。
  17. 前記第1のコンピュータシステムによって、ユーザから、前記第1の文書のテキスト読み上げサービスについての要求を受信するステップをさらに含み、前記第2の文書は、構造マークアップを含み、前記方法は、前記第2の文書を用いて前記第1の文書の前記テキスト読み上げサービスを提供するステップをさらに含む、請求項6から9のいずれか1項、または請求項6に従属する請求項10から13もしくは16のいずれか1項に記載のコンピュータによって実行される方法。
  18. 前記第1のコンピュータシステムは、ディスプレイデバイス上に提示されている前記第1の文書に基づいて前記第1のコンテンツを検出する、請求項6から9のいずれか1項、または請求項6に従属する請求項10から13、16もしくは17のいずれか1項に記載のコンピュータによって実行される方法。
  19. 前記ディスプレイデバイスは、前記第1のコンピュータシステムによって制御され、デスクトップ上に画面共有アプリケーションを提示し、前記第1の文書は、前記画面共有アプリケーションを用いて前記第1のコンピュータシステムと画面共有されている、請求項18に記載のコンピュータによって実行される方法。
  20. 前記第1のコンピュータシステムはさらに、前記デスクトップ上にブラウザを提示し、前記ブラウザは、前記コラボレーションプログラムを用いて前記デスクトップ上で前記第2の文書を開くためのコントロールを提供する、請求項19に記載のコンピュータによって実行される方法。
  21. 前記第1のコンピュータシステムによって、前記コラボレーションプログラムを用いて前記第2の文書を開くことをトリガするために前記第1の文書の表現をドラックすることを容易にするステップをさらに含む、請求項19または20に記載のコンピュータによって実行される方法。
  22. 前記ドラッグすることにより、前記第2の文書を前記第1のコンピュータシステムの前記デスクトップ上に提示させる、請求項21に記載のコンピュータによって実行される方法。
  23. 前記ドラッグすることにより、他のコンピュータシステムが前記第1のコンピュータシステムによって検出されることに基づいて前記第2の文書を別のコンピュータシステム上に提示させる、請求項21に記載のコンピュータによって実行される方法。
  24. 前記第1のコンピュータシステムは、拡張現実(augmented-reality:AR)ヘッドセットを備え、前記第1のコンピュータシステムは、前記第1のコンテンツが前記ARヘッドセットの視野内にあることに基づいて前記第1のコンテンツを検出する、請求項1から23のいずれか1項に記載のコンピュータによって実行される方法。
  25. 前記第1のコンピュータシステムによって、前記ARヘッドセットのユーザが前記AR視野内でジェスチャを実行することを検出し、検出に応答して、前記ジェスチャに従って前記AR視野内で前記第1の文書の表現を移動させるステップをさらに含む、請求項24に記載のコンピュータによって実行される方法。
  26. 前記表現を移動させるステップは、前記コラボレーションプログラムを用いて前記第1のコンピュータシステム上で前記第2の文書を開くことを容易にする、請求項18に従属する請求項25に記載のコンピュータによって実行される方法。
  27. 前記表現を移動させるステップは、前記第1のコンピュータシステムによって検出される別のコンピュータシステム上で前記コラボレーションプログラムを用いて前記第2の文書を開くことを容易にする、請求項18に従属する請求項25に記載のコンピュータによって実行される方法。
  28. 前記第1のコンピュータシステムによって、前記情報を用いて、前記第2の文書の第2のコンテンツを提示するステップをさらに含む、請求項1から27のいずれか1項に記載のコンピュータによって実行される方法。
  29. 前記第1のコンピュータシステムは拡張現実(AR)ヘッドセットを備え、前記第1のコンピュータシステムは、前記第1のコンテンツが前記ARヘッドセットの視野内にあることに基づいて前記第1のコンテンツを検出し、前記第2のコンテンツを提示するステップは、第1の仮想注釈を前記第1の文書に適用するステップを含む、請求項28に記載のコンピュータによって実行される方法。
  30. 前記第1のコンピュータシステムによって、前記第1の文書に変更を行なうことに対応しユーザによって生成される音声入力を受信し、前記第1の文書に対する第2の仮想注釈を前記AR視野に提示し、前記変更を前記第2のコンピュータシステムに送信するステップをさらに含む、請求項29に記載のコンピュータによって実行される方法。
  31. 前記第2の文書は公的にアクセス可能であり、前記応答は前記第2の文書を含む、請求項1から13または16から30のいずれか1項に記載のコンピュータによって実行される方法。
  32. 前記第1の文書および前記第2の文書は紙文書であり、前記第2のコンピュータシステムは、前記第1のハッシュおよび前記第2の文書の第2のハッシュを用いて、前記第1の文書に関連付けられている前記第2の文書を検出する、請求項1から31のいずれか1項に記載のコンピュータによって実行される方法。
  33. 前記第1のハッシュおよび前記第2のハッシュは、前記第1のコンピュータシステムと前記第2のコンピュータシステムとの間における前記第1の文書または前記第2の文書に関する仮想注釈の共有を容易にする、請求項32に記載のコンピュータによって実行される方法。
  34. 非一時的な記憶媒体において有形に具現化されるコンピュータプログラム製品であって、前記コンピュータプログラム製品は、1つ以上のプロセッサによって実行されると前記1つ以上のプロセッサに以下の動作を実行させる命令を含み、前記以下の動作は、
    第1のコンピュータシステムによって、第1の文書の有形インスタンスの第1のコンテンツを検出する動作と、
    前記第1のコンピュータシステムによって、前記第1のコンテンツを用いて、第1の難読化コンテンツを含む第1のハッシュを生成する動作と、
    前記第1のコンピュータシステムによって、第2のコンピュータシステムによる受信のために前記第1のハッシュを送信する動作と、
    前記第1のコンピュータシステムによって、前記第2のコンピュータシステムにより生成された前記第1のハッシュに対する応答を受信する動作とを含み、前記応答は、前記第1のコンテンツに関連付けられた第2の文書に対応する情報を含む、コンピュータプログラム製品。
  35. 前記コンピュータプログラム製品は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに請求項1から33のいずれか1項に記載の方法を実行させる命令を含む、請求項34に記載のコンピュータプログラム製品。
JP2023523624A 2020-10-19 2020-10-19 文書の有形インスタンスのマッピング Pending JP2023549652A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2020/070674 WO2022086578A1 (en) 2020-10-19 2020-10-19 Mapping a tangible instance of a document

Publications (1)

Publication Number Publication Date
JP2023549652A true JP2023549652A (ja) 2023-11-29

Family

ID=73544414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023523624A Pending JP2023549652A (ja) 2020-10-19 2020-10-19 文書の有形インスタンスのマッピング

Country Status (6)

Country Link
US (1) US20230385431A1 (ja)
EP (1) EP4229533A1 (ja)
JP (1) JP2023549652A (ja)
KR (1) KR20230088471A (ja)
CN (1) CN116324776A (ja)
WO (1) WO2022086578A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11962600B2 (en) * 2021-10-14 2024-04-16 Bank Of America Corporation Apparatus and methods for secure, distributed, augmented-reality (AR) communication systems

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211603A (ja) * 2008-03-06 2009-09-17 Fuji Xerox Co Ltd 文書検索システム
US10599753B1 (en) * 2013-11-11 2020-03-24 Amazon Technologies, Inc. Document version control in collaborative environment
WO2016073185A1 (en) * 2014-11-07 2016-05-12 Pcms Holdings, Inc. System and method for augmented reality annotations
US20210098092A1 (en) * 2019-09-26 2021-04-01 Koninklijke Philips N.V. Privacy-preserving medical search system using similarity preserving hashing

Also Published As

Publication number Publication date
EP4229533A1 (en) 2023-08-23
US20230385431A1 (en) 2023-11-30
CN116324776A (zh) 2023-06-23
KR20230088471A (ko) 2023-06-19
WO2022086578A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US9049983B1 (en) Ear recognition as device input
US11790051B2 (en) Collaborative public user profile
US10339342B2 (en) Data transfer based on input device identifying information
KR20190089205A (ko) 커스터마이즈된 사용자-제어형 미디어 오버레이들
US11632344B2 (en) Media item attachment system
US10346014B2 (en) System and method for provisioning a user interface for scaling and tracking
KR102482361B1 (ko) 원격 디바이스로부터의 직접 입력
US11019162B2 (en) System and method for provisioning a user interface for sharing
US11711414B2 (en) Triggering changes to real-time special effects included in a live streaming video
CN115427919A (zh) 用于与扩展现实系统一起使用的物理配套设备
US20240045899A1 (en) Icon based tagging
JP2023549652A (ja) 文書の有形インスタンスのマッピング
US20180275751A1 (en) Index, search, and retrieval of user-interface content
US20230081605A1 (en) Digital assistant for moving and copying graphical elements
JP6374203B2 (ja) 表示システム及びプログラム
JP6083158B2 (ja) 情報処理システム、情報処理装置およびプログラム
US20140359557A1 (en) Creating applications
KR102413355B1 (ko) 디바이스로의 보안 서비스 제공 방법 및 이를 수행하는 서버
JP2016192030A (ja) サーバシステム、コンテンツ提供システム及び情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230719