JP2012513047A - 物理オブジェクトと対話型表面との併用 - Google Patents

物理オブジェクトと対話型表面との併用 Download PDF

Info

Publication number
JP2012513047A
JP2012513047A JP2011530082A JP2011530082A JP2012513047A JP 2012513047 A JP2012513047 A JP 2012513047A JP 2011530082 A JP2011530082 A JP 2011530082A JP 2011530082 A JP2011530082 A JP 2011530082A JP 2012513047 A JP2012513047 A JP 2012513047A
Authority
JP
Japan
Prior art keywords
digital
user
interactive surface
imm
digital object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011530082A
Other languages
English (en)
Other versions
JP5611958B2 (ja
Inventor
ユー.ハートマン ビヨーン
ディー.ウィルソン アンドリュー
ベンコ フルボイェ
ジェイ.モリス メレディス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2012513047A publication Critical patent/JP2012513047A/ja
Application granted granted Critical
Publication of JP5611958B2 publication Critical patent/JP5611958B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Digital Computer Display Output (AREA)

Abstract

キーボードタイプのデバイスおよびマウスタイプのデバイスなど、様々なインプットデバイスを使って、協調的環境においてユーザを対話型表面に関与させる対話管理モジュール(IMM)を記載する。IMMは、様々なやり方で、デバイスに関連づけられたデジタルオブジェクトを対話型表面上に表示する。デジタルオブジェクトは、インプット表示インターフェイス、カーソル、ソフトキーインプット機構などを含み得る。さらに、IMMは、対話型表面上での各カーソルの配置を支配する基準座標系を確立する機構を提供する。さらに、IMMは、対話型表面上に配置された物理的物品のデジタルコピーをユーザに作らせる機構を提供する。IMMは、物理的物品に関してデジタルコピーに対してとられたアクションを再現し、その反対を行う機構も提供する。

Description

本発明は、物理オブジェクトと対話型表面との併用に関する。
対話型表面は、コンピュータ実施アプリケーションと対話する代替的機構を提供する。典型的な対話型表面は、対話型表面上に情報を表示する投影機構を含む。対話型表面は、対話型表面と対話している間にユーザによって行われた選択を検出するインプット機構も含む。たとえば、対話型表面は、ユーザが対話型表面の特定の部分に触れたときを検出することができる。このような対話を通して、ユーザは、対話型表面によって表示されるデジタルオブジェクトを操作し、他の操作を実施することができる。
対話型表面技術には、十分な改善の余地が残っている。たとえば、対話型表面によって与えられるインプット機構は、使いにくい場合がある(というのは、たとえば、このインプット機構を使ってユーザが情報を入力し、またはデジタルオブジェクトを操作するのが難しい場合があるからである)。インプット機構が提供する精度および応答性が満足できない場合もある。
さらに、対話型表面は、ユーザを混乱させる可能性があり得る。このことは、複数のユーザが同一の対話型表面に関与するときに特に問題になり得る。このシナリオでは、対話型表面は、複数のデジタルオブジェクトで乱雑になる可能性があり得る。さらに、大型の対話型表面の場合、ユーザは、手の届かない一部のデジタルオブジェクトを操作することが困難になる可能性がある。
さらに、対話型表面は、ユーザが集団で自然に対話する方式に適応する協調的環境を提供することができない場合がある。たとえば、協調的環境は、会議の参加者の間で情報を共有する好都合な機構を提供することができない場合がある。対話型表面は同様に、共有情報を協調して検討する適切な機構を提供することができない場合がある。
既存の対話型表面技術には、それ以外の短所もあり得る。
米国特許第7204428号明細書
例示的な一実施例では、物理デバイス(「デバイス」)を使ってユーザを対話型表面に関与させる対話型管理モジュール(IMM)について記載する。IMMは、対話型表面上の選択された場所および向きでのデバイスの配置を検出する。それに応答して、IMMは、デバイスに関連づけて使用するために、対話型表面上にデジタルオブジェクトを表示する。デジタルオブジェクトは、デバイスに近接して配置することができ、さらに、デジタルオブジェクトは、デバイスと同じ向きでよい。あるケースでは、デバイスはキーボードタイプのデバイスであり、デジタルオブジェクトは、キーボードタイプのデバイスを使ってユーザによって入力された情報の視覚表現を提示する表示インターフェイスを提供する。
別の例示的態様によると、IMMは、対話型表面上に配置された複数の物理的インプットデバイスと同時に対話することができ、したがって、協調的環境における対話型表面の使用に適応する。
別の例示的態様によると、IMMは、デバイスをデジタルオブジェクトに関連づける視覚属性を表示する。たとえば、IMMは、デジタルオブジェクトおよびデバイス両方の周りに境界(など)を提示し得る。境界には、デジタルオブジェクトとデバイスとの間の結合を伝えるように同じ色を割り当てればよい。代替的または追加的には、視覚属性は、デジタルオブジェクトをデバイスに接続する線に対応し得る。
別の例示的態様によると、ユーザは、デバイスを、別の既存表示オブジェクトに近接して移動することができる。それに応答して、IMMは、デバイスをその別の表示オブジェクトに自動的に関連づけることができる。
別の例示的態様によると、ユーザは、別の既存表示オブジェクトを、デバイスに近接して移動することができる。それに応答して、IMMは、既存表示オブジェクトをデバイスに自動的に関連づけることができる。
別の例示的態様によると、IMMは、最初に言及したデバイスに近接した第2のデバイスの配置を検出することができる。それに応答して、IMMは、両方のデバイスを単一のデジタルオブジェクトに関連づけることができる。具体的な一例において、第1のユーザが第1のデバイスを使って第1の選択を入力し、第2のユーザが第2のデバイスを使って第2の選択を入力する場合がある。第1および第2のデバイスを1つにすると、IMMは、2人のユーザによって識別された選択をマージすることができ、組合せ選択を作成する。
別の例示的態様によると、IMMは、対話型表面上でa)適切と思われる程度まで少なくとも1つの配置制約を満足し、b)対話型表面上の新規デジタルオブジェクトと他の既存オブジェクトとの間の干渉を削減する場所に新規デジタルオブジェクトを表示することができる。
別の例示的態様によると、デバイスは、マウスタイプのデバイスである。IMMは、対話型表面上でのマウスタイプのデバイスの絶対位置およびマウスタイプのデバイスの向きを判定することによって動作する。IMMは、この情報を用いて、基準座標系を定義する。IMMは、定義された基準座標系に相対して、対話型表面上にカーソルを表示する。基準座標系は、対話型表面の最も近いエッジ(もしくは対話型表面に関連づけられた他の基準オブジェクト)またはマウスタイプのデバイス自体の向きなどに相対して選択され得る。
別の例示的態様によると、IMMは、マウスタイプのデバイスのタッチモードをユーザに有効化させ、有効化されると、カーソルは指接触点をシミュレートする。
別の例示的態様によると、IMMは、カーソル接触点および指接触点の任意の組合せを用いてデジタルオブジェクトをユーザに修正させる。たとえば、ユーザは、手の届かないデジタルオブジェクトを、1つまたは複数のカーソル接触点(たとえば、同時に対話型表面上に配置されている複数のインプットデバイスによって制御される)を使って操作することができる。
別の例示的態様によると、IMMは、対話型表面の複数の画像表現(および/または対話型表面上に配置されている個々のデジタルオブジェクトおよび/または物理オブジェクト)を、異なるそれぞれの時点で維持することができる。ユーザは、こうした画像表現を取得して、対話型表面に対してとられた操作の履歴を調べることができる。
別の例示的実施例によると、その表面上に情報が視覚的に提示された、有形媒体(たとえば、物理ドキュメント)などの物理的物品(「物品」)を含む対話型表面にユーザを関与させる対話型管理モジュール(IMM)について記載する。例示的な一実施例において、IMMは、対話型表面上の物品の配置を検出することによって動作する。IMMは次いで、物品に関連づけて使用するために、対話型表面上にインターフェイスオブジェクトを表示する。IMMは、インターフェイスオブジェクトのユーザによる、コピー関連の有効化を検出し、それに応答して、物品のデジタルコピーを生成する。コピー関連有効化は、ユーザがインターフェイスオブジェクトを引き寄せることによって、比喩的にはデジタルコピーを物品から離すようにドラッグするモーションに対応し得る。IMMは、ユーザによって識別された、対話型表面上の場所にデジタルコピーを置く。
別の例示的態様によると、IMMは、対話型表面全体の画像を撮り、次いで、物品の画像を取得するように表面全体の画像を刈り込むことによってデジタルコピーを生成することができる。
別の例示的態様によると、IMMは、デジタルコピーのある特定の部分のユーザ選択を検出することができる。それに応答して、IMMは、物品の対応部分を強調表示することができる。同じ手順を、逆に実施することができ、たとえば、ユーザが物品の一部分を選択した場合、デジタルコピーの対応部分を強調表示するようIMMに促す。
別の例示的態様によると、IMMは、ユーザがデジタルコピーにマークを付けたときを検出することができる。それに応答して、IMMは、対応するデジタルマークを物理的物品に付与することができる。同じ手順を、逆に実施することができ、たとえば、ユーザが物品にマークを付けた場合、対応するマークをデジタルコピーに付けるよう、IMMに促す。
別の例示的態様によると、IMMは、ユーザがデジタルコピーを対話型表面の編集領域に移動したことを検出することができる。IMMは次に、ユーザが編集領域内のデジタルコピーに物理的マークを付与したことを検出し得る。それに応答して、IMMは、物品の別のデジタルコピーを生成することができる。この別のデジタルコピーは、内容が元のままの、物理的マークのデジタル表現を含む。
本概要は、抜粋した概念を、簡略化した形で紹介するためのものである。こうした概念については、「発明を実施するための形態」において後でさらに説明する。本概要は、本特許請求対象の主要な特徴または本質的な特徴を識別することは意図しておらず、本特許請求対象の範囲を限定するのに使われることも意図していない。
複数のユーザが対話型表面に関与することができる例示的対話型表面環境を示す図である。 図1の対話型表面環境において用いることができる例示的コンテンツ投影機能およびインプット機能を示す図である。 図1の例示的対話型表面環境において使用するための対話型表面を示す例示的トップダウン図である。 図3に示す対話型表面の一部分を示すより詳細なトップダウン図である。 対話型表面上のカーソルの位置を判定する例示的手順を示すフローチャートである。 図5の手順においてカーソルを位置決めする際に使用するための基準座標系を判定する第1の技法を示す図であり、基準座標系は、対話型表面の最も近いエッジに基づく、図である。 図5の手順においてカーソルを位置決めする際に使用するための基準座標系を判定する第2の技法を示す図であり、基準座標系は、カーソルを制御するのに使われるマウスタイプのデバイスの向きに基づく、図である。 対話型表面上に置かれた物品のデジタルコピーを生成する例示的手順を示すフローチャート(および付随する例の図)である。 デジタルオブジェクトが対話型表面上の既存オブジェクトと干渉しないように対話型表面上にデジタルオブジェクトを配置する例示的手順を示すフローチャート(および付随する例の図)である。 マウスタイプのデバイスをタッチモードで操作する例示的手順を示すフローチャートであり、このモードでは、マウスタイプのデバイスによって制御されるカーソルが対話型表面上に置かれた指接触をシミュレートする、図である。 デバイスが対話型表面上に置かれたときに新規デジタルオブジェクトを生成する例示的手順を示すフローチャート(および付随する例の図)である。 デバイスが既存デジタルオブジェクトに近接して対話型表面上に置かれたとき、既存デジタルオブジェクトをデバイスと結びつける例示的手順を示すフローチャート(および付随する例の図)である。 既存デジタルオブジェクトがデバイスに近接して移動されたとき、既存デジタルオブジェクトをデバイスと結びつける例示的手順を示すフローチャート(および付随する例の図)である。 単一のデジタルオブジェクトを2つのデバイスと結びつける例示的手順を示すフローチャート(および付随する例の図)であり、この手順は、2つそれぞれのデジタルオブジェクト(2つそれぞれのデバイスによって制御される)によって提供されるコンテンツが、デバイスを互いの近接にもっていくことによってどのようにマージされ得るかも明示する、図である。 様々な接触点シナリオを用いてデジタルオブジェクトを操作する例示的手順を示すフローチャート(および付随する例の図)である。 デジタルオブジェクトの上にデバイスを配置すること、およびデジタルオブジェクトを移動し、または他の何らかのアクションをデジタルオブジェクトに対して実施するためのハンドルとしてデバイスを比喩的に使うことによってデジタルオブジェクトを操作する例示的手順を示すフローチャート(および付随する例の図)である。 対話型表面上に置かれた物理的物品に基づいてデジタルコピーを作成する例示的手順を示すフローチャート(および付随する例の図)である。 メニューオブジェクトを、対話型表面上に置かれた物品と関連づけて提示する例示的手順を示すフローチャート(および付随する例)である。 デジタルオブジェクトの対応する一部分の選択に基づいて、物品の一部分を強調表示する(またはその反対)例示的手順を示すフローチャート(および付随する例の図)である。 デジタルコピーに付けられた対応するデジタルマークに基づいて、物理的物品上でデジタルマークを作成する例示的手順を示すフローチャート(および付随する例の図)である。 対話型表面の編集領域内の物品のデジタルコピーに物理的マークを付与し、続いて、マークのデジタル表現を含む、物品の新規デジタルコピーを生成する例示的手順を示すフローチャート(および付随する例の図)である。 それぞれ異なる時点での対話型表面の一連の表現(および/または対話型表面上に現れた任意の個々のオブジェクトの一連の表現)を生成し、この一連の表現に関する任意の情報をユーザに表示する例示的手順を示すフローチャートである。 上記図面に示す特徴のどの態様を実装するのにも用いることができる例示的処理機能を示す図である。
同様のコンポーネントおよび特徴を参照するのに、開示内容および図面を通して、同じ番号が使われる。100番台の番号は、図1に初めて現れる特徴を指し、200番台の番号は、図2に初めて現れる特徴を指し、300番台の番号は、図3に初めて現れる特徴を指し、以下同様に続く。
本開示は、対話型表面上に配置された物理オブジェクトを使って対話型表面にユーザを関与させる手法を説明する。あるケースでは、物理オブジェクトは、キーボードタイプのデバイス、マウスタイプのデバイス、または他のタイプのインプットデバイス(もしくは異なるタイプのインプットデバイスの任意の組合せ)に対応し得る。物理オブジェクトは、そのそれぞれの表面に情報が提示される物理ドキュメント(など)にも対応し得る。この手法は、対話型表面上に配置された物理オブジェクトと、それぞれのデジタルオブジェクトとの間の関連づけを管理する様々な機構も提供する。
あるシナリオによると、物理オブジェクトの使用により、対話型表面とのユーザの関与が容易になり得る。たとえば、キーボードタイプのデバイスおよびマウスタイプのデバイスは、ほとんどのユーザがすぐに馴染むことができる、時間をかけて証明された信頼できる挙動を呈する。本手法は、こうした有益な特徴を、対話型表面環境のコンテキストにおいて活用し得る。さらに、本手法は、対話型表面上に配置された物理オブジェクトと、物理オブジェクトに関連づけられたデジタルオブジェクトとの間の対応を明確にする有用な技法を提供し得る。本態様は、複数のユーザが同一の対話型表面に関与しているときの混乱を軽減するのを助け得る。さらに、本手法は、対話型表面上の届かないデジタルオブジェクトにユーザをアクセスさせ操作させるツールを提供する。さらに、本手法は、協調的環境においてユーザが他のユーザに情報を好都合に拡散することを可能にするツールを提供する。本手法は次いで、ユーザに、効率的でユーザフレンドリなやり方で、共有情報と協調的に対話させる。より全般的には、本明細書で開示する概念は、前述した挑戦課題または問題の1つまたは複数に対処し得るが、こうした挑戦課題または問題のすべてまたはいずれかへの対処に限定されるわけではない。
本開示は、以下のように編成される。セクションAは、物理オブジェクトを使って対話型表面に関与するのに使われ得る例示的システムおよびツールを記載する。セクションBは、セクションAで説明するシステムおよびツールの例示的応用を記載する。セクションCは、セクションA、Bに記載する特徴のどの態様も実装するのに用いられ得る例示的処理機能を記載する。
予備事項として、図面の一部は、機能、モジュール、特徴、要素などと様々な呼び方をされる、1つまたは複数のコンポーネントのコンテキストにおける概念を記述する。図面に示す様々なコンポーネントは、たとえば、ソフトウェア、ハードウェア、ファームウェア、手動処理操作など、またはこうした実施例の任意の組合せによって、どのように実装してもよい。あるケースでは、図面において様々なコンポーネントを別個のユニットに分離して図示しているのは、対応する別個の物理コンポーネントの使用を反映し得る。代替的または追加的には、図面に示すどの単一のコンポーネントも、複数の物理コンポーネントによって実装してよい。代替的または追加的には、図面中の複数の別々のどのコンポーネントの図示も、単一の物理コンポーネントによって実施される異なるファンクションを反映し得る。図23は、順番に論じるが、図面に示すファンクションの例示的な一実施例に関する追加詳細を述べる。
他の図面は、概念をフローチャートの形で記述する。この形において、いくつかの動作を、一定の順序で実施される別個のブロックを組成するものとして記載する。このような実装形態は、例示的であり非限定的である。本明細書に記載するいくつかのブロックを、単一の動作にまとめて実施することができ、いくつかのブロックを、複数のコンポーネントブロックに分解することができ、いくつかのブロックを、本明細書に示すものとは異なる順序で実施することができる(または並列に実施することができる)。フローチャートに示すブロックは、ソフトウェア、ファームウェア、ハードウェア、手動処理、こうした実装形態の任意の組合せなどによって実装することができる。
用語に関して、「〜ように構成された」という語句は、識別された動作を実施するように任意の種類の機能が組み立てられ得るどのやり方も包含する。機能は、たとえば、ハードウェア、ソフトウェア、ファームウェアなど、および/またはその任意の組合せを使って動作を実施するように構成され得る。
「論理」という用語は、タスクを実施するどの機能も包含する。たとえば、フローチャートに示す各動作は、その動作を実施する論理に対応する。あるケースでは、論理は、コンピュータ可読命令に対応し得る。別のケースでは、論理は、個別の論理コンポーネント、またはコンピュータ可読命令および個別の論理コンポーネントの組合せなどに対応し得る。
<A.例示的システムおよびツール>
<A.1.例示的対話型表面環境の概観(図1〜4)>
図1は、複数のユーザ102が対話型表面104に関与することができる例示的対話型表面環境100を示す。本明細書において最も一般的に再現されるケースにおいて、対話型表面104は、任意のサイズの平らで水平なテーブル上面に対応する。ただし、何が対話型表面104の構成要素となるかに対して、限定は課されない。他のケースでは、対話型表面104は、垂直に(たとえば、壁の上に)、または水平でない他のどの向きでも据えつけることができる。代替的または追加的には、対話型表面104は、カーブした表面、または他のどの種類の平らでない輪郭も有し得る。
概して、どの種類のコンテンツ投影機能106も、対話型表面104上に情報を投影するのに用いることができる。あるケースでは、コンテンツ投影機能106は、対話型表面104上に情報を投影する1つまたは複数のビデオプロジェクタに対応し得る。このようなコンテンツ投影機能106は、対話型表面104の上、対話型表面104の下、または対話型表面104に対して他のどの向きにも(もしくは複数の向きのどの組合せでも)配備することができる。代替的または追加的には、コンテンツ投影機能106は、対話型表面自体104と統合してよい。コンテンツ投影機能106の配置は、部分的に、対話型表面104の各アプリケーションに関連づけられた制約に基づいて選択することができる。たとえば、いくつかのケースでは、コンテンツ投影機能106をデジタル表面104の上に位置決めすることが適切な場合がある。というのは、そうしないと(たとえば、下から投影される場合)、対話型表面104上に配置された物理オブジェクトがデジタルコンテンツを遮る可能性があるからである。
インプット機能108は、ユーザが対話型表面104に関与する際にユーザからインプットを受け取るのに使われる。繰り返しになるが、様々なタイプおよび組合せのインプット機能が用いられ得る。あるケースでは、インプット機能108は、対話型表面104とのユーザの関与を検知する1つまたは複数のリモートセンサに対応し得る。たとえば、インプット機能108は、ユーザが対話型表面104に触れ、またはそうでなければその近くに移動したときを検出することができる赤外線発信/検出機を含み得る。インプット機能108は、インプットとして使用するための対話型表面104の高解像度画像を生成する撮像機能も提供し得る。このようなリモート検知タイプのどのインプット機能108も、対話型表面104の上、対話型表面104の下、または対話型表面104に対して他のどの向きにも(もしくは複数の向きのどの組合せでも)配備することができる。代替的または追加的には、インプット機能108は、対話型表面104自体と統合してよい。繰り返しになるが、インプット機能108の配置は、部分的に、対話型表面104の各アプリケーションに関連づけられた制約に基づいて選択することができる。さらに、後でより詳しく説明するように、1つまたは複数の物理オブジェクト110は、対話型表面104上に配置することができる。こうした物理オブジェクト110のサブセットは、インプットタイプのデバイスに対応し得る。こうしたインプットデバイスは、ユーザが対話型表面104と対話するときにユーザからインプットを受け取り、したがってインプット機能108を組成する一組の技術の一部分を形成することができる。図2は、コンテンツ投影機能106およびインプット機能108の例示的な一実施例に関する追加詳細を与える。
対話管理モジュール(IMM)112は対話型表面104上へのコンテンツの投影を管理する任意の機能およびユーザのインプットの処理に対応する。より具体的には、IMM112は、図5〜22に示すように、後で説明する様々な手順を実施する技術に対応し得る。
IMM112は、1つまたは複数のアプリケーション提供モジュール114(以下では、簡潔にするために複数として参照する)と対話する。アプリケーションモジュール114は、たとえば検索機能、文書処理機能、通信機能(たとえば、Eメール機能、インスタントメッセージング機能など)など、ユーザが関与し得るどのタイプの機能も提供する。アプリケーションモジュール114は、ローカルアプリケーションリソース、リモート(ネットワークアクセス可能)アプリケーションリソース、またはその何らかの組合せに対応し得る。アプリケーションモジュールという用語が本明細書で使われる限りにおいて、何がアプリケーションモジュールの構成要素となり得るかについて、限定は課されない。さらに、本明細書で展開する例の多くは、複数のユーザ102が共通アプリケーションモジュールと協調的に対話することを利用し、複数のユーザが、対話型表面104を使って異なるアプリケーションモジュール114と同時に対話することができる。さらに、1人のユーザが対話型表面104に関与してもよい。
対話型表面104自体に戻ると、上述したように、ユーザは、物理オブジェクト110のどの組合せも、その表面に配置することができる。「物理オブジェクト」という用語は、ユーザによって物理的に取り扱うことができるどのタイプの有形オブジェクトも包含する。「デジタルオブジェクト」は、対照的に、コンテンツ投影機能106によって対話型表面104の表面上に電子的に投影されるどのタイプのオブジェクトも包含する。「オブジェクト」という包括的用語は、物理オブジェクトおよびデジタルオブジェクトを含む、どのクラスのオブジェクトも包含する。
本明細書に記載する物理オブジェクト110は、デバイスおよび物品という2つのタイプのオブジェクトを包含する。こうした用語は、本説明における便宜上のラベルであり、概括的に解釈されるべきである。デバイスは、対話型表面104との対話において機能的役割を果たすどの機構も包含する。たとえば、あるタイプのデバイスは、従来通りそのキーを手動で押下することによってテキストおよび他の情報を入力するのに使われるキーボードタイプのデバイスに対応する。別のタイプのデバイスは、GUI(グラフィカルユーザインターフェイス)設定において従来通りカーソルの動きを制御し、他のナビゲーションファンクションを実施するのに使われるマウスタイプのデバイスに対応する。これらは、2つの例に過ぎない。たとえばゲームコンソールタイプのデバイス、ジョイスティックタイプのデバイスなど、他のインプットデバイスも、対話型表面104と対話するのに使うことができる。
物理的物品という用語は、インプット機能108によって任意の目的で撮像することができるどの物理オブジェクトも包含する。本明細書において最も一般的に再現されるケースでは、物理的物品という用語は、情報をその表面に視覚的に提示する有形媒体に対応する。たとえば、ある具体的ケースでは、物理的物品は、その表面上にテキストおよび/またはグラフィックスおよび/または他の任意の情報を有するドキュメントに対応し得る。たとえば、物理的物品は、紙ドキュメントなどに対応し得る。別のケースでは、物理的物品は、その上に情報を投影するスクリーンなどに対応し得る。他のケースでは、物品は、たとえば3次元モデル(たとえば、モデルハウス、モデルカー、人形など)、人体構造の一部分(たとえば、手)など、他のどの物理オブジェクトにも対応し得る。何が物品の構成要素となるかに関して、限定は課されない。実際、物品は、上述したようにデバイスに対応し得る。「物品」という用語は、物理的物品と物理的物品のデジタルコピーとの区別を強調することが適切である事例を除いて、「物理的物品」の代わりに使われる。
図2は、図1の対話型表面環境100において用いることができるコンテンツ投影機能106およびインプット機能108の代表的であり非限定的な一実施例を示す。この説明のための例では、対話型表面104は、平らで水平な表面(たとえば、テーブルの上面によって設けられる)に対応する。その表面上にある物理オブジェクト110は、1つまたは複数のデバイス202(たとえば、1つもしくは複数のキーボードタイプのデバイス、1つもしくは複数のマウスタイプのデバイスなど)、および/または撮像されるべき1つもしくは複数の物品204(たとえば、1つもしくは複数のドキュメントなど)に対応し得る。
図1のコンテンツ投影機能106は、1つまたは複数のコンテンツ投影モジュール206(以下では、簡潔にするために複数として参照する)に対応し得る。たとえば、コンテンツ投影モジュール206はそれぞれ、画像コンテンツのu×vパネルを対話型表面104上に投影することができる。統合されると、コンテンツ投影モジュール206は、対話型表面104の表面全体に広がる、このようなu×vパネルのタイル状モザイクをもたらし得る。一実施例では、コンテンツ投影モジュール206は、対話型表面104の上に配備することができ、そのコンテンツを対話型表面104に向けて投影する。
図1のインプット機能108は、対話型表面104とのユーザの関与に関する情報を受け取るための一組の異なる機構に対応し得る。このような1つの機構が、1つまたは複数の高解像度撮像モジュール208(以下では、簡潔にするために複数として参照する)である。高解像度撮像モジュール208は、対話型表面104の表面の高解像度画像を形成する1つまたは複数の高解像度ビデオカメラに対応し得る。セクションBでは、IMM112が高解像度撮像モジュール208を使って対話型表面104の画像を生成し得る状況の例を挙げる。一実施例では、高解像度撮像モジュール208は、対話型表面104の上に配備することができる。
インプット機能108は、1つまたは複数の位置検出モジュール210(以下では、簡潔にするために複数として参照する)も含み得る。説明のための一例では、位置検出モジュール210は、1つまたは複数のIR検出モジュール214と連動した1つまたは複数のIR(赤外線)発信モジュール212に対応し得る。IR発信モジュール212は、赤外線スペクトル中の電磁信号を対話型表面104上に投影する。IR検出モジュール214は、対話型表面104によって反映されるIR信号およびその表面上(またはその近く)に配置される物理オブジェクトを受け取る。
IR信号の反射率の変化により、位置検出モジュール210は、新規物理オブジェクトが対話型表面104上に配置されたとき、または対話型表面104上の既存物理オブジェクトが移動された(または削除された)ときを検出することができる。一実施例では、位置検出モジュール210は、対話型表面104の下に配備することができる。この例では、対話型表面104は、コンテンツ投影モジュール206によって投影される画像を「受け取る」のに十分な不透明度で組み立てられる。さらに、対話型表面104は、対話型表面104の下から投影されるIR信号が、IMM112とともに位置検出モジュール210によって、対話型表面104の上に配置されたオブジェクトの存在を検出するのに使われ得るように、十分な透明度をもつ。位置検出モジュール210を実装するのに使われ得るある赤外線検出システムが、本発明者Andrew D. Wilsonによる特許文献1に開示されている。
デバイス202は、一組のインプット機能108のコンポーネントでもある。あるケースでは、デバイス202は、キー押下データ、マウスクリックデータ、マウス位置データなどに対応するインプット情報を提供することができる。デバイス202は、このようなインプット情報を、たとえばワイヤレス通信を用いて、どの方式でもIMM112に伝達することができる。図2には示さないが、一組のインプット機能108は、コンテンツ投影モジュール206によって対話型表面104上に投影されるソフトキーインプット機構も含み得る。ソフトキーインプット機構は、ユーザがソフトキーインプット機構にタッチし、またはそうでなければ関与したときを指示するタッチ選択データを提供する。
さらに、IMM112は任意選択で、エッジ検出機能を利用し、かつ/または検出機能を形づくることができる。この機能は、対話型表面104の画像を分析して、オブジェクトに関連づけられた外形(輪郭)を識別する。IMM112は、この分析を適用して、対話型表面104上に配置されたオブジェクトの位置および向きをより正確に推定することができる。IMM112は、この分析を用いて、オブジェクトを識別する(たとえば、キーボードタイプのデバイスをマウスタイプのデバイスと区別し、物理オブジェクトを指接触点と区別する、など)のを助けることもできる。
図3は、図1の対話型表面環境100において使用するための対話型表面104の例示的トップダウン図を示す。この例では、対話型表面104は、寸法がM×Nの矩形テーブル上面に対応する。しかし、既に述べたように、対話型表面104は、どの形状、表面輪郭、向き、およびサイズを有してもよい。
図3の具体的ケースでは、対話型表面104は、複数のユーザ(302、304、306、308、310)が対話型表面104に同時に関与し得る協調的環境を収容するのに十分に大きい。上述したように、ユーザは、単一のアプリケーションモジュールによって提供される同じアプリケーションに取り組むこともでき、ユーザは、異なるそれぞれのアプリケーションモジュール114によって提供される別々のアプリケーションに取り組むこともできる。
ユーザは、複数の物理オブジェクトを使って対話型表面104に関与することに留意されたい。物理オブジェクトの第1のクラスは、インプットデバイスに対応する。このようなデバイスは、キーボードタイプのデバイスおよびマウスタイプのデバイスを含む(しかし、既に述べたように、ユーザは、どの種類のインプットデバイスを使ってもよい)。たとえば、ユーザ302は、2つのマウスタイプのインプットデバイス(312、314)を使っている。ユーザ304は、キーボードタイプのデバイス316をマウスタイプのデバイス318と組み合わせて使っている。同様に、ユーザ306は、キーボードタイプのデバイス320をマウスタイプのデバイス322と組み合わせて使っている。ユーザ308は、どの物理的インプットデバイスも操作しないが、それにも関わらず、指接触を利用して(後で説明するように)デジタルオブジェクトを操作することができる。ユーザ310は、物理的マーキング道具324(たとえば、ペンなど)を用いて、マークを作成する。物理オブジェクトの第2のクラスは、物品を含む。たとえば、ユーザ310は、物理ドキュメント326と対話している。
対話型表面104は、その表面上にコンテンツ投影モジュール206によって投影されるデジタルオブジェクトの集合体も提供する。たとえば、ユーザ302は、物理的物品326のデジタルコピー328と対話している。ユーザは、それぞれのマウスタイプのデバイス(312、314)によって制御されるカーソル(330、332)とも対話することができる。デジタルコピー328およびカーソル(330、332)は、物理オブジェクトではなく、むしろコンテンツ投影モジュール206によって対話型表面104上に投影される画像である限りにおいてはデジタルオブジェクトである。
ユーザ304は、キーボードタイプのデバイス316を使って、ユーザ304によってインプットされた情報を表示するのに役立つ表示インターフェイス334と対話している。ユーザ304は、任意選択の「ソフトキー」インプット機構336のキー(複数可)を指もしくはスタイラスで押し、またはカーソルによってシミュレートされる指接触を使うことなどによってユーザ304によって有効化することができるインプット機構336とも対話する。ユーザは、マウスタイプのデバイス318によって制御されるカーソル338とも対話する。繰り返しになるが、こうしたオブジェクトはすべて、対話型表面104上に投影されるデジタルオブジェクトの構成要素となる。
同様にして、ユーザ306は、キーボードタイプのデバイス320を使って、ユーザによってインプットされた情報を受け取る表示インターフェイス340と対話している。ユーザ306は、マウスタイプのデバイス322によって制御されるカーソル342とも対話する。さらに、ユーザ306は、ユーザ304と共有される共同表示インターフェイス344と対話することができる。つまり、共同表示インターフェイス344は、ユーザ304およびユーザ306両方によって入力されたコンテンツの融合を表示することができる。
ユーザ308は、ユーザ302のように、物理的物品326のデジタルコピー346と対話している。
ユーザ310は現時点では、どのデジタルオブジェクトとも対話していない。
図4は、ユーザ304が対話型表面104と対話し得る方式をより詳細に示す。繰り返すと、ユーザ304は、対話型表面104に関与するためにキーボードタイプのデバイス316およびマウスタイプのデバイス318を使っている。キーボードタイプのデバイス316は、英数字テキスト入力を与える一タイプのデバイスの例である。対話型表面104は、ユーザ304によって使用するための3つのデジタルオブジェクト、すなわち表示インターフェイス334、補助的ソフトキーインプット機構336、およびカーソル338を提供する。
例示したシナリオにおいて、ユーザ304は、文書処理プログラムと対話するのに、キーボードタイプのデバイス316を使っている。ユーザ304がキーボードタイプのデバイス316を使ってタイプ入力しているメッセージは、インターフェイスディスプレイ334に表示される。ユーザ304は任意選択で、ソフトキーインプット機構336を使って、目前の作業に関係がある補足命令を与えることができる。たとえば、文書処理プログラムは(IMM112とともに)、ユーザがタイプ入力しているメッセージに対してアクションをユーザ304に実施させるソフトキーインプット機構336を提供し得る。たとえば、ユーザ304は、ソフトキーインプット機構336を使って、メッセージを印刷し、メッセージを別のユーザに送るなどのことができる。
別のシナリオ(図示せず)では、IMM112は、ソフトキーインプット機構336を使って、ユーザ304がキーボードタイプのデバイス316(または他の何らかのインプットデバイス)によりインプットする情報を解釈する際に利用するためのコンテキストを確立することができる。たとえば、ユーザ304が検索を実施している場合、ソフトキーインプット機構336は、ユーザの304の検索選択が適用されるべきデータストアを識別するのに使われ得る。たとえば、ソフトキーインプット機構336は、検索選択が、ローカルデータベース、体系化データベース、それともリモート公共データベースなどに向けられるべきかを指定するのに使われ得る。
図3に示す例示的シナリオから理解できる通り、マルチユーザ設定では、インターフェイス表面104はすぐに、物理オブジェクトおよびデジタルオブジェクトで比較的乱雑になり得る。したがって、どのユーザがどのオブジェクト(複数可)を制御するかに関して、混乱が起こり得る。この起こり得る挑戦課題に対処するために、IMM112は、オブジェクトの「所有権」を明確にするのを助けるための一組の機構を提供する。
一技法によると、IMM112は、デジタルオブジェクトを、デジタルオブジェクトに関連づけられたデバイスの近くに表示する。たとえば、図4に示すように、IMM112は、表示インターフェイス334を、キーボードタイプのデバイス316の真上に提示してよい(ただし、他の実施例では、IMM112は、表示インターフェイス334を、キーボードタイプのデバイス316に相対して他の場所に提示し得る)。さらに、IMM112は、デジタルオブジェクトを、デジタルオブジェクトに関連づけられたデバイスの向きと概ね一致する向きで提示してもよい。たとえば、表示インターフェイス334の向きは、キーボードタイプのデバイス316の向きと一致する。ユーザが、キーボードタイプのデバイス316の位置および/または向きを変更した場合、表示インターフェイス334の位置および/または向きは、対応して変化する。さらに、カーソル338の向きは、マウスタイプのデバイス318の向きと一致することに留意されたい。
図4は、ユーザ304が、自分が「所有」し、または制御するデジタルオブジェクトを追跡するのを助ける視覚属性で、デジタルオブジェクトがタグ付けされ得ることも示す。たとえば、IMM112は、表示インターフェイス334の周りの境界402およびカーソル338の周りの境界404を表示することができる。IMM112は任意選択で、キーボードタイプのデバイス316の周りの境界406およびマウスタイプのデバイス318の周りの境界408を表示することもできる。境界(402、404、406、408)は、他のユーザに割り当てられたそれぞれの色とは異なる単色で表示することができ、したがって、ユーザ304が、自身に属すデジタルオブジェクトおよびデバイスのグループを追跡するのを助ける。カラー境界の使用は、一実施例の例示である。代替的または追加的には、オブジェクトの表面全体は、指示的な色で色づけしてよい。代替的または追加的には、オブジェクトは、区別用の情報(たとえば、区別用のテキスト情報、区別用の記号情報など)などでタグ付けしてよい。代替的または追加的には、物理デバイスと、それに関連づけられたデジタルオブジェクトとの間に接続線を引いてよい。たとえば、図4に示すように、IMM112は、マウスタイプのデバイス318を、それに関連づけられたカーソル338と接続する線410を投影することができる。
IMM112は、デバイスとデジタルオブジェクトとの間に関連づけを様々なやり方で確立することができる。代表的な一機構によると、各物理的インプットデバイスは、その下側(たとえば、対話型表面104と接触する側)に識別タグを含み得る。たとえば、タグは、バーコードまたは他の種類のマシン可読情報に対応し得る。位置検出モジュール210は、このタグを読んで、物理デバイスの識別を判定することができる。これに対してこの情報は、IMM112に、物理デバイスを、デバイスに関連づけられたデジタルオブジェクトと相関させる。対話型表面104上に配置されたデバイスから識別情報を読む技法に関する付加情報は、本発明者Andrew D.Wilsonによる特許文献1で見ることができる。
図3に戻ると、この図は、下のセクションBで詳しく記載する異なる多くの使用シナリオを包含する。こうしたシナリオを掘り下げる前に、このセクションの残りでは、セクションBで記載するファンクションをIMM112に実施させるベースツールおよび機構に関する付加情報を提供する。
<A.2.例示的カーソル位置決め機構(図5〜7)>
図5は、対話型表面104上のカーソルの位置を判定する例示的手順500を示すフローチャートである。
ブロック502で、IMM112は、マウスタイプのデバイス(またはカーソルを制御するのに使うことができる他のタイプのインプットデバイス)の向きおよび絶対位置を判定する。この情報は、位置検出モジュール210など、上述したインプット機構のいずれからも取得することができる。
ブロック504で、IMM112は、カーソルを位置決めする際に使用するための基準座標系を決定する。より具体的には、典型的なマウスタイプのデバイスが、基準座標系に相対してカーソルを位置決めする位置オフセット情報を提供する。ブロック504は、この基準座標系を決定する。図6、7では、基準座標系を決定する2つの例示的技法を挙げる。
ブロック506で、IMM112は、ブロック504で決定された基準座標系に基づく位置にカーソルを配置する。カーソルの配置はしたがって、広域(絶対)測定値(たとえば、位置検出モジュール210によって与えられる)および相対オフセット測定値(たとえば、マウスタイプのデバイス自体によって与えられる)両方の寄与を反映する。相対オフセット測定値は概して、広域測定値と比較してより精密であり、応答性が高い。
カーソルの配置は、ユーザ定義可能な制御表示(CD)比にも基づき得る。CD比は、マウスタイプのデバイスの対応する動きに応答してカーソルが対話型表面104上をどこまで進むか定義する倍率である。例示的な一技法では、IMM112は、ユーザにCD比を調整させるマウスタイプのインプットデバイス(図示せず)に近接して、補助的なソフトキータイプのインプット機構を表示することができる。たとえば、補助的インプット機構は、ユーザにCD比を調整させるスライダ機構または他の調節可能な制御機構を含み得る。
図6は、図5の手順においてカーソルを位置決めする際に使用するための基準座標系を判定する第1の技法を示す。この技法では、IMM112は、マウスタイプのデバイス602の絶対位置を判定し、次いで、マウスタイプのデバイス602の位置に最も近い、対話型表面104のエッジ604を判定する。IMM112は次いで、最も近いエッジ604に関連づけられた軸に基づく基準座標系606を定義する。代替的または追加的には、対話型表面104の他のどの静止特徴(複数可)も、対話型表面104上の1つまたは複数の基準線(図示せず)など、1つの基準オブジェクトまたは複数の基準オブジェクトとして用いることができる。
図7は、図5の手順においてカーソルを位置決めする際に使用するための基準座標系を決定する第2の技法を示す。この技法では、IMM112は、マウスタイプのデバイス602の絶対位置および向き両方を判定する。IMM112は次いで、マウスタイプのデバイス602自体の判定された向きに対応する基準座標系702を定義する。この場合、基準座標系は、ユーザが対話型表面104上でマウスタイプのデバイス602を移動すると、動的に変化する。
図6、7に記載した2つの技法は、代表的であり、IMM112は、さらにそれ以外の技法または異なる技法の組合せを適用して、カーソルを位置決めすることができる。
上記例では、手順500の目標は、カーソルの相対配置を定義するための基準座標系を決定することである。IMM112は、手順500で収集した情報を応用して、マウスタイプのデバイス602自体の絶対位置の測定値を与えることもできる。たとえば、IMM112は、位置検出モジュール210または他の広域(すなわち、表面の広さの)位置検知機構を使って、マウスタイプのデバイス602の絶対位置を決定することができる。IMM112は次いで、マウスタイプのデバイス602によって与えられた相対的な位置測定値を用いて、マウスタイプのデバイス602が移動されると、上で判定された絶対位置を調整することができる。
単に位置検出モジュール210を使って、マウスタイプのデバイス602の絶対位置を判定することが可能であるが、上述したやり方で測定の組合せを用いて絶対位置を判定するのが有益であろう。というのは、たとえば、マウスタイプのデバイスによって与えられる相対的な位置測定値は、位置検出モジュール210によって行われる広域測定の値より応答性がある(かつ、可能性としてはより高い解像度を有する)可能性があるからである。同様の利益が、図5に示すシナリオに当てはまり、図5では、目標は、基準座標系に対してマウスタイプのデバイス602の相対オフセットを判定することである。単に広域測定値を用いて、マウスタイプのデバイス602の動きを判定することが可能であるが、広域測定値およびローカル測定値の組合せを用いることが望ましい場合がある。というのは、マウスタイプのデバイス602によって与えられるローカル測定値は、広域測定値と比較して、より応答性があり、より大きい解像度を有し得るからである。
<A.3.例示的画像取得機構(図8)>
図8は、対話型表面104上に置かれた物品または他の種類のオブジェクトのデジタルコピーを形成する例示的手順を示すフローチャート(および付随する例)である。図8を、具体的なシナリオ(フローチャート動作の右側に示す)のコンテキストで説明するが、この手順800は、どの画像取得シナリオにも一般的に適用されることが理解されよう。
ブロック802で、IMM112は、物品のデジタルコピーを生成するための命令を検出する。セクションBでは、ブロック802が実行され得る代表的機会を記載する。たとえば、物品に関連づけられたインターフェイスオブジェクトをユーザが(たとえば、インターフェイスオブジェクト上でドラッグモーションを実行することによって)有効化したとき、IMM112はブロック802を実行することができる。
ブロック804で、IMM112は、対話型表面104全体の画像を受け取る。図8は、この画像を、例示的「表面全体画像」806として示す。表面全体画像806は、その構成部分として目標画像808を含む。目標画像808は、対話型表面上104に置かれた物品に対応する。
ブロック810で、IMM112は、目標画像808を除いて画像コンテンツすべてが有効に破棄されるように、表面全体画像806を刈り込む。目標画像808は、物品のデジタルコピーを与え、コピーは次いで、セクションBに記載する方式で対話型表面104上に戻して投影することができる。IMM112は、表面全体画像806を刈り込むのに様々な技法を用いることができる。一技法では、IMM112は、目標画像808の境界を判定するのにエッジ検出を用いることができる。IMM112は次いで、こうした境界の外側の画像コンテンツをすべて、刈込みを用いて削除することができる。
<A.4.例示的デジタルオブジェクト配置機構(図9)>
図9は、デジタルオブジェクトが対話型表面104上の既存オブジェクトと干渉しないように、対話型表面104上にデジタルオブジェクトを配置する例示的手順900を示すフローチャート(および付随する例)である。図9の単なる代表的例において、IMM112は、デジタルオブジェクト902が既存オブジェクト904の集合体と干渉しないように、L×Mデジタルオブジェクト902を対話型表面104上に配置するよう求め得る。たとえば、ユーザが、新規キーボードデバイス906を対話型表面104上に配置したばかりだと仮定する。IMM112は、デジタルオブジェクト902を対話型表面104上に配置することによって応答する。(図9の具体的なシナリオでは、表示オブジェクト902は、キーボードタイプのデバイス906用の表示インターフェイスとして作用する)。図9を、上述のシナリオ(デジタルオブジェクト902を伴う)の具体的なコンテキストで説明するが、この手順900は、どのオブジェクト配置シナリオにも一般的に適用されることが理解されよう。
ブロック908で、IMM112は、対話型表面104上に配置することを望むデジタルオブジェクト902の特性を判定する。デジタルオブジェクト902の特性は、デジタルオブジェクト902の寸法、またはより全般的には、デジタルオブジェクト902の全周の形状に対応し得る。図9の代表的例では、IMM112は、オブジェクト902がL×Mの寸法をもつと判定する。
ブロック910で、IMM112は、少なくとも1つの配置制約を識別する。各配置制約は、デジタルオブジェクト902を配置する際に満足されるべき制約として作用する規則に対応する。たとえば、上に記載したシナリオに当てはまり得るある規則は、デジタルオブジェクト902が、(ユーザの位置に相対して)キーボードデバイス906の上に、および好ましくは可能な限りキーボードタイプのデバイス906の近く(または、環境特有の配置要因に依存して、キーボードタイプのデバイス906の数インチ上など)に配置されるべきであるというものである。一実施例では、こうした制約の1つまたは複数は、デジタルオブジェクト902の配置の際に満足される必要がある必須制約として定義される。代替的または追加的には、こうした制約の1つまたは複数は、デジタルオブジェクト902の配置の際に可能な程度まで満足されるべき優先タイプの制約として定義される。さらに他の実施例では、IMM112は、デジタルオブジェクト902の配置の際に制約の相対重要性を決定する重みを各制約にユーザが付加することを許可し得る。IMM112は、こうした重みを用いて、特に制約すべてを完全に満足することができないケースでは、デジタルオブジェクト902の配置に関わる様々な検討事項に優先順位をつけることができる。
ブロック912で、IMM112は、対話型表面104の表面全体のマスク(たとえば、マスク914)を生成する。IMM112は、任意のやり方で、またはいくつかのやり方を組み合わせて、たとえば、位置検出モジュール210を使ってインターフェイス表面104上での物理オブジェクトの配置を判定することによって、マスク914を形成することができる。図9に示すように、マスク914により、既に存在するオブジェクト904の集合体が対話型表面104上に存在することが明らかになる。こうしたオブジェクト904は、既に存在する物理オブジェクトおよび/またはデジタルオブジェクトに対応し得る(IMM112はデジタルオブジェクトを配置するエージェントなので、IMM112は、こうしたオブジェクトの配置について事前に知っていることに留意されたい)。代替的または追加的には、ブロック912は、高解像度撮像モジュール208を使ってマスク914を形成することができる。
ブロック916で、IMM112は、上で論じた情報すべて、すなわち、a)配置されるべきデジタルオブジェクト902の特性(ブロック908で判定された)、b)配置制約(複数可)(ブロック910で判定された)、およびc)対話型表面104上での既存オブジェクト904の位置(ブロック912で判定された)に基づいて、デジタルオブジェクト902の配置を決定する。IMM112は、オブジェクト902の配置を決定するどのアルゴリズムも用いることができる。ある代表的ケースでは、IMM112は、積分画像(integral image)技法を用いて、対話型表面104上でのデジタルオブジェクト902の適切な配置を決定する。IMM112は、最初に積分画像テーブルを公知の方式で形成することによって、積分画像技法を適用する。積分画像テーブルは、複数の配置可能性を効率的に調べるのに使われ得る。
図9は、L×M表示オブジェクト902が、既存オブジェクト904のいずれとも重ならないように対話型表面上104に置かれることを示す。さらに、この配置は、たとえば、表示オブジェクト902がユーザのキーボードタイプのデバイス906の比較的近くに置かれるので、上で識別された配置制約(複数可)を少なくとも部分的に満足する。ただし、オブジェクト902の配置は、近くにあるオブジェクト918の妨害的存在のせいで、(配置制約の見地から)最適ではない場合がある。
<A.5.カーソルを接触点として使う例示的機構(図10)>
接触点は、対話型表面104上に提示されるデジタルオブジェクトを操作するため、または他の何らかのアクションを実施するためにユーザが対話型表面104と関与し得る点に対応する。あるケースでは、ユーザは、指(もしくは体の他の部分、たとえば手全体など)または物理的指示器具(たとえば、スタイラスなど)を対話型表面104上またはその近くに配置することによって、対話型表面104と関与し得る。このタイプの接触点は概して、本明細書では指接触点と呼ばれる。別のケースでは、ユーザは、シミュレートされた指接触点として、マウスタイプのインプットデバイスによって制御されるカーソルを使うことができる。つまり、カーソルは、カーソルによって定義された場所に指をあてるユーザの代理として動作し得る。カーソルに関連づけられた接触点のタイプは、カーソル接触点と呼ばれる。ここで、カーソルという用語は、ユーザによって操作され得るどのデジタルオブジェクトも包含し、ある非限定的ケースでは、カーソルは、矢印形状のデジタルオブジェクトに対応する。
図10は、マウスタイプのデバイスをタッチモードで操作する例示的手順1000を示すフローチャートである。タッチモードでは、上述したやり方でマウスタイプのデバイスによって制御されるカーソルが対話型表面上に置かれた指接触をシミュレートする。タッチモードで作用しないとき、マウスタイプのデバイスは、どの補足的画像取扱いファンクションも実施することなく、カーソルの場所を動かすことによって、従来の方式で機能する。
ブロック1002で、IMM112は、ユーザがマウスタイプのデバイスのタッチモードを有効化しているかどうか判定する。単なる例示的な一ケースでは、ユーザは、このモードを、特別に割り当てられたマウスボタンをクリックすることまたは他の制御によって有効化することができる。ユーザがこのボタンを押下している限り、デバイスは、タッチモードで動作する。ユーザがボタンを離すと、タッチモードは無効化される。ユーザがマウスタイプのデバイスのボタンを押下し、次いで、ボタンを押下したまま、カーソルを第1の場所から第2の場所に移動する例について検討する。第2の場所で、ユーザはボタンを離す。この操作は、ユーザが自分の指を対話型表面104に押しつけ、指を第1の場所から第2の場所にドラッグすることと機能的に等価である。
ブロック1004で、IMM112は、タッチモードが有効化されている場合、マウスタイプのデバイスをこのモードで操作する。
ブロック1006で、ユーザは、マウスタイプのデバイスのタッチモードにおいて、どのタイプの画像取扱い操作も実施することができる。たとえば、ユーザは、デジタルオブジェクトを移動し、デジタルオブジェクトを回転させ、デジタルオブジェクトのサイズを変更するなどのことができる。セクションBでは、マウスタイプのデバイスがタッチ操作モードで動作しているときにとることができるアクションのタイプの例を挙げる。
ブロック1008で、IMM112は、ユーザがタッチモードを無効化していることを検出する。
ブロック1010で、マウスタイプのデバイスは、デバイスが従来の操作方式でカーソルの動きを制御するのに使われる従来のモードに遷移する。
<B.システムおよびツールの例示的応用>
図11〜22は、セクションAに記載したシステムおよびツールがユーザによって対話型表面104と関与するのにどのように使われ得るかを記載するいくつかのシナリオを挙げる。こうしたシナリオは例示的であり、上述したシステムおよびツールは、このセクションに特に列挙しない他の多くの動作を実施するのに使われ得る。
<B.1.デジタルオブジェクトを物理オブジェクトと結びつける機構(図11〜14)>
図11〜14は、物理デバイスとデジタルオブジェクトとの間の結合をIMM112がどのように管理するかを示す様々なシナリオを示す。このサブセクションで説明するシナリオにおいて、デジタルオブジェクトは、表示インターフェイスに対応する。こうした表示インターフェイスは、キーボードタイプのデバイスなどの物理デバイスを使うユーザによって入力された情報を提示するのに使われる。ただし、ここで記載する原理は、どのタイプのデジタルオブジェクトおよびどのタイプの物理デバイスにも適用可能である。
図11から始めると、この図は、デバイスが対話型表面上104に置かれたときに新規デジタルオブジェクトを生成する例示的手順1100を示すフローチャート(および付随する例)である。すなわち、この場合、ユーザは、デバイス1102を対話型表面104上に配置している。手順1100の目標は、デジタルオブジェクト1104を対話型表面104上に表示することである。この例示的ケースでは、デジタルオブジェクト1104は、(上述したように)デバイス1102と関連づけて使用するための表示インターフェイスを提供する。
ブロック1106で、IMM112は、ユーザがデバイス1102を対話型表面104上に配置していることを検出する。IMM112は、この判定を、位置検出モジュール210、および/または上述した他の任意のインプット機構によって提供されたインプット情報に基づいて行えばよい。IMM112は、デバイス1102がその下側に指示的コードを含むことに注目することによって、デバイス1102を、物理的物品(物理ドキュメントなど)と区別することができる。追加的または代替的には、IMM112は、輪郭分析に基づいて、デバイス1102を物理的物品(または指接触点など)と区別することができる。
ブロック1108で、IMM112は、デジタルオブジェクト1104を表面上でデバイス1102のすぐ上に表示する。より具体的には、(図9に関連して)上述した配置手順900は、デジタルオブジェクト1104を配置するべき位置(および向き)を決定するのに用いることができる。あるケースでは、IMM112は、ユーザがデバイス1102を対話型表面104上に配置したことを検出した直後にデジタルオブジェクト1104を表示してよい。別のケースでは、IMM112は、ユーザがデバイス1102と対話し始めたという検出に応答してデジタルオブジェクト1104を表示してよい。たとえば、IMM112は、ユーザがデバイス1102を使って最初のキーストロークを入れたときにデジタルオブジェクト1104を表示してよい。さらに他の要因が、デジタルオブジェクト1104を提示するべきタイミングを決定する役割を果たし得る。あるケースでは、IMM112は、所定の期間に渡るデバイス1102に関する無効化を検出したとき、デジタルオブジェクト1104を削除する(たとえば、オフにする)ことができる。
ブロック1110で、IMM112は、ユーザが対話型表面104からデバイス1102を削除したことを検出する。
ブロック1112で、デバイス1102の削除に応答して、IMM112は、対話型表面104からデジタルオブジェクト1104を削除する。
図12は、デバイスが既存デジタルオブジェクトに近接して対話型表面104上に置かれたとき、既存デジタルオブジェクトをデバイスと結びつける例示的手順1200を示すフローチャート(および付随する例)である。たとえば、対話型表面104がデジタルオブジェクト1202を既に含むと仮定する。具体的な一例示的シナリオでは、このデジタルオブジェクト1202は、1人または複数のユーザによって、アプリケーションモジュールと対話するのに使われている。新規ユーザが、他のユーザに加わり、デジタルオブジェクト1202を介してアプリケーションモジュールと対話することも望む場合がある。
ブロック1204で、IMM112は、新規ユーザが、デバイス1206(または他のタイプのインプットデバイス)を、対話型表面104上に既存デジタルオブジェクト1202に近接して配置したことを検出する。
ブロック1208で、IMM112は、1つまたは複数のデバイス−オブジェクト結合検討事項が満足されるかどうか検出する。こうした条件は、新規デバイス1206が、デジタルオブジェクト1202との関連づけを形成することを許可されるかどうか判定する。ある検討事項は、たとえば、デジタルオブジェクト1202とのデバイス1206の自動関連づけを認めるために、新規ユーザがデバイス1206をデジタルオブジェクト1202の十分近くに配置しているかどうかを示す。別の検討事項は、ユーザが作業に加わり、寄与することを許可されるかどうかを示す。この検討事項は、たとえば実施される作業の性質、ユーザの識別など、任意の数の環境特有要因に依存し得る。何がデバイス−オブジェクト結合検討事項を組成するかに関して、限定は課されない。
ブロック1210で、IMM112は、ブロック1208で識別された検討事項(複数可)が満足される場合、デバイス1206とデジタルオブジェクト1202との間の関連づけを形成する。図12は、デジタルオブジェクト1202が現在、デバイス1206に関連づけられていることを示すための視覚属性1212(色づけされた境界など)とともに表示インターフェイス1202が提示され得ることを示す。IMM112は、デバイスとオブジェクトの結合を意味するのに、他の技法を、つまり、視覚属性1212の代わりに、または視覚属性1212に加えて用いてもよい。たとえば、IMM112は、デバイス1206をデジタルオブジェクト1202に接続する線(図示せず)を投影することができる。(図示していないが、同じタイプのデバイス−オブジェクト視覚相関機構(複数可)が、図11に示すシナリオに適用され得る)。
図13は、既存デジタルオブジェクトがデバイスに近接して移動されたとき、既存デジタルオブジェクトをデバイスと結びつける例示的手順1300を示すフローチャート(および付随する例)である。つまり、図13は、図12で記載したシナリオに対して補足的なシナリオを示す。図13で、ユーザは、既存デジタルオブジェクト1302をデバイス1304の方に移動し、図12では、ユーザは、既存デバイス1206をデジタルオブジェクト1202の方に移動する。
ブロック1306で、IMM112は、ユーザ(または他の何らかのエージェント)が、既存デジタルオブジェクト1302をデバイス1304に近接して配置したことを検出する。
ブロック1308で、IMM112は、デバイス−オブジェクト結合検討事項(複数可)が満たされるかどうか判定する。こうした検討事項は、デジタルオブジェクト1302をデバイス1304に関連づけることが適切かどうか定義する。このような例示的検討事項は、図12のブロック1208を考察したコンテキストで記載してある。
ブロック1310で、ブロック1308で定義された条件が満足される場合、IMM112は、デジタルオブジェクト1302をデバイス1304に関連づける。あるケースでは、IMM112は、デジタルオブジェクト1302が現在、デバイス1304に関連づけられていることを示すために、視覚属性1312(色づけされた境界など)を表示してよい。
図14は、単一のデジタルオブジェクトを2つのデバイスと結びつける例示的手順1400を示すフローチャート(および付随する例)である。この手順は、2つそれぞれのデジタルオブジェクト(2つそれぞれのデバイスによって制御される)を使って実施される操作が、デバイスを互いの近くにもっていくことによってどのようにマージされ得るかも明示する。
たとえば、あるシナリオでは、第1のユーザが、検索アプリケーションモジュールと対話するために、第1のデバイス1402および関連づけられた表示オブジェクト1404を使っていると仮定する。第2のユーザは、同じ検索アプリケーションモジュールと対話するために、第2のデバイス1406および関連づけられたデジタルオブジェクト1408を使っている。初期の時点で、こうしたユーザは、互いから比較的離れた場所で対話型表面104と対話している。さらに、こうした2人のユーザは、各自の検索操作を実施している。次に、ユーザが、共通検索作業に一緒に取り組むことができるように、自分のデバイス(1402、1406)を互いの比較的近くに移動すると仮定する。たとえば、こうした2人のユーザは、図3に示すユーザ304、306に対応し得る。このシナリオでは、IMM112は、こうしたユーザによって後で説明するように実施される操作を組み合わせるのに使うことができる。
ブロック1410で、IMM112は、対話型表面104上で互いに近接した2つのデバイス(1402、1406)の配置を検出する。
ブロック1412で、IMM112は、1つまたは複数のデバイス−デバイス結合検討事項が満足されるかどうか判定する。こうした検討事項は、あるユーザによって実施される操作が、別のユーザによって実施される操作とマージされるべきかどうかを支配する1つまたは複数の規則を定義する。例示的なこのような検討事項は、図12、13を考察したコンテキストで記載してある。
ブロック1414で、ブロック1412で説明した検討事項が満足される場合、IMM112は、2人のユーザによって実施されるファンクションをマージする。このマージ動作は、様々な環境特有要因および他の検討事項に依存して、異なる形をとり得る。図14に示す単なる説明のための例では、IMM112は、デバイス(1402、1406)によって別々に使われていたデジタルオブジェクト(1404、1408)を、単一のデジタルオブジェクト1416に組み合わせる。両方のユーザは、それぞれのデバイス(1402、1406)を使って共同表示オブジェクト1416に関与することを許可される。
さらに、IMM112は任意選択で、2人のユーザによってそれぞれ独立に行われた検索選択を、共同検索選択に組み合わせることができる。たとえば、こうしたユーザが自分のデバイス(1402、1406)を互いの近くに移動する前に、第1のユーザが検索選択「シアトル」を入力し、第2のユーザが検索選択「マンション」を入力したと仮定する。互いの近くに移動すると、IMM112は、各自の検索選択の論理融合を表す組み合わされた検索選択を形成し得る(組み合わされた検索選択「シアトルANDマンション」を形成することなどによって)。(他のシナリオでは、他の規則が、別々の選択が論理的に組み合わされる方式を決定し得る。)IMM112は、この組み合わされた検索選択を適切なアプリケーションモジュールにフォワードし、次いで、アプリケーションモジュールによって与えられた結果を、ラベル「(共同検索のアウトプット)」を指す矢印で図14にグラフィカルに示すように、単一化された表示インターフェイス1416に表示すればよい。
繰り返すと、図14で展開した具体例は、デジタルオブジェクトと対応する動作が、様々なトリガイベントに基づいてマージされ得る多くの可能シナリオを表す。別の例では、2人のユーザが、各自のデジタルオブジェクトを使って、会議でメモを各自とり、メモを表示する場合がある。互いの近くに移動すると、IMM112は、こうしたユーザによってとられたメモを、共通デジタルオブジェクトによって表示される共通ドキュメントにマージすることができる。このシナリオでは、IMM112は任意選択で、それぞれのユーザによって行われる共通ドキュメントへの寄与を示すための任意のタイプのユーザタグを与えることができる。概して、実施されるマージ操作の性質は、1つまたは複数の環境特有要因と組み合わされて、部分的に、ユーザによって実施されるファンクションの性質に依存することになる。あるケースでは、IMM112は、ユーザごとに、IMM112のオブジェクト組合せおよび操作組合わせ挙動を支配する特権情報を維持することができる。たとえば、会議管理者は、特定のユーザが共同作業に寄与するのを禁止することを望む場合があり、そうすることによって、手順1400で説明した挙動を特定のユーザに対して禁じる。
図14は、2人のユーザという例示的コンテキストで記載してある。しかし、上に記載した原理は、共有デジタルオブジェクトと対話することを望む任意の数のユーザに適用され得る。
<B.2.デジタルオブジェクトを操作する機構(図15、16)>
次の一連の図面は、デジタルオブジェクトを操作する例示的技法を示す。図15から始めるが、この図は、様々な接触点シナリオを用いてデジタルオブジェクトを操作する例示的手順1500を示すフローチャート(および付随する例)である。上に記載したように、接触点は、ユーザが対話型表面104の表面に関与する(たとえば、それとの接触を行う)点に対応する。このファンクションは、様々なやり方で実施することができる。最初に、ユーザは、自分の指(もしくは他の体の部分)または物理的器具を対話型表面104に押しつけることによって接触点を作成すればよく、このアクションが指接触点を定義する。ユーザは、図10の手順1000に記載したように、マウスタイプのデバイスのタッチモードを有効化することによって接触点を作成してもよく、このアクションがカーソル接触点を定義する。
ブロック1502で、IMM112は、ユーザが複数の接触点を使ってデジタルオブジェクトと関与していることを検出する。
ブロック1504で、IMM112は、ユーザによって命令されたように(たとえば、デジタルオブジェクトを動かし、デジタルオブジェクトの向きを変え、デジタルオブジェクトのサイズを変えることなどによって)デジタルオブジェクトを操作する。
図15は、手順1500がどのように実施され得るかを説明する3つの代表的(および非網羅的)シナリオを提示する。シナリオAにおいて、ユーザは、2つの指接触点(1508、1510)を使ってデジタルオブジェクト1506に関与する。この単なる説明のための例において、ユーザは、指接触点を使って、デジタルオブジェクト1506の2つの向かい合う隅にタッチすることができる。ユーザは次いで、デジタルオブジェクト1506を(任意選択で、1つの接触点がピボットとして固定されて)回転させるように指接触点(1508、1510)を時計回りもしくは反時計回り方向に動かすことによって、またはデジタルオブジェクト1506のサイズを変更するために指接触点(1508、1510)を互いに向かって、もしくは互いから離れるように動かすことなどによってデジタルオブジェクト1506を操作することができる。
シナリオBにおいて、ユーザは、指接触点1512およびカーソル接触点1514を用いてデジタルオブジェクト1506に関与する。ユーザは、こうした接触点を使って、シナリオAのコンテキストにおいて上述したどの取扱いも実行することができる。
シナリオCにおいて、ユーザは、2つのカーソル接触点(1516、1518)を用いてデジタルオブジェクト1506に関与する。ユーザは、こうした接触点を使って、シナリオAのコンテキストにおいて上述したどの取扱いも実行することができる。シナリオCに示す取扱いのタイプは、ユーザが、手の届かないオブジェクトを操作することを求める状況に特に適している。たとえば、図3のユーザ302は、2つのマウスタイプのデバイス(312、314)を使って、2つの関連づけられたカーソル(330、332)を制御することができる。マウスタイプのデバイス(312、314)をタッチモードで操作することによって、デジタルコピー328が物理的にユーザ302の手が届かない場合でも、ユーザは、上述したやり方でデジタルコピー328を操作することができる。
図示していないが、ユーザは、単一の接触点を使ってデジタルオブジェクトを操作することもできる。たとえば、ユーザは、単一の指接触点または単一のカーソル接触点を使って、どのデジタルオブジェクトも、対話型表面104上の第1の場所から第2の場所に移動することができる。
図16は、デジタルオブジェクトの上にデバイスを配置すること、およびデジタルオブジェクトを移動し、または他の何らかのアクションをデジタルオブジェクトに対して実施するためのハンドルとしてデバイスを比喩的に使うことによってデジタルオブジェクトを操作する例示的手順1600を示すフローチャート(および付随する例)である。
ブロック1602で、IMM112は、デジタルオブジェクトの上にかかるデバイスの動きを検出する。
ブロック1604で、IMM112は、ユーザによって命令されたように、デバイスをハンドルとして使ってデジタルオブジェクトを操作する。
たとえば、手順1600のフローチャートブロックの右側に示すシナリオについて検討する。ここで、ユーザは、対話型表面104上に表示される任意のタイプのデジタルオブジェクト1608の上にマウスタイプのデバイス1606を配置している。ユーザは次いで、マウスタイプのデバイス1606を使って、たとえば、デジタルオブジェクト1608を回転させ、デジタルオブジェクト1608を別の位置にスライドさせることなどによって、任意の方式でデジタルオブジェクト1608を操作すればよい。マウスタイプのデバイス1606とデジタルオブジェクト1608との間の関連づけは、ユーザがマウスタイプのデバイス1606を対話型表面104からもち上げたときになくなり得る。代替的または追加的には、マウスタイプのデバイス1606のハンドルのような能力は、このファンクションに割り当てられたマウスボタンを押し、離すことによって有効化し無効化することができる。
<B.3.デジタルコピーを作成し、操作する機構(図17〜21)>
次の一連のフローチャートは、有形(たとえば、「ハードコピー」)ドキュメントなどだが、それに限定されない、どのタイプの物理的物品のコピーも生成する様々な技法を示す。フローチャートは、生成済みのデジタルコピーと対話する技法も示す。デジタルコピーの生成および取扱いは、協調的環境では特に有用である。たとえば、図3に示すように、ユーザ310は、物理的物品326と対話している。ユーザ310は、この物理的物品326のデジタルコピー(たとえば、デジタルコピー328、346)を、他のユーザ(たとえば、ユーザ302、308)に配布するために生成することができる。こうすることにより、他のユーザ(302、308)は、物理的物品326によって分与される情報を、たとえば、ユーザ(302、308)が元の物理的物品326を調査するためにユーザ310の周りに集まる必要なく、およびユーザ(302、308、310)が従来の時間連続方式で自分達の間で物理的物品326を回覧する必要なく、調査しやすくなる。さらに、デジタルコピーに対してどのユーザによってとられたアクションも、自動的に、対応する操作を物理的物品に対して実施させ、およびその反対も行われる。こうすることにより、たとえば、任意のユーザが、対象となっている特徴を、対話型表面104の周辺付近の異なる場所に留まっている他の1人または複数のユーザに指摘し得るための好都合な機構を提供することによって、環境の協調的性質が促進される。
図17から始めると、この図は、対話型表面104上に置かれた物理的物品1704に基づいてデジタルコピー1702を作成する例示的手順1700を示すフローチャート(および付随する例)である。
ブロック1706で、IMM112は、ユーザが物理的物品1704を対話型表面104上に配置したことを検出する。この検出操作は、位置検出モジュール210のアウトプットに基づいて、または他の何らかのインプット機構もしくはインプット機構の組合せを使うことによって実施することができる。IMM112は、輪郭分析を利用して物理的物品1704を指接触点(および他のオブジェクト)と区別することができる。IMM112は、オブジェクトをインプットデバイスとして識別する指示的マークが物理的物品1704に付けられていないことに注目することによって、物理的物品1704をインプットデバイスと区別することができる。
ブロック1708で、IMM112は、インターフェイスオブジェクト1710を物理的物品1704に関連づけて提示する。インターフェイスオブジェクト1710は、たとえば、物理的物品1704のデジタルコピーを作り、他の操作を実施するために、ユーザを物理的物品1704と対話させるデジタルオブジェクトである。図17の単なる代表的例において、インターフェイスオブジェクト1710は、物理オブジェクト1704の周りに形成される光輪または境界に対応する。他のどのタイプのインターフェイスオブジェクトも、手順1700のファンクションを遂行するのに使われ得る。たとえば、別のインターフェイスオブジェクト(図示せず)が、物理的物品1704の1つの隅(または複数の隅)から突き出る1つまたは複数のデジタルプルタブに対応し得る。
ブロック1712で、IMM112は、物理的物品1704のデジタルコピーを作成する意図を示すように、ユーザがインターフェイスオブジェクト1710に関与していることを検出する。あるケースでは、ユーザが、指でインターフェイスオブジェクト1710に触れ、次いで、指を対話型表面104に押しつけたまま、指を物理的物品1704から離すようにドラッグすると仮定する。IMM112は、このモーションを、物理的物品1704のデジタルコピーを作成するための命令と解釈し得る。このモーションは、カードの山から一番上のカードをスライドさせる作用に似ている。同じ動きを、指接触点ではなくカーソル接触点を使って実施することができる。さらに、繰り返すと、他のインターフェイスオブジェクトおよび関連づけられた指示的動きが、デジタルコピーを作成するよう、IMM112に命令するのに用いられ得る。IMM112は、上述した検出機構の任意の1つまたは複数を使って(たとえば、位置検出モジュール210および/または高解像度撮像モジュール208などを使って)、指示的動きを検出することができる。
ブロック1714で、IMM112は、上述した指示的動きのタイプを検出しており、物理的物品1704のデジタルコピー1702を作成する。あるケースでは、IMM112は、ユーザが自分の指ドラッグモーションを完了し、対話型表面104から指をもち上げた場所にデジタルコピー1702を「置く」ことができる。図示しないが、IMM112は、たとえば、生じるべきコピーの数、使われるべきサイズスケーリング比、使われるべきコピー濃度などを指定することによって、コピー操作を支配する様々な属性をユーザに指定させることもできる。
様々な環境特有検討事項が、IMM112が物理的物品1704の画像を取り込む正確なタイミングを判定するのに用いられ得る。ある非限定的ケースでは、IMM112は、ユーザが対話型表面104から指をはずしたとき、たとえば、ドラッグ操作の終わりに物理的物品1704の画像を取り込む。このタイミングにより、IMM112が、物理的物品1702の写真を撮る際にユーザの体の一部分を取り込む可能性が低下し得る。
図18は、メニューオブジェクト1802を、対話型表面104上に置かれた物理的物品(たとえば、物理的物品1704)と関連づけて提示する例示的手順1800を示すフローチャート(および付随する例)である。より具体的には、コピー操作(図17で記載した)を実施するためのツールとして働くのに加えて、インターフェイスオブジェクト1710は、メニューオブジェクト1802の提示など、他の操作を実施するために有効化され得る。
ブロック1804で、IMM112は、インターフェイスオブジェクト1710に関与して、物理的物品1704のデジタルコピーの作成以外の作業を実施したいというユーザの希望を示す、ユーザによるアクションを識別する。たとえば、単なる例示的なあるケースでは、ユーザは、インターフェイスオブジェクト1710の上を、指またはシミュレートされた指接触点(マウスタイプのデバイスによって制御される)で2回素早く続けて叩けばよい。図18の例において、IMM112は、このアクションを、メニューオブジェクト1802を有効化するためのリクエストと解釈する。
ブロック1806で、IMM112は、ユーザにメニューオブジェクト1802を提示する。IMM112は、このメニューオブジェクト1802を、インターフェイスオブジェクト1710の周辺など、どの場所にも表示することができる。メニューオブジェクト1802は、たとえば物理的物品1704のデジタルコピーの印刷、物理的物品1704のデジタルコピーの保存など、物理的物品1704に対して任意の数の操作を実施するための任意の数の選択肢を提供し得る。代替的または追加的には、メニューオブジェクト1802は、(図17の)コピー操作を支配する設定をユーザに調整させるツールとして働き得る。
図19は、デジタルコピー1904の対応する一部分の選択に基づいて、物理的物品1902の一部分を強調表示する(またはその反対)例示的手順1900を示すフローチャート(および付随する例)である。
ブロック1906で、IMM112は、ユーザがデジタルコピー1904のある部分1908を選択したことを検出する。たとえば、ユーザは、指、スタイラス、カーソル、または他の接触点を使って、デジタルコピー1904の特定の部分1908を指すことができる。
ブロック1910で、IMM112は、物理的物品1902の一部分1914に強調表示1912を与えることができる。この部分1914は、デジタルコピー1904の選択された部分1908に対応する。IMM112は、このファンクションを、デジタルコピー1904中の位置を物理的物品1902中の対応する位置にマップすることによって実施することができる。IMM112は、たとえば部分1914の周りの境界の画像を投影し、部分1914を指摘する矢印(など)を投影し、部分1914を照らす光線を投影することなどによって、どのやり方でも物理的コピー1902の部分1914を強調表示することができる。
ブロック1916で、IMM112は、ユーザが、たとえば、部分1908から指をはずすことによって、デジタルコピー1904の部分1908を選択解除したことを検出する。
ブロック1918で、IMM112は、物理的物品1902の対応する部分1914から強調表示1912を削除する。
図示していないが、ユーザは、上述したやり方で物理的物品1902の一部分を選択することができ、こうすることにより、IMM112は、デジタルコピー1904の対応する部分に強調表示を加えるよう促される。前述通り、IMM112は、物理的物品1902の予め選択された部分をユーザが選択解除したときに強調表示を削除してよい。このシナリオでは、インプット機能108は、ユーザによって物理的物品1902の真上でとられたアクションを検出する能力をもつ別の位置検出システム(図示せず)を含み得る。たとえば、インプット機能108は、対話型表面104の上に位置決めされるどのタイプのリモート検知機構も含み得る。代替的または追加的には、インプット機能108は、対話型表面104自体に統合された(たとえば、その内部の)タッチ感応インプット機構を含み得る。
他のケースでは、IMM112は、予め選択された部分をユーザが選択解除した後、物理的物品1902またはデジタルコピー1904に付与された強調表示を保存する選択肢をユーザに与え得る。たとえば、上述したようにデジタルコピー1904に非永続的強調表示を加えるのではなく、ユーザは、デジタルコピー1904にデジタルマークを加えることができる。こうすることにより、IMM112は、対応するデジタルマークを物理的物品1902に加える。物理的物品1902に付与されたデジタルマークは、ユーザがデジタルコピー1904に関与し終えした後も残り得る(ただし、物理的物品1904に付与されたデジタルマークを「消す」選択肢をユーザに与えることも可能である)。
図20は、上で識別された概念において拡張される。すなわち、図20は、デジタルコピー2008に付けられた対応するデジタルマーク2006に基づいて、物理的物品2004上でデジタルマーク2002を作成する例示的手順2000を示すフローチャート(および付随する例)である。
ブロック2010で、IMM112は、ユーザがデジタルコピー2008上にデジタルマーク2006を配置したことを検出する。ユーザは、このデジタルマーク2006を、たとえば指、スタイラス、カーソルなど、どの機構2012を使っても作成することができる。図20の単なる例示的シナリオにおいて、ユーザは、指を使って、デジタルコピー2008のある特定の部分2014を囲む。IMM112は、上述した検出機構の任意の1つまたは複数を使って(たとえば、位置検出モジュール210および/または高解像度撮像モジュール208などを使って)デジタルマーク2006の作成を検出し得る。
ブロック2016で、IMM112は、対応するデジタルマーク2002を、物理的物品2004の対応する部分2018に適用する。図19のケースとは異なり、デジタルマーク2002は、物理的物品2004上に残るが、このようなデジタルマーク2002をユーザに「消させる」機構を提供することも可能である。
図20に示す手順2000は、たとえば、ユーザが物理的物品2004に物理的マーク(またはデジタルマーク)を付けたことを検出し、次いで、それに応答して、対応するデジタルマークをデジタルコピー2008に加えることによって、逆に実施することができる。このシナリオでは、IMM112は、時刻t1(物理的マークが加えられる前)での物理的物品と時刻t2(物理的マークが加えられた後)との間の差分を反映する差分画像を形成することによって、物理的マークが加えられたと判定し得る。物理的マークのデジタル対応物は、この差分画像に基づいて取得され得る。
図21は、物理的物品(図示せず)のデジタルコピー2104にマーク2102を付与し、続いて、物理的マーク2102のデジタル表現であるデジタルマーク2108を含む新規デジタルコピーを生成する例示的手順2100を示すフローチャート(および付随する例)である。
ブロック2110で、IMM112は、ユーザが物理的物品のデジタルコピー2104を、編集領域2112上に移動したことを検出する。編集領域2112は、例示的な一ケースでは、対話型表面104のホワイトボードセクションに対応し得る。または、編集領域2112は、対話型表面104の表面上に配置された1枚の紙(など)に対応し得る。ユーザは、この編集領域2112上で、たとえば、ペン、鉛筆、マーカなどを使って描画することができる。編集領域2112は、定義されたサイズを有する。あるケースでは、IMM112は、デジタルコピー2104が編集領域2112上に移動されたとき、つまり、デジタルコピー2104のサイズを、編集領域2112のサイズに合うように修正することによって、デジタルコピー2104を編集領域2112のサイズに「整合させる」ことができる。デジタルコピー2104が編集領域2112に関連づけられたとき、デジタルコピー2104は、編集領域2112に「付加された」ままでよい。したがって、編集領域2112が対話型表面104上で(たとえば、編集領域2112に関連づけられたホワイトボードまたは紙を動かすことによって)移動されると(およびその場合)、デジタルコピー2104は、一緒に移動される。この機構は、たとえば、デジタルコピー2104をその上で移動するべきプレートとして編集領域2112を比喩的に使うことによって、対話型表面104上でのデジタルコピーの別の動かし方を提供する。
ブロック2114で、IMM112は、ユーザが(たとえば、図20を参照して上述した検出技法を用いて)デジタルコピー2104上で物理的マーク2102を作成したことを検出する。物理的マーク2102は、編集領域2112によって与えられる基底の基板上で物理的に形成される。この単なる例示的ケースでは、ユーザは、器具2116を使って、デジタルコピー2104の一部分2118を囲む。
ブロック2120で、IMM112は、以前のデジタルコピー2104の新規デジタルコピー2106を生成する。新規デジタルコピー2106は、デジタルコピー2104の以前のバージョン「上」で描画された物理的マーク2102のデジタル対応物であるデジタルマーク2108を含む。図21の例において、ユーザはまた、新規デジタルコピー2106を編集領域2112から離すように移動しているが、これにより、編集領域2112上に配置された「むき出しの」元の物理的マーク2102が明らかにされる。
IMM112は、ブロック2120の操作を様々なやり方で実施することができる。一技法によると、IMM112は、(マーク2102が加えられた)デジタルコピー2104の別の写真を撮ることができ、可能性としては、IMM112が現在、元の物理ドキュメントではなく、主としてある画像の写真を撮っている(物理的マーク2102は例外として)という事実をさらに明らかにする。別の技法では、IMM112は、デジタルコピー2104の投影を瞬間的にオフにしてよく、こうすることにより、むき出しの物理的マーク2102が明らかになる。IMM112は、物理的マーク2102の画像を取り込み、次いで、物理的マーク2102の画像を元のデジタルコピー2104とデジタルに合成して、新規デジタルコピー2106を生成することができる。さらに他の技法が、新規デジタルコピー2106を生成するのに用いられ得る。
上述した手順2100は、1回または複数回繰り返してよい。各反復ごとに、ユーザは、上述したやり方でデジタルオブジェクトに追加注釈を与えることができる。
より全般的には、サブセクションB.3で記載した技法のいずれも、任意の方法で組み合わせることができる。
さらに、上記例において、物理的物品は、紙ドキュメントなどの物理ドキュメントに対応する。しかし、上述した手順は、どの物理オブジェクトにも適用され得る。たとえば、別のケースでは、物理オブジェクトは、3次元オブジェクトに対応する。別のケースでは、物理オブジェクトは、その上に情報を表示するスクリーンを含む。別のケースでは、物理オブジェクトは、ユーザの人体構造の一部分を備える(または含む)。たとえば、図17の手順1700において、ユーザは、ユーザがドキュメント中の特定の一節を物理的に指しているドキュメントのデジタルコピーを作成することを望む場合がある。さらに他の適用法が可能である。
B.4.アクションの履歴を取り込み、他の表面管理ファンクションを実施する機構
図22は、それぞれ異なる時点での対話型表面104の一連の表現を生成し、この一連の表現に関する任意の情報をユーザに表示する例示的手順2200を示すフローチャートである。
ブロック2202で、IMM112は、時刻tnでの対話型表面104全体の写真を撮ることができる。IMM112は、この写真を、たとえば対話型表面104の写真を、物理オブジェクトおよびデジタルオブジェクト両方をその上に配置して、1枚だけ撮ることによって、様々なやり方で形成してよい。または、IMM112は、図21の説明のコンテキストで上述したやり方で、たとえば、投影をオフにし、対話型表面104上の物理的物品の写真を撮り、次いで、その写真を、対話型表面104上に投影されるデジタルオブジェクトと組み合わせることによって合成画像を形成してよい。
様々なイベントが、画像取込み操作をトリガし得る。あるケースでは、IMM112は、対話型表面104の画像を定期的に(たとえば、n秒ごとやn分ごとなど)取り込む。代替的または追加的には、ユーザは、様々な対象時刻に画像を取り込むよう、IMM112に明示的に命令することができる。代替的または追加的には、IMM112は、対話型表面104上で注目すべきことが起きているとき、たとえばユーザが対話型表面104に新規デバイスを追加したときや、ユーザがインターフェイス表面104上で既存デバイスまたはデジタルオブジェクトを移動したときなど、個別に検出したときに画像を自動的に取り込んでよい。繰り返すと、ブロック2202は、それぞれ異なるときに撮られた対話型表面の複数の画像を確立する。IMM112は、画像を、適切な1つのデータストアまたは複数のストア(図示せず)にアーカイブしてよい。
ブロック2204で、ユーザは、ブロック2202で予め記録した画像のいずれかを示すよう、IMM112に命令することができる。あるケースでは、ユーザは、選択された1枚の画像または選択された複数の画像を示すよう、IMM112に依頼することができる。別のケースでは、ユーザは、一連の記録された画像を、こうした画像が、識別されたタイムスパンに渡って取り込まれた順序で表示するよう、IMM112に依頼することができる。この後者のシナリオにおいて、IMM112は、アニメーション方式または擬似(大体)注釈つき方式で画像を提示することができる。
手順2200は、上述したように、対話型表面104全体の一連の表現を形成するのに用いられ得る。代替的または追加的には、手順2200は、対話型表面104上に配置された個々のオブジェクト(物理オブジェクトおよび/またはデジタルオブジェクトを含む)など、対話型表面104の部分の一連の表現を、ユーザがこうした表現が形成されることを明示的にリクエストしていなくても形成するのに用いられ得る。たとえば、手順2200は、物理ドキュメントの個々のコピーに対して行われる変化の発展などを示すのに用いられ得る。IMM112は、たとえば、図8のマスク手順などを用いて、物理オブジェクトの表現を取得することができる。IMM112は、対話型表面104上に投影するデジタルオブジェクトに直ちにアクセスすることができる。
IMM112は、図22の手順2200と併用するための様々なインターフェイス機構を提供し得る。たとえば、IMM122は、対話型表面104上にコンテナタイプのデジタルオブジェクト(図示せず)を表示することができる。コンテナタイプのデジタルオブジェクトは、(対話型表面104上に現れている個々の項目および/またはインターフェイス表面104全体の表現に関連づけられた)デジタルオブジェクトの集合体へのインターフェイスとして作用する。ユーザは、1つまたは複数のビューを用いて、デジタルオブジェクトを、コンテナタイプのデジタルオブジェクト中に編成することができる。第1のビューにより、ユーザは、デジタルオブジェクトをグリッド形式または他の空間組織形式で並べる。第2のビューにより、ユーザは、デジタルオブジェクトをフリップブック形式で、たとえば、時間順のオブジェクトとして並べる。あるケースでは、ユーザは、たとえばデジタルオブジェクトをスケーリングし、デジタルオブジェクトを回転させることなどによって、コンテナタイプのデジタルオブジェクトにより任意のデジタルオブジェクトを操作することもできる。
IMM112は、たとえば、対話型表面からデジタルオブジェクトを取り除くことによって、対話型表面104をユーザに「クリーンアップさせる」機構も含み得る。あるケースでは、IMM112は、インターフェイス表面104からすべてのデジタルオブジェクトをユーザに消去させる(たとえば、取り除かせる)コマンドを提供し得る。追加的または代替的には、IMM112は、識別されたデジタルオブジェクトをユーザに消去させるコマンドを提供し得る。
<C.代表的処理機能>
図23は、上述したファンクションのどの態様を実装するのにも用いられ得る例示的な電気的データ処理機能2300(これ以降、単に「処理機能」)を説明する。図1を参照すると、たとえば、図23に示す処理機能2300のタイプは、対話型表面環境100のどの態様を実装するのにも用いられ得る。あるケースでは、処理機能2300は、どのタイプのコンピューティングデバイスにも対応し得る。
処理機能2300は、RAM2302およびROM2304などの揮発性および不揮発性メモリ、ならびに1つまたは複数の処理デバイス2306を含み得る。処理機能2300は任意選択で、たとえばハードディスクモジュール、光ディスクモジュールなど、様々なメディアデバイス2308も含む。処理機能2300は、メモリ(たとえば、RAM2302、ROM2304、または他の所)によって維持される命令を処理デバイス(複数可)2306が実行すると、上で識別された様々な操作を実施し得る。より全般的には、命令および他の情報は、スタティックメモリ記憶デバイス、磁気記憶デバイス、光学記憶デバイスなどを含むが、それに限定されない、どのコンピュータ可読媒体2310にも格納することができる。「コンピュータ可読媒体」という用語は、複数の記憶デバイスも包含する。「コンピュータ可読媒体」という用語は、たとえば、ワイヤー、ケーブル、ワイヤレス伝送などを介して第1の場所から第2の場所に伝送される信号も包含する。
処理機能2300は、ユーザから(インプットモジュール2314を介して)様々なインプットを受け取り、ユーザに(アウトプットモジュール2316を介して)様々なアウトプットを与えるインプット/アウトプットモジュール2312も含む。図1、2は、様々なタイプのこのようなインプットモジュール2314およびアウトプットモジュール2316(たとえば、それぞれ、インプット機能108およびコンテンツ投影機能106に対応する)を記載している。処理機能2300は、1つまたは複数の通信コンジット2320を介して他のデバイスとデータを交換する1つまたは複数のネットワークインターフェイス2318も含み得る。1つまたは複数の通信バス2322が、上述のコンポーネントを通信可能に結合する。
最後に、本説明は、様々な概念を、例示的な挑戦課題または問題のコンテキストにおいて記載している場合がある。この説明方式は、他者がこうした挑戦課題または問題を、本明細書において指定したように理解し、かつ/または表現していることを認めるものではない。
より全般的には、構造的特徴および/または方法論的行為に特有の言葉で本主題を説明したが、添付の請求項において定義される本主題は、上で説明した特有の特徴または行為には必ずしも限定されないことを理解されたい。そうではなく、上に記載したこうした特有の特徴および行為は、権利請求される本発明を実装する形の例として開示されるものである。

Claims (15)

  1. 対話型表面に関与する方法(1100)であって、
    前記対話型表面上の選択された場所および向きでのインプットデバイスの配置を検出するステップ(1106)であって、前記インプットデバイスは、英数字テキスト入力を与えるように構成された、ステップと、
    前記対話型表面上にデジタルオブジェクトを、前記インプットデバイスに位置的に関連づけて表示するステップ(1108)と
    を含み、
    前記デジタルオブジェクトは、ユーザによって前記インプットデバイスを使って入力された情報の視覚表現を提示する表示インターフェイスを提供することを特徴とする方法。
  2. 前記インプットデバイスを前記デジタルオブジェクトに関連づける視覚属性を表示するステップをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記デジタルオブジェクトは、第1のデジタルオブジェクトを含み、前記対話型表面は、第2のデジタルオブジェクトも表示し、前記方法は、
    前記第2のデジタルオブジェクトに近接した任意のインプットデバイスの配置、または前記任意のインプットデバイスに近接した前記第2のデジタルオブジェクトの配置を検出するステップと、
    前記任意のインプットデバイスを前記第2のデジタルオブジェクトに自動的に関連づけるステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  4. 前記インプットデバイスは第1のインプットデバイスを含み、前記方法は、
    前記第1のインプットデバイスに近接した前記対話型表面上での第2のインプットデバイスの配置を検出するステップと、
    前記検出するステップに応答して、前記第1のインプットデバイスおよび前記第2のインプットデバイス両方が前記デジタルオブジェクトに関連づけられるように、前記第2のインプットデバイスを前記デジタルオブジェクトに自動的に関連づけるステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  5. 前記インプットデバイスは第1のインプットデバイスを含み、前記デジタルオブジェクトは第1のデジタルオブジェクトを含み、前記方法は、
    前記対話型表面上での第2のインプットデバイスの配置を検出するステップであって、前記対話型表面は、第2のデジタルオブジェクトを、前記第2のインプットデバイスに位置的に関連づけて表示する、ステップと、
    前記第1のインプットデバイスに近接した前記第2のインプットデバイスの動きまたは前記第2のインプットデバイスに近接した前記第1のインプットデバイスの動きを検出するステップと、
    前記動きを検出するステップに応答して、前記第1のデジタルオブジェクトによって提供されるコンテンツを、前記第2のデジタルオブジェクトによって提供されるコンテンツとマージするステップと
    をさらに含むことを特徴とする請求項1に記載の方法。
  6. 前記デジタルオブジェクトを表示する前記ステップは、
    前記対話型表面上で、a)適切と思われる程度まで少なくとも1つの配置制約を満足し、b)前記対話型表面上の前記デジタルオブジェクトと他の既存オブジェクトとの間の干渉を削減する場所に、前記デジタルオブジェクトを配置するステップを含むことを特徴とする請求項1に記載の方法。
  7. コンピュータ可読命令を格納するコンピュータ可読媒体(2310)であって、前記コンピュータ可読命令は、1つまたは複数の処理デバイスによって実行されると、対話管理モジュールを提供し、前記コンピュータ可読命令は、
    対話型表面上でのマウスタイプのデバイスのユーザによる配置を検出するように構成された論理(502)と、
    前記マウスタイプのデバイスの絶対位置および前記マウスタイプのデバイスの向きを判定するように構成された論理(502)と、
    前記マウスタイプのデバイスの前記絶対位置および前記向きに基づいて基準座標系を定義するように構成された論理(504)と、
    定義済みの前記基準座標系に相対して、前記対話型表面上にカーソルを表示するように構成された論理(506)と
    を備えることを特徴とするコンピュータ可読媒体。
  8. 前記基準座標系を定義するように構成された前記論理は、
    前記対話型表面上の基準オブジェクト、または
    前記マウスタイプのデバイスの向き
    に相対して前記基準座標系を定義するように動作することを特徴とする請求項7に記載のコンピュータ可読媒体。
  9. 前記マウスタイプのデバイスと前記カーソルとを関連づける視覚属性を表示するように構成された論理をさらに備えることを特徴とする請求項7に記載のコンピュータ可読媒体。
  10. 前記ユーザが、前記マウスタイプのデバイスによって与えられる制御を有効化したことを検出するように構成された論理と、
    前記マウスタイプのデバイスをタッチモードで操作するように構成された論理であって、前記タッチモードにおいて、前記カーソルは、前記対話型表面に関与するシミュレートされた接触点として働く論理と
    をさらに備えることを特徴とする請求項7に記載のコンピュータ可読媒体。
  11. 対話型表面(104)を管理する対話型管理モジュール(112)であって、
    前記対話型表面(104)上での物品(1704)の配置を検出するように構成された論理(1706)と、
    前記物品(1704)に関連づけて使用するために、前記対話型表面(104)上にインターフェイスオブジェクト(1710)を表示するように構成された論理(1708)と、
    前記インターフェイスオブジェクト(1710)の、ユーザによるコピー関連有効化を検出するように構成された論理(1712)と、
    前記有効化に応答して、前記物品(1704)のデジタルコピー(1702)を生成し、前記物品(1704)の前記デジタルコピー(1702)を、前記対話型表面(104)上で前記ユーザによって識別された場所に表示するように構成された論理(1714)と
    を備えることを特徴とする対話型管理モジュール。
  12. 前記ユーザによる、前記コピー関連有効化は、前記ユーザによって、前記インターフェイスオブジェクトを引っ張ることによって実行されるドラッグモーションに対応することを特徴とする請求項11に記載の対話型管理モジュール。
  13. 前記デジタルコピーのある特定のデジタル部分の、前記ユーザによる選択を検出するように構成された論理と、
    前記デジタルコピーの前記特定のデジタル部分の対応物である、前記物品の物理的部分を強調表示し、またはマークするように構成された論理と
    をさらに備えることを特徴とする請求項11に記載の対話型管理モジュール。
  14. 前記ユーザが前記デジタルコピーを前記対話型表面の編集領域に移動したことを検出するように構成された論理と、
    前記ユーザによって前記編集領域内の前記デジタルコピーに付与された物理的マークを検出するように構成された論理と、
    前記物品の別のデジタルコピーを生成するように構成された論理であって、前記別のデジタルコピーは、前記物理的マークのデジタル表現を含む、論理と
    をさらに備えることを特徴とする請求項11に記載の対話型管理モジュール。
  15. 前記対話型表面の少なくとも一部分の複数の表現を異なるそれぞれの時点で記録するように構成された論理と、前記複数の表現に関する情報を提示するように構成された論理とをさらに備えることを特徴とする請求項11に記載の対話型管理モジュール。
JP2011530082A 2008-09-30 2009-08-21 物理オブジェクトと対話型表面との併用 Active JP5611958B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/241,281 US8427424B2 (en) 2008-09-30 2008-09-30 Using physical objects in conjunction with an interactive surface
US12/241,281 2008-09-30
PCT/US2009/054607 WO2010039349A2 (en) 2008-09-30 2009-08-21 Using physical objects in conjunction with an interactive surface

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2014142550A Division JP5932903B2 (ja) 2008-09-30 2014-07-10 物理オブジェクトと対話型表面との併用
JP2014142551A Division JP6203685B2 (ja) 2008-09-30 2014-07-10 物理オブジェクトと対話型表面との併用

Publications (2)

Publication Number Publication Date
JP2012513047A true JP2012513047A (ja) 2012-06-07
JP5611958B2 JP5611958B2 (ja) 2014-10-22

Family

ID=42056855

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2011530082A Active JP5611958B2 (ja) 2008-09-30 2009-08-21 物理オブジェクトと対話型表面との併用
JP2014142551A Active JP6203685B2 (ja) 2008-09-30 2014-07-10 物理オブジェクトと対話型表面との併用
JP2014142550A Active JP5932903B2 (ja) 2008-09-30 2014-07-10 物理オブジェクトと対話型表面との併用

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2014142551A Active JP6203685B2 (ja) 2008-09-30 2014-07-10 物理オブジェクトと対話型表面との併用
JP2014142550A Active JP5932903B2 (ja) 2008-09-30 2014-07-10 物理オブジェクトと対話型表面との併用

Country Status (5)

Country Link
US (3) US8427424B2 (ja)
EP (1) EP2332024B1 (ja)
JP (3) JP5611958B2 (ja)
CN (1) CN102165394B (ja)
WO (1) WO2010039349A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103951A (ja) * 2010-11-11 2012-05-31 Sony Corp 情報処理装置、テーブル、表示制御方法、プログラム、携帯端末、及び情報処理システム
JP2015041316A (ja) * 2013-08-23 2015-03-02 シャープ株式会社 表示制御装置、表示制御方法及びプログラム
JP2015082168A (ja) * 2013-10-22 2015-04-27 シャープ株式会社 画像表示装置
WO2015098189A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
JP2015138291A (ja) * 2014-01-20 2015-07-30 キヤノン株式会社 入力制御装置、入力制御方法及びプログラム
JP2016057760A (ja) * 2014-09-08 2016-04-21 カシオ計算機株式会社 表示装置、投影装置、表示方法及び表示プログラム
JP2018028954A (ja) * 2017-11-28 2018-02-22 シャープ株式会社 画像表示方法
JP2018163703A (ja) * 2018-07-25 2018-10-18 シャープ株式会社 画像表示装置、表示制御プログラムおよび表示制御方法
JP2019117649A (ja) * 2019-03-08 2019-07-18 シャープ株式会社 画像表示装置および画像表示方法

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160098095A1 (en) * 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US8866699B2 (en) * 2008-12-02 2014-10-21 Fuji Xerox Co., Ltd. Systems and methods for interacting with mobile devices using external displays
US8264455B2 (en) * 2009-02-03 2012-09-11 Microsoft Corporation Mapping of physical controls for surface computing
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
US8334902B2 (en) * 2009-03-31 2012-12-18 Fuji Xerox Co., Ltd. System and method for facilitating the use of whiteboards
KR101593598B1 (ko) * 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
US9244562B1 (en) 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
JP5421762B2 (ja) * 2009-12-22 2014-02-19 キヤノン株式会社 表示装置、その制御方法、表示システム
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
JP5434767B2 (ja) * 2010-04-16 2014-03-05 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
US8400564B2 (en) * 2010-05-03 2013-03-19 Microsoft Corporation Image capture
US20120042288A1 (en) * 2010-08-16 2012-02-16 Fuji Xerox Co., Ltd. Systems and methods for interactions with documents across paper and computers
US20120079606A1 (en) 2010-09-24 2012-03-29 Amazon Technologies, Inc. Rights and capability-inclusive content selection and delivery
JP5666239B2 (ja) * 2010-10-15 2015-02-12 シャープ株式会社 情報処理装置、情報処理装置の制御方法、プログラム、および記録媒体
GB2484551A (en) * 2010-10-15 2012-04-18 Promethean Ltd Input association for touch sensitive surface
US9612743B2 (en) * 2011-01-05 2017-04-04 Autodesk, Inc. Multi-touch integrated desktop environment
US9600090B2 (en) 2011-01-05 2017-03-21 Autodesk, Inc. Multi-touch integrated desktop environment
US9261987B2 (en) * 2011-01-12 2016-02-16 Smart Technologies Ulc Method of supporting multiple selections and interactive input system employing same
CA2823809C (en) * 2011-01-12 2018-03-27 Smart Technologies Ulc Method of supporting multiple selections and interactive input system employing same
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9560314B2 (en) * 2011-06-14 2017-01-31 Microsoft Technology Licensing, Llc Interactive and shared surfaces
US8928735B2 (en) 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback
JP2013004001A (ja) * 2011-06-21 2013-01-07 Sony Corp 表示制御装置、表示制御方法、およびプログラム
WO2013008049A1 (en) * 2011-07-14 2013-01-17 Telefonaktiebolaget Lm Ericsson (Publ) Modifying a digital document responsive to user gestures relative to a physical document
JP2013041350A (ja) * 2011-08-12 2013-02-28 Panasonic Corp タッチテーブルシステム
US9142182B2 (en) * 2011-10-07 2015-09-22 Lg Electronics Inc. Device and control method thereof
JP5202712B2 (ja) * 2011-10-28 2013-06-05 株式会社東芝 表示装置、及び情報送信方法
JP5927845B2 (ja) * 2011-11-01 2016-06-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP5666545B2 (ja) * 2011-12-15 2015-02-12 株式会社東芝 情報処理装置、画像取得プログラム
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CA3092122C (en) * 2012-02-24 2021-11-30 Perkinelmer Informatics, Inc. Systems, methods, and apparatus for drawing chemical structures using touch and gestures
US9977876B2 (en) 2012-02-24 2018-05-22 Perkinelmer Informatics, Inc. Systems, methods, and apparatus for drawing chemical structures using touch and gestures
US20130290867A1 (en) * 2012-04-27 2013-10-31 Litera Technologies, LLC Systems and Methods For Providing Dynamic and Interactive Viewing and Control of Applications
KR20130142824A (ko) * 2012-06-20 2013-12-30 삼성전자주식회사 원격 제어 장치 및 그 제어 방법
KR20140034612A (ko) * 2012-09-12 2014-03-20 삼성전자주식회사 멀티 유저를 위한 디스플레이 장치 및 그 제어 방법
US9354721B2 (en) * 2012-09-28 2016-05-31 Apple Inc. Movement based image transformation
WO2014073403A1 (ja) * 2012-11-08 2014-05-15 アルプス電気株式会社 入力装置
WO2014073346A1 (ja) * 2012-11-09 2014-05-15 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
US9146668B2 (en) * 2013-01-31 2015-09-29 Hewlett-Packard Development Company, L.P. Graphical element placement on a display surface
JP2014174931A (ja) * 2013-03-12 2014-09-22 Sharp Corp 描画装置
US8854361B1 (en) 2013-03-13 2014-10-07 Cambridgesoft Corporation Visually augmenting a graphical rendering of a chemical structure representation or biological sequence representation with multi-dimensional information
US9846526B2 (en) * 2013-06-28 2017-12-19 Verizon and Redbox Digital Entertainment Services, LLC Multi-user collaboration tracking methods and systems
US10408613B2 (en) 2013-07-12 2019-09-10 Magic Leap, Inc. Method and system for rendering virtual content
JP6189680B2 (ja) * 2013-08-23 2017-08-30 シャープ株式会社 インターフェイス装置、インターフェイス方法、インターフェイスプログラム、及び、そのプログラムを記憶したコンピュータ読取可能な記録媒体
US20150089453A1 (en) * 2013-09-25 2015-03-26 Aquifi, Inc. Systems and Methods for Interacting with a Projected User Interface
US20150199941A1 (en) * 2014-01-15 2015-07-16 Nokia Corporation 3d touch sensor reader
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US9304599B2 (en) 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
US10133355B2 (en) 2014-03-21 2018-11-20 Dell Products L.P. Interactive projected information handling system support input and output devices
US20150268739A1 (en) * 2014-03-21 2015-09-24 Dell Products L.P. Projected Information Handling System Input Environment with Object Initiated Responses
US9965038B2 (en) * 2014-03-21 2018-05-08 Dell Products L.P. Context adaptable projected information handling system input environment
WO2015198747A1 (ja) * 2014-06-24 2015-12-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN105988568B (zh) * 2015-02-12 2020-07-24 北京三星通信技术研究有限公司 获取笔记信息的方法和装置
JP2016162132A (ja) 2015-02-27 2016-09-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10089291B2 (en) * 2015-02-27 2018-10-02 Microsoft Technology Licensing, Llc Ink stroke editing and manipulation
US9753591B2 (en) * 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US9720446B2 (en) * 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US9804718B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9791979B2 (en) 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US20170123622A1 (en) * 2015-10-28 2017-05-04 Microsoft Technology Licensing, Llc Computing device having user-input accessory
IL243422B (en) * 2015-12-30 2018-04-30 Elbit Systems Ltd Information management is displayed according to the directions of the user's gaze
US20170351415A1 (en) * 2016-06-06 2017-12-07 Jonathan K. Cheng System and interfaces for an interactive system
US10169918B2 (en) * 2016-06-24 2019-01-01 Microsoft Technology Licensing, Llc Relational rendering of holographic objects
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10739993B2 (en) * 2017-01-19 2020-08-11 Microsoft Technology Licensing, Llc Simultaneous authentication system for multi-user collaboration
EP3590056A1 (en) 2017-03-03 2020-01-08 Perkinelmer Informatics, Inc. Systems and methods for searching and indexing documents comprising chemical information
EP3669260A4 (en) * 2017-12-04 2021-03-24 Hewlett-Packard Development Company, L.P. PERIPHERAL DISPLAY DEVICES
US11460911B2 (en) 2018-01-11 2022-10-04 Steelseries Aps Method and apparatus for virtualizing a computer accessory
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US11543931B2 (en) * 2021-01-27 2023-01-03 Ford Global Technologies, Llc Systems and methods for interacting with a tabletop model using a mobile device
US11893548B2 (en) * 2021-04-30 2024-02-06 People Center, Inc. Management of computing devices using employee records
US11785060B2 (en) * 2021-07-29 2023-10-10 Zoom Video Communications, Inc. Content-aware device selection for modifying content elements in digital collaboration spaces
US20230290090A1 (en) * 2022-03-10 2023-09-14 Streem, Llc Searchable object location information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0456993A (ja) * 1990-06-26 1992-02-24 Shimadzu Corp ウィンドウ生成装置
JP2001175374A (ja) * 1999-12-21 2001-06-29 Sony Corp 情報入出力システム及び情報入出力方法
JP2008033844A (ja) * 2006-07-31 2008-02-14 Sharp Corp 表示装置、制御方法およびプログラム

Family Cites Families (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402608A (en) 1980-10-02 1983-09-06 Solid Photography Inc. Room scanning system using multiple camera and projector sensors
US4786966A (en) 1986-07-10 1988-11-22 Varo, Inc. Head mounted video display and remote camera system
JPH04328627A (ja) 1991-04-30 1992-11-17 Nippon Telegr & Teleph Corp <Ntt> カーソル表示方法
JPH05289814A (ja) 1992-04-08 1993-11-05 Takaoka Electric Mfg Co Ltd マウス
US7188852B1 (en) 1992-06-05 2007-03-13 Fritschen Thomas M Bicycle with improved composite frame
DE4236091A1 (de) 1992-10-26 1994-04-28 Nsm Ag Projektionssystem für Unterhaltungs- und Spielgeräte
DE69430967T2 (de) 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
JP3277645B2 (ja) 1993-11-01 2002-04-22 株式会社日立製作所 ペン入力式情報処理装置
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
JPH0946776A (ja) * 1995-07-26 1997-02-14 Sony Corp 遠隔指示装置および方法
US6127990A (en) 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6009359A (en) 1996-09-18 1999-12-28 National Research Council Of Canada Mobile system for indoor 3-D mapping and creating virtual environments
US6948794B2 (en) * 1997-07-15 2005-09-27 Silverbrook Reserach Pty Ltd Printhead re-capping assembly for a print and demand digital camera system
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6252579B1 (en) * 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
JP3746378B2 (ja) 1997-08-26 2006-02-15 シャープ株式会社 電子メモ処理装置、電子メモ処理方法、および電子メモ処理プログラムを記録したコンピュータ読取り可能な記録媒体
US5870136A (en) 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
EP0961506B1 (en) 1998-05-20 2003-03-26 Texas Instruments France Autostereoscopic display
US6392637B2 (en) * 1998-08-13 2002-05-21 Dell Usa, L.P. Computer system having a configurable touchpad-mouse button combination
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
JP2000322367A (ja) 1999-05-07 2000-11-24 Hitachi Ltd 代替装置によるユーザインタフェース変更方法及びその情報処理装置
JP2000354257A (ja) 1999-06-10 2000-12-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム提供媒体
US6542154B1 (en) 1999-08-07 2003-04-01 Hewlett-Packard Company Architectural extensions to 3D texturing units for accelerated volume rendering
GB9918704D0 (en) 1999-08-10 1999-10-13 White Peter M Device and method for eye to eye communication overa network
JP2003506973A (ja) 1999-08-10 2003-02-18 ホワイト・ピーター・マクダフィー 通信システム
WO2001082279A2 (en) * 2000-04-24 2001-11-01 The Trustees Of Columbia University In The City Of New York System and method for dynamic space management of a display space
CA2306515A1 (en) 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
JP4284855B2 (ja) * 2000-10-25 2009-06-24 ソニー株式会社 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
US6431711B1 (en) 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
DE10063089C1 (de) 2000-12-18 2002-07-25 Siemens Ag Anwendergesteuerte Verknüpfung von Informationen innerhalb eines Augmented-Reality-Systems
WO2002069272A2 (en) 2001-01-26 2002-09-06 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
GB2377147A (en) 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US6930681B2 (en) 2001-08-14 2005-08-16 Mitsubishi Electric Research Labs, Inc. System and method for registering multiple images with three-dimensional objects
JP3971907B2 (ja) * 2001-09-17 2007-09-05 アルプス電気株式会社 座標入力装置及び電子機器
US7468778B2 (en) 2002-03-15 2008-12-23 British Broadcasting Corp Virtual studio system
US7199793B2 (en) 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7190331B2 (en) 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US8905834B2 (en) * 2007-11-09 2014-12-09 Igt Transparent card display
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US20040037450A1 (en) 2002-08-22 2004-02-26 Bradski Gary R. Method, apparatus and system for using computer vision to identify facial characteristics
US7134080B2 (en) 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US7242818B2 (en) 2003-01-17 2007-07-10 Mitsubishi Electric Research Laboratories, Inc. Position and orientation sensing with a projector
CA2464569A1 (en) 2003-04-16 2004-10-16 Universite De Montreal Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
US7126228B2 (en) 2003-04-23 2006-10-24 Micron Technology, Inc. Apparatus for processing semiconductor devices in a singulated form
JP4201656B2 (ja) 2003-07-07 2008-12-24 富士通コンポーネント株式会社 ポインティングデバイス制御方法および装置
US7164789B2 (en) 2003-08-11 2007-01-16 Palo Alto Research Center Incorporated Three-dimensional active vision with glyph address carpet
KR101098306B1 (ko) 2003-08-19 2011-12-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 시각적 콘텐트 신호 디스플레이 장치 및 시각적 콘텐트 신호 디스플레이 방법
US7747067B2 (en) 2003-10-08 2010-06-29 Purdue Research Foundation System and method for three dimensional modeling
US20060100930A1 (en) * 2003-10-23 2006-05-11 Novak-Torre Jody L Method and system for advertising
US8050491B2 (en) 2003-12-17 2011-11-01 United Technologies Corporation CAD modeling system and method
US7077529B2 (en) 2004-02-20 2006-07-18 L-3 Communications Corporation Masked image projection system and method
US7182465B2 (en) 2004-02-25 2007-02-27 The University Of North Carolina Methods, systems, and computer program products for imperceptibly embedding structured light patterns in projected color images for display on planar and non-planar surfaces
JP4411105B2 (ja) 2004-03-03 2010-02-10 ユニ・チャーム株式会社 液体を表面に適用するための器具
US7609257B2 (en) * 2004-03-29 2009-10-27 Oculus Info Inc. System and method for applying link analysis tools for visualizing connected temporal and spatial information on a user interface
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7397464B1 (en) * 2004-04-30 2008-07-08 Microsoft Corporation Associating application states with a physical object
US20070132733A1 (en) * 2004-06-08 2007-06-14 Pranil Ram Computer Apparatus with added functionality
US7379047B2 (en) * 2004-06-30 2008-05-27 Microsoft Corporation Using a physical object to control an attribute of an interactive display application
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP2008508621A (ja) 2004-08-03 2008-03-21 シルバーブルック リサーチ ピーティワイ リミテッド ウォークアップ印刷
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
DE502005010520D1 (de) 2004-08-30 2010-12-23 Univ Weimar Bauhaus Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
US7961912B2 (en) 2004-10-14 2011-06-14 Stevick Glen R Method and apparatus for dynamic space-time imaging system
WO2006047488A2 (en) 2004-10-25 2006-05-04 The Trustees Of Columbia University In The City Of New York Systems and methods for displaying three-dimensional images
TW200617748A (en) * 2004-11-23 2006-06-01 Mitac Technology Corp Integrated module used to control the displacement of the cursor displayed on a computer and the input of number keys
JP2006148730A (ja) 2004-11-24 2006-06-08 Hitachi Omron Terminal Solutions Corp 会議システム及び会議情報提供方法
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
US8162486B2 (en) 2005-01-15 2012-04-24 Lenovo (Singapore) Pte Ltd. Remote set-up and calibration of an interactive system
WO2006081198A2 (en) 2005-01-25 2006-08-03 The Board Of Trustees Of The University Of Illinois Compact haptic and augmented virtual reality system
US7260474B1 (en) * 2005-02-08 2007-08-21 Cellco Partnership GIS point-to-point routing for directions
GB0502891D0 (en) 2005-02-12 2005-03-16 Next Device Ltd User interfaces
US7639231B2 (en) * 2005-03-29 2009-12-29 Hewlett-Packard Development Company, L.P. Display of a user interface
US7479967B2 (en) 2005-04-11 2009-01-20 Systems Technology Inc. System for combining virtual and real-time environments
US7970870B2 (en) * 2005-06-24 2011-06-28 Microsoft Corporation Extending digital artifacts through an interactive surface
RU2008110056A (ru) 2005-08-15 2009-09-27 Конинклейке Филипс Электроникс Н.В. (Nl) Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем
US7843449B2 (en) 2006-09-20 2010-11-30 Apple Inc. Three-dimensional display system
US20070124370A1 (en) * 2005-11-29 2007-05-31 Microsoft Corporation Interactive table based platform to facilitate collaborative activities
US8130330B2 (en) 2005-12-05 2012-03-06 Seiko Epson Corporation Immersive surround visual fields
US20070126864A1 (en) 2005-12-05 2007-06-07 Kiran Bhat Synthesizing three-dimensional surround visual field
US20070139386A1 (en) * 2005-12-16 2007-06-21 Xerox Corporation Touch screen user interface for digital reprographic device with pop-up menu display
US20080007567A1 (en) 2005-12-18 2008-01-10 Paul Clatworthy System and Method for Generating Advertising in 2D or 3D Frames and Scenes
JP2007226406A (ja) 2006-02-22 2007-09-06 Toshiba Corp 監視制御システム
US7599561B2 (en) 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
MX2008012473A (es) 2006-03-31 2008-10-10 Koninkl Philips Electronics Nv Reproduccion adaptada de contenido de video basada en cuadros adicionales de contenido.
US20070257891A1 (en) 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US7984995B2 (en) 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
EP2050067A1 (en) 2006-08-03 2009-04-22 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US7942530B2 (en) 2006-10-31 2011-05-17 The Regents Of The University Of California Apparatus and method for self-calibrating multi-projector displays via plug and play projectors
JP2008112077A (ja) 2006-10-31 2008-05-15 Sony Corp 画像投影装置およびその制御方法
KR100891099B1 (ko) * 2007-01-25 2009-03-31 삼성전자주식회사 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법
US8380246B2 (en) * 2007-03-01 2013-02-19 Microsoft Corporation Connecting mobile devices via interactive input medium
US7979315B2 (en) * 2007-03-14 2011-07-12 Microsoft Corporation Virtual features of physical items
US8994757B2 (en) 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
US20080231634A1 (en) * 2007-03-22 2008-09-25 Honeywell International, Inc. Intuitive modification of visual output from a multi-function display
US8601386B2 (en) 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
US8172407B2 (en) 2007-05-16 2012-05-08 Honda Motor Co., Ltd. Camera-projector duality: multi-projector 3D reconstruction
US20090027330A1 (en) * 2007-07-26 2009-01-29 Konami Gaming, Incorporated Device for using virtual mouse and gaming machine
US8488129B2 (en) 2007-10-05 2013-07-16 Artec Group, Inc. Combined object capturing system and display device and associated method
US8223192B2 (en) 2007-10-31 2012-07-17 Technion Research And Development Foundation Ltd. Free viewpoint video
US20090128783A1 (en) 2007-11-15 2009-05-21 Yueh-Hong Shih Ocular-protection projector device
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
US20090149250A1 (en) 2007-12-07 2009-06-11 Sony Ericsson Mobile Communications Ab Dynamic gaming environment
KR101441584B1 (ko) 2008-01-02 2014-09-23 삼성전자 주식회사 투과형 영상표시장치 및 그 방법
CN102016877B (zh) 2008-02-27 2014-12-10 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US20090238378A1 (en) 2008-03-18 2009-09-24 Invism, Inc. Enhanced Immersive Soundscapes Production
WO2009142015A1 (ja) 2008-05-21 2009-11-26 パナソニック株式会社 プロジェクタ
US20100037273A1 (en) 2008-08-07 2010-02-11 Brian Dressel Interactive video presentation
WO2010019802A1 (en) 2008-08-15 2010-02-18 Gesturetek, Inc. Enhanced multi-touch detection
US20100073476A1 (en) 2008-09-24 2010-03-25 Industrial Technology Research Institute Systems and methods for measuring three-dimensional profile
JP5094663B2 (ja) 2008-09-24 2012-12-12 キヤノン株式会社 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US9600067B2 (en) 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
US8297757B2 (en) 2008-10-29 2012-10-30 Seiko Epson Corporation Projector and projector control method
US20100128112A1 (en) 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
EP2193825B1 (en) 2008-12-03 2017-03-22 Alcatel Lucent Mobile device for augmented reality applications
US8570423B2 (en) 2009-01-28 2013-10-29 Hewlett-Packard Development Company, L.P. Systems for performing visual collaboration between remotely situated participants
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US20100195867A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
US8624962B2 (en) 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
ES2578022T3 (es) 2009-02-17 2016-07-20 Koninklijke Philips N.V. Combinación de datos de imágenes 3D y gráficos
US8199186B2 (en) 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8223196B2 (en) 2009-06-10 2012-07-17 Disney Enterprises, Inc. Projector systems and methods for producing digitally augmented, interactive cakes and other food products
US20100330843A1 (en) 2009-06-25 2010-12-30 Hong Gao Lamp socket power plug adapter
US20110025689A1 (en) 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US20110107216A1 (en) 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
WO2011078883A1 (en) 2009-12-24 2011-06-30 Trumbull Ventures Llc Method and apparatus for photographing and projecting moving images in three dimensions
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US8391590B2 (en) 2010-03-04 2013-03-05 Flashscan3D, Llc System and method for three-dimensional biometric data feature detection and recognition
US20110234481A1 (en) 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US20110263326A1 (en) 2010-04-26 2011-10-27 Wms Gaming, Inc. Projecting and controlling wagering games
US20110316845A1 (en) 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US10036891B2 (en) 2010-10-12 2018-07-31 DISH Technologies L.L.C. Variable transparency heads up displays
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US20120117514A1 (en) 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9049423B2 (en) 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8514295B2 (en) 2010-12-17 2013-08-20 Qualcomm Incorporated Augmented reality processing based on eye capture in handheld device
US20120157204A1 (en) 2010-12-20 2012-06-21 Lai Games Australia Pty Ltd. User-controlled projector-based games
US8913085B2 (en) 2010-12-22 2014-12-16 Intel Corporation Object mapping techniques for mobile augmented reality applications
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8570320B2 (en) 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US20120223885A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
US8860688B2 (en) 2011-03-02 2014-10-14 Smart Technologies Ulc 3D interactive input system and method
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US20120264510A1 (en) 2011-04-12 2012-10-18 Microsoft Corporation Integrated virtual environment
US8570372B2 (en) 2011-04-29 2013-10-29 Austin Russell Three-dimensional imager and projection device
US20120293547A1 (en) 2011-05-20 2012-11-22 International Business Machines Corporation Management Of Access To And Life Cycles Of Virtual Signs
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9082214B2 (en) 2011-07-01 2015-07-14 Disney Enterprises, Inc. 3D drawing system for providing a real time, personalized, and immersive artistic experience
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US20130147686A1 (en) 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US9137511B1 (en) 2011-12-15 2015-09-15 Rawles Llc 3D modeling with depth camera and surface normals
US9024844B2 (en) 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US9219901B2 (en) 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
KR101385681B1 (ko) 2012-11-08 2014-04-15 삼성전자 주식회사 헤드마운트형 디스플레이장치 및 그 제어방법
US20140247263A1 (en) 2013-03-04 2014-09-04 Microsoft Corporation Steerable display system
US20150049001A1 (en) 2013-08-19 2015-02-19 Qualcomm Incorporated Enabling remote screen sharing in optical see-through head mounted display with augmented reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0456993A (ja) * 1990-06-26 1992-02-24 Shimadzu Corp ウィンドウ生成装置
JP2001175374A (ja) * 1999-12-21 2001-06-29 Sony Corp 情報入出力システム及び情報入出力方法
JP2008033844A (ja) * 2006-07-31 2008-02-14 Sharp Corp 表示装置、制御方法およびプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103951A (ja) * 2010-11-11 2012-05-31 Sony Corp 情報処理装置、テーブル、表示制御方法、プログラム、携帯端末、及び情報処理システム
JP2015041316A (ja) * 2013-08-23 2015-03-02 シャープ株式会社 表示制御装置、表示制御方法及びプログラム
JP2015082168A (ja) * 2013-10-22 2015-04-27 シャープ株式会社 画像表示装置
WO2015098189A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
JPWO2015098189A1 (ja) * 2013-12-27 2017-03-23 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
JP2019185812A (ja) * 2013-12-27 2019-10-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11146771B2 (en) 2013-12-27 2021-10-12 Sony Corporation Display control device, display control method, and program
JP2015138291A (ja) * 2014-01-20 2015-07-30 キヤノン株式会社 入力制御装置、入力制御方法及びプログラム
JP2016057760A (ja) * 2014-09-08 2016-04-21 カシオ計算機株式会社 表示装置、投影装置、表示方法及び表示プログラム
JP2018028954A (ja) * 2017-11-28 2018-02-22 シャープ株式会社 画像表示方法
JP2018163703A (ja) * 2018-07-25 2018-10-18 シャープ株式会社 画像表示装置、表示制御プログラムおよび表示制御方法
JP2019117649A (ja) * 2019-03-08 2019-07-18 シャープ株式会社 画像表示装置および画像表示方法

Also Published As

Publication number Publication date
WO2010039349A3 (en) 2010-05-27
CN102165394B (zh) 2015-06-17
JP5932903B2 (ja) 2016-06-08
CN102165394A (zh) 2011-08-24
JP5611958B2 (ja) 2014-10-22
US20170024370A1 (en) 2017-01-26
US8427424B2 (en) 2013-04-23
JP2014209384A (ja) 2014-11-06
EP2332024B1 (en) 2019-10-30
US20100079369A1 (en) 2010-04-01
US20130229353A1 (en) 2013-09-05
JP2014209385A (ja) 2014-11-06
JP6203685B2 (ja) 2017-09-27
EP2332024A2 (en) 2011-06-15
WO2010039349A2 (en) 2010-04-08
EP2332024A4 (en) 2017-03-01
US10346529B2 (en) 2019-07-09
US9372552B2 (en) 2016-06-21

Similar Documents

Publication Publication Date Title
JP6203685B2 (ja) 物理オブジェクトと対話型表面との併用
US20180204604A1 (en) Persistent annotation of objects in a user interface
US9733792B2 (en) Spatially-aware projection pen
JP4973245B2 (ja) 表示装置及びプログラム
JP4332964B2 (ja) 情報入出力システム及び情報入出力方法
US8286068B2 (en) Linking digital and paper documents
JP6123631B2 (ja) 情報処理装置及び情報処理プログラム
JPWO2009020103A1 (ja) 映像データ編集のためのインターフェースシステム
JP2012053545A (ja) 画像処理システムおよびその制御方法
CN110402426A (zh) 图像处理装置、方法及程序
JP2009086952A (ja) 情報処理システム及び情報処理プログラム
JP2019139332A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2010267214A (ja) 情報処理装置、方法およびプログラム
JP2010287158A (ja) 情報処理装置、方法およびプログラム
TW201015350A (en) System for storing instant translation data according to cursor position and method thereof
JP2010250688A (ja) 情報処理装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120711

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130712

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140606

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140903

R150 Certificate of patent or registration of utility model

Ref document number: 5611958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250