JP2016513833A - デバイスへの特定のオブジェクト位置の提供 - Google Patents

デバイスへの特定のオブジェクト位置の提供 Download PDF

Info

Publication number
JP2016513833A
JP2016513833A JP2015561485A JP2015561485A JP2016513833A JP 2016513833 A JP2016513833 A JP 2016513833A JP 2015561485 A JP2015561485 A JP 2015561485A JP 2015561485 A JP2015561485 A JP 2015561485A JP 2016513833 A JP2016513833 A JP 2016513833A
Authority
JP
Japan
Prior art keywords
display
computing device
individual
shared
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015561485A
Other languages
English (en)
Other versions
JP2016513833A5 (ja
JP6433923B2 (ja
Inventor
パフド,ミッシェル
グレボリオ,ピエール・ピー・エヌ
ヒンクリー,ケネス・ピー
バクストン,ウィリアム・エイ・エス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016513833A publication Critical patent/JP2016513833A/ja
Publication of JP2016513833A5 publication Critical patent/JP2016513833A5/ja
Application granted granted Critical
Publication of JP6433923B2 publication Critical patent/JP6433923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

共有デバイスに特定のオブジェクト位置を提供させるための技術。これらの技術は、コンピューティングデバイスを個々のデバイスに接続することを含むことができる。個々のデバイスは、オブジェクトを共有デバイスに送信し、かつ共有デバイスのディスプレイ上の初期オブジェクト位置に表示することができる。初期オブジェクト位置は、個々のデバイスの動きに応答して更新され、かつオブジェクトは、ディスプレイ上の更新されたオブジェクト位置に表示され得る。オブジェクト位置は、信号に応答して固定され、かつオブジェクトは、固定されたオブジェクト位置に表示され得る。

Description

[0001]コンピューティングデバイスは、今日の社会に遍在している。多数の人々が、極めて特定の操作を実行するためにアプリケーションやソフトウェアを搭載することができるコンピューティングデバイスを所有している。これらのデバイスは、適切なソフトウェアが搭載されたとき、デバイスを制御し、他のデバイスと情報を交換し、かつその他の機能を実行するために使用され得る。
[0002]第1のコンピューティングデバイスから第2のコンピューティングデバイスへデータを通信する場合、通信されるデータは、第2のデバイス(すなわち、受信デバイス)により決定されている第2のデバイス上のデフォルトの場所に記憶され、かつ/または表示されることが多い。上手くすれば、第1のコンピューティングデバイスのユーザーは、データを記憶するために使用されるフォルダーを選択することによるなど、第2のデバイス上のデータを記憶する場所を指定することができる。
[0003]個々のデバイス(例えば、移動体コンピューティングデバイスなど)から受信されたオブジェクトの位置決めを可能にし、かつ共有デバイス(例えば、共有ディスプレイなど)上への表示に利用可能とする技術およびシステムが本明細書に記載されている。共有デバイス上のオブジェクトの位置決めは、部分的には、個々のデバイスに関連するユーザーの動きおよび/または個々のデバイスの動きによって決まり得る。
[0004]例示的な技法には、共有デバイスと個々のデバイス間の通信接続を生成することが含まれ得る。デバイス間の接続が確立された後、個々のデバイス上で選択されたオブジェクトは、個々のデバイスから共有デバイスへ送信され、かつ共有デバイスのディスプレイ上の初期オブジェクト位置に表示され得る。オブジェクト位置は、個々のデバイスまたは個々のデバイスを操作するユーザーの動きに応答して更新され得る。オブジェクト位置は、トリガーイベントに応答して固定され、かつ、オブジェクトは、少なくとも一時的には、共有デバイスによって固定されたオブジェクト位置に表示され得る。
[0005]本概要は、発明を実施するための形態の中でさらに後述される概念のいくつかを簡略化された形態で紹介するために提供されるものである。本概要は、特許請求された主題の主要な特徴または本質的な特徴を特定することを意図するものでも、特許請求された主題の範囲を制限するために使用されることを意図したものでもない。
[0006]発明を実施するための形態は、添付の図面を参照して説明される。図面において、参照番号の最上位桁は、参照番号が最初に現れる図面を識別するものである。異なる図面における同一の参照番号は、類似または同一の項目を示す。
[0007]コンピューティングデバイスに特定のオブジェクト位置を提供させるための例示的コンピューティング環境を示す図である。 [0008]図1に示された共有デバイスの例示的アーキテクチャを示す図である。 [0009]図1に示された個々のデバイスの例示的アーキテクチャを示す図である。 [0010]コンピューティングデバイスにオブジェクトの特定の位置を提供させる例示的処理過程を示す図である。 [0011]共有デバイスが個々のデバイスまたはユーザーの位置を検出する場合の、コンピューティングデバイスに特定のオブジェクト位置を提供させる例示的処理過程を示す図である。 [0012]個々のデバイスが共有デバイスに対して位置情報を提供する場合の、コンピューティングデバイスに特定のオブジェクト位置を提供させる例示的処理過程を示す図である。 [0013]コンピューティングデバイスに送信されたオブジェクトを編集するための例示的ユーザーインターフェイスを示す図である。
概要
[0014]本開示は、部分的には、個々のデバイス(例えば、移動体コンピューティングデバイスなど)と共有デバイス(例えば、共有ディスプレイなど)との間でオブジェクトを送信し、かつ配置するために使用される操作を対象としている。本開示の実施形態は、個々のデバイスから、共有デバイスに関連付けられたディスプレイ上にオブジェクトを配置するために、シームレスかつ直感的なコピーペーストおよび位置制御を提供する。ユーザーがオブジェクトをディスプレイに「フリックする」ことは可能であるが、オブジェクトがディスプレイ上に受信された後でのユーザーによる位置決め制御を何ら提供していない従来技術とは異なり、本開示の実施形態は、オブジェクトがディスプレイによって受信された後、オブジェクトを送信したユーザーがオブジェクトをディスプレイ上に正確に配置することを可能とする。
[0015]本開示のいくつかの態様において、共有デバイスは、例えば、ハンドシェイク、情報のペアリング、資格情報の交換などの接続プロトコルを実行することにより、および/またはその他の接続プロトコルを使用することにより、個々のデバイスとの通信接続を生成することができる。共有デバイスは、個々のデバイスからオブジェクトを受信することができる。例えば、個々のデバイスは、接続プロトコルの間に交換された共有デバイスのハードウェアアドレスを使用してオブジェクトを共有デバイスに送信することができる。共有デバイスは、初期オブジェクト位置にオブジェクトを表示することができる。
[0016]いくつかの実施形態では、共有デバイスは、個々のデバイスまたはユーザーの位置を制御位置として検出し、次いで制御位置の変化に応答してオブジェクト位置を更新することによりオブジェクトの位置を更新することができる。共有デバイスは、信号(例えば、終了信号など)の受信、所定の時間の満了、個々のデバイス動きの停止などのトリガーイベント、および/またはその他のトリガーイベントに応答して、特定のオブジェクト位置にオブジェクトを固定することができる。
[0017]様々な実施形態において、個々のデバイスは、共有デバイスが共有デバイスのディスプレイ上にオブジェクトを配置することを可能とするために位置情報を提供することができる。例えば、位置情報は、個々のデバイスにより生成された画像を含むことができ、画像は、オブジェクトおよび共有デバイスに関連した参照点を含む。次いで、共有デバイスは、位置情報を使用して、共有デバイスに関連付けられたディスプレイ上にオブジェクトを配置することができる。
例示的環境
[0018]図1は、オブジェクトが個々のデバイスから送信され、かつ共有デバイスに関連付けられたディスプレイ上の特定の位置に配置され得る例示的コンピューティング環境100を示す。いくつかの実施形態において、環境100は、ユーザー106により操作される個々のデバイス104と通信する共有デバイス102を含むことができる。共有デバイス102は、汎用コンピュータ、1つまたは複数のサーバー、セットトップボックス、ゲーム用コンソール、または別のデバイス(例えば、携帯電話)とデータ交換をし、かつ出力(例えば、視覚的表示)を生成する能力のある任意のその他のコンピューティングデバイスであり得る。これらのおよびその他の例では、共有デバイス102は、1つまたは複数のコンピューティングデバイス(例えば、個々のデバイス104)によりアクセスされ得る。
[0019]一方、いくつかの例では、個々のデバイス104は、携帯コンピュータ、携帯電話(例えば、スマートフォン)、パーソナルコンピュータ、ラップトップコンピュータ、携帯情報端末(PDA)、ゲーム用コンソール、パーソナルメディアプレーヤー(PMP)、デジタル静止画カメラ、デジタルビデオカメラ、パーソナルナビゲーション装置、または、様々なデバイス(例えば、ディスプレイ)と共に使用され得る、別のデバイス(例えば、感知装置)とデータを交換し、かつ出力(例えば、視覚的表示)を生成する能力のある任意のその他のコンピューティングデバイスであり得る。
[0020]いくつかの実施形態では、共有デバイス102は、個々のデバイス104および1つまたは複数の他のコンピューティングデバイスと通信することができる。これらの例では、個々のデバイス104および他のコンピューティングデバイスは、共有デバイス102と関連付けられたディスプレイ上でオブジェクトを表示し、かつ/または共有することができる。例えば、個々のデバイス104および他のコンピューティングデバイスは、共有デバイス102にオブジェクトをコピーおよびペーストし、かつディスプレイ上の所望の位置にオブジェクトを表示することができる。オブジェクトは、アプリケーション、サービス、文書、データ、グラフ、写真、マルチメディア(例えば、テキスト、オーディオ、画像、アニメーション、ビデオ)、ゲーム、電子メール、オンラインチャットの記録、ソーシャルネットワーキングプロファイル、投稿、およびユーザーが他人と共有したいその他のファイルであり得る。いくつかの実施形態では、オブジェクトの選択は、同一の種類のオブジェクトを選択すること、および/または異なる種類のオブジェクトの組み合わせを含めて選択することを含み得る。いくつかの実施形態では、選択には、アプリケーションのサブセット(すなわち、ダイアログボックス)を含むことができる。
[0021]共有デバイス102は、個々のデバイス104が共有デバイス102の近傍にある場合に、個々のデバイス104との接続を確立することができる。接続は、共有デバイス102または個々のデバイス104によって初期化され得る。いくつかの例では、接続は、ネットワーク108を介して確立され得る。ネットワーク108は、ケーブルネットワーク、インターネット、および無線ネットワークなど(例えば、Bluetooth(登録商標)、Wi−Fi、携帯電話網など)の複数の異なる種類のネットワークの任意の1つまたは組み合わせを含むことができる。
[0022]いくつかの実施形態では、ユーザー106は、個々のデバイス104のインターフェイス112上でオブジェクト110を選択し、次いで、オブジェクト110をディスプレイ114にコピーすることができる。選択されたオブジェクト110を受信した後、個々のデバイス104は、オブジェクト110を共有デバイス102に送信することができる。例えば、個々のデバイス104は、接続プロトコルの間に交換された共有デバイスのハードウェアアドレスを使用して、オブジェクト110を共有デバイス102に送信することができる。共有デバイス102は、ディスプレイ114の初期オブジェクト位置にオブジェクト110を表示することができる。いくつかの例では、初期オブジェクト位置は、共有デバイス102または個々のデバイス104が動作しているタスクなどの、所定の規則またはコンテキストに基づいて決定され得る。
[0023]いくつかの実施形態では、初期オブジェクト位置は、センサー116またはディスプレイ114に対してのユーザー106および/または個々のデバイス104の位置に基づき決定され得る。これらの例では、初期オブジェクト位置は、ユーザー106および/または個々のデバイス104の基準となる特徴に関連付けられ得る。例えば、ディスプレイ114は、複数のディスプレイを含むことができ、かつ初期オブジェクト位置は、ユーザー106または個々のデバイス104が狙いとする複数のディスプレイの内の1つのディスプレイ上とすることができる。
[0024]いくつかの実施形態では、共有デバイス102は、センサー116を介して個々のデバイス104の位置を検出することができる。これらの例では、センサー116は、個々のデバイス104および/またはユーザー106の付属物の動きを検出し、かつ/または追跡することができる。例えば、センサー116は、特定のアイテム(例えば、個々のデバイス104など)の動きを追跡する、かつ/または人(例えば、ユーザー106など)の動きを追跡する能力のある動き検出センサーであり得る。従って、ユーザー106は、センサー116により追跡される、個々のデバイス104および/または付属物を移動させることによりディスプレイ114上のオブジェクトのオブジェクト位置を制御することができる。共有デバイス102は、センサー106により受信した個々のデバイス104の動きに応答してオブジェクト位置を更新し、次いで、更新されたオブジェクト位置にオブジェクト110を表示することができる。
[0025]共有デバイス102は、信号(例えば、終了信号など)の受信、所定の時間の満了、個々のデバイスまたはユーザーの動きの停止などの、トリガーイベント、および/またはその他のトリガーイベントに応答してオブジェクトを特定のオブジェクト位置に固定することができる。例えば、オブジェクト位置は、共有デバイス102が停止信号(例えば、ユーザー106が個々のデバイス104から指を離す、など)を受信するまで更新され得る。停止信号を受信すると、共有デバイス102は、オブジェクト位置を固定し、かつ固定されたオブジェクト位置にオブジェクト110を表示することができる。
[0026]様々な実施形態では、個々のデバイス104は、センサー116を使用することなくディスプレイ114上にオブジェクト110の位置決めを可能とする共有デバイス102へのオブジェクト位置決め情報を送信することができる。いくつかの実施形態では、オブジェクト位置情報は、個々のデバイス104のカメラにより捕捉された画像を含むことができる。例えば、画像は、個々のデバイス104上に描画されたオブジェクト110と重ね合せることができる、ディスプレイ114と関連付けられた基準となる特徴を含むことができる。重ね合わされたオブジェクトは、基準となる特徴に関する位置情報を提供することができ、オブジェクトの位置情報を解析した後、共有デバイス102がオブジェクト110をディスプレイ上の特定の位置に配置することを可能とし得る。ユーザー106が個々のデバイス104(従ってカメラ)を移動すると、オブジェクトおよび基準となる特徴の相対位置が変化し得る。個々のデバイス104は、トリガーイベントが発生するまでの間、共有デバイス102に対してオブジェクトの位置情報を継続的に更新し、かつ送信することができる。オブジェクトの位置情報の受信に応じて、共有デバイス102は、オブジェクトの位置情報に対応した更新されたオブジェクト位置にオブジェクト110を表示することができる。共有デバイスは、トリガーイベントに応答して特定のオブジェクト位置にオブジェクトを固定することができる。例えば、オブジェクト位置は、個々のデバイス104がオブジェクト位置情報の送信を停止するまで更新される。共有デバイス102は、そこで、オブジェクト位置を固定し、かつ固定されたオブジェクト位置にオブジェクト110を表示することができる。
[0027]いくつかの実施形態では、環境100はまた、サービス(例えば、クラウドストレージ、外部コンテンツ、など)を共有デバイス102および/または個々のデバイス104に提供するサービスプロバイダー120に関連付けられたサーバー118を含むことができる。いくつかの例では、共有デバイス102と対話している間、個々のデバイス104は、ネットワーク108を介してサービスプロバイダー120のサービスにアクセスすることができる。例えば、ユーザー106は、サービスプロバイダー120にマッピングサービスを要求することができる。共有デバイス102は、マッピング情報(例えば、地図)を受信し、かつ地図情報をディスプレイ114上に描くことができる。また、いくつかのマッピング情報は、個々のデバイス104に提供され得るが、このマッピング情報は共有デバイス102に提供されているマッピング情報と異なっていてもよい。
例示的アーキテクチャ
[0028]図2は、図1に示した共有デバイスの例示的なアーキテクチャを示す。図2に示される共有デバイス102および個々のデバイス104は、可能性のあるコンピューティングデバイスの単なる例であり、コンピュータの利用または機能の範囲およびネットワークアーキテクチャに対して何らかの限定を設けることを意図したものではない。共有デバイス102および個々のデバイス104は、コンピューティングデバイスの例に示された構成要素のいずれか1つまたは組み合わせに関してなんらかの依存関係または要件を有していると解釈されることを意図するものではない。
[0029]あるいは、または加えて、共有デバイス102および個々のデバイス104に関して本明細書に記載された機能は、少なくとも部分的には、1つまたは複数のハードウェアロジックコンポーネントにより実行され得る。例えば、限定することなく、使用され得るハードウェアロジックコンポーネントの種類の例としては、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準品(ASSP)、システムオンチップシステム(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)などを含む。
[0030]いくつかの実施形態では、共有デバイス102は、少なくとも1つの処理ユニット202およびシステムメモリ204を含むことができる。厳密な構成およびコンピューティングデバイスの種類に応じて、システムメモリ204は、揮発性(RAMなど)、不揮発性(ROM、フラッシュメモリ、など)、またはこれら2つのある組み合わせであり得る。システムメモリ204は、典型的には、オペレーティングシステム206、1つまたは複数のプログラムモジュール208を含み、かつプログラムデータ210およびデバイスデータ212を含み得る。いくつかの例では、デバイスデータ316は、共有デバイス102に接続されている、および/または接続されるべきデバイス(例えば、個々のデバイス104)に関連した情報を記憶することができる。プログラムモジュール208は、通信モジュール214、センサーモジュール216、ロケーションモジュール218、ディスプレイモジュール220、および編集モジュール222を含むことができ、それぞれ順番に説明される。
[0031]通信モジュール214は、個々のデバイス104および/またはサーバー118などのデバイスと通信するように構成され得る。いくつかの実施形態では、通信モジュール214は、ネットワーク108を介して個々のデバイス104との接続を初期化し、かつ確立することができる。例えば、通信モジュール214は、Bluetooth(登録商標)信号を復調し、かつ/または個々のデバイス104などのBluetooth(登録商標)デバイスの状態およびモードを制御することができる。いくつかの例では、通信モジュール214は、個々のデバイスが共有デバイスの近傍にある場合、Bluetooth(登録商標)リンクなどの接続を生成するために個々のデバイス104とのハンドシェイクを実行し、かつ/または確立することができる。これらの例では、認証資格情報が、ハンドシェイク中に共有デバイス102と個々のデバイス104間で交換され得る。
[0032]接続が共有デバイス102と個々のデバイス104間に確立されると、通信モジュール214は、デバイス間に確立された通信プロトコルを介して個々のデバイス104からオブジェクト110を受信することができる。受信されたオブジェクト110は、ディスプレイモジュール220によってディスプレイ114上の初期オブジェクト位置に表示され得る。いくつかの実施形態では、ディスプレイモジュール220は、オブジェクト110を表示するためにディスプレイ114上の初期オブジェクト位置に影付きで示すことができる。影は、ユーザー106の動きに応答してディスプレイ114上で動かされ得る。影は、オブジェクト110のレンダリング、半透明のオブジェクト110のレンダリング、プレースホルダ、および/またはその他の情報/画像を含むことができる。いくつかの実施形態では、ディスプレイ114は、複数のディスプレイおよび/またはその他のデバイスを含むことができ、しかも影は個々のデバイスの目的に基づき適切なディスプレイ上に出現させることができる。
[0033]いくつかの実施形態では、初期オブジェクト位置は、共有デバイス102および/または個々のデバイス104が動作しているタスクなどの、所定の規則および/またはコンテキストに基づき決定され得る。いくつかの例では、初期オブジェクト位置はまた、ディスプレイに対する距離に関連した個々のデバイス104またはユーザー106の付属物の位置に基づき決定され得る。
[0034]センサーモジュール216は、個々のデバイス104および/またはユーザー106の付属物の位置などの、制御位置を検出するように構成され得る。例えば、センサー116と組み合わせて、センサーモジュール216は、部分的または全体像の3次元(3D)動き捕捉、顔認識および音声認識を実行することができる。いくつかの実施形態では、センサーモジュール216は、制御位置の1つまたは複数の変化を検出し、かつ/または追跡することができる。変化に応答して、ロケーションモジュール218は、ディスプレイ114上に表示されるオブジェクト110のオブジェクト位置を更新することができる。次いで、ロケーションモジュール218は、トリガーイベントに応答してディスプレイ114上の更新されたオブジェクト位置にオブジェクト110を固定することができる。トリガーイベントは、ユーザー106が自分の指を個々のデバイス104のタッチスクリーンから離すといった停止行為を実行した後、所定の時間の後、動きを停止した後、などに送信されるコマンドであり得る。
[0035]いくつかの実施形態では、センサーモジュール216は、感知装置106を介して複数の個々のデバイスを操作する複数のユーザーを追跡することができる。いくつかの例では、共有デバイス102は、個々のユーザーの特徴を特定することにより複数のユーザーを追跡し、かつ個々のユーザーが操作している1つまたは複数の個々のデバイスと個々のユーザーを関連付けることができる。例えば、共有デバイス102は、ユーザーの特性(例えば、音声、顔の特徴および/または身体的特徴、など)に基づき、および/または個々のユーザーの、個々のユーザーと関連付けられたその他の追跡情報(例えば、デバイス識別子、マーカー識別子、自己登録、など)に基づき、個々のユーザーを特定することができる。
[0036]また、プログラムモジュール208は、オブジェクトが固定された後で個々のデバイス104の動きまたはユーザーの付属物の仕草に基づきオブジェクト110を編集するように構成されていて、図7で極めて詳細に説明される、編集モジュール222を含むことができる。例えば、ユーザー106は、オブジェクト110を回転する、オブジェクト110の大きさおよび/もしくはコントラストを変更する、オブジェクト110の背後の部分のみを切り落とす、かつ/もしくは残す、かつ/またはオブジェクト110に関連した注釈を加えることができる。
[0037]いくつかの実施形態では、オペレーティングシステム206は、コンポーネント(プロパティおよびイベントを含む)、オブジェクト、継承、多様性、反射をサポートするコンポーネントベースフレームワークを含み、かつ、オペレーティングシステム206は、オブジェクト指向コンポーネントベースのアプリケーションプログラミングインターフェイス(API)を提供することができる。さらに、端末は、より少ないコンポーネントを有することでもよいが、このような基本的構成を有することができるコンピューティングデバイスと対話することになろう。
[0038]共有デバイス102は、付加的な特徴または機能を持つことができる。例えば、共有デバイス102はまた、例えば、磁気ディスク、光ディスク、またはテープなどの、付加的なデータ記憶装置(可換型および/または非可換型)含むことができる。このような付加的な記憶装置は、可換型記憶装置224および非可換型記憶装置226により図2に示されている。コンピュータ可読媒体は、少なくとも2つの種類のコンピュータ可読媒体、すなわちコンピュータ記憶媒体および通信媒体を含むことができる。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報の記憶のための任意の方法または技術で実装された、揮発性および不揮発性の、可換型および非可換型媒体を含むことができる。システムメモリ204、可換型記憶装置224、および非可換型記憶装置226は、すべてコンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタル多目的ディスク(DVD)、または他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、あるいは所望の情報を記憶するために使用され得る、かつ共有デバイス102によりアクセスされ得る任意のその他の媒体を含む。任意のこのようなコンピュータ記憶媒体は、共有デバイス102の一部分であり得る。さらに、コンピュータ可読媒体は、処理ユニット202により実行されるとき、共有デバイス102に本明細書に記載された様々な機能および/または動作を実行させるコンピュータ実行可能な命令を含むことができる。
[0039]一方、通信媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、あるいは搬送波またはその他の伝送機構などの変調されたデータ信号中のその他のデータを具現化することができる。本明細書で定義されるように、コンピュータ記憶媒体には通信媒体は含まれない。
[0040]共有デバイス102はまた、キーボード、マウス、ペン、音声入力装置、タッチ入力装置(例えば、スタイラス、ペン、など)、タッチスクリーン装置、ナビゲーション装置(例えば、トラックパッド、マウス、など)などのような入力装置228を有することができる。いくつかの実施形態では、入力方法は、ナチュラルユーザーインターフェイス(NUI)を介して実装され得る。NUIは、マウス、キーボード、リモートコントローラなどのような入力装置による人工的な制約のない、「自然な」方法でユーザーが装置と対話することを可能とする任意のインターフェイス技術を含むことができる。NUI方式の例は、音声認識、タッチおよびスタイラス認識、画面上および画面の近傍でのジェスチャー認識、エアジェスチャー、頭部および目の追跡、音声および会話、視覚、接触、ジェスチャー、ならびにマシンインテリジェンスに依存したNUI方式を含むことができる。NUI技術の種類は、タッチセンサーディスプレイ、音声および会話認識、意図および目的理解、デプスカメラ(ステレオカメラシステム、赤外線カメラシステム、RGBカメラシステム、およびこれらの組み合わせなど)を使用した動きのあるジェスチャー検出、加速度計/ジャイロスコープ、顔認識、3Dディスプレイ、頭部、目および視線追跡、没入型拡張現実および仮想現実システム、より自然なインターフェイスを提供するすべてのものを使用した動きのあるジェスチャー検出、ならびに電界感知電極(EEGおよび関連した方法)を使用した脳活動感知のための技術を含むことができる。
[0041]いくつかの実施形態では、共有デバイス102は、NUIなどの方法を介して生成される入力信号を受信し、かつ/またはこれに応答するセンサー116を含むことができる。例えば、センサー116は、部分的または全体像の3D動き捕捉、顔認証および音声認識に使用される信号を受信し、かつ/またはこれに応答する動き感知入力装置であり得る。いくつかの例では、センサー116は、ユーザーの身体(例えば、骨格および付属物)を追跡することにより様々な状態(例えば、完全な暗闇)にある1人または複数人のユーザーを追跡することができる。付属物は、ユーザーの腕、脚および頭を含むことができる。いくつかの例では、画像は、奥行き感知またはオプティカルフロー技術を介して追跡され得、特定の身体部分の識別を必ずしも必要としない。
[0042]共有デバイス102はまた、ディスプレイ(例えば、ディスプレイ114)、スピーカー、プリンタなどの出力装置230を含むことができる。共有デバイス102はまた、本デバイスがネットワーク108などのネットワークを介するなど、他のコンピューティングデバイス(例えば、個々のデバイス104)と通信することを可能とする通信接続232を含むことができる。
[0043]図3は、図1に示された個々のデバイスの例示的アーキテクチャ300を示す。いくつかの実施形態では、個々のデバイス104は、少なくとも1つの処理ユニット302およびシステムメモリ304を含むことができる。コンピューティングデバイスの厳密な構成および種類に応じて、システムメモリ304は、揮発性(RAMなど)、不揮発性(ROM、フラッシュメモリ、など)、またはこれら2つのいくつかの組み合わせであり得る。個々のデバイス104はまた、可換型記憶装置306および非可換型記憶装置308などの付加的なデータ記憶装置を含むことができる。システムメモリ304、可換型記憶装置306および非可換型記憶装置308は、すべてコンピュータ記憶媒体の例である。
[0044]システムメモリ304は、典型的には、オペレーティングシステム310、1つまたは複数のプログラムモジュール312を含み、かつプログラムデータ314およびデバイスデータ316を含み得る。いくつかの例では、デバイスデータ316は、個々のデバイス104に接続されている、かつ/または接続されるべきデバイス(例えば、共有デバイス102)に関連した情報を記憶することができる。プログラムモジュール312は、通信モジュール318、ロケーションモジュール320および編集モジュール322を含むことができ、それぞれ順番に説明される。
[0045]通信モジュール318は、共有デバイス102および/またはサーバー118などのデバイスと通信するように構成される。いくつかの実施形態では、通信モジュール318は、例えば、Bluetooth(登録商標)接続、ネットワーク108、または別の接続プロトコルを介して共有デバイス102との接続を初期化し、かつ確立することができる。
[0046]接続が共有デバイス102と個々のデバイス104間に確立された後、通信モジュール214は、ユーザー106から選択されたオブジェクト110を受信し、かつ共有デバイス102と共に確立した通信プロトコルを介してオブジェクトを共有デバイス104に送信することができる。
[0047]ロケーションモジュール320は、共有デバイス102のディスプレイ114上にオブジェクト位置を配置するように構成される。いくつかの実施形態では、オブジェクト位置は、ディスプレイ114の基準となる特徴に関連したオブジェクト110の位置を含むことができる。基準となる特徴は、個々のデバイス104のカメラにより捕捉され得る。これらの例では、基準となる特徴は、ディスプレイ114上に示される画像またはアイコンなどのディスプレイ114上に示されるオブジェクトに基づき決定され得る。いくつかの例では、基準となる特徴は、ディスプレイ114のフレームなどのディスプレイの外観特性に基づき決定され得る。
[0048]ロケーションモジュール320はまた、個々のデバイス104および/またはユーザー106の付属物の動きに応答してオブジェクト位置を更新することができる。従って、ユーザー106は、ディスプレイ114上のオブジェクトのオブジェクト位置を個々のデバイス104および/または付属物を移動させることにより制御することができる。オブジェクト位置および/または更新されたオブジェクト位置の情報は、通信モジュール318によって共有デバイス102に送信され得て、そこで、共有デバイス102は、ディスプレイ114上のオブジェクト位置または更新されたオブジェクト位置にオブジェクトを表示することができる。オブジェクト位置は、トリガーイベントが発生するまで更新される。例えば、トリガーイベントは、オブジェクト位置を固定し、かつ固定されたオブジェクト位置にオブジェクト110を表示するために通信モジュール318によって共有デバイス102に送信されるコマンドであり得る。
[0049]いくつかの実施形態では、ユーザー106は、個々のデバイス104のカメラからの画像などディスプレイ114の背景画像を提供することによりオブジェクト110を保持しているという印象が得られ得る。従って、ユーザー106は、個々のデバイス104を動かすことによりオブジェクト位置を正確に制御することができる。いくつかの例では、ロケーションモジュールは、視覚、音声および/または共有デバイス102と通信するその他の手法を使用して、ディスプレイ114に関連した個々のデバイス104の制御位置を追跡することができる。
[0050]プログラムモジュール312はまた、オブジェクトが固定された後に個々のデバイス104の動きまたはユーザーの付属物のジェスチャーに基づきオブジェクト110を編集し、かつ/または編集を可能とするように構成される、編集モジュール322を含むことができ、図7において極めて詳細に説明される。例えば、ユーザー106は、オブジェクト110を回転させる、オブジェクト110の大きさおよび/もしくはコントラストを変更する、オブジェクト110の背後の部分のみを切り落とす、かつ/もしくは残す、かつ/またはオブジェクト110に関連した注釈を加えることができる。
[0051]個々のデバイス104はまた、タッチスクリーン装置、物理的ボタン(メニューボタン、キーボード、など)、タッチ入力装置(スタイラス、ペン、など)、音声入力装置、カメラ、光センサー、マイク、などのような入力装置324を有することができる。いくつかの実施形態では、入力方法は、NUIを介して実装され得る。いくつかの実施形態では、個々のデバイス104は、カメラなどの、感知装置326含む。
[0052]いくつかの実施形態では、個々のデバイス104は、ディスプレイ(例えば、タッチスクリーン)、スピーカーなどの出力装置328を含む。個々のデバイス104はまた、この装置が他のコンピューティングデバイス(例えば、共有デバイス102)とネットワークを介するなど、通信することを可能とする通信接続330を含むことができる。これらのネットワークは、有線ネットワークおよびネットワーク108などの無線ネットワークを含むことができる。
例示的動作
[0053]図4は、共有デバイスに特定のオブジェクト位置を提供させるための例示的プロセス400を示す。プロセス400ならびにプロセス500および600を含む、本開示を通して説明されるその他のプロセスは、ハードウェア、ソフトウェア、またはこれらの組み合わせで実装され得る一連の動作を表す、論理的な流れ図中のブロックの集合として示される。ソフトウェアの文脈において、各ブロックは、1つまたは複数の処理装置により実行される場合に、1つまたは複数の処理装置に列挙された動作を実行させる、コンピュータ実行可能な命令を表す。一般に、コンピュータ実行可能な命令は、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、および特定の機能を実行させる、または特定の抽象的データ形式を実装するその他同種類のものを含む。動作が記載された順序は、限定されるものとして解釈されることを意図するものではなく、任意の数の記載されたブロックは、プロセスの実装のために任意の順序で、および/または並列に結合され得る。
[0054]402において、共有デバイス102および個々のデバイス104は、共有デバイス102と個々のデバイス104間の通信を可能とするために接続を確立することができる。例えば、共有デバイス102は、ハンドシェイクまたは情報のペアリング、資格証明の交換などの、接続プロトコルを実行することにより個々のデバイス104との接続を確立することができる。接続は、いずれかのデバイスによって始動され得る。いくつかの実施形態では、デバイスは、デバイスがお互いから所定の距離内にある、互いに接触しているなどの場合に接続を始動することができる。
[0055]404において、オブジェクトは、個々のデバイス104から共有デバイス102に送信され、かつディスプレイ114上の初期オブジェクト位置(ディスプレイ上の位置)に配置され得る。
[0056]406において、オブジェクト位置は、個々のデバイス104および/またはユーザー106の付属物の動きに応答して更新され得る。動きは、共有デバイス102、個々のデバイス104、または両者により検出され得る。例えば、ユーザー110は、ディスプレイ114上の他のオブジェクトに対して上下に移動させることができる。例えば、共有デバイス102は、センサー116、ディスプレイ114、または別の場所に関連した動きを検出するためにセンサー116を使用することができる。個々のデバイス110は、ディスプレイ114に関連した基準となる特徴に基づき動きを検出することができる、感知装置326からの情報に基づき距離を決定することができる。
[0057]408において、オブジェクト位置は、トリガーイベントに応答して固定され、かつオブジェクト110は、ディスプレイ114上の固定されたオブジェクト位置に表示され得る。いくつかの実施形態では、オブジェクト位置が固定された後、ユーザー106は、例えば、方向、大きさ、コントラスト、または注釈を変更する、かつ/または追加するために、オブジェクト110を編集することができ、これらは図7の中で極めて詳細に説明される。いくつかの実施形態では、オブジェクトは、固定された後に別のコマンドに基づき再び移動させられ得る。
[0058]図5は、共有デバイス102が個々のデバイス104またはユーザーの位置を検出した場合の、コンピューティングデバイスに特定のオブジェクト位置を提供させるための例示的プロセス500を示す。
[0059]502および504において、共有デバイス102および個々のデバイス104は、共有デバイス102と個々のデバイス104間の通信を可能とするために接続を確立することができる。例えば、共有デバイス102は、ハンドシェイク、または情報のペアリング、資格証明の交換などの接続プロトコルを実行することにより個々のデバイスとの接続を確立することができる。接続は、いずれかのデバイスによって始動され得る。いくつかの実施形態では、デバイスは、デバイスがお互いから所定の距離内にある、互いに接触している、などの場合に、接続を始動することができる。
[0060]506において、個々のデバイス104は、選択されたオブジェクト110を受信することができる。例えば、ユーザー106は、個々のデバイス104に関連したスクリーンに1本または複数の指および/またはスタイラスで接触することによりオブジェクト110を選択することができる。いくつかの例では、オブジェクト110の選択は、ユーザー106からの音声入力の音声認識により実装され得る。オブジェクト110は、508において共有デバイス102に送信され得る。
[0061]510においてオブジェクトを受信すると、共有デバイス102は、512において初期オブジェクト位置にオブジェクト110を表示することができる。いくつかの例では、初期オブジェクト位置は、共有デバイス102または個々のデバイス104が動作しているタスクなどの、所定の規則またはコンテキストに基づいて決定され得る。
[0062]514において、共有デバイス102は、個々のデバイス104および/またはユーザー106と関連した位置(すなわち、制御位置)を検出することができる。例えば、共有デバイス102のセンサー116は、動きセンサーを使用して個々のデバイス104または個々のデバイス104に関連したユーザーの付属物を追跡することができる。
[0063]516において、個々のデバイス104に関連した制御位置の変化に応答して、共有デバイス102は、ディスプレイ114上のオブジェクト110を移動させることができる。
[0064]518において、共有デバイス102は、トリガーイベントが発生しているか否かを決定することができる。トリガーイベントは、信号、所定の時間の間の動きの欠如、ある時間の満了、などであり得る。トリガーイベントが発生した場合、個々のデバイス104は、520において生成されたコマンドを、522において共有デバイスに送信することができる。コマンドを受信した(すなわち、動作518の「YES」の分岐)後、共有デバイス102は、オブジェクト位置を固定し、かつ524においてディスプレイの固定された位置にオブジェクト110を表示することができる。しかしながら、トリガーイベントがコマンドを要求しない場合、オブジェクトは、動作520および522を発生させることなく動作524において固定され得る。
[0065]停止信号が受信されない(すなわち、動作518の「NO」分岐)場合、動作514から516は、ループ処理により実行され得る。
[0066]図6は、個々のデバイス104が共有デバイス102に位置情報を提供する場合の、コンピューティングデバイスに特定のオブジェクト位置を提供させるための例示的プロセス600を示す。
[0067]602および604において、共有デバイス102および個々のデバイス104は、共有デバイス102と個々のデバイス104間の通信を可能とするために接続を確立することができる。例えば、個々のデバイス104は、ハンドシェイクまたは情報のペアリング、資格証明の交換などの接続プロトコルを実行することにより個々のデバイスとの接続を確立することができる。接続は、いずれかのデバイスにより始動され得る。いくつかの実施形態では、デバイスは、デバイスがお互いから所定の距離内にある、お互いに接触している、などの場合、接続を始動することができる。
[0068]606において、個々のデバイス104は、608および610それぞれにおいて共有デバイス102に送信され、かつ共有デバイス102により受信され得る、選択されたオブジェクト110を受信することができる。
[0069]612において、個々のデバイス104は、共有デバイス102のディスプレイ114上にオブジェクト位置を配置することができる。いくつかの実施形態では、オブジェクト位置は、ディスプレイ114の基準となる特徴に関連したオブジェクト110の位置を含むことができる。例えば、カメラにより捕捉された画像を背景としてディスプレイ114に示すことにより、個々のデバイス104は、オブジェクト110がディスプレイ114上のどこに置かれるかをユーザー106が決定することを可能とし得る。
[0070]614において、個々のデバイス104は、個々のデバイス104および/またはユーザー106の付属物の動きに応答してオブジェクト位置を更新することができる。
[0071]616において、個々のデバイス104は、オブジェクト位置および/または更新されたオブジェクト位置に関連した情報を共有デバイス102に送信することができる。618において情報を受信すると、共有デバイス102は、ディスプレイ114上の更新されたオブジェクト位置にオブジェクト110を表示することができる。
[0072]618において、個々のデバイス104は、トリガーイベントが発生しているか否かを決定することができる。トリガーイベントは、信号、所定の時間の間の動きの欠如、ある時間の満了、などであり得る。トリガーイベントが発生した場合、個々のデバイス104は、620において共有デバイスにコマンドを送信することができる。コマンドを受信した(すなわち、動作618の「YES」の分岐)後、共有デバイス102は、オブジェクト位置を固定し、かつ624においてディスプレイの固定された位置にオブジェクト110を表示することができる。トリガーイベントが発生していない(すなわち、動作618の「NO」の分岐)場合、動作612から618は、ループ処理により実行され得る。
例示的インターフェイス
[0073]図7は、共有デバイス102に送信されたオブジェクトを編集するための例示的ユーザーインターフェイス(UI)700を示す。UI700は、共有デバイス102または個々のデバイス104により提供され得る。図7は、1つのUIの例を示しているが、複数の他のグラフィックまたは非グラフィック・ユーザーインターフェイスが共有デバイス102に送信されたオブジェクトを編集するために用いられ得ることを理解されたい。
[0074]UI700は、1つまたは複数の選択可能な部分、例えば、オブジェクトの方向702、オブジェクトの大きさ704、オブジェクトのコントラスト710、および注釈712を含むことができる。ユーザー106は、オブジェクト110がディスプレイ114のオブジェクト位置に固定された後、オブジェクト110を編集するために1つまたは複数の選択可能な部分を選択することができる。いくつかの実施形態では、1つまたは複数の選択可能な部分は、ユーザー106がこれらの選択可能な部分の1つを選択できるようにするために、浮き上がらせ、かつ1度に1つ循環させることができる。
[0075]いくつかの実施形態では、ユーザー106は、固定されたオブジェクト110を選択し、次いで、オブジェクト110に関連した操作(例えば、編集または削除)を実行することができる。いくつかの実施形態では、オブジェクト選択を容易にするために、ディスプレイ114は、信号(例えば、初期化信号など)の受信、所定の時間の満了、などのトリガーイベントおよび/または他のトリガーイベントに応答して特定の位置に影をつけることができる。いくつかの例では、ユーザー106は、オブジェクト110上に影を移動させる(例えば、個々のデバイス104を介して)、ジェスチャーをする(例えば、掴む)、かつ/または個々のデバイス104に関連した操作を実行することによりオブジェクト110を選択することができる。他の例では、ユーザー106は、オブジェクト110上に影を移動させ、かつ所定の時間(例えば、3秒)保持することによりオブジェクト110を選択することができる。
[0076]いくつかの例では、オブジェクトの方向702が選択された場合、ユーザーは、710に示されるように、オブジェクト110の方向を変更することができる。例えば、ユーザーは、所望の向きに対応して個々のデバイスを一定の角度回転させることによりオブジェクト110の方向を制御することができる。
[0077]いくつかの例では、オブジェクトの大きさ704が選択され、ユーザーは、712に示されるように、オブジェクト110の大きさを変更することができる。例えば、ユーザーは、ユーザー106の初期位置に対してディスプレイに近づけるまたはディスプレイ114からさらに離れるように動かすことによりオブジェクト110の大きさを増大させることができる。
[0078]同様に、オブジェクトのコントラスト706および注釈708の1つが選択された場合、ユーザーは、714および716にそれぞれ示されるように、オブジェクト110のコントラストを変更する、またはオブジェクト110に関連した注釈を加えることができる。
[0079]いくつかの実施形態では、オブジェクト110の特徴(例えば、セマンティクス)および/またはオブジェクト110に関連した操作(例えば、固定操作、編集操作)は、1人または複数人のユーザー、ユーザーのデバイス、および共用されたディスプレイ(または他の資源)間の距離および/または相対的な身体の方向に依存し得る。例えば、ユーザー106は、センサー116またはディスプレイ114から顔を逸らしている場合には、可能な操作を規制されまたは制限され得る。例えば、ユーザー106に利用可能な操作は、センサー116とユーザー106または個々のデバイス104間の距離に基づいて決定され得る。例えば、ユーザー106に利用可能な操作は、センサー116の対してのユーザー106の方向に基づき決定され得る。
終わりに
[0080]主題について、構造的特徴および/または方法論的行為に特有の言語で説明してきたが、添付の特許請求の範囲に定義された主題が、必ずしも上述の特定の特徴または行為に限定されないことを理解されたい。むしろ、特定の特徴および行為は、特許請求の範囲を実装する形態の例として開示されているものである。

Claims (10)

  1. オブジェクトを共有するためのコンピュータ実装方法であって、
    ディスプレイによって、コンピューティングデバイスからオブジェクトを受信するステップと、
    1つまたは複数のカメラを使用して前記コンピューティングデバイスの制御位置を検出するステップと、
    前記1つまたは複数のカメラによって検出された前記コンピューティングデバイスの前記制御位置の変化に応答して前記ディスプレイ上に表示された前記オブジェクトのオブジェクト位置を更新するステップと、
    トリガーイベントに応答して前記ディスプレイ上の前記更新されたオブジェクト位置に前記オブジェクトを固定するステップと、
    を含む、コンピュータ実装方法。
  2. 前記コンピューティングデバイスから前記オブジェクトを受信する前記ステップ以前の前記ディスプレイと前記コンピューティングデバイス間の距離、または前記ディスプレイに対して前記コンピューティングデバイスを操作するユーザーの方向に基づき前記コンピューティングデバイスとの接続を確立するステップと、
    前記ディスプレイ上の初期位置に前記オブジェクトを表示するステップと、
    をさらに含む、請求項1に記載のコンピュータ実装方法。
  3. 前記コンピューティングデバイスの動きまたは前記コンピューティングデバイスに関連したユーザーの付属物のジェスチャーに基づき前記オブジェクトを編集するステップ、
    をさらに含む、請求項1に記載のコンピュータ実装方法。
  4. 1つまたは複数の処理装置上で実行されたとき、前記1つまたは複数の処理装置に、
    コンピューティングデバイスからオブジェクトを共有デバイスに送信するステップと、
    前記共有デバイスのディスプレイの基準となる特徴に関連した前記オブジェクトのオブジェクト位置を含むオブジェクト位置情報を前記共有デバイスに送信するステップと、
    を含む動作を実行させる、コンピュータ実行可能な命令を記憶する、1つまたは複数のコンピュータ可読媒体。
  5. 前記動作が、信号に応答して、前記オブジェクトをユーザーインターフェイス上の特定の場所に固定するために、コマンドを前記共有デバイスに送信するステップをさらに含む、請求項4に記載の1つまたは複数のコンピュータ可読媒体。
  6. 前記オブジェクト位置情報が、少なくとも部分的には前記コンピューティングデバイスのカメラによって決定される、請求項4に記載の1つまたは複数のコンピュータ可読媒体。
  7. 前記オブジェクトの位置情報が、前記共有デバイス上に配置されるべき前記オブジェクトの画像に重ね合わされた前記カメラによって捕捉された画像を含む、請求項6に記載の1つまたは複数のコンピュータ可読媒体。
  8. オブジェクトを共有するためのコンピューティングデバイスであって、サーバーが、
    1つまたは複数の処理装置と、
    前記1つまたは複数の処理装置により実行可能な複数のコンポーネントを保持するためのメモリと、を含み、前記複数のコンポーネントが、
    移動体装置との接続を確立して、前記移動体デバイスからオブジェクトを受信する通信モジュールと、
    前記移動体デバイスの制御位置を検出するセンサーモジュールと、
    前記移動体デバイスの前記制御位置の変化に応答してディスプレイ上に表示された前記オブジェクトのオブジェクト位置を更新し、かつトリガーイベントに応答して前記ディスプレイ上に表示された前記オブジェクト位置にオブジェクトを固定するロケーションモジュールと、
    を含む、コンピューティングデバイス。
  9. 前記複数のコンポーネントが、前記オブジェクトが受信された後に前記オブジェクトを前記ディスプレイ上の初期位置に表示し、かつ前記オブジェクトが固定される前に前記オブジェクトが固定された後に前記オブジェクトを前記固定されたオブジェクト位置に表示する、表示モジュールをさらに含む、請求項8に記載のコンピューティングデバイス。
  10. 前記複数のコンポーネントが、前記コンピューティングデバイスの動きまたは前記コンピューティングデバイスに関連したユーザーの付属物のジェスチャーに基づき前記オブジェクトを編集する、編集モジュールをさらに含む、請求項8に記載のコンピューティングデバイス。
JP2015561485A 2013-03-04 2014-03-03 デバイスへの特定のオブジェクト位置の提供 Active JP6433923B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361772458P 2013-03-04 2013-03-04
US61/772,458 2013-03-04
US13/830,124 US10139925B2 (en) 2013-03-04 2013-03-14 Causing specific location of an object provided to a device
US13/830,124 2013-03-14
PCT/US2014/019766 WO2014137857A1 (en) 2013-03-04 2014-03-03 Causing specific location of an object provided to a device

Publications (3)

Publication Number Publication Date
JP2016513833A true JP2016513833A (ja) 2016-05-16
JP2016513833A5 JP2016513833A5 (ja) 2017-03-30
JP6433923B2 JP6433923B2 (ja) 2018-12-05

Family

ID=51420726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015561485A Active JP6433923B2 (ja) 2013-03-04 2014-03-03 デバイスへの特定のオブジェクト位置の提供

Country Status (6)

Country Link
US (2) US10139925B2 (ja)
EP (1) EP2965164B1 (ja)
JP (1) JP6433923B2 (ja)
KR (1) KR102213090B1 (ja)
CN (1) CN105190469B (ja)
WO (1) WO2014137857A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9762851B1 (en) * 2016-05-31 2017-09-12 Microsoft Technology Licensing, Llc Shared experience with contextual augmentation
KR101788248B1 (ko) * 2017-03-02 2017-10-20 주식회사 미래엔 가상 현실과 증강 현실을 이용한 온라인 학습 시스템 및 방법
CN108572749A (zh) * 2017-03-14 2018-09-25 中兴通讯股份有限公司 一种终端控制方法和系统、设置适配装置、及移动终端
US11079995B1 (en) 2017-09-30 2021-08-03 Apple Inc. User interfaces for devices with multiple displays
KR102629412B1 (ko) * 2019-01-04 2024-01-26 삼성전자주식회사 외부 장치의 콘텐트를 편집하는 전자 장치 및 방법
US10852915B1 (en) 2019-05-06 2020-12-01 Apple Inc. User interfaces for sharing content with other electronic devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190158A (ja) * 2003-12-25 2005-07-14 Nippon Telegr & Teleph Corp <Ntt> 画面上オブジェクト選択方法及び画面上オブジェクト選択装置
JP2009064409A (ja) * 2007-03-26 2009-03-26 Avago Technologies Ecbu Ip (Singapore) Pte Ltd 画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法
JP2011054117A (ja) * 2009-09-04 2011-03-17 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
WO2011133590A1 (en) * 2010-04-19 2011-10-27 Amazon Technologies, Inc. Approaches for device location and communication

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03216720A (ja) * 1990-01-22 1991-09-24 Fujitsu Ltd デジタイザによる座標入力方法
US5818425A (en) * 1996-04-03 1998-10-06 Xerox Corporation Mapping drawings generated on small mobile pen based electronic devices onto large displays
US7145551B1 (en) * 1999-02-17 2006-12-05 Microsoft Corporation Two-handed computer input device with orientation sensor
ATE256305T1 (de) 1999-09-30 2003-12-15 Matsushita Electric Works Ltd Vorrichtung zum entwurf visueller informationen, welche auf einer monitoreinheit wiedergegeben werden, die mit einer programmierbaren steuerung in verbindung steht
US7046213B2 (en) * 2002-06-05 2006-05-16 Ibm Apparatus and method for direct manipulation of electronic information
US7027035B2 (en) * 2002-10-07 2006-04-11 Hewlett-Packard Development Company, L.P. Image copy to a second display
CN101213550B (zh) 2005-06-30 2011-09-28 诺基亚公司 允许对呈现和信息系统的信息表面的目标位置进行操作的照相机控制装置
TWI316195B (en) * 2005-12-01 2009-10-21 Ind Tech Res Inst Input means for interactive devices
US8310656B2 (en) * 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8391786B2 (en) * 2007-01-25 2013-03-05 Stephen Hodges Motion triggered data transfer
EP2063350A1 (en) * 2007-11-20 2009-05-27 Samsung Electronics Co., Ltd. Method and apparatus for interfacing between devices in home network
WO2009129419A2 (en) * 2008-04-16 2009-10-22 Emil Stefanov Dotchevski Interactive display recognition devices and related methods and systems for implementation thereof
KR101520746B1 (ko) * 2009-01-07 2015-05-15 삼성전자주식회사 입력 장치 및 디스플레이 장치
US7870496B1 (en) * 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US20100201879A1 (en) * 2009-02-12 2010-08-12 Echostar Technologies L.L.C. Customizable Picture-in-Picture
US8566713B2 (en) * 2009-08-20 2013-10-22 Samsung Electronics Co., Ltd. Data transfer method and system
JP5568929B2 (ja) * 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
US8457651B2 (en) 2009-10-02 2013-06-04 Qualcomm Incorporated Device movement user interface gestures for file sharing functionality
KR20110069526A (ko) 2009-12-17 2011-06-23 삼성전자주식회사 휴대단말의 외부 출력 제어 방법 및 장치
US20110225553A1 (en) * 2010-03-15 2011-09-15 Abramson Robert W Use Of Standalone Mobile Devices To Extend HID Capabilities Of Computer Systems
US8217997B2 (en) 2010-03-16 2012-07-10 Interphase Corporation Interactive display system
US20130023341A1 (en) * 2010-03-30 2013-01-24 Capcom Co., Ltd. Program and recording medium on which the program is recorded
US9195345B2 (en) 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US10275046B2 (en) 2010-12-10 2019-04-30 Microsoft Technology Licensing, Llc Accessing and interacting with information
AU2011202838B2 (en) * 2010-12-21 2014-04-10 Lg Electronics Inc. Mobile terminal and method of controlling a mode screen display therein
US8725133B2 (en) * 2011-02-15 2014-05-13 Lg Electronics Inc. Method of transmitting and receiving data, display device and mobile terminal using the same
US20130027315A1 (en) * 2011-07-25 2013-01-31 Arther Sing Hook Teng Techniques to display an input device on a mobile device
US20130141331A1 (en) * 2011-12-02 2013-06-06 Htc Corporation Method for performing wireless display control, and associated apparatus and associated computer program product
KR20130137459A (ko) * 2012-06-07 2013-12-17 삼성전자주식회사 디스플레이 장치, 디스플레이 장치를 제어하기 위한 사용자 단말 및 그 제어 방법
US9256299B2 (en) * 2012-08-28 2016-02-09 Hewlett-Packard Development Company, L.P. Client device orientation
US9513795B2 (en) * 2012-11-29 2016-12-06 Blackberry Limited System and method for graphic object management in a large-display area computing device
US9075514B1 (en) * 2012-12-13 2015-07-07 Amazon Technologies, Inc. Interface selection element display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190158A (ja) * 2003-12-25 2005-07-14 Nippon Telegr & Teleph Corp <Ntt> 画面上オブジェクト選択方法及び画面上オブジェクト選択装置
JP2009064409A (ja) * 2007-03-26 2009-03-26 Avago Technologies Ecbu Ip (Singapore) Pte Ltd 画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法
JP2011054117A (ja) * 2009-09-04 2011-03-17 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
WO2011133590A1 (en) * 2010-04-19 2011-10-27 Amazon Technologies, Inc. Approaches for device location and communication
JP2013531828A (ja) * 2010-04-19 2013-08-08 アマゾン テクノロジーズ インコーポレイテッド 装置配置および通信のための方法

Also Published As

Publication number Publication date
CN105190469A (zh) 2015-12-23
KR20150128765A (ko) 2015-11-18
US10139925B2 (en) 2018-11-27
CN105190469B (zh) 2019-05-28
US20190050068A1 (en) 2019-02-14
US10416783B2 (en) 2019-09-17
US20140247207A1 (en) 2014-09-04
JP6433923B2 (ja) 2018-12-05
EP2965164B1 (en) 2019-12-18
WO2014137857A1 (en) 2014-09-12
EP2965164A1 (en) 2016-01-13
KR102213090B1 (ko) 2021-02-04

Similar Documents

Publication Publication Date Title
US20230305675A1 (en) Three-dimensional interaction system
US10740978B2 (en) Surface aware lens
US20210209825A1 (en) Body pose estimation
US20210264668A1 (en) Rendering 3d captions within real-world environments
US11882162B2 (en) Software application manager for messaging applications
US11513608B2 (en) Apparatus, method and recording medium for controlling user interface using input image
US10416783B2 (en) Causing specific location of an object provided to a device
US9729635B2 (en) Transferring information among devices using sensors
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11886673B2 (en) Trackpad on back portion of a device
CN112106044A (zh) 用于在网络协作工作空间中通过网络套接字连接传输文件的方法,设备和计算机可读介质
KR102535086B1 (ko) 전자 장치 및 그의 동작 방법
KR102386100B1 (ko) 리스트 표시 방법 및 장치
KR20200121261A (ko) 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
KR20210101183A (ko) 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
CN112424738A (zh) 在网络协作工作空间中通过网络套接字连接来传播裁剪图像的方法,装置和计算机可读介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181107

R150 Certificate of patent or registration of utility model

Ref document number: 6433923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250