JP2021517302A - Methods, devices, and computer-readable media for sending files over websocket connections in a networked collaborative workspace. - Google Patents

Methods, devices, and computer-readable media for sending files over websocket connections in a networked collaborative workspace. Download PDF

Info

Publication number
JP2021517302A
JP2021517302A JP2020547345A JP2020547345A JP2021517302A JP 2021517302 A JP2021517302 A JP 2021517302A JP 2020547345 A JP2020547345 A JP 2020547345A JP 2020547345 A JP2020547345 A JP 2020547345A JP 2021517302 A JP2021517302 A JP 2021517302A
Authority
JP
Japan
Prior art keywords
remote
computing device
remote participant
file
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020547345A
Other languages
Japanese (ja)
Inventor
マシ、マルコ、バレリオ
フマガッリ、クリスティアーノ
Original Assignee
リ マゴ リミテッド
リ マゴ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/923,943 external-priority patent/US10931733B2/en
Application filed by リ マゴ リミテッド, リ マゴ リミテッド filed Critical リ マゴ リミテッド
Publication of JP2021517302A publication Critical patent/JP2021517302A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/188Virtual file systems
    • G06F16/192Implementing virtual folder structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Position Input By Displaying (AREA)

Abstract

サーバ上にホストされ、ウェブ・ソケット接続を介して参加者にとってアクセス可能な、共同ワークスペースの表現を送信することであって、共同ワークスペースの表現が、サーバに接続されたリモート・コンピューティング・デバイスに対応するリモート参加者オブジェクトを含む、送信することと、リモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成することであって、各ライブ・フォルダが、リモート参加者オブジェクトに対応するリモート・コンピューティング・デバイスのネットワーク・アドレスにマッピングされる、生成することと、リモート参加者オブジェクトの近位にファイルに対応するアイコンをドラッグするためのユーザ入力を検出することと、リモート参加者オブジェクトに対応するライブ・フォルダに少なくとも1つのファイルを記憶して、それにより、少なくとも1つのファイルを、ウェブ・ソケット接続を介してリモート・コンピューティング・デバイスのネットワーク・アドレスに送信することとを含む、ネットワーク化された共同ワークスペースにおけるウェブ・ソケット接続を介したファイルの送信のためのシステム、方法及びコンピュータ可読媒体。Sending a representation of a collaborative workspace that is hosted on a server and accessible to participants via a web socket connection, where the representation of the collaborative workspace is a remote computing connected to the server. Sending, including the remote participant object corresponding to the device, and creating one or more live folders corresponding to the remote participant object, each live folder becoming a remote participant object. Detecting user input to generate, which maps to the network address of the corresponding remote computing device, and to drag the icon corresponding to the file proximal to the remote participant object, and remote join Store at least one file in the live folder that corresponds to the person object, thereby sending at least one file to the network address of the remote computing device over a web socket connection. Systems, methods and computer-readable media for the transmission of files over web socket connections in networked collaborative workspaces, including.

Description

(背景技術)
オペレーティング・システム、及びオペレーティング・システム内で実行するアプリケーションは、ユーザがプログラムに入力を与えることと、ユーザに出力を与えることとを可能にするために、外部ハードウェア・デバイスを頻繁に利用する。外部ハードウェア・デバイスの一般的な実例は、キーボード、コンピュータ・マウス、マイクロフォン、及び外部スピーカーを含む。これらの外部ハードウェア・デバイスは、ドライバの使用によってオペレーティング・システムとインターフェースし、ドライバは、特定のハードウェア・デバイスによって使用されるハードウェア・コマンドとオペレーティング・システムとの間をインターフェースするように構成された専用ソフトウェア・プログラムである。
(Background technology)
The operating system, and applications running within the operating system, frequently utilize external hardware devices to allow the user to give input to the program and to give output to the user. Common examples of external hardware devices include keyboards, computer mice, microphones, and external speakers. These external hardware devices interface with the operating system through the use of drivers, and the drivers are configured to interface between the hardware commands used by a particular hardware device and the operating system. Dedicated software program.

アプリケーションは、いくつかのハードウェア・デバイスとインターフェースするように設計されることがある。たとえば、音声−テキスト・ワード・プロセッシング・アプリケーションが、マイクロフォンを含むオーディオ・ヘッドセットとインターフェースするように設計され得る。この場合、アプリケーションは、特に、音声コマンドを受信し、音声認識を実施し、認識されたワードをテキスト・コンテンツに変換し、テキスト・コンテンツを文書に出力するように構成されなければならない。この機能性は、一般に、様々なソフトウェア構成要素間の通信の定義された方法のセットである、アプリケーションのアプリケーション・プログラミング・インターフェース(API:Application Programming Interface)において実施されることになる。音声認識アプリケーションの実例では、APIは、アプリケーション・プログラムとドライバ上のソフトウェアとの間のインターフェースを含むことができ、これは、ハードウェア・デバイス(マイクロフォン)自体とインターフェースすることを担当する。 Applications may be designed to interface with several hardware devices. For example, voice-text word processing applications can be designed to interface with audio headsets, including microphones. In this case, the application must be configured, in particular, to receive voice commands, perform voice recognition, convert the recognized words into text content, and output the text content to a document. This functionality will generally be implemented in the application programming interface (API) of an application, which is a defined set of methods of communication between various software components. In an example of a speech recognition application, the API can include an interface between the application program and the software on the driver, which is responsible for interfacing with the hardware device (microphone) itself.

専用ハードウェア・デバイスを利用する既存のソフトウェアの1つの問題は、アプリケーション又はオペレーティング・システム・ソフトウェア自体が、ハードウェア・デバイスを利用するために、カスタマイズされ、特別に設計されなければならないことである。このカスタマイゼーションは、ハードウェア・デバイスが、アプリケーションによって、そのために定義された範囲を超えることができず、それが使用されるように設計された特定のアプリケーション以外のコンテキストのために利用され得ないことを意味する。たとえば、音声テキスト・ワード・プロセッシング・アプリケーションのユーザは、オペレーティング・システム内の他のアプリケーション・プログラム又は他の構成要素を、それらの他のアプリケーション・プログラム又はオペレーティング・システムが、マイクロフォンを介して受信される音声コマンドを利用するように特別に設計されない限り、音声コマンドを使用して操作することができない。 One problem with existing software that utilizes dedicated hardware devices is that the application or operating system software itself must be customized and specially designed to utilize the hardware device. .. This customization does not allow the hardware device to exceed the scope defined for it by the application and cannot be utilized for contexts other than the specific application in which it was designed to be used. Means. For example, a user of a voice text word processing application may receive other application programs or other components in the operating system that the other application program or operating system receives via a microphone. It cannot be operated using voice commands unless it is specifically designed to use voice commands.

図1は、ユーザ入力のために、結合されたハードウェア・デバイスを利用するシステムの既存のアーキテクチャの一実例を示す。図1のオペレーティング・システム100Aは、実行アプリケーション101A及び102Aを含み、それらの各々は、それぞれ、それら自体のAPI101B及び102Bを有する。オペレーティング・システム100Aはまた、それ自体のAPI100B、並びにハードウェア・デバイス100D、101D、及び102Dとインターフェースするように構成された専用ドライバ100C、101C、及び102Cを有する。 FIG. 1 shows an example of an existing architecture of a system that utilizes combined hardware devices for user input. The operating system 100A of FIG. 1 includes execution applications 101A and 102A, each of which has its own APIs 101B and 102B, respectively. The operating system 100A also has its own API 100B and dedicated drivers 100C, 101C, and 102C configured to interface with the hardware devices 100D, 101D, and 102D.

図1に示されているように、アプリケーションAPI101Bは、ドライバ101Cとインターフェースするように構成され、ドライバ101C自体は、ハードウェア・デバイス101Dとインターフェースする。同様に、アプリケーションAPI102Bは、ドライバ102Cとインターフェースするように構成され、ドライバ102C自体は、ハードウェア・デバイス102Dとインターフェースする。オペレーティング・システム・レベルにおいて、オペレーティング・システムAPI100Bは、ドライバ100Cとインターフェースするように構成され、ドライバ100C自体は、ハードウェア・デバイス100Dとインターフェースする。 As shown in FIG. 1, the application API 101B is configured to interface with the driver 101C, which itself interfaces with the hardware device 101D. Similarly, the application API 102B is configured to interface with the driver 102C, which itself interfaces with the hardware device 102D. At the operating system level, the operating system API 100B is configured to interface with the driver 100C, which itself interfaces with the hardware device 100D.

図1に示されているシステムのアーキテクチャは、いくつかのアプリケーション又はオペレーティング・システム・コンテキスト外でハードウェア・デバイスを利用するユーザの能力を限定する。たとえば、ユーザは、アプリケーション102Aに入力を与えるためにハードウェア・デバイス101Dを利用することができず、アプリケーション101Aに又はオペレーティング・システム100Aに入力を与えるためにハードウェア・デバイス102Dを利用することができない。 The system architecture shown in FIG. 1 limits the ability of users to utilize hardware devices outside of some application or operating system context. For example, the user may not be able to use the hardware device 101D to give input to application 102A and may use the hardware device 102D to give input to application 101A or operating system 100A. Can not.

したがって、複数のソフトウェア・コンテキストにおけるハードウェア・デバイスの利用を可能にする、ハードウェア・ソフトウェア・インターフェースの改善が必要とされる。 Therefore, improvements in the hardware software interface are needed to allow the use of hardware devices in multiple software contexts.

ユーザ入力のために、結合されたハードウェア・デバイスを利用するシステムの既存のアーキテクチャの一実例を示す図である。FIG. 5 illustrates an example of an existing architecture of a system that utilizes combined hardware devices for user input. 例示的な実施例による、ユニバーサル・ハードウェア・ソフトウェア・インターフェースを利用するシステムのアーキテクチャを示す図である。It is a figure which shows the architecture of the system which utilizes a universal hardware software interface by an exemplary example. 例示的な実施例による、ユニバーサル・ハードウェア・ソフトウェア・インターフェースの実装のためのフローチャートである。It is a flowchart for the implementation of the universal hardware software interface by an exemplary embodiment. 例示的な実施例による、システムに通信可能に結合された1つ又は複数のハードウェア・デバイスによってキャプチャされた情報が1つ又は複数の画像を含むときの、1つ又は複数のハードウェア・デバイスによってキャプチャされた情報に少なくとも部分的に基づいてユーザ入力を決定するためのフローチャートである。One or more hardware devices when the information captured by one or more hardware devices communicatively coupled to the system, according to an exemplary embodiment, contains one or more images. It is a flowchart for determining a user input based at least partially based on the information captured by. 例示的な実施例による、オブジェクト認識の一実例を示す図である。It is a figure which shows an example of object recognition by an exemplary example. 例示的な実施例による、入力ロケーション座標を決定することの一実例を示す図である。It is a figure which shows an example of determining the input location coordinates by an exemplary embodiment. 例示的な実施例による、システムに通信可能に結合された1つ又は複数のハードウェア・デバイスによってキャプチャされた情報が音情報であるときの、キャプチャされた情報に少なくとも部分的に基づいてユーザ入力を決定するためのフローチャートである。User input based at least in part on the captured information when the information captured by one or more hardware devices communicatively coupled to the system is sound information, according to an exemplary embodiment. It is a flowchart for determining. 例示的な実施例による、透明層の一部であり得るツール・インターフェースを示す図である。It is a figure which shows the tool interface which can be a part of a transparent layer by an exemplary embodiment. 例示的な実施例による、システムの一部であり得るスタイラスの一実例を示す図である。It is a figure which shows an example of a stylus which can be a part of a system by an exemplary embodiment. 例示的な実施例による、ユーザ入力に対応するコンテキストを識別するためのフローチャートである。FIG. 5 is a flowchart for identifying a context corresponding to user input according to an exemplary embodiment. 例示的な実施例による、コンテキストを決定するために入力座標を使用することの一実例を示す図である。FIG. 5 is a diagram illustrating an example of using input coordinates to determine a context, according to an exemplary embodiment. 例示的な実施例による、ユーザ入力を透明層コマンドに変換するためのフローチャートである。It is a flowchart for converting a user input into a transparent layer command by an exemplary embodiment. 例示的な実施例による、選択モードがトグルされるときの、入力座標を受信することの一実例を示す図である。FIG. 5 is a diagram illustrating an example of receiving input coordinates when the selection mode is toggled, according to an exemplary embodiment. 例示的な実施例による、ポインティング・モードがトグルされるときの、入力座標を受信することの一実例を示す図である。FIG. 5 is a diagram illustrating an example of receiving input coordinates when the pointing mode is toggled, according to an exemplary embodiment. 例示的な実施例による、描画モード(drawing mode)がトグルされるときの、入力座標を受信することの一実例を示す図である。It is a figure which shows an example of receiving an input coordinate when a drawing mode is toggled by an exemplary embodiment. 例示的な実施例による、入力音声データ中で識別された1つ又は複数のワードに基づいて決定される透明層コマンドの一実例を示す図である。FIG. 5 is a diagram illustrating an example of a transparent layer command determined based on one or more words identified in input voice data according to an exemplary embodiment. 例示的な実施例による、入力音声データ中で識別された1つ又は複数のワードに基づいて決定される透明層コマンドの別の実例を示す図である。It is a figure which shows another example of the transparent layer command which is determined based on one or more words identified in the input voice data by an exemplary example. 例示的な実施例による、透明層上で1つ又は複数の透明層コマンドを実行するためのフローチャートである。It is a flowchart for executing one or more transparent layer commands on a transparent layer by an exemplary embodiment. 例示的な実施例による、ユーザ入力に対応する新しいコマンドを追加するための例示的なインターフェースを示す図である。It is a figure which shows the exemplary interface for adding a new command corresponding to a user input by an exemplary embodiment. 例示的な実施例による、描画インターフェース及び描画モード(draw mode)の様々な構成要素及びオプションを示す図である。FIG. 5 shows various components and options of a drawing interface and drawing mode according to exemplary embodiments. 例示的な実施例による、オブジェクトを認識するために使用され、ユーザがタッチ及びジェスチャーを使用して入力を与えることを可能にする、ビデオ・カメラ・ハードウェア・デバイスのための較正及び設定インターフェースを示す図である。An exemplary example of a calibration and configuration interface for a video camera hardware device that is used to recognize an object and allows the user to give input using touch and gestures. It is a figure which shows. 例示的な実施例による、ユーザが、インターフェースの様々な態様をカスタマイズし、入力モードをトグルし、他の交換を行うことを可能にする、一般的な設定インターフェースを示す図である。FIG. 6 illustrates a general configuration interface that allows a user to customize various aspects of an interface, toggle input modes, and make other exchanges, according to an exemplary embodiment. 例示的な実施例による、ネットワーク化された共同(collaboration)ワークスペースにおけるウェブ・ソケット接続を介したファイルの送信のためのフローチャートである。A flowchart for sending a file over a websocket connection in a networked collaboration workspace, according to an exemplary embodiment. 例示的な実施例による、共同ワークスペースをホストし、送信するために使用されるネットワーク・アーキテクチャを示す図である。FIG. 5 illustrates the network architecture used to host and transmit a collaborative workspace, according to an exemplary embodiment. 例示的な実施例による、ネットワーク内で共同ワークスペースに対する編集を伝えるためのプロセスを示す図である。FIG. 5 illustrates a process for communicating edits to a collaborative workspace within a network, according to an exemplary embodiment. 例示的な実施例による、共同ワークスペースの複数の表現を示す図である。It is a figure which shows a plurality of representations of a collaborative workspace by an exemplary example. 例示的な実施例による、1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成するためのフローチャートである。It is a flowchart for generating one or more live folders corresponding to one or more remote participant objects by an exemplary embodiment. 例示的な実施例による、問合せプロセスの一実例を示す図である。It is a figure which shows an example of the query process by an exemplary example. 例示的な実施例による、1つ又は複数のリモート参加者に対応する1つ又は複数のローカル・フォルダを生成することの一実例を示す図である。It is a figure which shows an example of generating one or more local folders corresponding to one or more remote participants by an exemplary example. 例示的な実施例による、1つ又は複数のIPアドレスに1つ又は複数のローカル・フォルダをマッピングすることの一実例を示す図である。FIG. 5 is a diagram illustrating an example of mapping one or more local folders to one or more IP addresses according to an exemplary embodiment. 例示的な実施例による、ドラッグ・アンド・ドロップ・プロセス及び検出の一実例を示す図である。It is a figure which shows an example of the drag-and-drop process and detection by an exemplary example. 例示的な実施例による、ドラッグ・アンド・ドロップ・プロセス及び検出の別の実例を示す図である。It is a figure which shows another example of a drag-and-drop process and detection by an exemplary example. 例示的な実施例による、リモート参加者オブジェクトに対応するライブ・フォルダに少なくとも1つのファイルを記憶し、少なくとも1つのファイルを、ウェブ・ソケット接続を介してリモート・コンピューティング・デバイスのネットワーク・アドレスに送信するためのフローチャートである。Store at least one file in the live folder corresponding to the remote participant object according to the exemplary embodiment and transfer at least one file to the network address of the remote computing device over a websocket connection. It is a flowchart for transmission. 開示される方法を行うように構成された例示的なコンピューティング環境を示す図である。FIG. 5 illustrates an exemplary computing environment configured to perform the disclosed method.

方法、装置、及びコンピュータ可読媒体は、実例及び実施例として本明細書で説明されるが、当業者は、ユニバーサル・ハードウェア・ソフトウェア・インターフェースの実装のための方法、装置、及びコンピュータ可読媒体が、説明される実施例又は図面に限定されないことを認識する。図面及び説明は、開示される特定の形式に限定されるものではないことを理解されたい。むしろ、意図は、添付の特許請求の範囲の趣旨及び範囲内に入るすべての修正、等価物及び代替をカバーすることである。本明細書で使用されるいかなる見出しも編成のためのものであるにすぎず、本明細書の範囲又は特許請求の範囲を限定するものではない。本明細書で使用される「することができる(can)」という単語は、強制的な意味(すなわち、しなければならない(must)という意味)ではなく許容的な意味(すなわち、可能性を有するという意味)において使用される。同様に、「含む(include)」、「含む(including)」、及び「含む(includes)」という単語は、含むことを意味するが、それに限定されない。 Methods, devices, and computer-readable media are described herein as examples and examples, but those skilled in the art will appreciate methods, devices, and computer-readable media for implementing universal hardware software interfaces. Recognize that it is not limited to the embodiments or drawings described. It should be understood that the drawings and description are not limited to the particular format disclosed. Rather, the intent is to cover the intent and all modifications, equivalents and alternatives that fall within the scope of the appended claims. Any headings used herein are for organization purposes only and are not intended to limit the scope of the specification or the claims. As used herein, the word "can" has an acceptable meaning (ie, potential) rather than a compulsory meaning (ie, meaning must). Meaning). Similarly, the words "include," "include," and "includes" mean, but are not limited to.

出願人は、ハードウェア・デバイスのために使用される、以前のハードウェア・ソフトウェア・インターフェースに関連する問題を解決する方法、装置、及びコンピュータ可読媒体を発見した。特に、出願人は、ユーザが、様々なソフトウェア・コンテキストにおいて通信可能に結合されたハードウェア・デバイスを利用することを可能にするユニバーサル・ハードウェア・ソフトウェア・インターフェースを開発した。開示される実装形態は、以下でより詳細に説明されるように、専用仮想ドライバ及び対応する透明層の使用によって、アプリケーション又はオペレーティング・システムが特定のハードウェア・デバイスとインターフェースするように特注設計される必要を取り除く。 Applicants have discovered methods, devices, and computer-readable media used for hardware devices to solve problems associated with previous hardware software interfaces. In particular, Applicants have developed a universal hardware software interface that allows users to utilize communicably coupled hardware devices in a variety of software contexts. The disclosed implementations are custom designed to allow an application or operating system to interface with a particular hardware device through the use of dedicated virtual drivers and corresponding transparent layers, as described in more detail below. Get rid of the need.

図2は、例示的な実施例による、ユニバーサル・ハードウェア・ソフトウェア・インターフェースを利用するシステムのアーキテクチャを示す。図2に示されているように、オペレーティング・システム200Aは、仮想ドライバ204と通信する透明層203を含む。以下でより詳細に説明されるように、透明層203は、仮想ドライバとオペレーティング・システム及び/又はオペレーティング・システム上で実行する(1つ又は複数の)アプリケーションとの間をインターフェースするように構成されたAPIである。この例では、透明層203は、仮想ドライバ204と、アプリケーション201AのAPI201B、アプリケーション202AのAPI202B、及びオペレーティング・システム200Aのオペレーティング・システムAPI200Bとの間をインターフェースする。 FIG. 2 shows the architecture of a system utilizing a universal hardware software interface according to an exemplary embodiment. As shown in FIG. 2, the operating system 200A includes a transparent layer 203 that communicates with the virtual driver 204. As described in more detail below, the transparent layer 203 is configured to interface between the virtual driver and the operating system and / or the application (s) running on the operating system. It is an API. In this example, the transparent layer 203 interfaces between the virtual driver 204 and the API 201B of the application 201A, the API 202B of the application 202A, and the operating system API 200B of the operating system 200A.

透明層203は、オペレーティング・システム上で動作するソフトウェア・プロセスの一部であり得、下位(underlying)ユーザ・インターフェースの上に重ね合わせられた透明ユーザ・インターフェース(UI:user interface)及び/又はユーザが対話することが可能である可視UI要素を含む、透明層203自体のUI要素を有することができる。 The transparent layer 203 can be part of a software process running on an operating system and is a transparent user interface (UI) and / or user superimposed on an underlying user interface. Can have UI elements of the transparent layer 203 itself, including visible UI elements to which can interact.

仮想ドライバ204は、ドライバ205A及び205Bをエミュレートするように構成され、ドライバ205A及び205Bは、それぞれ、ハードウェア・デバイス206A及び206Bとインターフェースする。仮想ドライバは、どの仮想ドライバをエミュレートすべきかについて仮想ドライバに命令する、たとえば、音声コマンド、ユーザ・インターフェース上で行われる選択、及び/又は結合されたウェブ・カメラの前でユーザによって行われるジェスチャーの形式の、ユーザ入力を受信することができる。たとえば、接続されたハードウェア・デバイスの各々は、「リスニング」モードにおいて動作することができ、仮想ドライバ204におけるエミュレートされるドライバの各々は、特定のエミュレーション・モードに切り替えるための仮想ドライバに対する信号として働く初期化信号を検出するように構成され得る。たとえば、ユーザが「音声コマンド開始」と述べることは、新しい音声コマンドを受信するためのマイクロフォンに対応するドライバをアクティブにすることができる。同様に、ユーザがあるジェスチャーを与えることは、ジェスチャー入力又はタッチ入力を受信するためのウェブ・カメラに対応するドライバをアクティブにすることができる。 The virtual driver 204 is configured to emulate drivers 205A and 205B, which interface with hardware devices 206A and 206B, respectively. The virtual driver tells the virtual driver which virtual driver to emulate, such as voice commands, selections made on the user interface, and / or gestures made by the user in front of the combined web camera. Can receive user input in the form of. For example, each of the connected hardware devices can operate in "listening" mode, and each of the emulated drivers in virtual driver 204 signals to the virtual driver to switch to a particular emulation mode. It can be configured to detect an initialization signal that acts as. For example, a user saying "start voice command" can activate the driver for the microphone to receive a new voice command. Similarly, giving a gesture by the user can activate the driver corresponding to the webcam for receiving the gesture input or touch input.

仮想ドライバは、ネイティブ・ドライバ205Cなど、ネイティブ・ドライバとインターフェースするようにも構成され得、ネイティブ・ドライバ205C自体は、ハードウェア・デバイス206Cと通信する。一実例では、ハードウェア・デバイス206Cは、キーボード又はマウスなど、標準入力デバイスであり得、標準入力デバイスは、オペレーティング・システムによってネイティブにサポートされる。 The virtual driver may also be configured to interface with a native driver, such as the native driver 205C, which itself communicates with the hardware device 206C. In one embodiment, the hardware device 206C can be a standard input device, such as a keyboard or mouse, which is natively supported by the operating system.

図2に示されているシステムは、ユーザが、特定のアプリケーション又はオペレーティング・システムなどの様々なコンテキストにおいて任意の結合されたハードウェア・デバイスを、そのアプリケーション又はオペレーティング・システムがハードウェア・デバイスとインターフェースするようにカスタマイズされることを必要とすることなしに、利用することができるユニバーサル・ハードウェア・ソフトウェア・インターフェースの実装を可能にする。 In the system shown in FIG. 2, a user interfaces with any combined hardware device in various contexts, such as a particular application or operating system, and the application or operating system interfaces with the hardware device. Allows the implementation of available universal hardware software interfaces without having to be customized to do so.

たとえば、ハードウェア・デバイス206Aは、情報をキャプチャすることができ、その情報は、次いで、ドライバ205Aをエミュレートする仮想ドライバ204によって受信される。仮想ドライバ204は、キャプチャされた情報に基づいて、ユーザ入力を決定することができる。たとえば、その情報が、ユーザがユーザの手を動かす一連の画像である場合、仮想ドライバは、ユーザがジェスチャーを実施したと決定することができる。 For example, hardware device 206A can capture information, which is then received by virtual driver 204, which emulates driver 205A. The virtual driver 204 can determine the user input based on the captured information. For example, if the information is a series of images in which the user moves the user's hand, the virtual driver can determine that the user has performed a gesture.

(特定のアプリケーション又はオペレーティング・システムなどの)識別されたコンテキストに基づいて、ユーザ入力は、実行のために透明層コマンドに変換され、透明層203に送信され得る。透明層コマンドは、識別されたコンテキストにおけるネイティブ・コマンドを含むことができる。たとえば、識別されたコンテキストがアプリケーション201Aである場合、ネイティブ・コマンドは、アプリケーション201AのアプリケーションAPI201Bに適合するフォーマットのものであろう。次いで、透明層コマンドの実行が、識別されたコンテキストにおける1つ又は複数のネイティブ・コマンドの実行を引き起こすように構成され得る。これは、透明層203が、オペレーティング・システム200A並びにオペレーティング・システムAPI200B上で実行するアプリケーションのAPIの各々とインターフェースすることによって、達成される。たとえば、ネイティブ・コマンドが、新しいプログラムを起動するためのコマンドなど、オペレーティング・システム・コマンドである場合、透明層203は、実行のためにオペレーティング・システムAPI200Bにそのネイティブ・コマンドを与えることができる。 Based on the identified context (such as a particular application or operating system), user input can be translated into transparent layer commands for execution and sent to transparent layer 203. Transparent layer commands can include native commands in the identified context. For example, if the identified context is application 201A, the native command will be in a format that matches application API201B of application 201A. The execution of a transparent layer command can then be configured to trigger the execution of one or more native commands in the identified context. This is achieved by the transparent layer 203 interfacing with each of the operating system 200A and the API of the application running on the operating system API 200B. For example, if the native command is an operating system command, such as a command to launch a new program, the transparent layer 203 may give the operating system API 200B that native command for execution.

図2に示されているように、示されている構成要素のすべての間で双方向通信がある。これは、たとえば、透明層203における透明層コマンドの実行が、仮想ドライバ204への情報の送信及び接続されたハードウェア・デバイスのうちの1つ上への情報の送信を生じることがあることを意味する。たとえば、音声コマンドが入力として認識され、ネイティブ・コマンドを含む透明層コマンドに変換され、透明層によって実行された(識別されたコンテキストにおけるネイティブ・コマンドの実行を生じた)後に、音出力「コマンドが受信されました」を送信するために、信号が(仮想ドライバを介して)透明層からスピーカーに送られ得る。 As shown in FIG. 2, there is bidirectional communication between all of the components shown. This means that, for example, execution of a transparent layer command on transparent layer 203 may result in sending information to virtual driver 204 and up one of the connected hardware devices. means. For example, a voice command is recognized as input, converted to a transparent layer command containing a native command, executed by the transparent layer (causing the execution of the native command in the identified context), and then the sound output "command is A signal can be sent from the transparent layer (via the virtual driver) to the speaker to send "received".

もちろん、図2に示されているアーキテクチャは、説明のためのものにすぎず、実行するアプリケーションの数、接続されたハードウェア・デバイスの数及びタイプ、ドライバ及びエミュレートされたドライバの数は変動することがあることを理解されたい。 Of course, the architecture shown in Figure 2 is for illustration purposes only, and the number of applications running, the number and type of hardware devices connected, and the number of drivers and emulated drivers will vary. Please understand that there are things to do.

図3は、例示的な実施例による、ユニバーサル・ハードウェア・ソフトウェア・インターフェースの実装のためのフローチャートである。 FIG. 3 is a flowchart for implementing a universal hardware software interface according to an exemplary embodiment.

ステップ301において、システムに通信可能に結合された1つ又は複数のハードウェア・デバイスによってキャプチャされた情報に少なくとも部分的に基づいて、ユーザ入力が決定される。本明細書で使用されるシステムは、方法のステップを実行する1つ又は複数のコンピューティング・デバイス、方法のステップを実行する1つ又は複数のプロセッサと1つ又は複数のメモリとを備える装置、又は任意の他のコンピューティング・システムを指すことがある。 In step 301, user input is determined based at least in part on the information captured by one or more hardware devices communicatively coupled to the system. A system as used herein is a computing device that performs a method step, a device that comprises one or more processors that perform a method step and one or more memories. Or it may refer to any other computing system.

ユーザ入力は、システム上で実行する仮想ドライバによって決定され得る。前に説明されたように、仮想ドライバは、エミュレーション・モードにおいて動作していることがあり、エミュレーション・モードにおいて、仮想ドライバは、他のハードウェア・ドライバをエミュレートしており、それにより、ハードウェア・デバイスから、キャプチャされた情報を受信するか、又は随意に、特定のハードウェア・デバイスとインターフェースするように構成された1つ又は複数の他のハードウェア・ドライバから、キャプチャされた情報を受信することができる。 User input can be determined by a virtual driver running on the system. As previously described, the virtual driver may be operating in embroidery mode, in which the virtual driver emulates another hardware driver, thereby hardware. Receive captured information from a hardware device or, optionally, capture information from one or more other hardware drivers configured to interface with a particular hardware device. Can be received.

カメラ、ビデオ・カメラ、マイクロフォン、双方向通信を有するヘッドセット、マウス、タッチパッド、トラックパッド、コントローラ、ゲーム・パッド、ジョイスティック、タッチ・スクリーン、加速度計及び/又はチルト・センサーを含む動きキャプチャ・デバイス、遠隔制御装置、スタイラス、或いはこれらのデバイスの任意の組合せなど、様々なハードウェア・デバイスが利用され得る。もちろん、ハードウェア・デバイスのこのリストは、単に実例として与えられ、音声、画像、ビデオ、又はタッチ情報を検出するために利用され得る任意のハードウェア・デバイスが利用され得る。 Motion capture devices including cameras, video cameras, microphones, headsets with two-way communication, mice, touchpads, trackpads, controllers, gamepads, joysticks, touch screens, accelerometers and / or tilt sensors. Various hardware devices may be utilized, such as a remote controller, stylus, or any combination of these devices. Of course, this list of hardware devices is given merely as an example, and any hardware device that can be used to detect audio, image, video, or touch information can be utilized.

ハードウェア・デバイスとシステムとの間の通信結合は、様々な形式をとることができる。たとえば、ハードウェア・デバイスは、ワイヤレス・ネットワーク、Bluetoothプロトコル、無線周波数、赤外線信号を介して、及び/又はユニバーサルシリアルバス(USB:Universal Serial Bus)接続などの物理接続によってシステムと通信することができる。通信は、ワイヤレス通信とワイヤード通信の両方をも含むことができる。たとえば、ハードウェア・デバイスは、2つの構成要素を含むことができ、そのうちの1つが、第2の構成要素に(Bluetoothを介してなど)ワイヤレスに信号を送信し、第2の構成要素自体は、(USBなどの)ワイヤード接続を介してシステムに接続する。様々な通信技法が本明細書で説明されるシステムに従って利用され得、これらの実例は、限定するものではない。 Communication coupling between a hardware device and a system can take various forms. For example, a hardware device can communicate with the system via a wireless network, Bluetooth protocol, radio frequency, infrared signal, and / or by a physical connection such as a Universal Serial Bus (USB) connection. .. Communication can also include both wireless and wired communication. For example, a hardware device can contain two components, one of which signals the second component wirelessly (such as via Bluetooth), and the second component itself , Connect to the system via a wired connection (such as USB). Various communication techniques may be utilized in accordance with the systems described herein, and these examples are not limited.

1つ又は複数のハードウェア・デバイスによってキャプチャされる情報は、1つ又は複数の画像を含む画像情報、ビデオのフレーム、音情報、及び/又はタッチ情報など、任意のタイプの情報であり得る。キャプチャされた情報は、音情報のための.wav又は.mp3ファイル、画像のための.jpegファイル、タッチ情報のための数値座標など、任意の好適なフォーマットのものであり得る。 The information captured by one or more hardware devices can be any type of information, such as image information containing one or more images, video frames, sound information, and / or touch information. The captured information is for sound information. wav or. For mp3 files, images. It can be in any suitable format, such as a jpg file, numerical coordinates for touch information, and so on.

本明細書で説明される技法は、任意のディスプレイ・デバイスが、そのディスプレイ・デバイスが、タッチ信号又はタッチ・ベースのジェスチャーを検出するためのハードウェアを含まない場合でも、任意のコンテキストにおいて「タッチ」スクリーンデバイスとして事実上機能することを可能にすることができる。これは、以下でより詳細に説明され、カメラ又はビデオ・カメラによってキャプチャされた画像の分析を通して達成され得る。 The techniques described herein are "touch" in any context, even if any display device does not include hardware for detecting touch signals or touch-based gestures. It can be made possible to effectively function as a screen device. This is described in more detail below and can be achieved through analysis of images captured by cameras or video cameras.

図4は、システムに通信可能に結合された1つ又は複数のハードウェア・デバイスによってキャプチャされた情報が1つ又は複数の画像を含むときの、1つ又は複数のハードウェア・デバイスによってキャプチャされた情報に少なくとも部分的に基づいてユーザ入力を決定するためのフローチャートを示す。 FIG. 4 is captured by one or more hardware devices when the information captured by one or more hardware devices communicatively coupled to the system contains one or more images. A flowchart for determining a user input based on at least a part of the information obtained is shown.

ステップ401において、1つ又は複数の画像が受信される。これらの画像は、前に説明されたように、カメラ又はビデオ・カメラなど、ハードウェア・デバイスによってキャプチャされ得、仮想ドライバによって受信され得る。 In step 401, one or more images are received. These images can be captured by a hardware device, such as a camera or video camera, and received by a virtual driver, as previously described.

ステップ402において、1つ又は複数の画像中のオブジェクトが認識される。オブジェクトは、たとえば、ユーザの手、指、又は他の身体部位であり得る。オブジェクトはまた、スタイラス又はペンなどの専用デバイス、或いはシステムに通信可能に結合され、加速度計及び/又はチルト・センサーを含んでいる動き追跡スタイラス/遠隔制御装置などの専用ハードウェア・デバイスであり得る。オブジェクト認識は、仮想ドライバによって実施され得、オブジェクトを使用して動作される較正ルーチンを通してなど、以前のトレーニングに基づき得る。 In step 402, objects in one or more images are recognized. The object can be, for example, a user's hand, finger, or other body part. The object can also be a dedicated device such as a stylus or pen, or a dedicated hardware device such as a motion tracking stylus / remote controller that is communicably coupled to the system and includes an accelerometer and / or tilt sensor. .. Object recognition can be performed by virtual drivers and can be based on previous training, such as through calibration routines that operate with objects.

図5Aは、例示的な実施例による、オブジェクト認識の一実例を示す。図5Aに示されているように、画像501は、オブジェクト502として認識されたユーザの手を含む。認識アルゴリズムは、もちろん、指など、異なるオブジェクトを認識するように構成され得る。 FIG. 5A shows an example of object recognition according to an exemplary embodiment. As shown in FIG. 5A, image 501 includes the user's hand recognized as object 502. The recognition algorithm can, of course, be configured to recognize different objects, such as fingers.

図4に戻ると、ステップ403において、認識されたオブジェクトの1つ又は複数の配向と1つ又は複数の位置とが決定される。これは、様々なやリ方で達成され得る。オブジェクトがハードウェア・デバイスではなく、代わりに、手又は指など、身体部位である場合、オブジェクトは、オブジェクトの3次元座標と、X軸、Y軸、及びZ軸に対する様々な角度とを決定するために、カメラの既知のロケーションを基準点として使用する3次元座標系においてマッピングされ得る。オブジェクトがハードウェア・デバイスであり、加速度計及び/又はチルト・センサーなど、動き追跡ハードウェアを含む場合、画像情報は、オブジェクトの位置及び配向を決定するための加速度計及び/又はチルト・センサーによって示された情報とともに使用され得る。 Returning to FIG. 4, in step 403, one or more orientations and one or more positions of the recognized object are determined. This can be achieved in various ways. If the object is not a hardware device, but instead a body part, such as a hand or finger, the object determines the 3D coordinates of the object and various angles with respect to the X, Y, and Z axes. Therefore, it can be mapped in a three-dimensional coordinate system that uses a known location of the camera as a reference point. If the object is a hardware device and includes motion tracking hardware such as an accelerometer and / or tilt sensor, the image information is provided by the accelerometer and / or tilt sensor to determine the position and orientation of the object. Can be used with the information provided.

ステップ404において、ユーザ入力は、認識されたオブジェクトの1つ又は複数の配向と1つ又は複数の位置とに少なくとも部分的に基づいて決定される。これは、1つ又は複数の配向と1つ又は複数の位置とに少なくとも部分的に基づいて、透明層の透明ユーザ・インターフェース(UI)上のロケーション座標を決定することを含むことができる。透明UIは、透明層の一部であり、オペレーティング・システム及び/又はオペレーティング・システム上で実行する任意のアプリケーションに対応する下位UIの上に重ね合わせられる。 In step 404, user input is determined based at least in part on one or more orientations and one or more positions of the recognized object. This can include determining location coordinates on the transparent user interface (UI) of the transparent layer based at least in part on one or more orientations and one or more positions. The transparent UI is part of the transparent layer and is overlaid on top of the operating system and / or the underlying UI corresponding to any application running on the operating system.

図5Bは、オブジェクトがユーザの指であるときの、このステップの一実例を示す。図5Bに示されているように、ディスプレイ・デバイス503は、下位UI506と、下位UI506上に重ね合わせられた透明UI507とを含む。明快のために、透明UI507は、ドット・シェーディングで示されているが、実際には、透明UIは、ユーザにとって可視でない透明層であることを理解されたい。さらに、透明UI507は、下位UI506よりもわずかに小さいものとして示されているが、実際には、透明UIは、下位UIと同じスクリーン・エリアをカバーすることになることを理解されたい。 FIG. 5B shows an example of this step when the object is a user's finger. As shown in FIG. 5B, the display device 503 includes a lower UI 506 and a transparent UI 507 overlaid on the lower UI 506. For clarity, the transparent UI 507 is shown with dot shading, but it should be understood that the transparent UI is actually a transparent layer that is not visible to the user. Further, although the transparent UI 507 is shown as being slightly smaller than the lower UI 506, it should be understood that in practice the transparent UI will cover the same screen area as the lower UI.

図5Bに示されているように、オブジェクト(ユーザの指)の位置及び配向情報は、ディスプレイ・デバイス503の平面上にラインを投影し、交差点505を決定するために使用される。カメラ504によってキャプチャされた画像情報及びカメラの下のディスプレイ・デバイス503の既知の位置が、この投影を助けるために使用され得る。図5Bに示されているように、ユーザ入力は、交差点505における入力座標であると決定される。 As shown in FIG. 5B, the position and orientation information of the object (user's finger) is used to project a line onto the plane of the display device 503 and determine the intersection 505. The image information captured by the camera 504 and the known position of the display device 503 under the camera can be used to aid in this projection. As shown in FIG. 5B, the user input is determined to be the input coordinates at intersection 505.

以下でさらに説明されるように、この入力に基づいて生成される実際の透明層コマンドは、ユーザ設定及び/又は識別されたコンテキストに基づき得る。たとえば、コマンドは、点505の座標におけるオブジェクトが選択され、及び/又は開かれるべきであることを示すタッチ・コマンドであり得る。コマンドは、(マウス・ポインタなどの)ポインタが点505の座標に移動されるべきであることを示すポインティング・コマンドでもあり得る。さらに、コマンドは、(インターフェースにアノテーションを付けるか又は要素を描画するためになど)ロケーションにおけるグラフィカル出力を修正する編集コマンドであり得る。 As further described below, the actual transparent layer commands generated based on this input may be based on user settings and / or identified contexts. For example, the command can be a touch command indicating that an object at coordinates at point 505 should be selected and / or opened. The command can also be a pointing command indicating that the pointer (such as a mouse pointer) should be moved to the coordinates of point 505. In addition, the command can be an edit command that modifies the graphical output at the location (for example, to annotate the interface or draw an element).

図5Bは、ディスプレイ・デバイス503からある距離にあるものとして、認識されたオブジェクト502を示しているが、距離にかかわらずタッチ入力が検出され得る。たとえば、ユーザがディスプレイ・デバイス503に物理的にタッチする場合、上記で説明された技法は、依然として入力座標を決定することになる。その場合、オブジェクト502と交差点との間の投影ラインは、より短くなるにすぎないであろう。 FIG. 5B shows the recognized object 502 as being at some distance from the display device 503, but touch input can be detected regardless of the distance. For example, if the user physically touches the display device 503, the technique described above will still determine the input coordinates. In that case, the projection line between the object 502 and the intersection would only be shorter.

もちろん、タッチ入力は、キャプチャされた画像から決定され得るユーザ入力の唯一のタイプではない。認識されたオブジェクトの1つ又は複数の配向と1つ又は複数の位置とに少なくとも部分的に基づいてユーザ入力を決定するステップは、ジェスチャー入力を決定することを含むことができる。特に、複数の画像にわたる認識されたオブジェクトの位置及び配向が、スワイプ・ジェスチャー、ピンチ・ジェスチャー、及び/或いは任意の既知の又はカスタマイズされたジェスチャーなど、対応するジェスチャーを決定するために分析され得る。ユーザは、特定のコンテキスト及びそれらのコンテキスト内のコマンドにマッピングされるカスタム・ジェスチャーを認識するように仮想ドライバを較正することができる。たとえば、ユーザは、オペレーティング・システム・コンテキストにマッピングされ、特定のアプリケーションを起動するネイティブ・オペレーティング・システム・コマンドの実行を生じる、カスタム・ジェスチャーを作成することができる。 Of course, touch input is not the only type of user input that can be determined from the captured image. The step of determining a user input based at least in part on one or more orientations and one or more positions of a recognized object can include determining a gesture input. In particular, the position and orientation of the recognized object across multiple images can be analyzed to determine the corresponding gesture, such as a swipe gesture, a pinch gesture, and / or any known or customized gesture. The user can calibrate the virtual driver to recognize custom gestures that map to specific contexts and commands within those contexts. For example, a user can create a custom gesture that maps to an operating system context and results in the execution of a native operating system command that launches a particular application.

前に説明されたように、図3のステップ301において1つ又は複数のハードウェア・デバイスによってキャプチャされた情報は、マイクロフォンによってキャプチャされた音情報をも含むことができる。図6は、システムに通信可能に結合された1つ又は複数のハードウェア・デバイスによってキャプチャされた情報が音情報であるときの、キャプチャされた情報に少なくとも部分的に基づいてユーザ入力を決定するためのフローチャートを示す。以下で説明されるように、ユーザ入力に対応する1つ又は複数のワードを識別するために、音情報に対して音声認識が実施される。 As previously described, the information captured by one or more hardware devices in step 301 of FIG. 3 may also include sound information captured by a microphone. FIG. 6 determines user input based at least in part on the captured information when the information captured by one or more hardware devices communicatively coupled to the system is sound information. The flowchart for this is shown. Speech recognition is performed on the sound information to identify one or more words corresponding to user input, as described below.

ステップ601において、音データが受信される。音データは、上記で説明されたように、マイクロフォンなど、ハードウェア・デバイスによってキャプチャされ、仮想ドライバによって受信され得る。ステップ602において、受信された音データは、音辞書と比較され得る。音辞書は、コマンド・ワード又はコマンド・モディファイアなど、1つ又は複数の認識されたワードの音シグネチャを含むことができる。ステップ603において、音データ中の1つ又は複数のワードが、比較に基づいて、ユーザ入力として識別される。次いで、識別された1つ又は複数のワードは、透明層コマンドに変換され、透明層に渡され得る。 In step 601 the sound data is received. Sound data can be captured by a hardware device, such as a microphone, and received by a virtual driver, as described above. In step 602, the received sound data can be compared with a sound dictionary. The sound dictionary can include sound signatures of one or more recognized words, such as command words or command modifiers. In step 603, one or more words in the sound data are identified as user input based on comparison. The identified word may then be converted to a transparent layer command and passed to the transparent layer.

前に説明されたように、仮想ドライバによってエミュレートされるドライバ、ユーザ入力の予想されるタイプ、及びユーザ入力に基づいて生成されるコマンドは、すべて、1つ又は複数の設定又は前のユーザ入力に少なくとも部分的に基づいて決定され得る。 As explained earlier, the driver emulated by the virtual driver, the expected type of user input, and the commands generated based on the user input are all one or more settings or the previous user input. Can be determined on the basis of at least partly.

図7は、透明層の一部でもあり得るツール・インターフェース701を示す。透明UIとは異なり、ツール・インターフェース701は、ユーザにとって可視であり、仮想ドライバのエミュレーション・モード、ユーザ入力に基づいて生成されるネイティブ・コマンドを変更する異なるオプション間で選択するか、又は追加の機能を実施するために、使用され得る。 FIG. 7 shows a tool interface 701 that can also be part of a transparent layer. Unlike the transparent UI, the tool interface 701 is visible to the user and can be selected between different options to change the virtual driver emulation mode, native commands generated based on user input, or additional Can be used to perform a function.

ボタン701Aは、ユーザ入力が入力座標(ユーザがユーザの手又はスタイラス/遠隔制御装置を用いてスクリーンにタッチすることに基づく座標など)であるとき、ユーザが、ユーザ・インターフェースをグラフィカルに修正するために使用される描画ツールのタイプを選択することを可能にする。様々な描画ツールは、異なるブラシ、色、ペン、ハイライターなどを含むことができる。これらのツールは、変動するスタイル、厚さ、色などのグラフィカルな変更を生じることがある。 Button 701A is for the user to graphically modify the user interface when the user input is input coordinates (such as coordinates based on the user touching the screen with the user's hand or stylus / remote controller). Allows you to select the type of drawing tool used for. Various drawing tools can include different brushes, colors, pens, highlighters, and so on. These tools can make graphical changes in varying styles, thicknesses, colors, etc.

ボタン701Bは、入力座標がユーザ入力として受信されるとき、ユーザが、選択モード、ポインティング・モード、又は描画モードの間で切り替えることを可能にする。選択モードでは、入力座標は、「タッチ」として処理され、入力座標におけるオブジェクトの選択又はオブジェクトを開くことを生じ得る。ポインティング・モードでは、座標は、(マウス・ポインタなどの)ポインタ位置として処理され得、ユーザがマウスをエミュレートすることを効果的に可能にする。描画モードでは、座標は、ユーザ・インターフェース上に描画又は書込みの外観(appearance)を提示するために、ユーザ・インターフェースのグラフィカル出力を変更するためのロケーションとして処理され得る。変更の性質は、ボタン701Aに関して説明されるように、選択された描画ツールに依存することがある。ボタン701Bはまた、(動き追跡デバイスが使用される場合)画像入力及び/又は動き入力を予想し、それに応じて適切なドライバをエミュレートするように仮想ドライバにアラートすることができる。 Button 701B allows the user to switch between selection mode, pointing mode, or drawing mode when the input coordinates are received as user input. In selection mode, the input coordinates are treated as a "touch", which can result in selecting or opening an object in the input coordinates. In pointing mode, the coordinates can be treated as pointer positions (such as mouse pointers), effectively allowing the user to emulate the mouse. In drawing mode, the coordinates can be treated as a location for modifying the graphical output of the user interface in order to present the appearance of drawing or writing on the user interface. The nature of the changes may depend on the drawing tool selected, as described for Button 701A. Button 701B can also alert the virtual driver to anticipate image and / or motion input (if motion tracking devices are used) and emulate the appropriate driver accordingly.

ボタン701Cは、音声コマンドを予想するように仮想ドライバにアラートする。これは、図6に関して説明されるように、仮想ドライバが、音声入力を受信し、音声入力をパースするための結合されたマイクロフォンに対応するドライバをエミュレートすることを引き起こすことができる。 Button 701C alerts the virtual driver to anticipate voice commands. This can cause the virtual driver to emulate the driver corresponding to the combined microphone for receiving the voice input and parsing the voice input, as described with respect to FIG.

ボタン701Dは、透明層の一部であり得、オペレーティング・システム内のアプリケーションを起動するために又はアプリケーション内の特定のコマンドを起動するために使用され得る、ローンチャ・アプリケーションを開く。ローンチャは、ユーザ入力に関連付けられたアプリケーションのためのカスタム音声コマンド、カスタム・ジェスチャー、カスタム・ネイティブ・コマンドなど、透明層におけるオプションをカスタマイズするために、及び/又は(音声較正、動きキャプチャ・デバイス較正、及び/又はオブジェクト認識較正など)ハードウェア・デバイス及びユーザ入力を較正するためにも使用され得る。 Button 701D opens a launcher application that can be part of a transparent layer and can be used to launch an application within the operating system or to launch a specific command within the application. The launcher is for customizing options in the transparent layer, such as custom voice commands, custom gestures, custom native commands for applications associated with user input, and / or (voice calibration, motion capture device calibration). , And / or object recognition calibration, etc.) Can also be used to calibrate hardware devices and user inputs.

ボタン701Eは、ユーザ・インターフェースのスクリーンショットをキャプチャするために、及び画像としてスクリーンショットをエクスポートするために使用され得る。これは、ボタン701Bの描画モード及び701Aの描画ツールとともに使用され得る。ユーザが特定のユーザ・インターフェースをマーク・アップした後に、マーク・アップされたバージョンが画像としてエクスポートされ得る。 Button 701E can be used to capture a screenshot of the user interface and to export the screenshot as an image. It can be used with the drawing mode of button 701B and the drawing tool of 701A. After the user marks up a particular user interface, the marked up version can be exported as an image.

また、ボタン701Fは、グラフィカルな編集を可能にし、ユーザがユーザ・インターフェース上に作成している描画の色又は描画の態様を交換するために使用され得る。ボタン701Bの描画モードと同様に、このボタンは、入力座標におけるグラフィカルな変更の性質を変更する。 Button 701F also allows graphical editing and can be used to exchange drawing colors or drawing modes that the user is creating on the user interface. Similar to the drawing mode of button 701B, this button changes the nature of the graphical changes in the input coordinates.

ボタン701Gは、ユーザ・インターフェース上の描画を消去する。このボタンの選択は、ユーザ・インターフェース上のすべてのグラフィカル・マーキングを除去し、下位UIを、ユーザが描画を作成するより前にそうであった状態にリセットすることができる。 Button 701G erases the drawing on the user interface. This button selection removes all graphical markings on the user interface and resets the underlying UI to what it was before the user created the drawing.

ボタン701Hは、ユーザが仮想ホワイトボード上に描画モードを使用して描画又は書込みを作成することを可能にする、ホワイトボード・アプリケーションを起動するために使用され得る。 Button 701H can be used to launch a whiteboard application that allows the user to create a draw or write on a virtual whiteboard using the draw mode.

ボタン701Iは、オペレーティング・システムUI又はアプリケーションUIにおいて示されるオブジェクトなど、オブジェクトにテキスト・ノートを追加するために使用され得る。テキスト・ノートは、音声信号から解釈されるか、又はキーボードを使用してユーザによってタイピングされ得る。 Button 701I can be used to add text notes to an object, such as the object shown in the operating system UI or application UI. Text notes can be interpreted from audio signals or typed by the user using the keyboard.

ボタン701Jは、ツール・インターフェース701を開くか又は閉じるために使用され得る。閉じられたとき、ツール・インターフェースは、最小化されるか又は下位ユーザ・インターフェースから完全に除去され得る。 Button 701J can be used to open or close the tool interface 701. When closed, the tool interface can be minimized or completely removed from the subordinate user interface.

前に説明されたように、スタイラス又はリモート・ハードウェア・デバイスが、カメラ又はビデオ・カメラなど、他のハードウェア・デバイスとともに、本システムとともに使用され得る。図8は、本システムとともに使用され得るスタイラス801の一実例を示す。スタイラス801は、Bluetoothなどを介して、ハードウェア受信機802と通信することができる。ハードウェア受信機は、USB802Bなどを介して、コンピュータ・システムに接続することができ、ハードウェア受信機を介してコンピュータ・システムに渡されたスタイラスからの信号は、図7に示されているツール・インターフェースと同様であるメニュー803を制御し、それと対話するために使用され得る。 As previously described, a stylus or remote hardware device can be used with the system along with other hardware devices such as cameras or video cameras. FIG. 8 shows an example of a stylus 801 that can be used with this system. The stylus 801 can communicate with the hardware receiver 802 via Bluetooth or the like. The hardware receiver can be connected to the computer system via USB802B or the like, and the signal from the stylus passed to the computer system via the hardware receiver is the tool shown in FIG. It can be used to control and interact with menu 803, which is similar to the interface.

図8に示されているように、スタイラス801は、物理ボタン801Aを含むことができる。これらの物理ボタン801は、スタイラスを電源投入し、メニュー803をナビゲートし、選択を行うために使用され得る。さらに、スタイラス801は、カメラによる画像においてキャプチャされ、仮想ドライバによって認識される、特徴的な先端801Bを含むことができる。これは、スタイラス801が、描画モードにあるとき、描画及び編集のために使用されることを可能にすることができる。スタイラス801は、スタイラスが入力座標又はジェスチャーを与えるために使用されるとき、位置検出を助けるための加速度計及び/又はチルト・センサーなど、動き追跡ハードウェアをも含むことができる。さらに、ハードウェア受信機802は、較正ボタン802Aを含むことができ、較正ボタン802Aは、押下されたとき、ユーザ・インターフェースにおいて較正ユーティリティを起動することができる。これは、スタイラスの較正を可能にする。 As shown in FIG. 8, the stylus 801 can include a physical button 801A. These physical buttons 801 can be used to power on the stylus, navigate the menu 803, and make selections. In addition, the stylus 801 can include a characteristic tip 801B that is captured in the image taken by the camera and recognized by the virtual driver. This can allow the stylus 801 to be used for drawing and editing when in drawing mode. The stylus 801 can also include motion tracking hardware, such as an accelerometer and / or tilt sensor to assist in position detection when the stylus is used to give input coordinates or gestures. In addition, the hardware receiver 802 can include a calibration button 802A, which, when pressed, can activate the calibration utility in the user interface. This allows the stylus to be calibrated.

図3に戻ると、ステップ302において、ユーザ入力に対応するコンテキストが識別される。識別されたコンテキストは、オペレーティング・システム又はオペレーティング・システム上で実行するアプリケーションのうちの1つを備える。 Returning to FIG. 3, in step 302, the context corresponding to the user input is identified. The identified context comprises the operating system or one of the applications running on the operating system.

図9は、例示的な実施例による、ユーザ入力に対応するコンテキストを識別するためのフローチャートを示す。図9に示されているように、オペレーティング・システム・データ901、アプリケーション・データ902、及びユーザ入力データ903が、すべて、コンテキスト904を決定するために使用され得る。 FIG. 9 shows a flowchart for identifying a context corresponding to user input according to an exemplary embodiment. As shown in FIG. 9, operating system data 901, application data 902, and user input data 903 can all be used to determine context 904.

オペレーティング・システム・データ901は、たとえば、オペレーティング・システムにおけるアクティブ・ウィンドウに関する情報を含むことができる。たとえば、アクティブ・ウィンドウが計算器ウィンドウである場合、コンテキストが計算器アプリケーションであると決定され得る。同様に、アクティブ・ウィンドウがMicrosoft Wordウィンドウである場合、コンテキストがMicrosoft Wordアプリケーションであると決定され得る。一方、アクティブ・ウィンドウがファイル・フォルダである場合、アクティブ・コンテキストがオペレーティング・システムであると決定され得る。オペレーティング・システム・データは、どのアプリケーションが現在実行中であるか、最後に起動されたアプリケーション、及びコンテキストを決定するために使用され得る任意の他のオペレーティング・システム情報など、追加情報をも含むことができる。 Operating system data 901 can include, for example, information about the active window in the operating system. For example, if the active window is a calculator window, the context can be determined to be a calculator application. Similarly, if the active window is a Microsoft Word window, the context can be determined to be a Microsoft Word application. On the other hand, if the active window is a file folder, the active context can be determined to be the operating system. Operating system data should also contain additional information, such as which application is currently running, the last application launched, and any other operating system information that may be used to determine the context. Can be done.

アプリケーション・データ902は、たとえば、実行している1つ又は複数のアプリケーションに関する情報及び/又は特定のアプリケーションをいくつかのタイプのユーザ入力にマッピングする情報を含むことができる。たとえば、音声コマンドが受信されるときはいつでも、コンテキストが第1のアプリケーションであると自動的に決定されるように、第1のアプリケーションが音声入力にマッピングされ得る。別の例では、特定のジェスチャーが入力として受信されたとき、第2のアプリケーションが、起動されるか又は閉じられるか、或いは第2のアプリケーション内のあるアクションが実施されるように、そのジェスチャーが第2のアプリケーションに関連付けられ得る。 Application data 902 can include, for example, information about one or more applications running and / or information that maps a particular application to some type of user input. For example, whenever a voice command is received, the first application may be mapped to a voice input so that the context is automatically determined to be the first application. In another example, when a particular gesture is received as input, the gesture is launched or closed, or an action within the second application is performed. Can be associated with a second application.

ユーザ入力903は、様々なやり方でコンテキストを決定するためにも使用され得る。上記で説明されたように、いくつかのタイプのユーザ入力が、いくつかのアプリケーションにマッピングされ得る。上記の実例では、音声入力が第1のアプリケーションのコンテキストに関連付けられる。さらに、ユーザ入力の属性も、コンテキストを決定するために使用され得る。ジェスチャー又は動きが、アプリケーションに又はオペレーティング・システムにマッピングされ得る。音声コマンド中の特定のワードも、アプリケーションに又はオペレーティング・システムにマッピングされ得る。入力座標も、コンテキストを決定するために使用され得る。たとえば、入力座標の位置にあるユーザ・インターフェースにおけるウィンドウが決定され得、そのウィンドウに対応するアプリケーションがコンテキストとして決定され得る。 User input 903 can also be used to determine context in various ways. As described above, some types of user input can be mapped to some applications. In the above example, the voice input is associated with the context of the first application. In addition, user-input attributes can also be used to determine the context. Gestures or movements can be mapped to applications or operating systems. Certain words in voice commands can also be mapped to applications or operating systems. Input coordinates can also be used to determine the context. For example, a window in the user interface at the location of the input coordinates can be determined, and the application corresponding to that window can be determined as the context.

図10は、コンテキストを決定するために入力座標を使用することの一実例を示す。図10に示されているように、ディスプレイ・デバイス1001がユーザ・インターフェース1002を表示している。また、カメラ1004と、下位ユーザ・インターフェース1003上に重ね合わされた透明層1003とが示されている。ユーザは、ユーザ・インターフェース1002におけるロケーション1005を指すためにスタイラス1000を利用する。ロケーション1005は、アプリケーション1に対応するアプリケーション・ウィンドウ内にあるので、次いで、アプリケーション1は、アプリケーション2、アプリケーション3、又はオペレーティング・システムとは対照的に、ユーザ入力のためのコンテキストであると決定され得る。 FIG. 10 shows an example of using input coordinates to determine the context. As shown in FIG. 10, the display device 1001 displays the user interface 1002. Also shown are the camera 1004 and the transparent layer 1003 overlaid on the lower user interface 1003. The user utilizes the stylus 1000 to point to location 1005 in user interface 1002. Since location 1005 is in the application window corresponding to application 1, application 1 is then determined to be the context for user input, as opposed to application 2, application 3, or the operating system. obtain.

図3に戻ると、ステップ303において、ユーザ入力は、識別されたコンテキストに少なくとも部分的に基づいて、1つ又は複数の透明層コマンドに変換される。前に説明されたように、透明層は、仮想ドライバとオペレーティング・システム及び/又はオペレーティング・システム上で実行するアプリケーションとの間をインターフェースするように構成されたアプリケーション・プログラミング・インターフェース(API)を備える。 Returning to FIG. 3, in step 303, the user input is transformed into one or more transparent layer commands based at least in part based on the identified context. As previously described, the transparent layer comprises an application programming interface (API) configured to interface between the virtual driver and the operating system and / or the application running on the operating system. ..

図11は、ユーザ入力を透明層コマンドに変換するためのフローチャートを示す。図11のステップ1104に示されているように、透明層コマンドは、識別されたコンテキスト1102及びユーザ入力1103に少なくとも部分的に基づいて決定され得る。透明層コマンドは、1つ又は複数の対応するコンテキストにおいて実行するように構成された1つ又は複数のネイティブ・コマンドを含むことができる。透明層コマンドは、仮想ドライバに及び(1つ又は複数の)ハードウェア・デバイス上に送信されるべき応答出力をも含むことができる。 FIG. 11 shows a flowchart for converting user input into a transparent layer command. As shown in step 1104 of FIG. 11, the transparent layer command may be determined at least in part based on the identified context 1102 and user input 1103. A transparent layer command can include one or more native commands configured to execute in one or more corresponding contexts. The transparent layer command can also include a response output that should be sent to the virtual driver and on the hardware device (s).

識別されたコンテキスト1102は、どの透明層コマンドがユーザ入力にマッピングされるべきであるかを決定するために使用され得る。たとえば、識別されたコンテキストが「オペレーティング・システム」である場合、スワイプ・ジェスチャー入力が、ユーザ・インターフェースが(ある開いているウィンドウを最小化し、次の開いているウィンドウを最大化することによって)オペレーティング・システム内の現在開いているウィンドウをスクロールすることを生じる透明層コマンドにマッピングされ得る。代替的に、識別されたコンテキストが「ウェブ・ブラウザ・アプリケーション」である場合、同じスワイプ・ジェスチャー入力が、ウェブ・ページがスクロールされることを生じる透明層コマンドにマッピングされ得る。 The identified context 1102 can be used to determine which transparent layer command should be mapped to user input. For example, if the identified context is "operating system", swipe gesture input will cause the user interface to operate (by minimizing one open window and maximizing the next). It can be mapped to a transparent layer command that results in scrolling the currently open window in the system. Alternatively, if the identified context is a "web browser application", the same swipe gesture input can be mapped to a transparent layer command that causes the web page to scroll.

ユーザ入力1103は、ユーザ入力が1つ又は複数のコンテキスト内のいくつかのネイティブ・コマンドに明確にマッピングされ、これらのネイティブ・コマンドが透明層コマンドの一部であるので、透明層コマンドをも決定する。たとえば、音声コマンド「電子メールを開いて」が、電子メール・アプリケーションOutlookを起動するための特定のオペレーティング・システム・ネイティブ・コマンドにマッピングされ得る。認識されたワード「電子メールを開いて」を含む音声入力が受信されたとき、これは、Outlookを起動するためのネイティブ・コマンドを含む透明層コマンドが決定されることを生じる。 User input 1103 also determines the transparent layer command because the user input is clearly mapped to several native commands in one or more contexts, and these native commands are part of the transparent layer command. To do. For example, the voice command "Open Email" can be mapped to a specific operating system native command to launch the email application Outlook. When a voice input containing the recognized word "Open Email" is received, this results in a transparent layer command being determined, including a native command for invoking Outlook.

図11に示されているように、透明層コマンドはまた、1つ又は複数のユーザ設定1101及びAPIライブラリ1104に基づいて決定され得る。APIライブラリ1104は、識別されたコンテキスト及び特定のユーザ入力に対応するネイティブ・コマンドをルックアップするために使用され得る。スワイプ・ジェスチャー及びウェブ・ブラウザ・アプリケーション・コンテキストの実例では、ウェブ・ブラウザ・アプリケーションに対応するAPIライブラリは、ウェブ・ページのスクロールを引き起こすために、適切なAPI呼出しについて問い合わせられ得る。代替的に、APIライブラリ1104は、省略され得、ネイティブ・コマンドが、特定のユーザ入力及び識別されたコンテキストに向けてマッピングされ得る。 As shown in FIG. 11, the transparent layer command may also be determined based on one or more user settings 1101 and API library 1104. The API library 1104 can be used to look up native commands that correspond to an identified context and a particular user input. In the swipe gesture and web browser application context examples, the API library corresponding to the web browser application may be queried for the appropriate API call to cause the web page to scroll. Alternatively, API library 1104 can be omitted and native commands can be mapped towards specific user input and identified contexts.

ユーザ入力が入力座標であると決定される状況では、透明層コマンドは、入力ロケーション座標及び識別されたコンテキストに少なくとも部分的に基づいて決定される。この場合、透明層コマンドは、識別されたコンテキストにおける少なくとも1つのネイティブ・コマンドを含むことができ、少なくとも1つのネイティブ・コマンドは、下位UIにおける対応するロケーション座標におけるアクションを実施するように構成される。 In situations where the user input is determined to be input coordinates, the transparent layer command is determined at least in part based on the input location coordinates and the identified context. In this case, the transparent layer command can contain at least one native command in the identified context, and at least one native command is configured to perform an action at the corresponding location coordinate in the underlying UI. ..

特定のコンテキスト及びユーザ入力にマッピングされる2つ以上の可能なアクションがあるとき、設定1101は、対応する透明層コマンドを決定するために使用され得る。たとえば、図7のボタン701Bは、入力座標がユーザ入力として受信されるとき、ユーザが、選択モード、ポインティング・モード、又は描画モードの間で選択することを可能にする。この設定は、透明層コマンドを決定するために、並びにひいては、どのネイティブ・コマンドが実施されるか及びどのアクションが実施されるかを決定するために使用され得る。この場合、可能なネイティブ・コマンドは、下位UIにおける対応するロケーション座標に関連するオブジェクトを選択するように構成された選択コマンド、ポインタを下位UIにおける対応するロケーション座標に移動するように構成されたポインタ・コマンド、及び下位UIにおける対応するロケーション座標におけるディスプレイ出力を変更するように構成されたグラフィカル・コマンドを含むことができる。 Setting 1101 can be used to determine the corresponding transparent layer command when there are two or more possible actions that are mapped to a particular context and user input. For example, button 701B of FIG. 7 allows the user to select between a selection mode, a pointing mode, or a drawing mode when the input coordinates are received as user input. This setting can be used to determine the transparent layer command and, by extension, which native command will be executed and which action will be performed. In this case, the possible native commands are selection commands configured to select objects related to the corresponding location coordinates in the lower UI, pointers configured to move the pointer to the corresponding location coordinates in the lower UI. It can include commands and graphical commands configured to change the display output at the corresponding location coordinates in the underlying UI.

図12Aは、選択モードがトグルされるときの、入力座標を受信することの一実例を示す。図12Aに示されているように、ユーザは、ディスプレイ・デバイス1201上の(重ね合わせられた透明UI1203を有する)オペレーティング・システムUI1202においてスタイラス1200をポイントした。前の実例と同様に、カメラ1204は、スタイラス1200についての位置及び配向情報並びに入力座標を決定するために使用され得る。選択モードがトグルされ、スタイラス1200がオペレーティング・システムUI1202内のフォルダ1205においてポイントされるので、決定された透明層コマンドは、入力座標に関連するオブジェクト(この場合、フォルダ1205である)を選択するためのネイティブ・オペレーティング・システム・コマンドを含むことができる。別の実例では、ウィンドウが入力座標に位置する場合、これは、ウィンドウ全体の選択を生じるであろう。 FIG. 12A shows an example of receiving input coordinates when the selection mode is toggled. As shown in FIG. 12A, the user points to the stylus 1200 in operating system UI 1202 (with superposed transparent UI 1203) on display device 1201. Similar to the previous example, the camera 1204 can be used to determine the position and orientation information and input coordinates for the stylus 1200. Since the selection mode is toggled and the stylus 1200 is pointed to in folder 1205 in operating system UI 1202, the determined lucidum command is to select the object associated with the input coordinates (in this case, folder 1205). Can contain native operating system commands. In another example, if the window is located in input coordinates, this will result in a selection of the entire window.

図12Bは、ポインティング・モードがトグルされるときの、入力座標を受信することの一実例を示す。この場合、決定された透明層コマンドは、マウス・ポインタ1206を入力座標のロケーションに移動するためのネイティブ・オペレーティング・システム・コマンドを含むことができる。 FIG. 12B shows an example of receiving input coordinates when the pointing mode is toggled. In this case, the determined transparent layer command can include a native operating system command to move the mouse pointer 1206 to the location of the input coordinates.

図12Cは、描画モードがトグルされ、ユーザが複数の入力座標にわたってスタイラス1200をスイープしたときの、入力座標を受信することの一実例を示す。この場合、決定された透明層コマンドは、入力座標の各々のロケーションにおけるディスプレイ出力を変更するためのネイティブ・オペレーティング・システム・コマンドを含むことができ、ユーザ・インターフェース1202上のユーザの描画ライン1207を生じる。描画モードにおいてもたらされた修正されたグラフィカル出力は、透明層1203の一部として、たとえば、入力座標の経路に関係するメタデータとして記憶され得る。ユーザは、次いで、変更されたディスプレイ出力を画像としてエクスポートするためのオプションを選択することができる。 FIG. 12C shows an example of receiving input coordinates when the drawing mode is toggled and the user sweeps the stylus 1200 over a plurality of input coordinates. In this case, the determined transparent layer command can include a native operating system command to change the display output at each location of the input coordinates, and the user's drawing line 1207 on the user interface 1202. Occurs. The modified graphical output provided in the drawing mode can be stored as part of the transparent layer 1203, for example, as metadata related to the path of the input coordinates. The user can then select an option to export the modified display output as an image.

ユーザ入力がジェスチャーとして識別される状況では、識別されたコンテキストに少なくとも部分的に基づいてユーザ入力を1つ又は複数の透明層コマンドに変換することは、識別されたジェスチャー及び識別されたコンテキストに少なくとも部分的に基づいて透明層コマンドを決定することを含むことができる。透明層コマンドは、識別されたコンテキストにおける少なくとも1つのネイティブ・コマンドを含むことができ、少なくとも1つのネイティブ・コマンドは、識別されたコンテキストにおける識別されたジェスチャーに関連するアクションを実施するように構成される。これの一実例は、ウェブ・ブラウザにおけるスクロール・アクションを実施するように構成されたネイティブ・コマンドを生じる、スワイプ・ジェスチャー及びウェブ・ブラウザ・アプリケーション・コンテキストに関して上記で説明された。 In situations where user input is identified as a gesture, translating user input into one or more transparent layer commands based at least in part on the identified context is at least to the identified gesture and the identified context. It can include determining the transparent layer command on a partial basis. A transparent layer command can include at least one native command in the identified context, and at least one native command is configured to perform an action related to the identified gesture in the identified context. To. An example of this has been described above with respect to swipe gestures and web browser application contexts that result in native commands configured to perform scrolling actions in a web browser.

(音声認識を使用することによってなど)ユーザ入力が1つ又は複数のワードとして識別される状況では、識別されたものに少なくとも部分的に基づいてユーザ入力を1つ又は複数の透明層コマンドに変換することは、識別された1つ又は複数のワード及び識別されたコンテキストに少なくとも部分的に基づいて透明層コマンドを決定することを含むことができる。透明層コマンドは、識別されたコンテキストにおける少なくとも1つのネイティブ・コマンドを含むことができ、少なくとも1つのネイティブ・コマンドは、識別されたコンテキストにおける識別された1つ又は複数のワードに関連するアクションを実施するように構成される。 In situations where user input is identified as one or more words (such as by using speech recognition), convert user input to one or more transparent layer commands based at least in part on what is identified. What you do can include determining the Stratum lucidum command based at least in part on the identified word and the identified context. A transparent layer command can include at least one native command in the identified context, and at least one native command performs an action related to one or more identified words in the identified context. It is configured to do.

図13は、入力音声データ中で識別された1つ又は複数のワードに基づいて決定される透明層コマンド1300の一実例を示す。識別されたワード1301は、「ホワイトボード」という句又は「ブランク・ページ」という句のうちの1つを含む。透明層コマンド1300は、コマンドの説明1302と、透明層コマンドの実行時に透明層によって仮想ドライバに及びハードウェア出力デバイスに送られた出力命令である応答命令1303とをも含む。さらに、透明層コマンド1300は、ホワイトボード機能を呼び出すために使用される実際のネイティブ・コマンド1304を含む。 FIG. 13 shows an example of the transparent layer command 1300 determined based on one or more words identified in the input voice data. The identified word 1301 includes one of the phrases "whiteboard" or "blank page". The transparent layer command 1300 also includes a description of the command 1302 and a response instruction 1303 which is an output instruction sent by the transparent layer to the virtual driver and to the hardware output device when the transparent layer command is executed. In addition, the transparent layer command 1300 includes the actual native command 1304 used to call the whiteboard function.

図14は、例示的な実施例による、入力音声データ中で識別された1つ又は複数のワードに基づいて決定される透明層コマンド1400の別の実例を示す。この実例では、1つ又は複数のワードは、「電子メールを開いて」である。図14に示されているように、透明層コマンド1400は、ネイティブ・コマンド「outlook.exe」を含み、これは、outlookアプリケーションを起動する特定の実行ファイルを動作させるようにとの命令である。透明層コマンド1400は、音声コマンドを受信したことに応答して出力される「電子メールを開きました」という音声応答をも含む。 FIG. 14 shows another example of the transparent layer command 1400 determined based on one or more words identified in the input voice data according to an exemplary embodiment. In this example, one or more words is "open email". As shown in FIG. 14, the transparent layer command 1400 includes a native command "outlook.exe", which is an instruction to operate a specific executable file that launches an outlook application. The transparent layer command 1400 also includes a voice response "opened an email" that is output in response to receiving a voice command.

図3に戻ると、ステップ304において、1つ又は複数の透明層コマンドが透明層上で実行される。1つ又は複数の透明層コマンドの実行が、識別されたコンテキストにおける1つ又は複数のネイティブ・コマンドの実行を引き起こすように構成される。 Returning to FIG. 3, in step 304, one or more transparent layer commands are executed on the transparent layer. Execution of one or more transparent layer commands is configured to trigger execution of one or more native commands in the identified context.

図15は、例示的な実施例による、透明層上で1つ又は複数の透明層コマンドを実行するためのフローチャートを示す。ステップ1501において、透明層コマンドにおける少なくとも1つのネイティブ・コマンドが識別される。ネイティブ・コマンドは、たとえば、透明層コマンドの構造内のネイティブ・コマンドとして指定され得、識別を可能にする。 FIG. 15 shows a flowchart for executing one or more transparent layer commands on a transparent layer according to an exemplary embodiment. In step 1501, at least one native command in the transparent layer command is identified. Native commands can be specified, for example, as native commands within the structure of transparent layer commands, allowing identification.

ステップ1502において、少なくとも1つのネイティブ・コマンドが、識別されたコンテキストにおいて実行される。このステップは、そのコンテキストについての識別されたAPIを介して、識別されたコンテキストに少なくとも1つのネイティブ・コマンドを渡すことと、識別されたコンテキスト内でネイティブ・コマンドを実行することとを含むことができる。たとえば、識別されたコンテキストがオペレーティング・システムである場合、ネイティブ・コマンドは、オペレーティング・システムAPIを介して実行のためにオペレーティング・システムに渡され得る。さらに、識別されたコンテキストがアプリケーションである場合、ネイティブ・コマンドは、アプリケーションAPIを介して実行のためにアプリケーションに渡され得る。 In step 1502, at least one native command is executed in the identified context. This step may include passing at least one native command to the identified context via the identified API for that context and executing the native command within the identified context. it can. For example, if the identified context is the operating system, native commands may be passed to the operating system for execution via the operating system API. In addition, if the identified context is an application, native commands may be passed to the application for execution via the application API.

随意に、ステップ1503において、応答が(1つ又は複数の)ハードウェア・デバイスに送信され得る。前に説明されたように、この応答は、透明層から仮想ドライバに及びハードウェア・デバイス上にルーティングされ得る。 Optionally, at step 1503, the response may be sent to the hardware device (s). As explained earlier, this response can be routed from the transparent layer to the virtual driver and onto the hardware device.

図16〜図19は、本明細書で開示されるシステムの追加の特徴を示す。図16は、例示的な実施例による、ユーザ入力に対応する新しいコマンドを追加するための例示的なインターフェースを示す。インターフェース1600におけるダッシュボードが、すでに追加され、所定のユーザ入力及びハードウェア・デバイス(たとえば、音声コマンド)を使用して起動され得る、アプリケーション1601のアイコンを含む。ダッシュボードは、アプリケーション固有であり、いくつかのユーザ入力にマッピングされる、他のコマンドをも示すことができる。追加ボタン1602の選択は、追加コマンド・メニュー1603を開く。このメニューは、ユーザが以下のオプション間で選択することを可能にする:アイテム・タイプ:下部バー・メニュー上に追加するための固定アイテム/ドラッグ・メニュー中に追加するための通常アイテム、アイコン:画像アイコンを選択する、背景:背景アイコン色を選択する、色:アイコン色を選択する、名前:新しいアイテム名を設定する、音声コマンド:新しいアプリケーションを開くための音声アクティベーション・コマンドを設定する、フィードバック応答:アプリケーション音声応答フィードバックを設定する、コマンド:起動すべきアプリケーション・タイプ又はカスタム・コマンド・タイプを選択する(たとえば、アプリケーション・コマンドを起動する、アプリケーション・コマンド内のアクションを実施する、アプリケーション・コマンドを閉じるなど)、プロセス開始:新しいプロセス又はアプリケーションを起動する場合、プロセス又はアプリケーションの名前、及びパラメータ:新しいプロセス又はアプリケーションに渡すべき任意のパラメータ。 16-19 show additional features of the system disclosed herein. FIG. 16 shows an exemplary interface for adding new commands corresponding to user input, according to an exemplary embodiment. A dashboard at interface 1600 includes an icon for application 1601 that has already been added and can be launched using predetermined user input and hardware devices (eg, voice commands). The dashboard is application-specific and can also show other commands that are mapped to some user input. Selecting the add button 1602 opens the add command menu 1603. This menu allows the user to choose between the following options: Item Type: Fixed Items to Add on Bottom Bar Menu / Regular Items to Add in Drag Menu, Icon: Select image icon, Background: Select background icon color, Color: Select icon color, Name: Set new item name, Voice command: Set voice activation command to open new application, Feedback Response: Application Voice Response Set feedback, Command: Select the application type or custom command type to launch (for example, launch an application command, perform an action within an application command, application (Close command, etc.), Start process: When starting a new process or application, the name of the process or application, and parameters: Any parameters to pass to the new process or application.

図17は、例示的な実施例による、描画インターフェース1700及び描画モードの様々な構成要素及びオプションを示す。図18は、オブジェクトを認識するために使用され、ユーザがタッチ及びジェスチャーを使用して入力を与えることを可能にする、ビデオ・カメラ・ハードウェア・デバイスのための較正及び設定インターフェース1800を示す。図19は、ユーザが、インターフェースの様々な態様をカスタマイズし、入力モードをトグルし、他の交換を行うことを可能にする、一般的な設定インターフェース1900を示す。インターフェース1900に示されているように、ユーザは、(「マジック・スタイラス」と呼ばれる)ハードウェア・スタイラスのための設定を較正及び調整するための設定ページにもアクセスすることができる。 FIG. 17 shows various components and options of the drawing interface 1700 and drawing mode according to an exemplary embodiment. FIG. 18 shows a calibration and configuration interface 1800 for a video camera hardware device that is used to recognize an object and allows the user to give input using touch and gesture. FIG. 19 shows a general configuration interface 1900 that allows the user to customize various aspects of the interface, toggle input modes, and make other exchanges. As shown in Interface 1900, the user can also access the settings page for calibrating and adjusting the settings for the hardware stylus (called the "magic stylus").

本明細書で開示されるシステムは、複数のネットワーク化されたコンピューティング・デバイス上で実装され、ネットワーク化された共同セッションを行うことを助けるために使用され得る。たとえば、前に説明されたホワイトボード機能性は、複数のコンピューティング・デバイス上の複数のユーザ間の共有ホワイトボードであり得る。 The systems disclosed herein can be implemented on multiple networked computing devices and used to assist in conducting networked collaborative sessions. For example, the whiteboard functionality described earlier can be a shared whiteboard among multiple users on multiple computing devices.

しかしながら、既存のホワイトボード又は他の共有共同スペースの問題のうちの1つは、接続された参加者とファイルを共有するための容易なやり方がないことである。いくつかのアプリケーションが、グループ全体が、共同スペース上で、文書などのファイルをレビューすることを可能にするが、ユーザが別のユーザとファイルを共有するために、他のユーザにファイルを送信するために(電子メール・クライアント又はファイル共有アプリケーションなどの)新しいアプリケーションを開くことが必要である。共有共同セッション中に、これは、共同スペースが促進するように設計されたワークフロー及び共有ブレインストーミング・セッションを頻繁に中断する。 However, one of the problems with existing whiteboards or other shared communal spaces is that there is no easy way to share files with connected participants. Some applications allow the entire group to review files such as documents in a communal space, but send files to other users to share files with other users. It is necessary to open a new application (such as an email client or file sharing application) for this. During shared joint sessions, this frequently interrupts workflows and shared brainstorming sessions designed to facilitate the shared space.

ユニバーサル・ハードウェア・ソフトウェア・インターフェースの実装のための前に説明された方法及びシステムに加えて、出願人は、ネットワーク化されたコンピュータ間の共同セッション中のウェブ・ソケット接続を介したファイルのリアルタイム送信を可能にする方法、装置及びコンピュータ可読媒体をさらに発見した。 In addition to the methods and systems previously described for the implementation of the universal hardware software interface, Applicants are required to submit files in real time via a web socket connection during a joint session between networked computers. We have further discovered methods, devices and computer-readable media that enable transmission.

図20は、例示的な実施例による、ネットワーク化された共同ワークスペースにおけるウェブ・ソケット接続を介したファイルの送信のためのフローチャートを示す。図20に示されているステップのすべてが、サーバに接続されたクライアント・デバイスなど、ローカル・コンピューティング・デバイス上で実施され得、複数のコンピューティング・デバイスを必要としない。 FIG. 20 shows a flow chart for sending a file over a websocket connection in a networked collaborative workspace, according to an exemplary embodiment. All of the steps shown in FIG. 20 can be performed on a local computing device, such as a client device connected to a server, and does not require multiple computing devices.

ステップ2001において、サーバ上にホストされ、ウェブ・ソケット接続を介して複数の参加者にとってアクセス可能な、共同ワークスペースの表現が、ローカル・コンピューティング・デバイスのユーザ・インターフェース上で送信される。共同ワークスペースの表現は、サーバに接続された1つ又は複数のリモート・コンピューティング・デバイスに対応する1つ又は複数のリモート参加者オブジェクトを含むことができる。本明細書で使用されるリモート・コンピューティング・デバイス及びリモート参加者は、ローカル参加者及びローカル・コンピューティング・デバイス以外のコンピューティング・デバイス及び参加者を指す。リモート・コンピューティング・デバイスは、ワイド・エリア・ネットワーク(WAN)などのネットワークによってローカル・デバイスから分離される。 In step 2001, a representation of a collaborative workspace hosted on a server and accessible to multiple participants via a websocket connection is transmitted over the user interface of the local computing device. A representation of a collaborative workspace can include one or more remote participant objects that correspond to one or more remote computing devices connected to a server. Remote computing devices and remote participants as used herein refer to local participants and computing devices and participants other than local computing devices. Remote computing devices are separated from local devices by networks such as wide area networks (WANs).

図21Aは、例示的な実施例による、共同ワークスペースをホストし、送信するために使用されるネットワーク・アーキテクチャを示す。図21Aに示されているように、サーバ2100は、コンピューティング・デバイス2101A〜2101Fに接続される。サーバ2100とコンピューティング・デバイス2101A〜2101Fとは、コンピューティング・デバイス2101A〜2101F(クライアント)とサーバ2100との間の双方向通信を可能にする、ウェブ・ソケット接続など、ネットワーク接続を介して接続され得る。図21Aに示されているように、コンピューティング・デバイスは、ラップトップ、デスクトップ、スマートフォン、又は他のモバイル・デバイスなど、任意のタイプのコンピューティング・デバイスであり得る。 FIG. 21A shows a network architecture used to host and transmit a collaborative workspace, according to an exemplary embodiment. As shown in FIG. 21A, the server 2100 is connected to computing devices 2101A-2101F. The server 2100 and the computing devices 2101A to 2101F are connected via a network connection such as a web socket connection that enables bidirectional communication between the computing devices 2101A to 2101F (client) and the server 2100. Can be done. As shown in FIG. 21A, the computing device can be any type of computing device, such as a laptop, desktop, smartphone, or other mobile device.

共同ワークスペースは、たとえば、ウェブ・ソケット接続を介して複数の参加者中の任意の参加者からの編集を他の参加者に伝えるように構成されたデジタル・ホワイトボードであり得る。図21Bは、例示的な実施例による、ネットワーク内で共同ワークスペースに対する編集を伝えるためのプロセスを示す。図21Bに示されているように、コンピューティング・デバイス2101Bにおけるユーザが共同ワークスペースに対する編集又は変更を行う場合、この編集又は変更2102Bは、サーバ2100に送られ、ワークスペースのホストされたバージョンを更新するために使用される。編集又は変更は、次いで、サーバ2100によって更新2102A、2102C、2102D、2102E、及び2102Fとして、他の接続されたコンピューティング・デバイス2101A、2101C、2101D、2101E、及び2101Fに伝えられる。 A collaborative workspace can be, for example, a digital whiteboard configured to convey edits from any participant among multiple participants to other participants via a websocket connection. FIG. 21B shows a process for communicating edits to a collaborative workspace within a network, according to an exemplary embodiment. As shown in FIG. 21B, when a user in computing device 2101B makes edits or changes to a collaborative workspace, the edits or changes 2102B are sent to server 2100 to provide a hosted version of the workspace. Used to update. The edit or modification is then transmitted by the server 2100 as updates 2102A, 2102C, 2102D, 2102E, and 2102F to the other connected computing devices 2101A, 2101C, 2101D, 2101E, and 2101F.

共同ワークスペースの各表現は、ローカル参加者に対してカスタマイズされた共同ワークスペースのバージョンであり得る。たとえば、上記で説明されたように、共同ワークスペースの各表現は、サーバに接続された1つ又は複数のリモート・コンピューティング・デバイスに対応する1つ又は複数のリモート参加者オブジェクトを含むことができる。 Each representation of a collaborative workspace can be a customized collaborative workspace version for local participants. For example, as described above, each representation of a collaborative workspace may include one or more remote participant objects that correspond to one or more remote computing devices connected to a server. it can.

図22は、例示的な実施例による、共同ワークスペースの複数の表現を示す。図22に示されているように、サーバ2200は、共同ワークスペース2201をホストする。サーバ上にホストされた共同ワークスペースのバージョンが、前に説明されたように、接続されたデバイスに伝えられる。図22は、3つの接続されたユーザ、ユーザ1、ユーザ2、及びユーザ3のための共同ワークスペースの表現をも示す。図示のように、各表現は、ローカル参加者に対して(ローカル・コンピューティング・デバイスに対して)カスタマイズされる。たとえば、ユーザ1のための表現2201Aは、ユーザ2及びユーザ3に対応するリモート参加者オブジェクトを含む。同様に、ユーザ2のための表現2201Bは、ユーザ1及びユーザ3に対応するリモート参加者オブジェクトを含み、ユーザ3のための表現2201Cは、ユーザ1及びユーザ2に対応するリモート参加者オブジェクトを含む。 FIG. 22 shows a plurality of representations of a collaborative workspace according to an exemplary embodiment. As shown in FIG. 22, server 2200 hosts the collaborative workspace 2201. The version of the collaborative workspace hosted on the server is communicated to the connected device as described earlier. FIG. 22 also shows a representation of a collaborative workspace for three connected users, user 1, user 2, and user 3. As shown, each representation is customized for local participants (for local computing devices). For example, representation 2201A for user 1 includes remote participant objects corresponding to user 2 and user 3. Similarly, representation 2201B for user 2 includes remote participant objects corresponding to user 1 and user 3, and representation 2201C for user 3 includes remote participant objects corresponding to user 1 and user 2. ..

リモート参加者オブジェクトは、リモート参加者を示し、多くの形式をとることができる。たとえば、リモート参加者オブジェクトは、テレビ会議又はウェブカムを介して接続されたリモート参加者の埋込みビデオ・ストリームであり得る。リモート参加者オブジェクトはまた、リモート参加者を表すアイコン、リモート参加者のアバター、或いは特定のリモート参加者の任意の他のビジュアル又はオーディオ・インジケータであり得る。リモート参加者オブジェクトは、ワークスペースの表現内でドラッグされ、移動され及び/又はリサイズされ得るカスタム・オブジェクトであり得る。 The remote participant object represents a remote participant and can take many forms. For example, a remote participant object can be an embedded video stream of a remote participant connected via a video conference or webcam. The remote participant object can also be an icon representing the remote participant, a remote participant's avatar, or any other visual or audio indicator of a particular remote participant. The remote participant object can be a custom object that can be dragged, moved, and / or resized within the representation of the workspace.

図20に戻ると、ステップ2002において、1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダが、ローカル・コンピューティング・デバイス上に生成され、各ライブ・フォルダは、リモート参加者オブジェクトに対応するリモート・コンピューティング・デバイスのネットワーク・アドレスにマッピングされる。 Returning to FIG. 20, in step 2002, one or more live folders corresponding to one or more remote participant objects are generated on the local computing device, and each live folder is remote. Maps to the network address of the remote computing device that corresponds to the participant object.

図23は、例示的な実施例による、1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成するためのフローチャートを示す。 FIG. 23 shows a flow chart for generating one or more live folders corresponding to one or more remote participant objects according to an exemplary embodiment.

ステップ201において、ローカル・コンピューティング・デバイスは、1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のリモート・コンピューティング・デバイスの1つ又は複数のインターネット・プロトコル(IP)アドレスについてサーバに問い合わせる。 In step 201, the local computing device is a server for one or more Internet Protocol (IP) addresses of one or more remote computing devices that correspond to one or more remote participant objects. Contact.

図24は、この問合せプロセスの一実例を示す。図24に示されているように、コンピューティング・デバイス2401A、2402、及び2403が、すべて、ウェブ・ソケット接続など、双方向ネットワーク接続を介してサーバ2400に接続される。サーバは、共同ワークスペース(図示せず)をホストする。図24は、コンピューティング・デバイス2401Aのユーザ・インターフェース上で可視である共同ワークスペースの表現2401Bをも示す。表現2401Bは、それぞれ、コンピューティング・デバイス2402及び2403のユーザである、ユーザ2及びユーザ3に対応するリモート参加者オブジェクトを含む。図24に示されているように、リモート参加者オブジェクトに対応するリモート・コンピューティング・デバイスのIPアドレス(又は他のタイプのネットワーク・アドレス)についての問合せが、ネットワーク接続を介してコンピューティング・デバイス2401Aからサーバ2400に送信される。応答して、サーバは、他の接続されたコンピューティング・デバイス2402及び2403のIPアドレス(又は他のタイプのネットワーク・アドレス)をコンピューティング・デバイス2401A(要求元コンピューティング・デバイス)に送信する。サーバは、どのIPアドレスがどのリモート参加者オブジェクトに対応するかをコンピューティング・デバイス2401Aが識別することを可能にする、ユーザ識別情報又は他の情報など、情報をも送信することができる。 FIG. 24 shows an example of this query process. As shown in FIG. 24, the computing devices 2401A, 2402, and 2403 are all connected to the server 2400 via a bidirectional network connection, such as a websocket connection. The server hosts a collaborative workspace (not shown). FIG. 24 also shows representation 2401B of a collaborative workspace that is visible on the user interface of computing device 2401A. Representation 2401B includes remote participant objects corresponding to users 2 and 3, which are users of computing devices 2402 and 2403, respectively. As shown in FIG. 24, a query for the IP address (or other type of network address) of a remote computing device that corresponds to a remote participant object is made to the computing device over a network connection. It is transmitted from 2401A to server 2400. In response, the server sends the IP addresses (or other types of network addresses) of the other connected computing devices 2402 and 2403 to the computing device 2401A (requesting computing device). The server can also send information, such as user identification information or other information, that allows the computing device 2401A to identify which IP address corresponds to which remote participant object.

図23に戻ると、ステップ2302において、ローカル・コンピューティング・デバイスは、1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のローカル・フォルダを生成する。1つ又は複数のローカル・フォルダは、ローカル・コンピューティング・デバイスのメモリ上に生成及び記憶され得る。たとえば、共同ワークスペース・セッションが開始されたとき、ローカル・コンピューティング・デバイス上に一時的キャッシュが作成され得る。この一時的キャッシュは、会議識別子及び他のセッション詳細など、セッションに関する情報を記憶する。1つ又は複数のローカル・フォルダは、一時的キャッシュ内に生成及び記憶され得る。 Returning to FIG. 23, in step 2302, the local computing device creates one or more local folders corresponding to one or more remote participant objects. One or more local folders may be created and stored in the memory of the local computing device. For example, a temporary cache can be created on a local computing device when a collaborative workspace session is started. This temporary cache stores information about the session, such as the conference identifier and other session details. One or more local folders may be created and stored in a temporary cache.

図25は、例示的な実施例による、1つ又は複数のリモート参加者に対応する1つ又は複数のローカル・フォルダを生成することの一実例を示す。ローカル・コンピューティング・デバイス2500は、共同ワークスペースの表現2502を含む、ユーザ・インターフェース2501を表示するディスプレイ(図示せず)を含む。共同ワークスペース表現2502は、ユーザ2及びユーザ3に対応する、2つのリモート参加者オブジェクトを含む。図25に示されているように、ローカル・フォルダF2及びF3が、コンピューティング・デバイス2500上のローカル・ストレージ2503内に作成され、ユーザ2及びユーザ3のためのリモート参加者オブジェクトとリンクされる。フォルダは、様々なやり方でリモート参加者オブジェクトにリンクされ得る。たとえば、各リモート参加者オブジェクトをローカル・フォルダに関連付けるカスタム・データ構造が作成され得る。ローカル・フォルダは、不可視要素としてユーザ・インターフェース2501に組み込まれ、対応するリモート参加者オブジェクトの同じ位置において配置され得る。リモート参加者オブジェクトは、対応するローカル・フォルダにリンクすることを可能にする公開されたAPIを有することができる。多くの変形形態が可能であり、これらの実例は、限定するものではない。 FIG. 25 shows an example of creating one or more local folders corresponding to one or more remote participants according to an exemplary embodiment. The local computing device 2500 includes a display (not shown) displaying the user interface 2501, which includes a representation 2502 of the collaborative workspace. Collaborative workspace representation 2502 includes two remote participant objects corresponding to user 2 and user 3. As shown in FIG. 25, local folders F2 and F3 are created in local storage 2503 on computing device 2500 and linked with remote participant objects for users 2 and 3. .. Folders can be linked to remote participant objects in various ways. For example, a custom data structure can be created that associates each remote participant object with a local folder. The local folder can be incorporated into the user interface 2501 as an invisible element and placed at the same location on the corresponding remote participant object. The remote participant object can have a public API that allows it to be linked to the corresponding local folder. Many variants are possible and these examples are not limited.

図23に戻ると、ステップ2303において、1つ又は複数のローカル・フォルダを1つ又は複数のIPアドレスにマッピングすることによって、1つ又は複数のライブ・フォルダが生成される。 Returning to FIG. 23, in step 2303, one or more live folders are generated by mapping one or more local folders to one or more IP addresses.

図26は、例示的な実施例による、1つ又は複数のIPアドレスに1つ又は複数のローカル・フォルダをマッピングすることの一実例を示す。ローカル・コンピューティング・デバイス2600は、共同ワークスペース2602を含む、ユーザ・インターフェース2601を表示するディスプレイ(図示せず)を含む。共同ワークスペース表現2602は、ユーザ2及びユーザ3に対応する、2つのリモート参加者オブジェクトを含む。コンピューティング・デバイス2600上のローカル・ストレージ2603内のローカル・フォルダF2及びF3が、共同ワークスペース表現2602におけるユーザ2及びユーザ3のためのリモート参加者オブジェクトとリンクされる。 FIG. 26 shows an example of mapping one or more local folders to one or more IP addresses according to an exemplary embodiment. The local computing device 2600 includes a display (not shown) displaying the user interface 2601, including a collaborative workspace 2602. The collaborative workspace representation 2602 includes two remote participant objects corresponding to user 2 and user 3. Local folders F2 and F3 in local storage 2603 on computing device 2600 are linked with remote participant objects for users 2 and 3 in the collaborative workspace representation 2602.

図26に示されているように、ローカル・フォルダF2及びF3は、それぞれ、リモート・コンピューティング・デバイス2604及び2605のネットワーク・アドレスにマッピングされる。コンピューティング・デバイス2604は、リモート参加者ユーザ2に対応し、コンピューティング・デバイス2605は、リモート参加者ユーザ3に対応する。リモート・コンピューティング・デバイスのネットワーク・アドレスへのローカル・フォルダのマッピングは、様々なやり方で達成され得る。各ローカル・フォルダは、そのアドレスとして、対応するリモート・コンピューティング・デバイスのネットワーク・アドレスを有することができる。この場合、ローカル・フォルダは、ローカル・ストレージ上のリモート・フォルダのインスタンス化である。さらに、カスタム・データ構造又はスクリプトが、ローカル・フォルダの内容を宛先ネットワーク・アドレスに転送するように構成され得る。スクリプトは、転送を実現するために(ウェブ・ソケットなどの)ネットワーク接続とインターフェースすることができる。多くの変形形態が可能であり、これらの実例は、限定するものではない。 As shown in FIG. 26, the local folders F2 and F3 are mapped to the network addresses of the remote computing devices 2604 and 2605, respectively. The computing device 2604 corresponds to the remote participant user 2 and the computing device 2605 corresponds to the remote participant user 3. Mapping local folders to network addresses of remote computing devices can be achieved in a variety of ways. Each local folder can have the network address of the corresponding remote computing device as its address. In this case, the local folder is an instantiation of a remote folder on local storage. In addition, custom data structures or scripts may be configured to transfer the contents of the local folder to the destination network address. The script can interface with a network connection (such as a web socket) to achieve the transfer. Many variants are possible and these examples are not limited.

図20に戻ると、ステップ2003において、1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力が、ローカル・コンピューティング・デバイスによって検出され、リモート参加者オブジェクトは、1つ又は複数のリモート・コンピューティング・デバイス中のリモート・コンピューティング・デバイスに対応する。これは、一般に、ドラッグ・アンド・ドロップ・アクションと呼ばれ、様々な入力デバイスを使用して入力され得る。たとえば、ユーザは、マウスを使用してドラッグ・アンド・ドロップし得る。ユーザは、前に説明されたように、ハンド・ジェスチャー又はスタイラスを使用してドラッグ・アンド・ドロップすることもできる。仮想ドライバ及び/又は透明を伴う、前に説明された技法は、ドラッグ・アンド・ドロップ動きを検出するために使用され得る。 Returning to FIG. 20, in step 2003, the user input for dragging at least one icon corresponding to at least one file is local to the proximal of the remote participant object in one or more remote participant objects. -Detected by the computing device, the remote participant object corresponds to the remote computing device in one or more remote computing devices. This is commonly referred to as a drag-and-drop action and can be entered using a variety of input devices. For example, the user can use the mouse to drag and drop. The user can also drag and drop using hand gestures or a stylus as previously described. The techniques described above, with virtual drivers and / or transparency, can be used to detect drag-and-drop motion.

ローカル・コンピューティング・デバイスは、ユーザ・インターフェース内の1つ又は複数のリモート参加者オブジェクトの1つ又は複数の空間的位置を記憶するように構成され得る。特定のアイコンが特定のリモート参加者オブジェクトの近位にドラッグ・アンド・ドロップされたかどうかの検出が、リモート参加者オブジェクトの空間的位置からしきい値距離内にある宛先空間的位置にアイコンをドラッグするためのユーザ入力を検出することによって実施され得る。しきい値距離は、ユーザによって設定され得るか、又は何らかのデフォルト値であり得る。たとえば、しきい値距離は、10ピクセルよりも小さいか又は0ピクセルよりも小さくなり得る(その場合、ドラッグされたアイコンは、ユーザ・インターフェースにおいてリモート参加者オブジェクトと交わるか又は重ならなければならないであろう)。 The local computing device may be configured to store one or more spatial locations of one or more remote participant objects in the user interface. Detection of whether a particular icon has been dragged and dropped proximal to a particular remote participant object drags the icon from the remote participant object's spatial position to a destination spatial position within a threshold distance. It can be done by detecting the user input to do so. The threshold distance can be set by the user or can be some default value. For example, the threshold distance can be less than 10 pixels or less than 0 pixels (in which case the dragged icon must intersect or overlap the remote participant object in the user interface. There will be).

図27は、例示的な実施例による、ドラッグ・アンド・ドロップ・プロセス及び検出の一実例を示す。ユーザ・インターフェース2701は、ユーザ2(U2)及びユーザ3(U3)に対応するリモート参加者オブジェクトを含む、共同ワークスペースの表現2702を含む。インターフェース2701は、たとえば、ファイル・ブラウザにおける開かれたフォルダであり得る、ファイル・ウィンドウ又はファイル・インターフェース2703をも含む。ファイル・インターフェース2703は、ローカル・コンピューティング・デバイスのデスクトップ、ファイル共有アプリケーション、ウェブ・ブラウザ、又は任意の他のアプリケーションでもあり得る。図27に示されているように、ユーザは、ユーザ3(U3)のためのリモート参加者オブジェクトにファイル「D3」をドラッグした。 FIG. 27 shows an example of a drag-and-drop process and detection according to an exemplary embodiment. User interface 2701 includes a representation of a collaborative workspace 2702 that includes remote participant objects corresponding to user 2 (U2) and user 3 (U3). Interface 2701 also includes, for example, a file window or file interface 2703, which can be an open folder in a file browser. The file interface 2703 can be the desktop of a local computing device, a file sharing application, a web browser, or any other application. As shown in FIG. 27, the user dragged the file "D3" onto the remote participant object for user 3 (U3).

もちろん、ファイルは、共同ワークスペース内からもドラッグされ得る。図28は、例示的な実施例による、ドラッグ・アンド・ドロップ・プロセス及び検出の別の実例を示す。インターフェース2801は、共同ワークスペースの表現に対応する。インターフェース部分2802は、様々なファイルをリストする共同ワークスペースの表現のセクションであり得る。さらに、この場合、リモート参加者オブジェクト2803は、埋込みビデオ・ストリームであり、これは、ネットワーク(たとえば、ウェブ・ソケット)接続を介して受信され得る。図28に示されているように、ローカル参加者(ユーザ)は、リモート参加者オブジェクト2803にadobeファイル2804をドラッグした。もちろん、ファイルは、オーディオ・ファイル、ビデオ・ファイル、オーディオビジュアル・ファイル、テキスト文書、スプレッドシート、スライド・プレゼンテーションなど、任意のタイプのファイルであり得る。 Of course, files can also be dragged from within the collaborative workspace. FIG. 28 shows another example of the drag-and-drop process and detection according to an exemplary embodiment. Interface 2801 corresponds to the representation of a collaborative workspace. Interface portion 2802 can be a section of representation of a collaborative workspace listing various files. Further, in this case, the remote participant object 2803 is an embedded video stream, which can be received over a network (eg, websocket) connection. As shown in FIG. 28, the local participant (user) dragged the adobe file 2804 onto the remote participant object 2803. Of course, the file can be any type of file, such as an audio file, a video file, an audiovisual file, a text document, a spreadsheet, a slide presentation, and so on.

図20に戻ると、ステップ2004において、少なくとも1つのファイルが、ローカル・コンピューティング・デバイスによってリモート参加者オブジェクトに対応するライブ・フォルダに記憶されて、それにより、少なくとも1つのファイルを、ウェブ・ソケット接続(又は他のネットワーク接続)を介してリモート・コンピューティング・デバイスのネットワーク・アドレスに送信する。 Returning to FIG. 20, in step 2004, at least one file is stored by the local computing device in the live folder corresponding to the remote participant object, thereby storing at least one file in the web socket. Send to the network address of the remote computing device over the connection (or other network connection).

図29は、例示的な実施例による、リモート参加者オブジェクトに対応するライブ・フォルダに少なくとも1つのファイルを記憶し、少なくとも1つのファイルを、ウェブ・ソケット接続を介してリモート・コンピューティング・デバイスのネットワーク・アドレスに送信するためのフローチャートを示す。 FIG. 29 stores at least one file in a live folder corresponding to a remote participant object according to an exemplary example, and at least one file of a remote computing device over a websocket connection. A flowchart for sending to a network address is shown.

ステップ2901において、少なくとも1つのドラッグされたアイコンに対応する少なくとも1つのファイルが、ライブ・フォルダに記憶される。ステップ2902において、少なくとも1つのファイルのコピーが、ウェブ・ソケット接続(又は他のネットワーク接続)を通して、マッピングされたネットワーク・アドレスに送信される。ウェブ・ソケット接続は、ライブ・フォルダに記憶されたデータを、サーバを介して、マッピングされたネットワーク・アドレスにルーティングするように構成され得る。このルーティングは、ファイルが、特定のリモート・コンピューティング・デバイスに送信されることと、すべての接続されたリモート・コンピューティング・デバイスに伝えられるとは限らないこととを除いて、図21Bに示されている更新と同様に実施され得る。たとえば、ファイルは、ウェブ・ソケットを介してサーバに送信され得、宛先アドレスは、ファイルをウェブ・ソケットを介して適切な宛先リモート・コンピューティング・デバイスにさらにルーティングするためにサーバによって使用され得る。 In step 2901, at least one file corresponding to at least one dragged icon is stored in the live folder. At step 2902, a copy of at least one file is sent over the websocket connection (or other network connection) to the mapped network address. WebSocket connections can be configured to route data stored in live folders through a server to a mapped network address. This routing is shown in Figure 21B, except that the file is sent to a particular remote computing device and not all connected remote computing devices. It can be performed in the same way as the updates that have been made. For example, the file may be sent to the server via websocket, and the destination address may be used by the server to further route the file through the websocket to the appropriate destination remote computing device.

ウェブ・ソケット接続が、(リモート参加者オブジェクトが埋込みビデオ・ストリームであるとき)共同ワークスペースの一部として及び/又はビデオ会議の一部としてすでに確立されているので、説明されるプロセスは、意図された受信側へのファイルのルーティングを実施するためにウェブ・ソケットを利用する。 The process described is intended because the websocket connection has already been established as part of a collaborative workspace (when the remote participant object is an embedded video stream) and / or as part of a video conferencing. Utilize a web socket to perform the routing of files to the received receiver.

ステップ2903において、送信の完了時に、ライブ・フォルダから少なくとも1つのファイルが削除され得る。たとえば、ライブ・フォルダがローカル・コンピューティング・デバイス上の一時的キャッシュに記憶される場合、ライブ・フォルダに記憶されたファイルのコピーが(ストリーミングなどによって)リモート・コンピューティング・デバイスに送信されると、ローカル・ライブ・フォルダに記憶されたファイルは削除され得る。 At step 2903, at least one file may be deleted from the live folder when the transmission is complete. For example, if a live folder is stored in a temporary cache on the local computing device, then when a copy of the files stored in the live folder is sent to the remote computing device (such as by streaming). , Files stored in the local live folder can be deleted.

上記で説明された技法のうちの1つ又は複数が、1つ又は複数のコンピュータ・システムにおいて実装されるか、又は1つ又は複数のコンピュータ・システムを伴い得る。図30は、専用コンピューティング環境3000の一実例を示す。コンピューティング環境3000は、説明される(1つ又は複数の)実施例の使用又は機能性の範囲に関するいかなる限定をも示唆するものではない。 One or more of the techniques described above may be implemented in one or more computer systems or may involve one or more computer systems. FIG. 30 shows an example of the dedicated computing environment 3000. Computing Environment 3000 does not imply any limitation on the use or scope of functionality of the described (s) examples.

図30を参照すると、コンピューティング環境3000は、少なくとも1つの処理ユニット3010と、メモリ3020とを含む。処理ユニット3010は、コンピュータ実行可能命令を実行し、現実プロセッサ又は仮想プロセッサであり得る。多重処理システムでは、処理能力を増加させるために、複数の処理ユニットがコンピュータ実行可能命令を実行する。メモリ3020は、揮発性メモリ(たとえば、レジスタ、キャッシュ、RAM)、不揮発性メモリ(たとえば、ROM、EEPROM、フラッシュ・メモリなど)、又はその2つの何らかの組合せであり得る。メモリ3020は、説明される技法を実装するソフトウェア3080を記憶することができる。 Referring to FIG. 30, the computing environment 3000 includes at least one processing unit 3010 and memory 3020. The processing unit 3010 executes computer-executable instructions and can be a real processor or a virtual processor. In a multiprocessing system, a plurality of processing units execute computer-executable instructions in order to increase the processing capacity. The memory 3020 can be a volatile memory (eg, register, cache, RAM), a non-volatile memory (eg, ROM, EEPROM, flash memory, etc.), or any combination thereof. Memory 3020 can store software 3080 that implements the techniques described.

コンピューティング環境は、追加の特徴を有することができる。たとえば、コンピューティング環境3000は、ストレージ3040と、1つ又は複数の入力デバイス3050と、1つ又は複数の出力デバイス3060と、1つ又は複数の通信接続3090とを含む。バス、コントローラ、又はネットワークなど、相互接続機構3070が、コンピューティング環境3000の構成要素を相互接続する。一般に、オペレーティング・システム・ソフトウェア又はファームウェア(図示せず)が、コンピューティング環境3000において実行する他のソフトウェアのための動作環境を提供し、コンピューティング環境3000の構成要素のアクティビティを協調させる。 The computing environment can have additional features. For example, the computing environment 3000 includes storage 3040, one or more input devices 3050, one or more output devices 3060, and one or more communication connections 3090. An interconnect mechanism 3070, such as a bus, controller, or network, interconnects the components of the computing environment 3000. In general, operating system software or firmware (not shown) provides an operating environment for other software running in computing environment 3000, coordinating the activities of the components of computing environment 3000.

ストレージ3040は、リムーバブル又は非リムーバブルであり得、磁気ディスク、磁気テープ又はカセット、CD−ROM、CD−RW、DVD、或いは情報を記憶するために使用され得、コンピューティング環境3000内でアクセスされ得る任意の他の媒体を含む。ストレージ3040は、ソフトウェア3080のための命令を記憶することができる。 Storage 3040 can be removable or non-removable and can be used to store magnetic disks, magnetic tapes or cassettes, CD-ROMs, CD-RWs, DVDs, or information and can be accessed within the computing environment 3000. Includes any other medium. Storage 3040 can store instructions for software 3080.

(1つ又は複数の)入力デバイス3050は、キーボード、マウス、ペン、トラックボール、タッチ・スクリーン、又はゲーム・コントローラなどのタッチ入力デバイス、音声入力デバイス、走査デバイス、デジタル・カメラ、遠隔制御、或いはコンピューティング環境3000への入力を提供する別のデバイスであり得る。(1つ又は複数の)出力デバイス3060は、ディスプレイ、テレビジョン、モニタ、プリンタ、スピーカー、又はコンピューティング環境3000からの出力を提供する別のデバイスであり得る。 The (s) input device 3050 may be a touch input device such as a keyboard, mouse, pen, trackball, touch screen, or game controller, voice input device, scanning device, digital camera, remote control, or It can be another device that provides input to the computing environment 3000. The output device (s) 3060 can be a display, television, monitor, printer, speaker, or another device that provides output from the computing environment 3000.

(1つ又は複数の)通信接続3090は、通信媒体を介した別のコンピューティング・エンティティへの通信を可能にする。通信媒体は、変調されたデータ信号中で、コンピュータ実行可能命令、オーディオ又はビデオ情報、或いは他のデータなど、情報を伝達する。変調されたデータ信号は、信号の特性のうちの1つ又は複数が、信号中の情報を符号化するような様式で設定又は交換された信号である。限定ではなく実例として、通信媒体は、電気、光、RF、赤外線、音響、又は他のキャリアを用いて実装されるワイヤード又はワイヤレス技法を含む。 The communication connection (s) 3090 allows communication to another computing entity via a communication medium. The communication medium transmits information in the modulated data signal, such as computer executable instructions, audio or video information, or other data. A modulated data signal is a signal in which one or more of the characteristics of the signal are set or exchanged in such a way that the information in the signal is encoded. As an example, but not a limitation, communication media include wired or wireless techniques implemented using electrical, optical, RF, infrared, acoustic, or other carriers.

実装形態が、コンピュータ可読媒体のコンテキストにおいて説明され得る。コンピュータ可読媒体は、コンピューティング環境内でアクセスされ得る任意の利用可能な媒体である。限定ではなく実例として、コンピューティング環境3000内で、コンピュータ可読媒体は、メモリ3020、ストレージ3040、通信媒体、及び上記のいずれかの組合せを含む。 Implementations can be described in the context of a computer-readable medium. A computer-readable medium is any available medium that can be accessed within a computing environment. As an example, but not limited to, within a computing environment 3000, a computer-readable medium includes memory 3020, storage 3040, a communication medium, and any combination of the above.

もちろん、図30は、単に識別しやすいように、別個のデバイスとして、コンピューティング環境3000、ディスプレイ・デバイス3060、及び入力デバイス3050を示す。コンピューティング環境3000、ディスプレイ・デバイス3060、及び入力デバイス3050は、別個のデバイス(たとえば、ワイヤによってモニタ及びマウスに接続されたパーソナル・コンピュータ)であり得、単一のデバイス(たとえば、スマートフォン又はタブレットなど、タッチ・ディスプレイをもつモバイル・デバイス)、又はデバイスの任意の組合せ(たとえば、タッチスクリーン・ディスプレイ・デバイスに動作可能に結合されたコンピューティング・デバイス、単一のディスプレイ・デバイス及び入力デバイスに取り付けられた複数のコンピューティング・デバイスなど)に統合され得る。コンピューティング環境3000は、セットトップ・ボックス、パーソナル・コンピュータ、或いは1つ又は複数のサーバ、たとえば、ネットワーク化されたサーバのファーム、クラスタリングされたサーバ環境、又はコンピューティング・デバイスのクラウド・ネットワークであり得る。 Of course, FIG. 30 shows the computing environment 3000, the display device 3060, and the input device 3050 as separate devices for easy identification. The computing environment 3000, display device 3060, and input device 3050 can be separate devices (eg, personal computers connected to monitors and mice by wires), and can be a single device (eg, smartphone or tablet, etc.). , A mobile device with a touch display), or any combination of devices (eg, a computing device operably coupled to a touch screen display device, a single display device and an input device. Can be integrated into multiple computing devices, etc.). A computing environment 3000 is a set-top box, personal computer, or one or more servers, such as a farm of networked servers, a clustered server environment, or a cloud network of computing devices. obtain.

説明される実施例に関して本発明の原理を説明及び図示したが、説明される実施例は、そのような原理から逸脱することなく構成及び詳細において修正され得ることを認識されよう。ソフトウェアにおいて示されている説明される実施例の要素は、ハードウェアにおいて実装され得、その逆も同様である。 Although the principles of the invention have been described and illustrated with respect to the embodiments described, it will be appreciated that the embodiments described may be modified in configuration and detail without departing from such principles. The elements of the illustrated examples shown in the software can be implemented in hardware and vice versa.

本発明の原理が適用され得る多くの可能な実施例に鑑みて、本発明として、以下の特許請求の範囲及びその等価物の範囲及び趣旨内に入り得るようなすべての実施例を主張する。 In view of the many possible embodiments to which the principles of the invention may be applied, the invention claims all embodiments that may fall within the scope and intent of the following claims and their equivalents.

Claims (20)

ネットワーク化された共同ワークスペースにおけるウェブ・ソケット接続を介したファイルの送信のための方法であって、前記方法は、
ローカル・コンピューティング・デバイスのユーザ・インターフェース上で、サーバ上にホストされ、ウェブ・ソケット接続を介して複数の参加者にとってアクセス可能な、共同ワークスペースの表現を送信するステップであって、前記共同ワークスペースの前記表現が、前記サーバに接続された1つ又は複数のリモート・コンピューティング・デバイスに対応する1つ又は複数のリモート参加者オブジェクトを含む、送信するステップと、
前記ローカル・コンピューティング・デバイス上で、前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成するステップであって、各ライブ・フォルダが、前記リモート参加者オブジェクトに対応するリモート・コンピューティング・デバイスのネットワーク・アドレスにマッピングされる、生成するステップと、
前記ローカル・コンピューティング・デバイスによって、前記1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力を検出するステップであって、前記リモート参加者オブジェクトが、前記1つ又は複数のリモート・コンピューティング・デバイス中のリモート・コンピューティング・デバイスに対応する、検出するステップと、
前記ローカル・コンピューティング・デバイスによって、前記リモート参加者オブジェクトに対応するライブ・フォルダに前記少なくとも1つのファイルを記憶して、それにより、前記少なくとも1つのファイルを、前記ウェブ・ソケット接続を介して前記リモート・コンピューティング・デバイスの前記ネットワーク・アドレスに送信するステップと
を含む、方法。
A method for sending files over a websocket connection in a networked collaborative workspace, said method.
The step of transmitting a representation of a collaborative workspace hosted on a server and accessible to multiple participants over a web socket connection on the user interface of a local computing device, said co-operation. A step of transmitting, wherein the representation of the workspace comprises one or more remote participant objects corresponding to one or more remote computing devices connected to the server.
A step of generating one or more live folders corresponding to the one or more remote participant objects on the local computing device, where each live folder is the remote participant object. Maps to the network address of the corresponding remote computing device, and the steps to generate,
The local computing device detects user input for dragging at least one icon corresponding to at least one file proximal to the remote participant object in the one or more remote participant objects. A step of detecting that the remote participant object corresponds to a remote computing device in the one or more remote computing devices.
The local computing device stores the at least one file in a live folder corresponding to the remote participant object, thereby causing the at least one file to be stored over the web socket connection. A method comprising sending to said network address of a remote computing device.
前記1つ又は複数のリモート・コンピューティング・デバイスに対応する前記1つ又は複数のリモート参加者オブジェクトが、
埋込みビデオ・ストリーム又はリモート参加者アイコン
のうちの1つ又は複数を備える、請求項1に記載の方法。
The one or more remote participant objects corresponding to the one or more remote computing devices
The method of claim 1, comprising one or more of an embedded video stream or a remote participant icon.
前記共同ワークスペースが、前記ウェブ・ソケット接続を介して前記複数の参加者中の任意の参加者からの編集を他の参加者に伝えるように構成されたデジタル・ホワイトボードを備え、共同ワークスペースの前記表現が、ローカル参加者に対してカスタマイズされた前記デジタル・ホワイトボードの表現を含む、請求項1に記載の方法。 The collaborative workspace comprises a digital whiteboard configured to convey edits from any participant among the plurality of participants to other participants via the web socket connection. The method of claim 1, wherein said representation of the digital whiteboard comprises a customized representation of the digital whiteboard for local participants. 前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成するステップが、
前記1つ又は複数のリモート参加者オブジェクトに対応する前記1つ又は複数のリモート・コンピューティング・デバイスの1つ又は複数のインターネット・プロトコル(IP)アドレスについて前記サーバに問い合わせるステップと、
前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のローカル・フォルダを生成するステップと、
前記1つ又は複数のローカル・フォルダを前記1つ又は複数のIPアドレスにマッピングすることによって、前記1つ又は複数のライブ・フォルダを生成するステップと
を含む、請求項1に記載の方法。
The step of creating one or more live folders corresponding to the one or more remote participant objects is
A step of querying the server for one or more Internet Protocol (IP) addresses of the one or more remote computing devices corresponding to the one or more remote participant objects.
The step of creating one or more local folders corresponding to the one or more remote participant objects,
The method of claim 1, comprising the step of generating the one or more live folders by mapping the one or more local folders to the one or more IP addresses.
前記ローカル・コンピューティング・デバイスが、前記ユーザ・インターフェース内の前記1つ又は複数のリモート参加者オブジェクトの1つ又は複数の空間的位置を記憶するように構成され、前記1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力を検出するステップが、
前記少なくとも1つのアイコンを、前記リモート参加者オブジェクトの空間的位置からしきい値距離内にある宛先空間的位置にドラッグするためのユーザ入力を検出するステップ
を含む、請求項1に記載の方法。
The local computing device is configured to store one or more spatial locations of the one or more remote participant objects in the user interface and said one or more remote participants. The step of detecting user input for dragging at least one icon corresponding to at least one file is proximal to the remote participant object in the person object.
The method of claim 1, comprising detecting a user input for dragging the at least one icon from a spatial position of the remote participant object to a destination spatial position within a threshold distance.
前記リモート参加者オブジェクトに対応するライブ・フォルダに前記少なくとも1つのファイルを記憶して、それにより、前記少なくとも1つのファイルを、前記ウェブ・ソケット接続を介して前記リモート・コンピューティング・デバイスの前記ネットワーク・アドレスに送信するステップは、
前記ライブ・フォルダに前記少なくとも1つのファイルを記憶するステップと、
前記ウェブ・ソケット接続を通して、前記マッピングされたネットワーク・アドレスに前記少なくとも1つのファイルのコピーを送信するステップであって、前記ウェブ・ソケット接続が、前記サーバを介して前記マッピングされたネットワーク・アドレスにデータをルーティングするように構成された、送信するステップと、
前記送信の完了時に、前記ライブ・フォルダから前記少なくとも1つのファイルを削除するステップと
を含む、請求項1に記載の方法。
Store the at least one file in the live folder corresponding to the remote participant object, thereby storing the at least one file in the network of the remote computing device via the web socket connection.・ The step to send to the address is
The step of storing the at least one file in the live folder, and
A step of transmitting a copy of the at least one file to the mapped network address through the web socket connection, wherein the web socket connection goes through the server to the mapped network address. Steps to send, configured to route data,
The method of claim 1, comprising removing the at least one file from the live folder upon completion of the transmission.
前記ライブ・フォルダが、前記ローカル・コンピューティング・デバイス上の一時的キャッシュに記憶される、請求項1に記載の方法。 The method of claim 1, wherein the live folder is stored in a temporary cache on the local computing device. ネットワーク化された共同ワークスペースにおけるウェブ・ソケット接続を介したファイルの送信のためのローカル・コンピューティング・デバイスであって、前記ローカル・コンピューティング・デバイスは、
1つ又は複数のプロセッサと、
前記1つ又は複数のプロセッサのうちの少なくとも1つに動作可能に結合され、前記1つ又は複数のプロセッサのうちの少なくとも1つによって実行されたとき、前記1つ又は複数のプロセッサのうちの少なくとも1つに、
前記ローカル・コンピューティング・デバイスのユーザ・インターフェース上で、サーバ上にホストされ、ウェブ・ソケット接続を介して複数の参加者にとってアクセス可能な、共同ワークスペースの表現を送信することであって、前記共同ワークスペースの前記表現が、前記サーバに接続された1つ又は複数のリモート・コンピューティング・デバイスに対応する1つ又は複数のリモート参加者オブジェクトを含む、送信することと、
前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成することであって、各ライブ・フォルダが、前記リモート参加者オブジェクトに対応するリモート・コンピューティング・デバイスのネットワーク・アドレスにマッピングされる、生成することと、
前記1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力を検出することであって、前記リモート参加者オブジェクトが、前記1つ又は複数のリモート・コンピューティング・デバイス中のリモート・コンピューティング・デバイスに対応する、検出することと、
前記リモート参加者オブジェクトに対応するライブ・フォルダに前記少なくとも1つのファイルを記憶して、それにより、前記少なくとも1つのファイルを、前記ウェブ・ソケット接続を介して前記リモート・コンピューティング・デバイスの前記ネットワーク・アドレスに送信することと
を行わせる命令を記憶した、1つ又は複数のメモリと
を備える、ローカル・コンピューティング・デバイス。
A local computing device for sending files over a websocket connection in a networked collaborative workspace, said local computing device.
With one or more processors
At least one of the one or more processors when operably coupled to at least one of the one or more processors and executed by at least one of the one or more processors. For one,
Sending a representation of a collaborative workspace hosted on a server and accessible to multiple participants over a web socket connection on the user interface of the local computing device. Sending that the representation of the collaborative workspace contains one or more remote participant objects corresponding to one or more remote computing devices connected to the server.
Creating one or more live folders corresponding to the one or more remote participant objects, each live folder of a remote computing device corresponding to the remote participant object. Mapped to a network address, generated and
The detection of user input for dragging at least one icon corresponding to at least one file proximal to the remote participant object in the one or more remote participant objects. Detecting that an object corresponds to a remote computing device in the one or more remote computing devices.
Store the at least one file in the live folder corresponding to the remote participant object, thereby storing the at least one file in the network of the remote computing device via the web socket connection. A local computing device with one or more memories that store instructions to send and do to an address.
前記1つ又は複数のリモート・コンピューティング・デバイスに対応する前記1つ又は複数のリモート参加者オブジェクトが、
埋込みビデオ・ストリーム又はリモート参加者アイコン
のうちの1つ又は複数を備える、請求項8に記載のローカル・コンピューティング・デバイス。
The one or more remote participant objects corresponding to the one or more remote computing devices
The local computing device of claim 8, comprising one or more of an embedded video stream or a remote participant icon.
前記共同ワークスペースが、前記ウェブ・ソケット接続を介して前記複数の参加者中の任意の参加者からの編集を他の参加者に伝えるように構成されたデジタル・ホワイトボードを備え、共同ワークスペースの前記表現が、ローカル参加者に対してカスタマイズされた前記デジタル・ホワイトボードの表現を含む、請求項8に記載のローカル・コンピューティング・デバイス。 The collaborative workspace comprises a digital whiteboard configured to convey edits from any participant among the plurality of participants to other participants via the web socket connection. 8. The local computing device of claim 8, wherein said representation of the digital whiteboard is customized for local participants. 前記1つ又は複数のプロセッサのうちの少なくとも1つによって実行されたとき、前記1つ又は複数のプロセッサのうちの少なくとも1つに、前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成することを行わせる前記命令が、前記1つ又は複数のプロセッサのうちの少なくとも1つに、
前記1つ又は複数のリモート参加者オブジェクトに対応する前記1つ又は複数のリモート・コンピューティング・デバイスの1つ又は複数のインターネット・プロトコル(IP)アドレスについて前記サーバに問い合わせることと、
前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のローカル・フォルダを生成することと、
前記1つ又は複数のローカル・フォルダを前記1つ又は複数のIPアドレスにマッピングすることによって、前記1つ又は複数のライブ・フォルダを生成することと
をさらに行わせる、請求項8に記載のローカル・コンピューティング・デバイス。
When executed by at least one of the one or more processors, at least one of the one or more processors corresponds to one or more of the remote participant objects. The instruction that causes the generation of a plurality of live folders causes at least one of the one or more processors to generate the plurality of live folders.
Querying the server for one or more Internet Protocol (IP) addresses of the one or more remote computing devices corresponding to the one or more remote participant objects.
Creating one or more local folders corresponding to the one or more remote participant objects.
The local according to claim 8, further performing the generation of the one or more live folders by mapping the one or more local folders to the one or more IP addresses. -Computing device.
前記ローカル・コンピューティング・デバイスが、前記ユーザ・インターフェース内の前記1つ又は複数のリモート参加者オブジェクトの1つ又は複数の空間的位置を記憶するように構成され、前記1つ又は複数のプロセッサのうちの少なくとも1つによって実行されたとき、前記1つ又は複数のプロセッサのうちの少なくとも1つに、前記1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力を検出することを行わせる前記命令が、前記1つ又は複数のプロセッサのうちの少なくとも1つに、
前記少なくとも1つのアイコンを、前記リモート参加者オブジェクトの空間的位置からしきい値距離内にある宛先空間的位置にドラッグするためのユーザ入力を検出すること
をさらに行わせる、請求項8に記載のローカル・コンピューティング・デバイス。
The local computing device is configured to store one or more spatial locations of the one or more remote participant objects in the user interface and of the one or more processors. When executed by at least one of them, at least one of the one or more processors has at least one file proximal to the remote participant object in the one or more remote participant objects. The instruction that causes the user input to detect the user input for dragging at least one icon corresponding to the above is given to at least one of the one or more processors.
8. The eighth aspect of claim 8, wherein the user input for dragging the at least one icon from the spatial position of the remote participant object to a destination spatial position within a threshold distance is further detected. Local computing device.
前記1つ又は複数のプロセッサのうちの少なくとも1つによって実行されたとき、前記1つ又は複数のプロセッサのうちの少なくとも1つに、前記リモート参加者オブジェクトに対応するライブ・フォルダに前記少なくとも1つのファイルを記憶して、それにより、前記少なくとも1つのファイルを、前記ウェブ・ソケット接続を介して前記リモート・コンピューティング・デバイスの前記ネットワーク・アドレスに送信することを行わせる前記命令が、前記1つ又は複数のプロセッサのうちの少なくとも1つに、
前記ライブ・フォルダに前記少なくとも1つのファイルを記憶することと、
前記ウェブ・ソケット接続を通して、前記マッピングされたネットワーク・アドレスに前記少なくとも1つのファイルのコピーを送信することであって、前記ウェブ・ソケット接続が、前記サーバを介して前記マッピングされたネットワーク・アドレスにデータをルーティングするように構成された、送信することと、
前記送信の完了時に、前記ライブ・フォルダから前記少なくとも1つのファイルを削除することと
をさらに行わせる、請求項8に記載のローカル・コンピューティング・デバイス。
When executed by at least one of the one or more processors, at least one of the one or more processors has the at least one in the live folder corresponding to the remote participant object. The instruction is to store the file and thereby cause the at least one file to be sent to the network address of the remote computing device over the web socket connection. Or at least one of multiple processors,
To store the at least one file in the live folder,
Sending a copy of the at least one file to the mapped network address through the web socket connection, the web socket connection to the mapped network address through the server. Sending and sending, configured to route data
The local computing device of claim 8, which further deletes the at least one file from the live folder upon completion of the transmission.
前記ライブ・フォルダが、前記ローカル・コンピューティング・デバイス上の一時的キャッシュに記憶される、請求項8に記載のローカル・コンピューティング・デバイス。 The local computing device of claim 8, wherein the live folder is stored in a temporary cache on the local computing device. ローカル・コンピューティング・デバイスによって実行されたとき、前記ローカル・コンピューティング・デバイスに、
前記ローカル・コンピューティング・デバイスのユーザ・インターフェース上で、サーバ上にホストされ、ウェブ・ソケット接続を介して複数の参加者にとってアクセス可能な、共同ワークスペースの表現を送信することであって、前記共同ワークスペースの前記表現が、前記サーバに接続された1つ又は複数のリモート・コンピューティング・デバイスに対応する1つ又は複数のリモート参加者オブジェクトを含む、送信することと、
前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成することであって、各ライブ・フォルダが、前記リモート参加者オブジェクトに対応するリモート・コンピューティング・デバイスのネットワーク・アドレスにマッピングされる、生成することと、
前記1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力を検出することであって、前記リモート参加者オブジェクトが、前記1つ又は複数のリモート・コンピューティング・デバイス中のリモート・コンピューティング・デバイスに対応する、検出することと、
前記リモート参加者オブジェクトに対応するライブ・フォルダに前記少なくとも1つのファイルを記憶して、それにより、前記少なくとも1つのファイルを、前記ウェブ・ソケット接続を介して前記リモート・コンピューティング・デバイスの前記ネットワーク・アドレスに送信することと
を行わせるコンピュータ可読命令を記憶する少なくとも1つの非一時的コンピュータ可読媒体。
When executed by a local computing device, the local computing device,
Sending a representation of a collaborative workspace hosted on a server and accessible to multiple participants over a web socket connection on the user interface of the local computing device. Sending that the representation of the collaborative workspace contains one or more remote participant objects corresponding to one or more remote computing devices connected to the server.
Creating one or more live folders corresponding to the one or more remote participant objects, each live folder of a remote computing device corresponding to the remote participant object. Mapped to a network address, generated and
To detect user input for dragging at least one icon corresponding to at least one file proximal to the remote participant object in the one or more remote participant objects, said remote participant. Detecting that an object corresponds to a remote computing device in the one or more remote computing devices.
Store the at least one file in a live folder corresponding to the remote participant object, thereby bringing the at least one file to the network of the remote computing device via the web socket connection. • At least one non-transitory computer-readable medium that stores computer-readable instructions that cause it to be sent to an address.
前記1つ又は複数のリモート・コンピューティング・デバイスに対応する前記1つ又は複数のリモート参加者オブジェクトが、
埋込みビデオ・ストリーム又はリモート参加者アイコン
のうちの1つ又は複数を備える、請求項15に記載の少なくとも1つの非一時的コンピュータ可読媒体。
The one or more remote participant objects corresponding to the one or more remote computing devices
The at least one non-transitory computer-readable medium of claim 15, comprising one or more of an embedded video stream or remote participant icon.
前記共同ワークスペースが、前記ウェブ・ソケット接続を介して前記複数の参加者中の任意の参加者からの編集を他の参加者に伝えるように構成されたデジタル・ホワイトボードを備え、共同ワークスペースの前記表現が、ローカル参加者に対してカスタマイズされた前記デジタル・ホワイトボードの表現を含む、請求項15に記載の少なくとも1つの非一時的コンピュータ可読媒体。 The collaborative workspace comprises a digital whiteboard configured to convey edits from any participant among the plurality of participants to other participants via the web socket connection. The at least one non-transitory computer-readable medium of claim 15, wherein said representation of the digital whiteboard is customized for local participants. 前記ローカル・コンピューティング・デバイスによって実行されたとき、前記ローカル・コンピューティング・デバイスに、前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のライブ・フォルダを生成することを行わせる前記命令が、前記ローカル・コンピューティング・デバイスに、
前記1つ又は複数のリモート参加者オブジェクトに対応する前記1つ又は複数のリモート・コンピューティング・デバイスの1つ又は複数のインターネット・プロトコル(IP)アドレスについて前記サーバに問い合わせることと、
前記1つ又は複数のリモート参加者オブジェクトに対応する1つ又は複数のローカル・フォルダを生成することと、
前記1つ又は複数のローカル・フォルダを前記1つ又は複数のIPアドレスにマッピングすることによって、前記1つ又は複数のライブ・フォルダを生成することと
をさらに行わせる、請求項15に記載の少なくとも1つの非一時的コンピュータ可読媒体。
When executed by the local computing device, cause the local computing device to generate one or more live folders corresponding to the one or more remote participant objects. The instruction sends to the local computing device.
Querying the server for one or more Internet Protocol (IP) addresses of the one or more remote computing devices corresponding to the one or more remote participant objects.
Creating one or more local folders corresponding to the one or more remote participant objects.
15. At least according to claim 15, which further creates the one or more live folders by mapping the one or more local folders to the one or more IP addresses. One non-temporary computer-readable medium.
前記ローカル・コンピューティング・デバイスが、前記ユーザ・インターフェース内の前記1つ又は複数のリモート参加者オブジェクトの1つ又は複数の空間的位置を記憶するように構成され、前記ローカル・コンピューティング・デバイスによって実行されたとき、前記ローカル・コンピューティング・デバイスに、前記1つ又は複数のリモート参加者オブジェクト中のリモート参加者オブジェクトの近位に少なくとも1つのファイルに対応する少なくとも1つのアイコンをドラッグするためのユーザ入力を検出することを行わせる前記命令が、前記ローカル・コンピューティング・デバイスに、
前記少なくとも1つのアイコンを、前記リモート参加者オブジェクトの空間的位置からしきい値距離内にある宛先空間的位置にドラッグするためのユーザ入力を検出すること
をさらに行わせる、請求項15に記載の少なくとも1つの非一時的コンピュータ可読媒体。
The local computing device is configured to store one or more spatial locations of the one or more remote participant objects in the user interface and is configured by the local computing device. When executed, to drag at least one icon corresponding to at least one file to the local computing device proximal to the remote participant object in the one or more remote participant objects. The instruction that causes the user input to be detected causes the local computing device to receive the instruction.
15. The 15th aspect, wherein the user input for dragging the at least one icon from the spatial position of the remote participant object to a destination spatial position within a threshold distance is further detected. At least one non-temporary computer-readable medium.
前記ローカル・コンピューティング・デバイスによって実行されたとき、前記ローカル・コンピューティング・デバイスに、前記リモート参加者オブジェクトに対応するライブ・フォルダに前記少なくとも1つのファイルを記憶して、それにより、前記少なくとも1つのファイルを前記ウェブ・ソケット接続を介して前記リモート・コンピューティング・デバイスの前記ネットワーク・アドレスに送信することを行わせる前記命令は、前記ローカル・コンピューティング・デバイスに、
前記ライブ・フォルダに前記少なくとも1つのファイルを記憶することと、
前記ウェブ・ソケット接続を通して、前記マッピングされたネットワーク・アドレスに前記少なくとも1つのファイルのコピーを送信することであって、前記ウェブ・ソケット接続が、前記サーバを介して前記マッピングされたネットワーク・アドレスにデータをルーティングするように構成された、送信することと、
前記送信の完了時に、前記ライブ・フォルダから前記少なくとも1つのファイルを削除することと
をさらに行わせる、請求項15に記載の少なくとも1つの非一時的コンピュータ可読媒体。
When executed by the local computing device, the local computing device stores the at least one file in a live folder corresponding to the remote participant object, thereby at least one. The instruction to cause the remote computing device to send the file over the web socket connection to the network address of the remote computing device causes the local computing device to send the file.
To store the at least one file in the live folder,
Sending a copy of the at least one file to the mapped network address through the web socket connection, the web socket connection to the mapped network address through the server. Sending and sending, configured to route data
The at least one non-transitory computer-readable medium according to claim 15, which further deletes the at least one file from the live folder upon completion of the transmission.
JP2020547345A 2018-03-16 2019-03-13 Methods, devices, and computer-readable media for sending files over websocket connections in a networked collaborative workspace. Pending JP2021517302A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/923,943 US10931733B2 (en) 2017-08-24 2018-03-16 Method, apparatus, and computer-readable medium for transmission of files over a web socket connection in a networked collaboration workspace
US15/923,943 2018-03-16
PCT/EP2019/056276 WO2019175237A1 (en) 2018-03-16 2019-03-13 Method, apparatus, and computer-readable medium for transmission of files over a web socket connection in a networked collaboration workspace

Publications (1)

Publication Number Publication Date
JP2021517302A true JP2021517302A (en) 2021-07-15

Family

ID=65955176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020547345A Pending JP2021517302A (en) 2018-03-16 2019-03-13 Methods, devices, and computer-readable media for sending files over websocket connections in a networked collaborative workspace.

Country Status (7)

Country Link
EP (1) EP3765973A1 (en)
JP (1) JP2021517302A (en)
KR (1) KR20200131881A (en)
CN (1) CN112106044A (en)
BR (1) BR112020018877A2 (en)
RU (1) RU2020133478A (en)
WO (1) WO2019175237A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113868201A (en) * 2021-12-02 2021-12-31 天津联想协同科技有限公司 Method, device and storage medium for sharing file by cooperation of multiple persons

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102605522B1 (en) * 2023-01-06 2023-11-24 한규태 Customer cooperative development system using function board and server included in it

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167897B2 (en) * 1996-05-08 2007-01-23 Apple Computer, Inc. Accessories providing a telephone conference application one or more capabilities independent of the teleconference application
US7587467B2 (en) * 1999-12-02 2009-09-08 Western Digital Technologies, Inc. Managed peer-to-peer applications, systems and methods for distributed data access and storage
US7634533B2 (en) * 2004-04-30 2009-12-15 Microsoft Corporation Systems and methods for real-time audio-visual communication and data collaboration in a network conference environment
US7821985B2 (en) * 2006-03-13 2010-10-26 Microsoft Corporation Network interface routing using computational context
US7958270B2 (en) * 2006-06-09 2011-06-07 Laurent Frederick Sidon Distribution of files from mobile devices
US9300912B2 (en) * 2008-03-28 2016-03-29 Microsoft Technology Licensing, Llc Software based whiteboard capture solution for conference room meetings
US10162491B2 (en) * 2011-08-12 2018-12-25 Otoy Inc. Drag and drop of objects between applications
US9398059B2 (en) * 2013-11-22 2016-07-19 Dell Products, L.P. Managing information and content sharing in a virtual collaboration session
US20160140139A1 (en) * 2014-11-17 2016-05-19 Microsoft Technology Licensing, Llc Local representation of shared files in disparate locations
US10001913B2 (en) * 2015-04-01 2018-06-19 Dropbox, Inc. Shared workspaces with selective content item synchronization

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113868201A (en) * 2021-12-02 2021-12-31 天津联想协同科技有限公司 Method, device and storage medium for sharing file by cooperation of multiple persons
CN113868201B (en) * 2021-12-02 2022-03-15 天津联想协同科技有限公司 Method, device and storage medium for sharing file by cooperation of multiple persons

Also Published As

Publication number Publication date
KR20200131881A (en) 2020-11-24
CN112106044A (en) 2020-12-18
BR112020018877A2 (en) 2020-12-29
WO2019175237A1 (en) 2019-09-19
EP3765973A1 (en) 2021-01-20
RU2020133478A (en) 2022-04-19

Similar Documents

Publication Publication Date Title
US11483376B2 (en) Method, apparatus, and computer-readable medium for transmission of files over a web socket connection in a networked collaboration workspace
US20220382505A1 (en) Method, apparatus, and computer-readable medium for desktop sharing over a web socket connection in a networked collaboration workspace
KR101817467B1 (en) System for interacting with objects in a virtual environment
US9965039B2 (en) Device and method for displaying user interface of virtual input device based on motion recognition
JP5442727B2 (en) Display of teaching videos on the user interface display
US20190065012A1 (en) Method, apparatus, and computer-readable medium for propagating enriched note data objects over a web socket connection in a networked collaboration workspace
JP6433923B2 (en) Providing a specific object location to the device
JP2020532007A (en) Methods, devices, and computer-readable media that provide a general-purpose interface between hardware and software
JP2021517302A (en) Methods, devices, and computer-readable media for sending files over websocket connections in a networked collaborative workspace.
JP2021525910A (en) Methods, devices and computer-readable media for desktop sharing over websocket connections in networked collaborative workspaces
US11334220B2 (en) Method, apparatus, and computer-readable medium for propagating cropped images over a web socket connection in a networked collaboration workspace
JP2021533456A (en) Methods, devices and computer-readable media for communicating expanded note data objects over websocket connections in a networked collaborative workspace.
JP2021523484A (en) Methods, devices, and computer-readable media for delivering cropped images through websocket connections in a networked collaborative workspace.