JP2020525946A - Method and system for indicating reaction of participants in a virtual conference - Google Patents

Method and system for indicating reaction of participants in a virtual conference Download PDF

Info

Publication number
JP2020525946A
JP2020525946A JP2019572423A JP2019572423A JP2020525946A JP 2020525946 A JP2020525946 A JP 2020525946A JP 2019572423 A JP2019572423 A JP 2019572423A JP 2019572423 A JP2019572423 A JP 2019572423A JP 2020525946 A JP2020525946 A JP 2020525946A
Authority
JP
Japan
Prior art keywords
conference
data
users
virtual
emotional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019572423A
Other languages
Japanese (ja)
Inventor
フランシスカ ジョーンズ,マリア
フランシスカ ジョーンズ,マリア
ジョーンズ,アレクサンダー
Original Assignee
フランシスカ ジョーンズ,マリア
フランシスカ ジョーンズ,マリア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フランシスカ ジョーンズ,マリア, フランシスカ ジョーンズ,マリア filed Critical フランシスカ ジョーンズ,マリア
Publication of JP2020525946A publication Critical patent/JP2020525946A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1093Calendar-based scheduling for persons or groups
    • G06Q10/1095Meeting or appointment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Abstract

仮想会議において感情的な反応を示す方法を提供する。この方法は、1人又は複数の対応するユーザからの入力に応答して、1人又は複数の対応するユーザを表す1つ又は複数のアバターを規定するアバターデータを作成又は選択するステップと;1つ又は複数の仮想会議を規定する会議データの1つ又は複数のユーザ選択を受信するステップであって、ユーザ選択は、ユーザが仮想会議に出席しているという指標を含む、受信するステップと;仮想会議に対応するアバターデータ及び会議データを使用して、会議に出席している1人又は複数のユーザを表す1つ又は複数のアバターを含む仮想会議の表示のための出力を生成するステップと;仮想会議に出席している1人又は複数のユーザの感情的な反応又はボディランゲージを示す感情的な入力データを1人又は複数のユーザから受信するステップと;感情的な入力データを使用してアバターデータを処理するステップと;それぞれの感情的な入力データに応じてそれぞれの感情的な状態を表示させるべく1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、仮想会議の表示のための出力を更新するステップと;を含む。Provides a way to show emotional reactions in virtual meetings. This method involves creating or selecting avatar data that defines one or more avatars representing one or more corresponding users in response to input from one or more corresponding users; A step of receiving one or more user selections of conference data defining one or more virtual conferences, wherein the user selection includes a receiving indicator that the user is attending the virtual conference; With the steps to generate output for viewing a virtual conference containing one or more avatars representing one or more users attending the conference using the avatar data and conference data corresponding to the virtual conference. With the step of receiving emotional input data from one or more users indicating the emotional response or body language of one or more users attending a virtual conference; using emotional input data With steps to process avatar data; virtual conferencing to render one or more avatars for one or more users to display their emotional state in response to each emotional input data. Includes steps to update the output for display of.

Description

本発明は、仮想会議において参加者の反応を示すための方法及びシステムに関する。 The present invention relates to a method and system for showing participant reaction in a virtual conference.

ビジネス的な及び社会的な理由により、コンピュータユーザは、コンピュータ・ネットワーク・システム上の仮想的な環境での正式なビジネス会議又は非公式の集まり等の会議を手配することが多い。このような会議は、直接会うための費用や移動を減らし、移動時間を節約する。また、そのような会議は、非常に便利で、多様で分散した人々の会議を直ぐに行うことができる。 For business and social reasons, computer users often arrange meetings such as formal business meetings or informal gatherings in virtual environments on computer network systems. Such meetings reduce the cost and travel of face-to-face meetings and save travel time. Also, such a conference is very convenient and allows immediate meetings of diverse and dispersed people.

仮想会議は、ユーザグループのメンバー同士の間の社会的相互作用のフレームワークの基礎を形成することもできる。仮想会議をホストするインターフェイスは、会議に付随する多くの補助機能を提供する手段としても使用できる。 Virtual conferences can also form the basis of a framework of social interaction between members of a user group. The interface that hosts the virtual conference can also be used as a means to provide many of the auxiliary features associated with the conference.

人が直接会わない会議では、仮想的な環境内の人々の間の相互作用(interaction:対話)を可能な限り自然に行うことを試みることが重要である。 In meetings where people do not meet directly, it is important to try to make interactions between people in a virtual environment as natural as possible.

本発明の一態様は、仮想会議において感情的な反応を示すためのシステムを提供する。このシステムは、少なくとも1つのプロセッサと;命令を記憶するメモリと;を含み、命令は、少なくとも1つのプロセッサによって実行可能にされ、1人又は複数の対応するユーザからの入力に応答して、1人又は複数の対応するユーザを表す1つ又は複数のアバター(avatars)を規定するアバターデータを作成又は選択すること;1つ又は複数の仮想会議を規定する会議データの1つ又は複数のユーザ選択を受信することであって、ユーザ選択は、ユーザが仮想会議に出席しているという指標を含む、受信すること;仮想会議に対応するアバターデータ及び会議データを使用して、会議に出席している1人又は複数のユーザを表す1つ又は複数のアバターを含む仮想会議の表示のための出力を生成すること;仮想会議に出席している1人又は複数のユーザの感情的な反応又はボディランゲージ(body language)を示す感情的な入力データを1人又は複数のユーザから受信すること;感情的な入力データを使用してアバターデータを処理すること;それぞれの感情的な入力データに応じてそれぞれの感情的な状態を表示させるべく1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、仮想会議の表示のための出力を更新すること;が行われる。 One aspect of the present invention provides a system for showing emotional reactions in a virtual conference. The system includes at least one processor; a memory that stores instructions, the instructions being executable by the at least one processor and responsive to input from one or more corresponding users. Creating or selecting avatar data defining one or more avatars representing a person or corresponding users; one or more user selections of meeting data defining one or more virtual meetings. The user selection includes an indication that the user is attending a virtual conference; receiving; using the avatar data and the conference data corresponding to the virtual conference, attending the conference. Generating output for display of a virtual conference that includes one or more avatars representing one or more users present; the emotional response or body of one or more users attending the virtual conference Receiving emotional input data indicating a body language from one or more users; processing avatar data using the emotional input data; depending on each emotional input data Updating the output for display of the virtual conference to render one or more avatars for one or more users to display their respective emotional states.

本発明の別の態様は、仮想会議において感情的な反応を示す方法を提供し、この方法は、1人又は複数の対応するユーザからの入力に応答して、1人又は複数の対応するユーザを表す1つ又は複数のアバターを規定するアバターデータを作成又は選択するステップと;1つ又は複数の仮想会議を規定する会議データの1つ又は複数のユーザ選択を受信するステップであって、ユーザ選択は、ユーザが仮想会議に出席しているという指標を含む、受信するステップと;仮想会議に対応するアバターデータ及び会議データを使用して、会議に出席している1人又は複数のユーザを表す1つ又は複数のアバターを含む仮想会議の表示のための出力を生成するステップと;仮想会議に出席している1人又は複数のユーザの感情的な反応又はボディランゲージを示す感情的な入力データを1人又は複数のユーザから受信するステップと;感情的な入力データを使用してアバターデータを処理するステップと;それぞれの感情的な入力データに応じてそれぞれの感情的な状態を表示させるべく1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、仮想会議の表示のための出力を更新するステップと;を含む。 Another aspect of the invention provides a method of exhibiting an emotional reaction in a virtual conference, the method responding to input from one or more corresponding users. Creating or selecting avatar data that defines one or more avatars that represent; a step of receiving one or more user selections of meeting data that defines one or more virtual meetings; The selection includes receiving an indication that the user is attending a virtual conference; receiving avatar data and conference data corresponding to the virtual conference to identify one or more users attending the conference. Generating an output for display of a virtual conference that includes one or more avatars that represent; an emotional input that indicates an emotional response or body language of one or more users present in the virtual conference. Receiving data from one or more users; processing avatar data using emotional input data; displaying each emotional state according to each emotional input data Updating the output for the display of the virtual conference to render one or more avatars for one or more users accordingly.

本発明の別の態様は、遅延検索方法を実施するためにプロセッサによって実行可能なコードを伝送するキャリア媒体又は記憶媒体を提供する。 Another aspect of the present invention provides a carrier medium or a storage medium that carries code executable by a processor to implement the lazy search method.

一実施形態によるシステムを示す概略図である。1 is a schematic diagram illustrating a system according to one embodiment. 一実施形態による図1のシステムを使用する方法のフロー図である。2 is a flow diagram of a method of using the system of FIG. 1 according to one embodiment. 一実施形態に従って生成された仮想会議のためのユーザインターフェイスの概略図である。FIG. 6 is a schematic diagram of a user interface for a virtual conference created according to one embodiment. 一実施形態による拡張現実会議ディスプレイを使用する会議の概略図である。FIG. 6 is a schematic diagram of a conference using an augmented reality conference display according to one embodiment. 図4の実施形態で生成された拡張現実会議ディスプレイのためのユーザインターフェイスの概略図である。5 is a schematic diagram of a user interface for an augmented reality conference display generated in the embodiment of FIG. 4. FIG. 一実施形態に従って生成されたソーシャルミーティングのためのユーザインターフェイスの概略図である。FIG. 6 is a schematic diagram of a user interface for a social meeting generated according to one embodiment. 一実施形態で使用するための基本的なコンピュータ装置の概略図である。1 is a schematic diagram of a basic computer device for use in one embodiment.

以下の詳細な説明では、本明細書の一部を形成し、且つ本発明の主題を実施することができる特定の実施形態を例示として示す添付図面について参照する。これらの実施形態は、当業者がそれら実施形態を実施できるように十分詳細に説明しており、他の実施形態を利用してもよく、本発明の主題の範囲から逸脱することなく構造的、論理的、及び電気的変更を行ってもよいことを理解されたい。本発明の主題のそのような実施形態は、実際に複数が開示されている場合に本願の範囲を任意の単一の発明又は発明概念に自発的に限定することを意図することなく、単に便宜上「発明」という用語によって個々に及び/又は総称して本明細書で参照され得る。 DETAILED DESCRIPTION The following detailed description refers to the accompanying drawings that form, by way of example, specific embodiments that may form a part of this specification and practice the subject matter of the invention. These embodiments have been described in sufficient detail to enable those skilled in the art to practice them, and other embodiments may be utilized, structurally without departing from the scope of the inventive subject matter, It should be appreciated that logical and electrical changes may be made. Such embodiments of the present subject matter are not intended to limit the scope of the present application to any single invention or inventive concept in the event that a plurality is actually disclosed, and are merely for convenience. Reference may be made herein to the term "invention" individually and/or collectively.

従って、以下の説明は限定的な意味で解釈すべきではなく、本発明の主題の範囲は、添付の特許請求の範囲によって規定される。 Therefore, the following description should not be construed in a limiting sense, and the scope of the present subject matter is defined by the appended claims.

以下の実施形態では、同様の構成要素には同様の参照符号が付されている。 In the following embodiments, the same components are designated by the same reference numerals.

以下の実施形態では、データは、少なくとも1つのデータベースに記憶されるものとして説明する。データベースという用語は、リレーショナル・データベース(例えば、Oracleデータベース、mySQLデータベース等)、非リレーショナル・データベース(例えば、NoSQLデータベース等)、インメモリデータベース、スプレッドシート、コンマ区切り値(CSV)ファイル、拡張マークアップ言語(XML)ファイル、テキスト(TXT)ファイル、フラットファイル、スプレッドシートファイル、及び/又はデータストレージ用に広く使用されている形式、又は独自の形式を含むがこれらに限定されない、データを記憶及び/又は整理するためのデータ構造(及び/又は、複数のデータ構造の組合せ)を含むことを意図している。データベースは、典型的に、1つ又は複数のデータストアに記憶される。従って、本明細書で(例えば、本明細書の説明及び/又は本願の図で)言及される各データベースは、1つ又は複数のデータストアに記憶されるものとして理解するべきである。「ファイルシステム」(例えば、FAT、NTFS、光ディスク等のディスクファイルシステム、フラッシュファイルシステム、テープファイルシステム、データベースファイルシステム、トランザクションファイルシステム、ネットワークファイルシステム等)は、データの保存方法や検索方法を制御できる。簡潔にするために、本明細書ではデータベースに関して本開示について説明する。しかしながら、本明細書で開示するシステム及び技術は、ファイルシステム又は、データベース及びファイルシステムの組合せで実装してもよい。 In the following embodiments, the data will be described as being stored in at least one database. The term database refers to a relational database (eg, Oracle database, mySQL database, etc.), non-relational database (eg, NoSQL database, etc.), in-memory database, spreadsheet, comma separated value (CSV) file, extended markup language. (XML) files, text (TXT) files, flat files, spreadsheet files, and/or stores and/or stores data, including, but not limited to, widely used formats for data storage or proprietary formats. It is intended to include a data structure (and/or combination of data structures) for organization. Databases are typically stored in one or more data stores. Accordingly, each database referred to herein (eg, in the description and/or figures of the present application) should be understood as being stored in one or more data stores. "File system" (for example, disk file system such as FAT, NTFS, optical disk, flash file system, tape file system, database file system, transaction file system, network file system, etc.) controls data storage and retrieval methods. it can. For simplicity, the disclosure is described herein in terms of databases. However, the systems and techniques disclosed herein may be implemented in a file system or a combination of database and file system.

以下の実施形態では、データストアという用語は、任意のコンピュータ可読記憶媒体及び/又は装置(又は、データ記憶媒体及び/又は装置の集合)を包含することを意図している。データストアの例には、光ディスク(例えば、CD−ROM、DVD−ROM等)、磁気ディスク(例えば、ハードディスク、フロッピーディスク等)、メモリ回路(例えば、ソリッドステートドライブ、ランダムアクセスメモリ(RAM)等)等が含まれるが、これらに限定されるものではない。データストアの別の例は、リモートアクセスが可能で、必要に応じて迅速にプロビジョニングできる物理的なデータ記憶装置のコレクションを含むホスト型ストレージ環境である(一般に「クラウド」ストレージと呼ばれる)。 In the following embodiments, the term data store is intended to include any computer-readable storage medium and/or device (or collection of data storage media and/or devices). Examples of the data store are an optical disk (eg, CD-ROM, DVD-ROM, etc.), a magnetic disk (eg, hard disk, floppy disk, etc.), a memory circuit (eg, solid state drive, random access memory (RAM), etc.). However, the present invention is not limited to these. Another example of a data store is a hosted storage environment (commonly referred to as "cloud" storage) that contains a collection of physical data storage devices that are remotely accessible and can be provisioned quickly as needed.

本明細書で説明する機能又はアルゴリズムは、一実施形態では、ハードウェア、ソフトウェア、又はソフトウェア及びハードウェアの組合せで実装される。ソフトウェアは、メモリ又は他のタイプの記憶装置等のコンピュータ可読キャリア媒体に記憶されたコンピュータ実行可能命令を含む。さらに、説明する機能は、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組合せであり得るモジュールに対応し得る。複数の機能は、必要に応じて1つ又は複数のモジュールで実行され、説明する実施形態は単なる例である。ソフトウェアは、デジタルシグナルプロセッサ、ASIC、マイクロプロセッサ、又はシステム上で動作する他のタイプのプロセッサ(パーソナルコンピュータ、サーバ、ルーター、ネットワーク相互接続装置を含むデータを処理できる装置等)で実行される。 The functions or algorithms described herein are implemented in hardware, software, or a combination of software and hardware in one embodiment. Software includes computer-executable instructions stored on a computer-readable carrier medium, such as memory or other type of storage device. Further, the functions described may correspond to modules that may be software, hardware, firmware, or any combination thereof. The functions may be performed in one or more modules as desired, and the described embodiments are merely examples. The software runs on a digital signal processor, ASIC, microprocessor, or other type of processor running on the system (such as a personal computer, server, router, device capable of processing data, including network interconnect devices).

一部の実施形態は、モジュール同士の間及びモジュールを介して通信される関連制御及びデータ信号とともに、又は特定用途向け集積回路の一部として、2つ以上の特定の相互接続ハードウェアモジュール又は装置で機能を実施する。こうして、例示的なプロセスフローは、ソフトウェア、ファームウェア、及びハードウェアの実施態様に適用できる。 Some embodiments may include two or more specific interconnect hardware modules or devices with associated control and data signals communicated between and through the modules, or as part of an application specific integrated circuit. To implement the function. Thus, the example process flow is applicable to software, firmware, and hardware implementations.

一般化された実施形態は、仮想会議において感情的な反応を示す方法及びシステムを提供し、そこでは、1人又は複数の対応するユーザからの入力に応答して、1人又は複数の対応するユーザを表す1つ又は複数のアバターを規定するアバターデータが作成又は選択され、1つ又は複数の仮想会議を規定する会議データの1つ又は複数のユーザ選択が受信される。ユーザ選択には、ユーザが仮想会議に出席しているという指標が含まれる。仮想会議に対応するアバターデータ及び会議データを使用して、会議に出席している1人又は複数のユーザを表す1つ又は複数のアバターを含む出力が、仮想会議の表示のために生成される。仮想会議に出席している1人又は複数のユーザの感情的な反応又はボディランゲージを示す感情的な入力データが、1人又は複数のユーザから受信される。アバターデータは感情的な入力データを使用して処理され、それぞれの感情的な入力データに応じてそれぞれの感情的な状態を表示させるべく1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、仮想会議の表示のための出力が更新される。 The generalized embodiments provide a method and system for showing emotional reaction in a virtual conference, where one or more corresponding responses are provided in response to input from one or more corresponding users. Avatar data defining one or more avatars representing the user is created or selected and one or more user selections of meeting data defining one or more virtual meetings are received. The user selection includes an indication that the user is attending a virtual conference. Using the avatar data corresponding to the virtual meeting and the meeting data, an output including one or more avatars representing one or more users attending the meeting is generated for display of the virtual meeting. .. Emotional input data is received from one or more users that indicates the emotional reaction or body language of one or more users attending the virtual conference. The avatar data is processed using emotional input data and renders one or more avatars for one or more users to display their respective emotional states in response to their respective emotional input data. So that the output for the display of the virtual conference is updated.

仮想会議は、ビジネス会議、協議会、ソーシャルミーティング、チャットルーム、仮想店舗等、仮想的な環境での任意の形式の会議とすることができる。換言すると、ユーザが生成したアバターが仮想的な状況に存在し、この状況に他のアバターが存在する仮想的な状況である。仮想的な環境において感情的な状態を表示させることにより、ユーザの感情的な状態を示すアバターを介して他のユーザと相互作用することができる。こうして、アバターの感情的な状態は、ユーザの感情的な状態を反映するように単に操作するだけで、他の形式の指標のテキストを必要とせずに、ボディランゲージによって他のユーザと簡単に相互作用できる。アバターのボディランゲージは、仮想的な環境を介して他のユーザに感情を表現する最も自然な形である。 The virtual conference can be any type of conference in a virtual environment such as a business conference, a conference, a social meeting, a chat room, a virtual store, and the like. In other words, the avatar generated by the user exists in a virtual situation, and another avatar exists in this situation. By displaying the emotional state in the virtual environment, it is possible to interact with other users via an avatar that indicates the emotional state of the user. Thus, the emotional state of the avatar can be simply manipulated to reflect the emotional state of the user, with the body language easily interacting with other users without the need for any other form of indicator text. Can act. Avatar's body language is the most natural way to express emotions to other users through a virtual environment.

仮想会議は、参加者の画像の全てがアバターとして生成される「純粋な」仮想会議とすることができる。あるいはまた、仮想会議は、会議の1人又は複数の参加者のビデオ画像が表示される拡張現実会議であってもよく、拡張現実会議は、参加者のビデオ画像がビデオデータにオーバーレイされた1人又は複数のユーザを表す1つ又は複数のアバターを有する。このようにして、「実際の」会議の一部でない参加者は、自分自身を表現し、自分のアバターのボディランゲージを使用して相互作用することができる。 The virtual conference can be a "pure" virtual conference in which all of the participants' images are generated as avatars. Alternatively, the virtual conference may be an augmented reality conference in which video images of one or more participants in the conference are displayed, the augmented reality conference including a video image of the participants overlaid on the video data. It has one or more avatars that represent a person or users. In this way, participants who are not part of the "real" conference can express themselves and interact using the body language of their avatar.

仮想会議に出席する1人又は複数のユーザからの相互作用入力が受信され、アバターに必要な相互作用を実行させ、仮想会議の表示のための出力は、必要な相互作用を表示するために1人又は複数のユーザから相互作用データを受信して、1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように更新される。例えば、相互作用には、握手、「ハイファイブ(high fiving)」、ハグ、又はキスを含む、挨拶の感情的な相互作用が含まれ得る。 Interaction input from one or more users attending the virtual conference is received, causing the avatar to perform the required interaction, and the output for displaying the virtual conference is 1 to display the required interaction. Interaction data is received from a person or users and updated to render one or more avatars for the one or more users. For example, interactions may include greeting emotional interactions, including handshakes, "high fiving," hugs, or kisses.

一実施形態では、ユーザインターフェイスは、表示出力と、ユーザによるポインター装置及びキーボード入力とを有する従来のウェブサイトとして提供することができる。代替実施形態では、インターフェイスは、キーボード、タッチスクリーン、ポインター装置(マウス、トラックボール、トラックパッド、ペン装置等)、音声認識ハードウェア及び/又はユーザからの音声又は発言を認識するソフトウェア、ジェスチャー認識入力ハードウェア及び/又はソフトウェア等の任意の形式の視覚的出力及び入力によって提供できる。 In one embodiment, the user interface may be provided as a conventional website with display output and pointer device and keyboard input by the user. In alternative embodiments, the interface is a keyboard, a touch screen, a pointer device (mouse, trackball, trackpad, pen device, etc.), voice recognition hardware and/or software for recognizing voice or speech from a user, gesture recognition input. It can be provided by any form of visual output and input, such as hardware and/or software.

一実施形態において、この方法及びシステムは、本願と同日に出願された、“VIRTUAL OFFICE”という名称の同時係属の米国特許出願第 号に開示された方法及びシステムと共に使用することができ、この文献の内容は、その全体が参照により本明細書に組み込まれる。こうして、仮想会議は仮想オフィスの一部となり、ユーザは自分のアバターを制御してオフィス機器のアイテムの画像と相互作用し、オフィス機器のアイテムにオフィス機能を実行させることができる。 In one embodiment, the method and system can be used with the method and system disclosed in co-pending U.S. patent application entitled "VIRTUAL OFFICE," filed on the same date as this application. The contents of are incorporated herein by reference in their entirety. Thus, the virtual conference becomes part of the virtual office, and the user can control his avatar to interact with the image of the item on the office equipment and cause the item on the office equipment to perform office functions.

一実施形態では、この方法及びシステムは、本願と同日に出願された、“METHOD AND APPARATUS TO TRANSFER
DATA FROM A FIRST COMPUTER STATE TO A DIFFERENT COMPUTER STATE”という名称の同時係属の米国特許出願第 号に開示された方法及び装置と共に使用することができ、この文献の内容は、その全体が参照により本明細書に組み込まれる。
In one embodiment, the method and system are disclosed in “METHOD AND APPARATUS TO TRANSFER” filed on the same date as this application.
DATA FROM A FIRST COMPUTER STATE TO A DIFFERENT COMPUTER STATE" may be used with the method and apparatus disclosed in co-pending US patent application Ser. Incorporated into the book.

一実施形態では、この方法及びシステムは、本願と同日に出願された、“EVENT BASED DEFERRED SERCH METHOD
AND SYSTEM”という名称の同時係属の米国特許出願第 号に開示された方法及び装置と共に使用することができ、この文献の内容は、その全体が参照により本明細書に組み込まれる。
In one embodiment, the method and system are disclosed in the “EVENT BASED DEFERRED SERCH METHOD” filed on the same date as the present application.
It may be used with the method and apparatus disclosed in co-pending U.S. Patent Application No. "AND SYSTEM", the contents of which are incorporated herein by reference in their entirety.

一実施形態では、この方法及びシステムは、2016年12月30日に出願された、“USER INTERFACE METHOD AND
APPARATUS”という名称の同時係属の米国特許出願第15/395,343号に開示される方法及び装置と共に使用することができ、この文献の内容は、その全体が本明細書に組み込まれる。米国特許出願第15/395,343号のユーザインターフェイスは、ユーザが入力及び選択のためにシステムと相互作用する手段を提供できる。
In one embodiment, the method and system are described in “USER INTERFACE METHOD AND,” filed Dec. 30, 2016.
It may be used with the method and apparatus disclosed in co-pending US patent application Ser. No. 15/395,343 entitled "APPARATUS", the contents of which are incorporated herein in their entirety. The user interface of Application No. 15/395,343 can provide a means for a user to interact with the system for input and selection.

一実施形態では、この方法及びシステムは、2016年12月30日に出願された、“AN ELECTRONIC TRANSACTION METHOD
AND APPARATUS”という名称の同時係属の米国特許出願第15/395,487号に開示された電子取引方法及びシステムと共に使用することができ、この文献の内容は、その全体が本明細書に組み込まれる。
In one embodiment, the method and system are described in “AN ELECTRONIC TRANSACTION METHOD,” filed Dec. 30, 2016.
It can be used with the electronic trading method and system disclosed in co-pending US patent application Ser. No. 15/395,487 entitled "AND APPARATUS", the contents of which are incorporated herein in their entirety. ..

次に、特定の実施形態について、図面を参照して説明する。 Next, specific embodiments will be described with reference to the drawings.

図1は、一実施形態による一般化されたシステムを示す。 FIG. 1 illustrates a generalized system according to one embodiment.

図1は、それぞれユーザが使用するための2つのクライアント装置100A及び100Bを示している。任意の数のクライアント装置を使用できる。クライアント装置100A及び100Bは、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、電子手帳、モバイル装置、スマートフォン、携帯電話、ビデオプレーヤー、テレビ、マルチメディア装置、携帯情報端末等の任意のタイプのコンピュータ又は処理マシンを含むことができる。この実施形態では、各クライアント装置は、webブラウザ101A及び101Bを実行して、サーバシステム1000でホストされたウェブページと相互作用することができる。代替実施形態では、webブラウザ101A及び101Bは、クライアント装置100A及び100B上で実行されるアプリケーションに置き換えることができる。 FIG. 1 shows two client devices 100A and 100B, each for use by a user. Any number of client devices can be used. The client devices 100A and 100B may be any type of computer or processing machine such as a personal computer, laptop, tablet computer, electronic organizer, mobile device, smartphone, mobile phone, video player, television, multimedia device, personal digital assistant, and the like. Can be included. In this embodiment, each client device can execute a web browser 101A and 101B to interact with a web page hosted on the server system 1000. In alternative embodiments, the web browsers 101A and 101B can be replaced with applications running on the client devices 100A and 100B.

クライアント装置100A及び100Bは、この例ではインターネット50であるネットワークに接続される。ネットワークは、コンピュータ装置をネットワーク化するための任意の適切な通信ネットワークを含むことができる。 The client devices 100A and 100B are connected to a network, which is the Internet 50 in this example. The network can include any suitable communication network for networking computing devices.

サーバシステム1000は、インターネット50に接続された任意の数のサーバコンピュータを含む。サーバシステム1000は、本発明の実施形態に従ってサービスを提供するように動作する。サーバシステム1000は、ブラウザ101A及び101Bによってアクセス及びレンダリングされるウェブページをホストするwebサーバ110を含む。アプリケーションサーバ120が、webサーバ110に接続され、webサーバ110に動的なデータを提供する。アプリケーションサーバ120は、データストア195に接続される。データストア195は、多数の異なるデータベース、すなわちユーザデータベース130、アバターデータベース140、仮想世界データストア150、会議データベース160、及び感情的な反応データベース170にデータを記憶する。ユーザデータベース130は、識別子、名前、年齢、ユーザ名及びパスワード、誕生日、アドレス等を含み得るユーザに関する情報を記憶する。アバターデータベース140は、ユーザ自身を表すためにユーザが作成できるアバターに関するデータ及びユーザデータに関連してユーザが生成したアバターを記憶することができる。仮想世界データストア150は、仮想会議環境を形成するために必要なデータを記憶する。会議データベース160は、会議識別子、会議名、会議に出席する関連ユーザ(従って、間接的に仮想会議でレンダリングされるアバター)、拡張現実仮想会議の一部としてレンダリングされるビデオストリームの識別子、会議の日にち、会議ログイン情報等を含む特定の会議に関するデータを記憶することができる。感情的な反応データベース170は、ユーザによって選択され、アバターのレンダリングされた外観を変更するために使用され得る感情的な反応のセットを示すデータを記憶することができる。仮想的な環境でレンダリングするためのアバターデータ及び処理は、感情的な反応のそれぞれを適用できるように構造化できる。感情的な反応は、笑顔、笑い、泣き、握手による挨拶、ハグ又はキス、退屈状態、しかめ面、苛立ち(cross angry)、驚き、リラックス、興味/関心の表情等である。 The server system 1000 includes any number of server computers connected to the Internet 50. Server system 1000 operates to provide services in accordance with embodiments of the present invention. The server system 1000 includes a web server 110 that hosts web pages that are accessed and rendered by browsers 101A and 101B. The application server 120 is connected to the web server 110 and provides the web server 110 with dynamic data. The application server 120 is connected to the data store 195. Data store 195 stores data in a number of different databases: user database 130, avatar database 140, virtual world data store 150, conference database 160, and emotional reaction database 170. The user database 130 stores information about users that may include identifiers, names, ages, usernames and passwords, birthdays, addresses, and so on. The avatar database 140 may store data related to avatars that the user can create to represent the user and avatars that the user generated in association with the user data. The virtual world data store 150 stores data necessary for forming a virtual conference environment. The conference database 160 includes a conference identifier, a conference name, associated users attending the conference (and thus an avatar that is indirectly rendered in the virtual conference), an identifier for the video stream rendered as part of the augmented reality virtual conference, the conference Dates can be stored for a particular conference, including conference login information and the like. The emotional response database 170 can store data indicating a set of emotional responses selected by the user and that can be used to change the rendered appearance of the avatar. Avatar data and processing for rendering in a virtual environment can be structured to apply each of the emotional responses. Emotional reactions include smiles, laughter, crying, handshake greetings, hugs or kisses, boredom, frowning, cross angry, surprise, relax, facial expressions of interest.

図2は、一実施形態による図1のシステムを使用して仮想会議において感情的な反応を示すためのプロセスのフロー図である。 FIG. 2 is a flow diagram of a process for showing emotional reactions in a virtual conference using the system of FIG. 1 according to one embodiment.

ステップS10において、ユーザは、仮想会議において自分を表現するためにアバターを作成又は選択する。ステップS11において、仮想会議を規定する会議データのユーザ選択が受信される。ユーザ選択には、ユーザが仮想会議に出席しているという指標が含まれる。ステップS12において、仮想会議に対応するアバターデータ及び会議データを使用して、会議に出席しているユーザを表すアバターを含む仮想会議の表示のための出力が生成される。ステップS13において、仮想会議に出席しているユーザの感情的な反応又はボディランゲージを示す感情的な入力データが、ユーザから受信される。ステップS14において、感情的な入力データを使用してアバターデータが処理され、ステップS15において、仮想会議の表示のための出力が、感情的な入力データに応じて感情的な状態を表示させるべくユーザに関するアバターをレンダリングするように更新される。 In step S10, a user creates or selects an avatar to represent himself in a virtual conference. In step S11, a user selection of conference data defining a virtual conference is received. The user selection includes an indication that the user is attending a virtual conference. In step S12, the avatar data corresponding to the virtual conference and the conference data are used to generate an output for display of the virtual conference including an avatar representing a user attending the conference. In step S13, emotional input data indicating the emotional reaction or body language of the user attending the virtual conference is received from the user. In step S14, the avatar data is processed using the emotional input data, and in step S15, the output for displaying the virtual conference is displayed by the user to display the emotional state according to the emotional input data. Updated to render avatars for.

図3は、一実施形態に従って生成された仮想会議のためのユーザインターフェイスの概略図である。 FIG. 3 is a schematic diagram of a user interface for a virtual conference created according to one embodiment.

ディスプレイ200は、仮想会議を表示する仮想会議領域201と、ユーザが選択可能なメニュー項目を表示する反応メニュー領域202とを含み、ユーザが感情的な反応又はボディランゲージを仮想会議のアバターに適用する入力を選択して、他の出席者と相互作用できるようにする。他の出席者は、仮想会議の表示領域でアバターに適用されたユーザの感情的な反応を確認して、それに応じて、例えば、自分のアバターに表示される感情的な反応を変更するか、仮想会議において他の動作を行うことにより、反応することができる。この実施形態では、メニューはテキストメニューとして示されているが、メニューは、ユーザが、ユーザ選択に応じて感情的な反応及びボディランゲージを表示させるためにアバターの外見及び行動を変更するように選択できる様々な感情的な状態を表すアイコン又は画像を含むことができる。 The display 200 includes a virtual conference area 201 for displaying a virtual conference and a reaction menu area 202 for displaying user selectable menu items, and the user applies an emotional reaction or body language to the virtual conference avatar. Select an input so that you can interact with other attendees. Other attendees can see the user's emotional reaction applied to the avatar in the display area of the virtual meeting and change the emotional reaction displayed on their avatar accordingly, for example, You can react by performing other actions in the virtual conference. In this embodiment, the menu is shown as a text menu, but the menu is selected by the user to change the appearance and behavior of the avatar to display emotional reactions and body language in response to user selections. It can include icons or images that represent various possible emotional states.

また、メニューをユーザに表示して、ユーザが音又は音楽を選択して、アバターが、既製の又はユーザが作成できる「あいさつ」、「ちょっと(hey)」、「どうした?(what’s
up)」のような選択された言葉遣い又は既成のフレーズ、或いは誕生日又は挨拶メッセージを仮想会議に出力できるようにし得る。これらは、アメリカ人や英語等の様々なアクセント、又は有名人のものまね(声色)さえ選択できる場合がある。
In addition, a menu is displayed to the user, the user selects a sound or music, and the avatar can make “greeting”, “hey”, “what?
A selected phrase or pre-made phrase, such as "up)", or a birthday or greeting message may be output to the virtual conference. These may be selectable with various accents such as American or English, or even mimicking (voice color) of a famous person.

例えば、ユーザが言いたいことの一部、例えばローマ語で話している場合にフランス語を話すこと等、メッセージを翻訳及び再生する翻訳オプションがあり得る。これは事前に保存された記録でもよく、又はユーザ(アバター)が言った内容をシステムが翻訳することもできるが、この場合に少し遅れること可能性がある。一例として、事前に記録及び保存されたメッセージオプションがあり、これを使用して、ユーザが、アバターを介して例えば会議中の別のアバター又はゲストユーザに対する応答として記録及び再生できる。 For example, there may be translation options that translate and play the message, such as some of what the user wants to say, such as speaking French when speaking in Roman. This could be a pre-stored record, or the system could translate what the user (avatar) said, but this could be a little late. One example is pre-recorded and saved message options that can be used by the user to record and play back via the avatar, eg, in response to another avatar in a meeting or a guest user.

ディスプレイ200は、仮想会議の領域201の外側に、仮想会議出席者に対してメッセージを個別に、グループで、又はグローバルに他のユーザと共有するために使用できる共有メッセージ領域203を含む。また、仮想会議の領域201の外側には、共有表示領域204が表示されている。この例では、共有表示領域204が仮想会議の仮想ホワイトボード203に対応しているため、共有表示領域に描画されたものは全て仮想ホワイトボード203に表示される。 Outside the virtual meeting area 201, the display 200 includes a shared message area 203 that can be used to share messages to virtual meeting attendees individually, in groups, or globally with other users. A shared display area 204 is displayed outside the virtual meeting area 201. In this example, since the shared display area 204 corresponds to the virtual whiteboard 203 of the virtual conference, everything drawn in the shared display area is displayed on the virtual whiteboard 203.

仮想会議領域201には、会議の出席者のアバターが表示される。4人が座っている。2人の出席者206が握手をして互いに挨拶している様子が示されている。これを達成するために、アバター206に対応するユーザは、握手をする反応メニュー項目を選択している。ユーザの1つのアバター207が怒りを示している。1つのアバター208が笑顔で表示される。 In the virtual conference area 201, avatars of attendees of the conference are displayed. 4 people are sitting. Two attendees 206 are shown shaking hands and greeting each other. To achieve this, the user corresponding to avatar 206 has selected the reaction menu item to shake hands. One avatar 207 of the user is angry. One avatar 208 is displayed with a smile.

仮想会議は、従来の会議として動作するように制御することができ、クライアント装置の各ユーザは、入力音声を話して、他の出席者のクライアント装置に送信することができる。一例では、文書を仮想ディスプレイのテーブルに配置することにより、文書を会議に入力できる。配置する場所は、その文書を見ることができるユーザに影響する。全員に見せるために、文書のコピーを全員の前に置くことができる。文書を仮想ファイリングキャビネット214にドラッグしてファイリングするか、ユーザが仮想ファイリングキャビネット214においてイルを検索又は選択するか、仮想ファイリングキャビネット214を検索してファイリングシステムに文書を見つけるようにサーチさせることができる。ユーザは、仮想会議においてアバターを移動させることができ、ユーザが会議から退出すると、ユーザがドア205から出て行く様子が示され得る。 The virtual conference can be controlled to operate as a conventional conference, and each user of the client device can speak the input voice and send it to the client devices of other attendees. In one example, a document can be entered into a conference by placing the document in a table on a virtual display. Where it is placed affects the users who can see the document. You can put a copy of the document in front of everyone for everyone to see. The document can be dragged into the virtual filing cabinet 214 for filing, the user can search or select files in the virtual filing cabinet 214, or the virtual filing cabinet 214 can be searched and the filing system searched to find the document. .. The user can move the avatar in the virtual conference and can be shown to exit the door 205 as the user exits the conference.

出席者毎に表示される仮想会議の視点は、テーブルの周りに割り当てられた座席位置に応じて異なり得る。 The perspective of the virtual conference displayed for each attendee may vary depending on the seat positions assigned around the table.

図4は、一実施形態による拡張現実会議ディスプレイを使用した会議の概略図である。 FIG. 4 is a schematic diagram of a conference using an augmented reality conference display according to one embodiment.

前景では、物理的な現実世界の会議が、テーブルの周りで4人の出席者で行われている。テーブルの最後には、アバター301及び302を仮想的に使用して出席している参加者を表示するディスプレイ300がある。アバター301は、幸せそうな顔又は笑顔を反映するように、そのそれぞれのユーザによる感情的な入力によって制御されている。アバター302は、怒りやイライラした顔を反映するように、そのそれぞれのユーザによる感情的な入力によって制御されている。 In the foreground, a physical real-world conference is taking place around the table with four attendees. At the end of the table is a display 300 that virtually presents the attending participants using avatars 301 and 302. Avatar 301 is controlled by emotional input by its respective user to reflect a happy face or smile. The avatar 302 is controlled by emotional input by its respective user to reflect an angry or frustrated face.

拡張現実会議は、従来の会議として動作するように制御することができ、クライアント装置の各ユーザは、入力音声を話して、他の出席者のクライアント装置及びディスプレイ300に関連するスピーカーに送信することができる。一例では、文書を仮想ディスプレイ300のテーブルに配置することにより、文書を会議に入力することができる。配置する場所は、その文書を見ることができるユーザに影響し得る。全員に見せるために、文書のコピーを全員の前に置く必要がある。一例では、文書を仮想ファイリングキャビネット304にドラッグしてファイリングすることができる。ユーザは、仮想会議においてアバターを移動させることができる、ユーザが会議から退出すると、ユーザがドア303から出て行く様子が示され得る。図5に示されるように、実際の出席者のビデオフィードをリモート又は仮想出席者のコンピュータに提供するために、ビデオカメラ又はウェブカメラ305が設けられる。 The augmented reality conference can be controlled to operate as a conventional conference, in which each user of the client device speaks the input audio and sends it to the speaker device associated with the client device and display 300 of other attendees. You can In one example, the document can be entered into the conference by placing the document in a table on the virtual display 300. Where it is placed can affect who can see the document. You need to put a copy of the document in front of everyone for everyone to see. In one example, documents can be dragged into the virtual filing cabinet 304 for filing. The user can move the avatar in a virtual conference, and it can be shown that the user exits the door 303 when the user exits the conference. As shown in FIG. 5, a video camera or webcam 305 is provided to provide the actual attendee's video feed to the remote or virtual attendee's computer.

図5は、図4の実施形態の仮想出席者のために生成された拡張現実会議ディスプレイのユーザインターフェイスの概略図である。 FIG. 5 is a schematic diagram of a user interface of an augmented reality conference display generated for virtual attendees of the embodiment of FIG.

ディスプレイ350は、物理的な出席者のビデオストリームと結合された仮想会議セグメントとを含む拡張現実会議を表示する拡張現実会議領域310を含む。反応メニュー領域380は、ユーザが、他の出席者との相互作用のために、拡張現実会議において感情的な反応又はボディランゲージをアバターに適用する入力を選択できるようにするユーザ選択可能なメニュー項目を表示する。他の出席者は、拡張現実会議の表示領域においてアバターに適用されたユーザの感情的及び身体的反応を確認して、それに応じて、例えば、自分のアバターに表示される感情的な反応を変更するか、拡張現実会議において他の動作を行うことにより、反応することができる。この実施形態では、メニューはテキストメニューとして示されているが、メニューは、ユーザが、ユーザ選択に応じて感情的な反応及びボディランゲージを表示させるためにアバターの外見及び行動を変更するように選択できる様々な感情的な状態を表すアイコン又は画像を含むことができる。 Display 350 includes an augmented reality conference area 310 that displays an augmented reality conference that includes a video stream of physical attendees and a combined virtual conference segment. The reaction menu area 380 is a user-selectable menu item that allows the user to select an input that applies emotional reaction or body language to an avatar in an augmented reality conference for interaction with other attendees. Is displayed. Other attendees see the user's emotional and physical responses applied to the avatar in the display area of the augmented reality conference and modify, for example, the emotional response displayed on their avatar accordingly. Or react by performing other actions in the augmented reality conference. In this embodiment, the menu is shown as a text menu, but the menu is selected by the user to change the appearance and behavior of the avatar to display emotional reactions and body language in response to user selections. It can include icons or images that represent various possible emotional states.

一例では、ユーザは音楽データを共有するように選択することができ、これは、ユーザの気分又は感情の表現を示すのに役立ち、又は他のユーザの応答に応じて、曲や歌、例えば幸せな歌を再生、共有、又は保存して、他のユーザ(アバター)と共有するのを楽しむことができる。保存又は選択した音楽、例えば気分が落ち込んでいる悲しい音楽、孤独の寂しさ、憂うつ、又は気持ちの良い幸せな音楽を再生することにより、ユーザの気分を表すことができる。また、一例では、使用は、ラジオ局に合わせて、その時点でユーザの感情に適した選局を見つけることができる。 In one example, the user may choose to share music data, which may serve to show an expression of his mood or emotion, or depending on the response of other users, a song or song, say happy. You can enjoy playing, sharing, or saving different songs to share with other users (avatars). Playing stored or selected music, such as depressed sad music, loneliness of loneliness, depression, or pleasing happy music, can represent the mood of the user. Also, in one example, the use can be tailored to the radio station to find a suitable tuning at that time for the user's emotions.

また、一例では、ユーザは、色、例えば異なる色の仮想ペイント(色療法と呼ばれることもある時間療法(chronotherapy))を選択して適用することができる。ユーザは、仮想ベッドルームを魔法のようなキラキラ光る色で塗りつぶしたり、ユーザが仮想空間でどのように感じているかを友人に示すために濃い色で塗りつぶしたりするよう選択することができる。 Also, in one example, the user can select and apply a color, for example, a virtual paint of a different color (chronotherapy, sometimes referred to as color therapy). The user can choose to fill the virtual bedroom with a magical shimmering color or a dark color to show a friend how the user feels in the virtual space.

拡張現実会議は、従来の会議として動作するように制御することができ、仮想会議セグメントに出席するクライアント装置の各ユーザは、音声を入力して、他の仮想出席者のクライアント装置及び物理的な(実際の)出席者用のディスプレイ300に関連するスピーカーに送信することができる。一例では、実際の会議に物理的に提示された文書は、拡張現実会議の仮想ディスプレイセグメントのテーブルに配置することにより、仮想会議に入力できる。配置する場所は、それら文書を見ることができるユーザに影響する。拡張現実会議の仮想セグメントの全員にそれら文書を見せるために、文書のコピーを全ての仮想出席者の前に置くことができる。文書は、仮想ファイリングキャビネット304にドラッグしてファイリングですることができる。ユーザは、拡張現実会議の仮想セグメントにおいてアバターを移動させることができ、ユーザが会議から退出すると、ユーザがドア303から出て行く様子が示され得る。 An augmented reality conference can be controlled to operate as a traditional conference, where each user of a client device attending a virtual conference segment can enter audio to enter the client device and the physical device of another virtual attendee. It can be sent to the speaker associated with the display 300 for the (real) attendee. In one example, the document physically presented to the actual conference can be entered into the virtual conference by placing it in a table in the virtual display segment of the augmented reality conference. The location of placement affects the users who can see those documents. A copy of the document can be placed in front of all virtual attendees to make them visible to all of the virtual segments of the augmented reality conference. Documents can be filed by dragging them into the virtual filing cabinet 304. The user can move the avatar in the virtual segment of the augmented reality conference and can be shown to exit the door 303 as the user exits the conference.

ディスプレイ350は、拡張現実会議の出席者に対して個別に、グループで、又はグローバルに他のユーザとメッセージを共有するために使用できる共有メッセージ領域360を含む。また、共有表示領域370が表示される。 Display 350 includes a shared message area 360 that can be used to share messages with other users individually, in a group, or globally to attendees in an augmented reality conference. Also, the shared display area 370 is displayed.

図6は、一実施形態に従って生成されたソーシャルミーティングのためのユーザインターフェイスの概略図である。 FIG. 6 is a schematic diagram of a user interface for a social meeting generated according to one embodiment.

ディスプレイ400は、仮想的な環境でアバターを表示することができる仮想会議領域410を含む。この実施形態では、アバター403はそのユーザによって笑顔を示すように制御され、アバター402は笑うように制御され、前景の2つのアバター401は、握手によって互いに挨拶するように制御されている。 The display 400 includes a virtual conference area 410 that can display an avatar in a virtual environment. In this embodiment, the avatar 403 is controlled by the user to show a smile, the avatar 402 is controlled to smile, and the two foreground avatars 401 are controlled to greet each other by shaking hands.

反応メニュー領域404は、ユーザが、他の出席者との相互作用のために、感情的な反応又はボディランゲージを仮想会議のアバターに適用する入力を選択できるようにするユーザ選択可能なメニュー項目を表示する。他の出席者は、仮想会議表示領域410のアバターに適用されるユーザの感情的な反応を確認することができ、それに応じて、例えば、自分のアバターに表示される感情的な反応を変更するか、又は仮想会議において他の動作を行うことにより、反応することができる。 The reaction menu area 404 provides user-selectable menu items that allow the user to select inputs that apply emotional reactions or body language to the virtual conference avatar for interaction with other attendees. indicate. Other attendees can see the user's emotional reaction applied to the avatar in the virtual meeting display area 410 and change, for example, the emotional reaction displayed on their avatar accordingly. Alternatively, it can react by performing other actions in the virtual conference.

ディスプレイ400は、仮想会議の領域410の外側に、仮想会議出席者に対して個別に、グループで、又はグローバルにメッセージを他のユーザと共有するために使用できる共有メッセージ領域405を含む。また、仮想会議の領域410の外側には、共有表示領域406が表示される。この例では、その共有表示領域406は、アバター402及び403で表される2人のユーザの間で共有されるニュース項目に対応する。メッセージ領域には、ニュース項目に関連するアバター403(David)とアバター402(Steve)と間のプライベートメッセージ交換が表示される。アバターの感情的な反応は、ニュース項目に関するユーザの相互作用を反映するように、関連するユーザによる入力によって調整されている。 Outside the virtual conference area 410, the display 400 includes a shared message area 405 that can be used to share messages with other users individually, in groups, or globally to virtual conference attendees. A shared display area 406 is displayed outside the virtual conference area 410. In this example, the shared display area 406 corresponds to a news item shared between two users represented by avatars 402 and 403. In the message area, a private message exchange between avatar 403 (David) and avatar 402 (Steve) related to the news item is displayed. The emotional response of the avatar is coordinated by the input by the relevant user to reflect the user's interaction with the news item.

システムを制御して、ユーザが異なる部屋で行われる会議に参加し、移動できるようにすることができる。これらの会議室は、例えば会議室マップとして模式的に表示され、ユーザがある会議室から別の会議室に移動して、会議に参加したり退室したりするように選択できる。部屋は様々なタイプの会議、例えばゲームルーム会議、コーヒーテーブル会議等を表すことができる。また、ユーザは会議を設定し、他のユーザが設定した会議の仮想の場所と時間を使用して他のユーザを会議に招待できる。 The system can be controlled to allow users to join and move into conferences held in different rooms. These meeting rooms are typically displayed as a meeting room map, for example, and the user can select to move from one meeting room to another and join or leave the meeting. A room may represent various types of meetings, such as game room meetings, coffee table meetings, and so on. The user can also set up a meeting and invite other users to the meeting using the virtual location and time of the meeting set by the other user.

会議の表示領域では、アバターの識別子を表示することができ、あるいは代替的に又は追加的に、出席者のリストを表示することができる。 In the display area of the meeting, the avatar identifier may be displayed, or alternatively or additionally, a list of attendees may be displayed.

アバターを使用する仮想会議は、店内又はジム等、対応する現実世界の環境に関連する環境内にあり得る。 Virtual meetings using avatars may be in a store or in an environment related to the corresponding real-world environment, such as a gym.

上述した実施形態では、アバターの感情的な状態を設定するためのユーザ入力は、簡素なメニュー選択に基づいている。もっとも、他の形式のユーザ入力を使用できる。例えば、ユーザの顔や場合によっては身体の写真やビデオを撮影し、ユーザの感情的な反応を決定するために、カメラを使用できる。また、ユーザには、アバターを制御するために、入力するか、音声を認識により、感情的な反応を説明するフリーテキストを入力する能力が提供され得る。ユーザの写真又はビデオは、ユーザの現在の衣服をキャプチャし、ユーザが着用している様々な衣服、例えば衣装、スーツ及びネクタイ、ドレス、デザインの凝った服等を表すようにアバターを適合させるように使用することもできる。これを使用して、仮想会議でスマートな服装やカジュアルな服装をするユーザの能力を促進できる。ユーザは、会議毎に変更できる服装又はスーツ及びネクタイ、例えば別の色のネクタイを選択できる。 In the embodiment described above, the user input for setting the emotional state of the avatar is based on simple menu selections. However, other forms of user input can be used. For example, a camera can be used to take a picture or video of the user's face and possibly the body and determine the user's emotional response. The user may also be provided with the ability to enter, or by recognizing voice, enter free text that describes an emotional reaction to control the avatar. The user's photo or video captures the user's current clothing and adapts the avatar to represent various clothing worn by the user, such as clothing, suits and ties, dresses, fancy dress, etc. Can also be used for. It can be used to promote the user's ability to wear smart or casual clothes in virtual meetings. The user can select clothes or suits and ties that can change from meeting to meeting, such as ties of different colors.

生成されたアバターは、任意の形式を取るためにユーザによって選択され得る。例えば、アバターは、ユーザ自身の特徴が含まれている動物、又はユーザと混ぜ合わされた他のキャラクター、つまり適応可能な人間の特徴であり得る。 The generated avatar can be selected by the user to take any form. For example, the avatar may be an animal that contains the user's own traits, or other character mixed with the user, ie, an adaptable human trait.

これは、会議の環境がユーザ又はユーザのグループによって所望されるように選択できるため、様々な年齢層に適している。年配及び若い人々のグループ、例えば家族や社会的グループ、例えばアイルランドのおばあちゃん(gran)が、オーストラリアの若い孫と仮想的に会って、物語を共有し、笑うことができる。ユーザは、仮想的な環境に合わせて、又は仮想的な環境に一致させてカジュアルな服装を選択するか、又は選択した衣装に合わせて仮想的な環境を変更できる。ユーザは、仮想会議内で自分のニーズを満たす仮想的なアクセサリー及びアイテムを楽しむことができ、ユーザはそれらアクセサリー等を仮想ショップで購入し、仮想更衣室に行き、次の仮想会議の準備ができる。 This is suitable for different age groups, as the environment of the meeting can be selected as desired by the user or group of users. Groups of older and younger people, such as family and social groups, such as Irish grannies, can virtually meet, share stories, and laugh with young Australian grandchildren. The user can select casual clothes according to the virtual environment or in accordance with the virtual environment, or change the virtual environment according to the selected costume. The user can enjoy virtual accessories and items that meet his needs in the virtual conference, and the user can purchase these accessories and the like at the virtual shop, go to the virtual changing room, and prepare for the next virtual conference. ..

ユーザは、例えば、別の仮想会議室の別の仮想会議に参加するかどうかをメニューから選択することができる。 The user can select from the menu whether or not to join another virtual conference in another virtual conference room, for example.

一例では、仮想会議は、仮想の食べ物及び/又は飲み物を含む仮想のレストラン又は懇親会で行われる。 In one example, the virtual conference is conducted at a virtual restaurant or social gathering that includes virtual food and/or drinks.

基本的なコンピュータ装置
図7は、本発明の例示的な実施形態を具体化できる基本的なコンピュータ装置600を示すブロック図である。接続、関係、及び機能を含むコンピュータ装置600及びそのコンポーネントは、例示的なものに過ぎず、例示的な実施形態の実施態様を制限するものではない。例示的な実施形態を実施するのに適した他のコンピュータ装置は、異なる接続、関係、及び機能を有するコンポーネントを含む、異なるコンポーネントを有し得る。
Basic Computer Device FIG. 7 is a block diagram illustrating a basic computer device 600 in which exemplary embodiments of the invention may be implemented. The computing device 600, including connections, relationships, and functions, and components thereof, are exemplary only, and are not limiting of the implementation of the exemplary embodiments. Other computing devices suitable for implementing the exemplary embodiments may have different components, including components having different connections, relationships, and functions.

コンピュータ装置600は、例えば図1に示されるように、任意のサーバ又はユーザ装置を含むことができる。 The computing device 600 can include any server or user device, for example, as shown in FIG.

コンピュータ装置600は、メインメモリ606をアドレス指定し、装置600の様々なコンポーネント同士の間でデータを転送するためのバス602又は他の通信メカニズムを含むことができる。 Computer device 600 may include a bus 602 or other communication mechanism for addressing main memory 606 and transferring data between various components of device 600.

コンピュータ装置600は、情報を処理するためにバス602に結合された1つ又は複数のハードウェアプロセッサ604も含み得る。ハードウェアプロセッサ604は、汎用マイクロプロセッサ、システムオンチップ(SoC)、又は他のプロセッサであり得る。 Computing device 600 may also include one or more hardware processors 604 coupled to bus 602 for processing information. The hardware processor 604 can be a general purpose microprocessor, system on chip (SoC), or other processor.

ランダムアクセスメモリ(RAM)又は他の動的な記憶装置等のメインメモリ606も、プロセッサ604によって実行される情報及びソフトウェア命令を記憶するためにバス602に結合され得る。メインメモリ606は、プロセッサ604によって実行されるソフトウェア命令の実行中に一時変数又は他の中間情報を保存するためにも使用され得る。 Main memory 606, such as random access memory (RAM) or other dynamic storage, may also be coupled to bus 602 for storing information and software instructions executed by processor 604. Main memory 606 may also be used to store temporary variables or other intermediate information during execution of software instructions executed by processor 604.

ソフトウェア命令は、プロセッサ604にアクセス可能な記憶媒体に記憶されると、コンピュータ装置600を、ソフトウェア命令で指定された動作を実行するようにカスタマイズされた専用コンピュータ装置にする。用語「ソフトウェア」、「ソフトウェア命令」、「コンピュータプログラム」、「コンピュータ実行可能命令」、及び「プロセッサ実行可能命令」は、人間が読み取れるかどうかにかかわらず、アプリケーションソフトウェア、デスクトップアプリケーション、スクリプト、バイナリ、オペレーティングシステム、装置ドライバ、ブートローダー、シェル、ユーティリティ、システムソフトウェア、JAVASCRIPT(登録商標)、Webページ、Webアプリケーション、プラグイン、組込みソフトウェア、マイクロコード、コンパイラー、デバッガー、インタープリター、仮想マシン、リンカー、及びテキストエディター等を含むがこれらに限定されない特定の操作を実行するようにコンピュータ装置に指示するために機械読み取り可能な情報を網羅すると広く解釈すべきである。 The software instructions, when stored on a storage medium accessible to the processor 604, cause the computing device 600 to be a specialized computing device customized to perform the operations specified in the software instructions. The terms "software", "software instructions", "computer program", "computer executable instructions", and "processor executable instructions", whether human readable or not, refer to application software, desktop applications, scripts, binaries, Operating system, device driver, boot loader, shell, utility, system software, JAVASCRIPT (registered trademark), web page, web application, plug-in, embedded software, microcode, compiler, debugger, interpreter, virtual machine, linker, and It should be broadly construed as covering machine-readable information for instructing a computing device to perform a particular operation, including, but not limited to, a text editor.

コンピュータ装置600は、バス602に結合された読取り専用メモリ(ROM)608又は他の静的記憶装置も含み、これらメモリは、プロセッサ604のための静的情報及びソフトウェア命令を記憶することができる。 Computing device 600 also includes read-only memory (ROM) 608 or other static storage coupled to bus 602, which memory can store static information and software instructions for processor 604.

1つ又は複数の大容量記憶装置610は、バス602に結合され、磁気、光、ソリッドステート、磁気光、フラッシュメモリ、又は他の利用可能な大容量ストレージ技術等の固定又は消去可能な媒体に情報及びソフトウェア命令を永続的に記憶することができる。大容量ストレージは、ネットワーク上で共有される場合もあれば、専用の大容量ストレージである場合もある。典型的には、大容量記憶装置610の少なくとも1つ(例えば、装置のメインハードディスク)は、オペレーティングシステム、ユーザプリケーションプログラム、ドライバ及び他のサポートファイル、だけでなくあらゆる種類の他のデータファイルを含むコンピュータ装置の動作を指示するためのプログラム及びデータの本体を記憶する。 One or more mass storage devices 610 are coupled to bus 602 and may be on fixed or erasable media such as magnetic, optical, solid state, magneto-optical, flash memory, or other available mass storage technology. Information and software instructions can be permanently stored. The mass storage may be shared on the network or may be a dedicated mass storage. Typically, at least one of the mass storage devices 610 (eg, the device's main hard disk) contains an operating system, user application programs, drivers and other support files, as well as any other type of data file. The main body of the program and data for instructing the operation of the computer device including the computer is stored.

コンピュータ装置600は、コンピュータユーザに情報を表示するために、バス602を介して液晶ディスプレイ(LCD)又は他の電子視覚ディスプレイ等のディスプレイ612に結合され得る。いくつかの構成では、タッチ検出技術(例えば、抵抗性、容量性等)を組み込んだタッチ感知面をディスプレイ612上にオーバーレイしてタッチ感知ディスプレイを形成し、タッチジェスチャ(例えば、指又はスタイラス)入力をプロセッサ604に伝えることができる。 Computing device 600 may be coupled via bus 602 to a display 612, such as a liquid crystal display (LCD) or other electronic visual display, for displaying information to a computer user. In some configurations, a touch-sensitive surface that incorporates touch-sensing technology (eg, resistive, capacitive, etc.) is overlaid on the display 612 to form a touch-sensitive display and a touch gesture (eg, finger or stylus) input. Can be communicated to the processor 604.

英数字及び他のキーを含む入力装置614が、バス602に結合され、情報及びコマンド選択をプロセッサ604に通信することができる。英数字及び他のキーに加えて、又はその代わりに、入力装置614は、例えば、電源(オン/オフ)ボタン、「ホーム」ボタン、音量調節ボタン等の物理的な1つ又は複数のボタン又はスイッチを含み得る。 An input device 614, including alphanumeric characters and other keys, can be coupled to bus 602 to communicate information and command selections to processor 604. In addition to or in place of alphanumeric and other keys, input device 614 may include one or more physical buttons or buttons, such as a power (on/off) button, a “home” button, a volume control button, or the like. It may include a switch.

別のタイプのユーザ入力装置は、方向情報及びコマンド選択をプロセッサ604に通信し、且つディスプレイ612上でカーソル移動を制御するためのマウス、トラックボール、カーソル、タッチスクリーン、又は方向キー等のカーソル制御616であり得る。この入力装置は、典型的に、装置が面内の位置を指定できるように、第1軸(x等)及び第2軸(y等)の2つの軸に2つの自由度を有している。他の入力装置の実施形態は、音声等の音声入力を認識する音声又は発言認識入力モジュール、ユーザによるジェスチャーを認識できる視覚入力装置、及びキーボードを含む。 Another type of user input device is a cursor control, such as a mouse, trackball, cursor, touch screen, or direction key for communicating direction information and command selections to processor 604 and controlling cursor movement on display 612. 616. This input device typically has two degrees of freedom in two axes, a first axis (such as x) and a second axis (such as y), so that the device can specify a position in a plane. .. Other input device embodiments include a voice or utterance recognition input module that recognizes voice inputs such as voice, a visual input device that can recognize a gesture by a user, and a keyboard.

図7に示される構成等のいくつかの構成では、ディスプレイ612、入力装置614、及びカーソル制御616の1つ又は複数は、コンピュータ装置600の外部コンポーネント(すなわち、周辺装置)であるが、ディスプレイ612、入力装置614、及びカーソル制御616のいくつか又は全部は、他の構成ではコンピュータ装置600のフォームファクタの一部として統合される。 In some configurations, such as the configuration shown in FIG. 7, one or more of display 612, input device 614, and cursor control 616 are external components of computing device 600 (ie, peripheral devices), but display 612. , Input device 614, and some or all of cursor control 616 are integrated as part of the form factor of computing device 600 in other configurations.

ディスプレイ612に加えて、又はディスプレイ612の代わりに、音声出力装置又は触覚(振動)出力装置等の任意の他の形態のユーザ出力装置を想定することができる。 In addition to or instead of display 612, any other form of user output device, such as an audio output device or a tactile (vibration) output device may be envisioned.

開示されたシステム、方法、及びモジュールの機能は、メインメモリ606に含まれるソフトウェア命令の1つ又は複数のプログラムを実行するプロセッサ604に応じて、コンピュータ装置600によって実行され得る。そのようなソフトウェア命令は、記憶装置610又は伝送媒体等の別の記憶媒体からメモリ606に読み込まれ得る。メインメモリ606に含まれるソフトウェア命令の実行により、プロセッサ604が例示的な実施形態の機能を実行する。 The functions of the disclosed systems, methods and modules may be performed by computing device 600 in response to processor 604 executing one or more programs of software instructions contained in main memory 606. Such software instructions may be read into memory 606 from storage device 610 or another storage medium such as a transmission medium. Execution of software instructions contained in main memory 606 causes processor 604 to perform the functions of the illustrative embodiments.

例示的な実施形態の機能及び動作は、ソフトウェア命令で完全に実装され得るが、コンピュータ装置600のハードワイヤード又はプログラマブル回路(例えば、ASIC、FPGA等)は、ソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて他の実施形態で使用され、将来実施される特定の実装の要件に従って機能を実行し得る。 Although the functionality and operation of the exemplary embodiments may be fully implemented in software instructions, the hard-wired or programmable circuitry of computing device 600 (eg, ASIC, FPGA, etc.) may replace or in combination with software instructions. Used in combination in other embodiments, the functions may be performed according to the requirements of particular implementations implemented in the future.

本明細書で使用する「記憶媒体」という用語は、コンピュータ装置を特定の様式で動作させるデータ及び/又はソフトウェア命令を記憶する任意の非一時的な媒体を指す。そのような記憶媒体は、不揮発性媒体及び/又は揮発性媒体を含み得る。不揮発性媒体には、例えば、不揮発性ランダムアクセスメモリ(NVRAM)、フラッシュメモリ、光ディスク、磁気ディスク、又は記憶装置610等のソリッドステートドライブが含まれる。揮発性媒体には、メインメモリ606等のダイナミックメモリが含まれる。記憶媒体の一般的な形式には、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、ソリッドステートドライブ、磁気テープ、又は他の磁気データ記憶媒体、CD−ROM、他の光学データ記憶媒体、孔パターンを有する物理的媒体、RAM、PROM、EPROM、FLASH−EPROM、NVRAM、フラッシュメモリ、他のメモリチップ又はカートリッジが含まれる。 The term "storage medium" as used herein refers to any non-transitory medium that stores data and/or software instructions that cause a computing device to operate in a particular fashion. Such storage media may include non-volatile media and/or volatile media. Non-volatile media include, for example, non-volatile random access memory (NVRAM), flash memory, optical disks, magnetic disks, or solid state drives such as storage device 610. Volatile media includes dynamic memory, such as main memory 606. Common forms of storage media include, for example, floppy disks, flexible disks, hard disks, solid state drives, magnetic tape or other magnetic data storage media, CD-ROMs, other optical data storage media, hole patterns. Included are physical media, RAM, PROM, EPROM, FLASH-EPROM, NVRAM, flash memory, other memory chips or cartridges.

記憶媒体は、伝送媒体とは異なるが、伝送媒体と併せて使用され得る。伝送媒体は、記憶媒体同士の間の情報の転送に関与する。例えば、伝送媒体には、バス602を構成するワイヤーを含む同軸ケーブル、銅線、及び光ファイバーが含まれる。伝送媒体は、電波や赤外線データ通信中に生成されるような音響波又は光波の形態を取ることもできる。コードの形で命令を伝える機械可読媒体は、非一時的な記憶媒体及び伝送媒体を含むことができる。 A storage medium is different from a transmission medium but may be used in combination with the transmission medium. Transmission media participates in transferring information between storage media. For example, transmission media includes coaxial cables, copper wire and fiber optics, including the wires that comprise bus 602. Transmission media can also take the form of acoustic or light waves, such as those generated during radio wave or infrared data communication. Machine-readable media that carry instructions in the form of code can include non-transitory storage media and transmission media.

媒体の様々な形態は、1つ又は複数のソフトウェア命令の1つ又は複数のシーケンスを実行のためにプロセッサ604に伝えることに関与し得る。例えば、ソフトウェア命令は、最初はリモートコンピュータの磁気ディスク又はソリッドステートドライブで実行できる。リモートコンピュータは、ソフトウェア命令をダイナミックメモリにロードし、モデムを使用してソフトウェア命令を電話回線で送信できる。コンピュータ装置600に対してローカルなモデムは、データを電話回線で受信し、赤外線送信機を使用してデータを赤外線信号に変換することができる。赤外線検出器は、赤外線信号で伝えられるデータを受信でき、適切な回路によって、データをバス602に配置できる。バス602は、データをメインメモリ606に伝え、そのメインメモリ606からプロセッサ604がソフトウェア命令を検索して実行する。メインメモリ606が受信したソフトウェア命令は、オプションで、プロセッサ604による実行の前又は後のいずれかに記憶装置610に記憶され得る。 Various forms of media may be involved in carrying one or more sequences of one or more software instructions to processor 604 for execution. For example, the software instructions may initially be carried on a magnetic disk or solid state drive of a remote computer. The remote computer can load the software instructions into dynamic memory and send the software instructions over a telephone line using a modem. A modem local to computing device 600 can receive the data on the telephone line and use an infrared transmitter to convert the data to an infrared signal. The infrared detector can receive the data carried in the infrared signal, and appropriate circuitry can place the data on the bus 602. The bus 602 transfers data to the main memory 606, from which the processor 604 retrieves and executes software instructions. Software instructions received by main memory 606 may optionally be stored on storage device 610 either before or after execution by processor 604.

コンピュータ装置600は、バス602に結合された1つ又は複数の通信インターフェイス618も含み得る。通信インターフェイス618は、ローカルネットワーク622(例えば、イーサネット(登録商標)ネットワーク、ワイヤレスローカルエリアネットワーク、携帯電話ネットワーク、Bluetooth(登録商標)ワイヤレスネットワーク等)に接続された有線又は無線ネットワークリンク620に結合する双方向データ通信を提供する。通信インターフェイス618は、様々なタイプの情報を表すデジタルデータストリームを伝える電気信号、電磁信号、又は光信号を送受信する。例えば、通信インターフェイス618は、有線ネットワークインターフェイスカード、統合無線アンテナを有する無線ネットワークインターフェイスカード、又はモデム(例えば、ISDN、DSL、又はケーブルモデム)であり得る。 Computing device 600 may also include one or more communication interfaces 618 coupled to bus 602. The communication interface 618 is both coupled to a wired or wireless network link 620 connected to a local network 622 (eg, Ethernet network, wireless local area network, mobile phone network, Bluetooth wireless network, etc.). Providing data communication for communication. Communication interface 618 sends and receives electrical, electromagnetic, or optical signals that carry digital data streams representing various types of information. For example, the communication interface 618 can be a wired network interface card, a wireless network interface card with integrated wireless antennas, or a modem (eg ISDN, DSL, or cable modem).

ネットワークリンク620は、典型的に、1つ又は複数のネットワークを介して他のデータ装置へのデータ通信を提供する。例えば、ネットワークリンク620は、ローカルネットワーク622を介して、ホストコンピュータ又はインターネットサービスプロバイダー(ISP)によって運営されるデータ機器への接続を提供し得る。ISPは、現在、通常「インターネット」と呼ばれている世界規模のパケットデータ通信ネットワークを介したデータ通信サービスを提供する。ローカルネットワーク622及びインターネットは、デジタルデータストリームを伝える電気信号、電磁信号、又は光信号を使用する。コンピュータ装置600との間でデジタルデータを伝える、様々なネットワークを介した信号及びネットワークリンク620上の信号及び通信インターフェイス618を介した信号は、伝送媒体の例示的な形態である。 Network link 620 typically provides data communication through one or more networks to other data devices. For example, network link 620 may provide a connection via local network 622 to data equipment operated by a host computer or Internet Service Provider (ISP). ISPs currently provide data communication services via a worldwide packet data communication network commonly referred to as the "Internet". Local network 622 and the Internet use electrical, electromagnetic, or optical signals that carry digital data streams. Signals through various networks and signals on network link 620 and signals via communication interface 618, which carry digital data to and from computing device 600, are exemplary forms of transmission media.

コンピュータ装置600は、ネットワーク、ネットワークリンク620、及び通信インターフェイス618を介して、メッセージを送信し、プログラムコードを含むデータを受信することができる。インターネットの例では、サーバは、要求されたコードを、インターネット、ISP、ローカルネットワーク622、通信インターフェイス618を介したアプリケーションプログラムに送信することができる。 Computing device 600 can send messages and receive data, including program code, through the network(s), network link 620 and communication interface 618. In the Internet example, the server may send the requested code to the application program via the Internet, ISP, local network 622, communication interface 618.

受信したコードは、受信したときにプロセッサ604によって実行され、及び/又は後で実行するために記憶装置610又は他の不揮発性記憶装置に記憶され得る。 The received code may be executed by processor 604 as it is received, and/or stored in storage device 610 or other non-volatile storage for later execution.

一態様は、方法を実施するために、マシンのプロセッサによって実行されるコードを記憶する非一時的な記憶媒体、又は方法を実施するために、マシンのプロセッサによって実行されるプロセッサ実行可能コードを伝える一時的な媒体等のキャリア媒体を提供する。実施形態は、コンピュータコードを実装するプログラム可能なデジタルロジックで実装することができる。コードは、キャリア媒体によってプロセッサやマイクロプロセッサ等のプログラマブルロジックに供給することができる。キャリア媒体のそのような1つの実施形態は、一時的な媒体、すなわち、電気信号、電磁信号、音響信号、磁気信号、又は光信号等の信号である。キャリア媒体の別の形態は、ソリッドステートメモリ、磁気媒体(ハードディスクドライブ)、又は光媒体(コンパクトディスク(CD)又はデジタル多用途ディスク(DVD))等のコードを記憶する非一時的な記憶媒体である。 One aspect conveys a non-transitory storage medium storing code executed by a processor of a machine to implement the method, or processor executable code executed by a processor of the machine to implement the method. A carrier medium such as a temporary medium is provided. Embodiments may be implemented with programmable digital logic that implements computer code. The code may be provided by a carrier medium to programmable logic such as a processor or microprocessor. One such embodiment of the carrier medium is a transitory medium, ie a signal such as an electrical signal, an electromagnetic signal, an acoustic signal, a magnetic signal, or an optical signal. Another form of carrier medium is a non-transitory storage medium that stores code, such as solid state memory, magnetic medium (hard disk drive), or optical medium (compact disc (CD) or digital versatile disc (DVD)). is there.

本発明の主題の性質を説明するために説明及び図示した部品及び方法段階の詳細、材料、及び配置における様々な他の変更が、従属請求項に記載されている本発明の主題の原理及び範囲から逸脱することなく、行うことができることは、当業者には容易に理解されよう。

Various other changes in the details, materials and arrangements of parts and method steps described and illustrated to explain the nature of the subject matter of the invention are described in the dependent claims, as well as the principles and scope of the subject matter of the invention. It will be readily appreciated by those skilled in the art that what can be done without deviating from it.

Claims (12)

仮想会議において感情的な反応を示すためのシステムであって、当該システムは、
少なくとも1つのプロセッサと、
命令を記憶するメモリと、を含んでおり、
前記命令は、前記少なくとも1つのプロセッサによって実行可能にされ、
1人又は複数の対応するユーザからの入力に応答して、前記1人又は複数の対応するユーザを表す1つ又は複数のアバターを規定するアバターデータを作成又は選択すること、
1つ又は複数の仮想会議を規定する会議データの1つ又は複数のユーザ選択を受信することであって、ユーザ選択は、前記ユーザが前記仮想会議に出席しているという指標を含む、受信すること、
前記仮想会議に対応する前記アバターデータ及び前記会議データを使用して、会議に出席している1人又は複数のユーザを表す1つ又は複数のアバターを含む仮想会議の表示のための出力を生成すること、
前記仮想会議に出席している前記1人又は複数のユーザの感情的な反応又はボディランゲージを示す感情的な入力データを1人又は複数のユーザから受信すること、
前記感情的な入力データを使用して前記アバターデータを処理すること、及び
それぞれの前記感情的な入力データに応じてそれぞれの感情的な状態を表示させるべく前記1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、前記仮想会議の表示のための出力を更新すること、が行われる、
システム。
A system for showing an emotional reaction in a virtual conference, the system comprising:
At least one processor,
A memory for storing instructions,
The instructions are executable by the at least one processor,
Creating or selecting avatar data defining one or more avatars representing the one or more corresponding users in response to input from one or more corresponding users;
Receiving one or more user selections of meeting data defining one or more virtual meetings, the user selections including an indication that the user is attending the virtual meeting. thing,
The avatar data corresponding to the virtual conference and the conference data are used to generate an output for display of the virtual conference including one or more avatars representing one or more users attending the conference. What to do,
Receiving from one or more users emotional input data indicating an emotional reaction or body language of the one or more users attending the virtual conference;
Processing the avatar data using the emotional input data, and one for the one or more users to display respective emotional states in response to the respective emotional input data. Or updating the output for display of the virtual conference to render multiple avatars.
system.
前記命令は、前記感情的な入力データに関連するボディランゲージを表示するべく前記1つ又は複数のアバターをレンダリングするように、前記少なくとも1つのプロセッサにより実行可能な命令を含む、請求項1に記載のシステム。 The instruction of claim 1, wherein the instruction comprises an instruction executable by the at least one processor to render the one or more avatars to display body language associated with the emotional input data. System. 会議のビデオデータを受信するように前記少なくとも1つのプロセッサによって実行可能な命令を含み、前記ビデオデータは会議の1人又は複数の参加者のビデオ画像を含み、前記表示のための出力を生成するように前記少なくとも1つのプロセッサによって実行可能にされる前記命令は、前記参加者の前記ビデオ画像を前記ビデオデータにオーバーレイした、1人又は複数のユーザを表す1つ又は複数のアバターを含む拡張現実会議として前記表示のための出力を生成するように、前記少なくとも1つのプロセッサにより実行可能にされる命令を含む、請求項1又は2に記載のシステム。 Instructions executable by the at least one processor to receive video data for a meeting, the video data including video images of one or more participants in the meeting, and producing output for the display. Augmented reality including one or more avatars representing one or more users, wherein the instructions executable by the at least one processor overlay the video image of the participant on the video data. 3. The system of claim 1 or 2, including instructions executable by the at least one processor to generate output for the display as a conference. 感情的な状態の予め規定されたセットを記憶するように前記少なくとも1つのプロセッサにより実行可能にされる命令を含み、前記感情的な入力データを受信するように前記少なくとも1つのプロセッサにより実行可能にされる命令は、前記感情的な状態のメニューを表示するための出力の選択として前記感情的な入力データを受信するための命令を含む、請求項1乃至3のいずれか一項に記載のシステム。 Comprising instructions executable by said at least one processor to store a predefined set of emotional states, executable by said at least one processor to receive said emotional input data 4. A system according to any one of claims 1 to 3, wherein the instructions performed include instructions for receiving the emotional input data as a selection of outputs for displaying the menu of emotional states. .. 前記アバターに必要な相互作用を行わせるために、前記仮想会議に出席している1人又は複数のユーザから相互作用入力を受信すること、及び前記必要な相互作用を表示するために1人又は複数のユーザから相互作用データを受信して、1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、前記仮想会議の前記表示のための出力の更新することを行うように、前記少なくとも1つのプロセッサにより実行可能な命令を含む、請求項1乃至4のいずれか一項に記載のシステム。 Receiving interaction input from one or more users attending the virtual conference to cause the avatar to perform the required interaction, and one or more to display the required interaction. Receiving interaction data from multiple users and updating output for said display of said virtual conference to render one or more avatars for one or more users, The system according to any one of claims 1 to 4, comprising instructions executable by said at least one processor. 仮想会議において感情的な反応を示す方法であって、当該方法は、
1人又は複数の対応するユーザからの入力に応答して、前記1人又は複数の対応するユーザを表す1つ又は複数のアバターを規定するアバターデータを作成又は選択するステップと、
1つ又は複数の仮想会議を規定する会議データの1つ又は複数のユーザ選択を受信するステップであって、ユーザ選択は、前記ユーザが前記仮想会議に出席しているという指標を含む、受信するステップと、
前記仮想会議に対応する前記アバターデータ及び前記会議データを使用して、会議に出席している1人又は複数のユーザを表す1つ又は複数のアバターを含む仮想会議の表示のための出力を生成するステップと、
前記仮想会議に出席している前記1人又は複数のユーザの感情的な反応又はボディランゲージを示す感情的な入力データを1人又は複数のユーザから受信するステップと、
前記感情的な入力データを使用して前記アバターデータを処理するステップと、
それぞれの前記感情的な入力データに応じてそれぞれの感情的な状態を表示させるべく前記1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングするように、前記仮想会議の表示のための出力を更新するステップと、を含む、
方法。
A method of showing an emotional reaction in a virtual conference, the method comprising:
Creating or selecting avatar data defining one or more avatars representing the one or more corresponding users in response to input from one or more corresponding users;
Receiving one or more user selections of conference data defining one or more virtual conferences, wherein the user selections include an indication that the user is attending the virtual conference. Steps,
The avatar data corresponding to the virtual conference and the conference data are used to generate an output for display of the virtual conference including one or more avatars representing one or more users attending the conference. Steps to
Receiving from one or more users emotional input data indicating an emotional reaction or body language of the one or more users attending the virtual conference;
Processing the avatar data using the emotional input data,
Output for display of the virtual conference to render one or more avatars for the one or more users to display their respective emotional states in response to their respective emotional input data. Including the step of updating
Method.
前記1つ又は複数のアバターは、前記感情的な入力データに関連するボディランゲージを表示するようにレンダリングされる、請求項6に記載の方法。 7. The method of claim 6, wherein the one or more avatars are rendered to display body language associated with the emotional input data. 会議のビデオデータを受信するステップを含み、前記ビデオデータは会議の1人又は複数の参加者のビデオ画像を含み、前記出力は、前記参加者の前記ビデオ画像を前記ビデオデータにオーバーレイした、1人又は複数のユーザを表す1つ又は複数のアバターを含む拡張現実会議として表示するために生成される、請求項6又は7に記載の方法。 Receiving video data of a conference, the video data comprising video images of one or more participants of the conference, the output overlaying the video images of the participants on the video data, 8. A method according to claim 6 or 7, generated for display as an augmented reality conference including one or more avatars representing a person or users. 感情的な状態の予め規定されたセットを記憶するステップを含み、前記感情的な入力データは、前記感情的な状態のメニューを表示するための出力の選択として受信される、請求項6乃至8のいずれか一項に記載の方法。 9. A step of storing a predefined set of emotional states, said emotional input data being received as a selection of outputs for displaying said menu of emotional states. The method according to any one of 1. 前記アバターに必要な相互作用を行わせるために、前記仮想会議に出席している1人又は複数のユーザから相互作用入力を受信するステップと、前記必要な相互作用を表示するために1人又は複数のユーザから相互作用データを受信して、前記1人又は複数のユーザに関する1つ又は複数のアバターをレンダリングように、前記仮想会議の前記表示のための出力を更新するステップと、を含む、請求項6乃至9のいずれか一項に記載の方法。 Receiving interaction input from one or more users attending the virtual conference to cause the avatar to perform the required interaction; and one or more to display the required interaction. Receiving interaction data from multiple users and updating an output for the display of the virtual conference to render one or more avatars for the one or more users. The method according to any one of claims 6 to 9. 請求項6乃至10のいずれか一項に記載の方法を実施するようにプロセッサにより実行されるプロセッサ実行可能コードを伝送するキャリア媒体。 A carrier medium carrying processor executable code executed by a processor to perform the method of any one of claims 6-10. 請求項6乃至10のいずれか一項に記載の方法を実施するようにプロセッサにより実行されるプロセッサ実行可能コードを記憶する非一時的な記憶媒体。

A non-transitory storage medium storing processor executable code executed by a processor to perform the method of any one of claims 6-10.

JP2019572423A 2017-07-05 2018-06-13 Method and system for indicating reaction of participants in a virtual conference Pending JP2020525946A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1710840.8A GB201710840D0 (en) 2017-07-05 2017-07-05 Virtual meeting participant response indication method and system
GB1710840.8 2017-07-05
PCT/GB2018/051619 WO2019008320A1 (en) 2017-07-05 2018-06-13 Virtual meeting participant response indication method and system

Publications (1)

Publication Number Publication Date
JP2020525946A true JP2020525946A (en) 2020-08-27

Family

ID=59592638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019572423A Pending JP2020525946A (en) 2017-07-05 2018-06-13 Method and system for indicating reaction of participants in a virtual conference

Country Status (10)

Country Link
EP (1) EP3649588A1 (en)
JP (1) JP2020525946A (en)
KR (1) KR20200037241A (en)
CN (1) CN111066042A (en)
AU (1) AU2018298474A1 (en)
CA (1) CA3068920A1 (en)
GB (1) GB201710840D0 (en)
SG (1) SG11202000052WA (en)
WO (1) WO2019008320A1 (en)
ZA (1) ZA202000730B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145040A1 (en) * 2020-12-31 2022-07-07 株式会社I’mbesideyou Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113014852A (en) * 2019-12-19 2021-06-22 斑马智行网络(香港)有限公司 Information prompting method, device and equipment
CN111583415B (en) * 2020-05-08 2023-11-24 维沃移动通信有限公司 Information processing method and device and electronic equipment
JP2022018733A (en) * 2020-07-16 2022-01-27 ヤフー株式会社 Provision program, provision method, and provision device
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
CN113014471B (en) * 2021-01-18 2022-08-19 腾讯科技(深圳)有限公司 Session processing method, device, terminal and storage medium
US11381411B1 (en) 2021-03-30 2022-07-05 Snap Inc. Presenting participant reactions within a virtual conferencing system
US11855796B2 (en) 2021-03-30 2023-12-26 Snap Inc. Presenting overview of participant reactions within a virtual conferencing system
US11843567B2 (en) * 2021-04-30 2023-12-12 Zoom Video Communications, Inc. Shared reactions within a video communication session
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
GB2607331A (en) * 2021-06-03 2022-12-07 Kal Atm Software Gmbh Virtual interaction system
KR102527398B1 (en) * 2021-11-23 2023-04-28 엔에이치엔클라우드 주식회사 Method and system for virtual fitting based on video meeting program
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11704864B1 (en) 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07255044A (en) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp Animated electronic conference room and video conference system and method
JP2002351806A (en) * 2001-05-28 2002-12-06 Namco Ltd Chat information, information recording medium, computer system, and server system
JP2009077380A (en) * 2007-09-24 2009-04-09 Fuji Xerox Co Ltd Method, system and program for modifying image
US20100287510A1 (en) * 2009-05-08 2010-11-11 International Business Machines Corporation Assistive group setting management in a virtual world
JP2016115328A (en) * 2014-12-17 2016-06-23 富士ゼロックス株式会社 Method for calculation execution, calculation processing system, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101930284B (en) * 2009-06-23 2014-04-09 腾讯科技(深圳)有限公司 Method, device and system for implementing interaction between video and virtual network scene
US9386268B2 (en) * 2012-04-09 2016-07-05 Intel Corporation Communication using interactive avatars

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07255044A (en) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp Animated electronic conference room and video conference system and method
JP2002351806A (en) * 2001-05-28 2002-12-06 Namco Ltd Chat information, information recording medium, computer system, and server system
JP2009077380A (en) * 2007-09-24 2009-04-09 Fuji Xerox Co Ltd Method, system and program for modifying image
US20100287510A1 (en) * 2009-05-08 2010-11-11 International Business Machines Corporation Assistive group setting management in a virtual world
JP2016115328A (en) * 2014-12-17 2016-06-23 富士ゼロックス株式会社 Method for calculation execution, calculation processing system, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145040A1 (en) * 2020-12-31 2022-07-07 株式会社I’mbesideyou Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
JP7465012B2 (en) 2020-12-31 2024-04-10 株式会社I’mbesideyou Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program

Also Published As

Publication number Publication date
ZA202000730B (en) 2023-12-20
GB201710840D0 (en) 2017-08-16
CN111066042A (en) 2020-04-24
KR20200037241A (en) 2020-04-08
AU2018298474A1 (en) 2020-02-20
SG11202000052WA (en) 2020-02-27
WO2019008320A1 (en) 2019-01-10
CA3068920A1 (en) 2019-01-10
EP3649588A1 (en) 2020-05-13

Similar Documents

Publication Publication Date Title
JP2020525946A (en) Method and system for indicating reaction of participants in a virtual conference
US20170302709A1 (en) Virtual meeting participant response indication method and system
US11460970B2 (en) Meeting space collaboration in augmented reality computing environments
US10838574B2 (en) Augmented reality computing environments—workspace save and load
US20200145360A1 (en) System and method of embedding rich media into text messages
US8356077B2 (en) Linking users into live social networking interactions based on the users' actions relative to similar content
US20190362312A1 (en) System and method for creating a collaborative virtual session
Lal Digital design essentials: 100 ways to design better desktop, web, and mobile interfaces
WO2019199569A1 (en) Augmented reality computing environments
WO2023049053A9 (en) Content linking for artificial reality environments
CN108846886A (en) A kind of generation method, client, terminal and the storage medium of AR expression
US20200166991A1 (en) Systems and methods for mixed reality interactions with avatar
WO2022169668A1 (en) Integrating artificial reality and other computing devices
US20240069687A1 (en) Presenting participant reactions within a virtual working environment
WO2023049052A1 (en) Visual navigation elements for artificial reality environments
CN109416638A (en) Customized compact superposition window
KR101750788B1 (en) Method and system for providing story board, and method and system for transmitting and receiving object selected in story board
KR20180135532A (en) Method and system for providing Story-board
US11972173B2 (en) Providing change in presence sounds within virtual working environment
US20240069857A1 (en) Providing change in presence sounds within virtual working environment
JP2024050636A (en) Content recommendation method and user device
WO2016174967A1 (en) Introduction of mascot avatar in cloud service for emotional sharing by group members using respective information terminals
KR20180134719A (en) Method and system for providing Story Keyboard, and method and system for transmitting and receiving a selected object using the same
Coelho Designing multimodal TV-based social network services for older adults
Flewelling Expanding God's Kingdom Online: A Rhetorical Analysis of Internet Churches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230621

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240319