JP2018173829A - 仮想会議プログラム - Google Patents

仮想会議プログラム Download PDF

Info

Publication number
JP2018173829A
JP2018173829A JP2017071692A JP2017071692A JP2018173829A JP 2018173829 A JP2018173829 A JP 2018173829A JP 2017071692 A JP2017071692 A JP 2017071692A JP 2017071692 A JP2017071692 A JP 2017071692A JP 2018173829 A JP2018173829 A JP 2018173829A
Authority
JP
Japan
Prior art keywords
conference
data
user
virtual
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017071692A
Other languages
English (en)
Inventor
池田 武史
Takeshi Ikeda
武史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lecre Inc
Original Assignee
Lecre Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lecre Inc filed Critical Lecre Inc
Priority to JP2017071692A priority Critical patent/JP2018173829A/ja
Publication of JP2018173829A publication Critical patent/JP2018173829A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】 議論への集中を阻害する要因を排除すること。【解決手段】 コンピュータに、複数のオブジェクトのうち、会議ユーザを表すユーザオブジェクトごとの属性データと座標データを関連付けるオブジェクトデータ群および会議ユーザの動作に応じてユーザオブジェクトを表示させる画像出力指示と、会議ユーザの音声に基づく音声を出力させる音声出力指示を出力するオブジェクトデータ制御機能、画像出力指示に応じて座標データに対応する位置にユーザオブジェクトを表示させるための画像表示用データを生成する画像データ生成機能、音声出力指示に応じて仮想空間におけるユーザオブジェクトの位置および表示状態と属性データに基づいて音声を出力する音声出力用データを生成する音声データ生成機能、を実現させる仮想会議プログラムによる。【選択図】図1

Description

本発明は、仮想会議プログラムに関する。
遠隔地に所在する会議参加者の映像と音声を通信回線により相互にやりとりできるようにするオンライン会議システムが知られている。従来のオンライン会議システムの一例として、それぞれの会議室に情報処理装置とカメラを設置し、他の会議室との映像と音声の相互通信ができ、双方の会議室にいるどの参加者が発言をしているかをわかりやすくするものもある。
従来のオンライン会議システムでは、互いに離れた会議室にいる会議参加者があたかも同じ会議室に集合しているかのような臨場感は得にくい、という課題があった。臨場感を得られるような工夫を有する会議システムとして、各参加者に対応する撮影部を設置し、各参加者の顔画像を他の装置において、実際の会議室に座っている配置に合わせて表示する会議システムも開示されている(例えば、特許文献1を参照)。
また、臨場感ある映像を表示して、映像視聴者に対して没入感を提供する仮想映像を表示する装置に関連する技術も開示されている(例えば、特許文献2参照)。
特開2009−239762号公報 特開2016−127587号公報
特許文献1に開示されている技術によれば、双方の会議参加者の表情や服装、身振り手振りなどの参加者の発言以外の様子(仕草、服装、身振り手振りなど)も伝わる。このような発言以外の情報が伝わると、他の会議参加者の会議への集中が阻害される要因となることがある。また、映像を介して発言者を特定できることから、個々の発言者の役職などによる心理的なバイアスが作用して、議論への集中を阻害する要因になることがある。また、高圧的な姿勢で会議に臨む参加者や地声が大きな参加者などがいると、映像や音声を介して、他の会議参加者において心理的ストレスが生ずることもある。このような、心理的ストレスも、議論への集中を阻害する要因になることがある。一方、映像を全く配信しないことにすると、発言者が発言時にどの方向に向いているのかが分からず、発言が個人に向けたものなのか全体に向けたものなのかがわかりにくくなる。このような状況も、議論への集中を阻害する要因になることがある。また、会議室内で発生する音(時計の動作音など)や、会議室の周囲で発生する音(外部の騒音など)も、マイクが拾うと相手側に配信されるので、周囲の環境音により議論へ集中が阻害される要因になることがある。以上のように、従来のオンライン会議システムでは、議論への集中を阻害する多種多様な要因があり、活発な議論の邪魔になる、という課題があった。
特許文献2において開示されている技術をオンライン会議システムに用いるとすると、上記の課題の要因となる周囲環境音の影響は排除できる可能性がある。また、他の会議参加者の様子をより臨場感をもった映像として配信することはできる。しかし、会議に不必要な情報(他の参加者の身振り手振りや、見た目などの様子)がより伝わりやすくなり、議論への集中を逆に大きく阻害する要因になる、という課題もあった。
本発明は、従来技術を用いても解決できない技術課題を解決するものであり、会議における議論への集中を阻害する要因を排除することができる仮想会議プログラムを提供することを目的とする。
上記課題を解決するために、仮想空間とともに、当該仮想空間内に配置されたオブジェクトを表示させ、仮想会議を制御する機能をコンピュータにおいて実現する仮想会議プログラムであって、前記コンピュータに、複数の前記オブジェクトのうち、前記仮想会議に参加するユーザである会議ユーザを表すオブジェクトであるユーザオブジェクトごとの属性データと座標データを関連付けるオブジェクトデータ群および前記会議ユーザの動作に応じて前記ユーザオブジェクトを表示させるための画像出力指示と、前記会議ユーザの音声に基づく音声を出力させるための音声出力指示と、を出力するオブジェクトデータ制御機能と、前記画像出力指示に応じて、前記座標データに対応する位置に前記会議ユーザに関連する前記属性データと当該会議ユーザの姿勢とを反映させた前記ユーザオブジェクトを表示させるための画像表示用データを生成する画像データ生成機能と、前記音声出力指示に応じて、前記仮想空間における前記ユーザオブジェクトの位置および表示状態と当該ユーザオブジェクトの属性データとに基づいて前記会議ユーザからの音声を出力するための音声出力用データを生成する音声データ生成機能と、を実現させることを特徴とする。
本発明によれば、会議における議論への集中を阻害する要因を排除することができる。
本発明に係る仮想会議プログラムの実施形態を示す機能ブロック図である。 上記仮想会議プログラムの処理の流れを示すフローチャートである。 上記仮想会議プログラムが用いる属性データのデータ構造の例である。 上記仮想会議プログラムが用いる位置データのデータ構造の例である。 上記仮想会議プログラムにより表示される画面の例を示す図である。 上記仮想会議プログラムにより表示される画面の別の例を示す図である。 上記仮想会議プログラムにより表示される画面の更に別の例を示す図である。 上記仮想会議プログラムが実行される情報処理端末の外観を示す図である。 上記仮想会議プロプログラムが実行される情報処理端末のハードウェア構成を示す図である。 上記仮想会議プロプログラムを適用可能な態様の例を示す図である。 上記仮想会議プロプログラムを適用可能な態様の別の例を示す図である。
[本発明に係る実施形態の要旨]
以下、本発明に係る仮想会議プログラムの実施形態について説明する。図1は、本実施形態に係る仮想会議プログラム10の機能構成を示す。仮想会議プログラム10は、仮想空間とともに、仮想空間内に配置されるオブジェクトを表示させる機能をと仮想会議空間において音声を出力する機能と、をコンピュータにおいて実現する、コンピュータ用プログラムである。仮想会議プログラム10によれば、会議の議論の内容に集中できる会議環境をユーザに提供することができる。仮想会議プログラム10は、コンピュータを介して、ユーザに、仮想空間とともに、他の参加者の存在を投影させたユーザオブジェクトを表示した仮想会議空間を提供する。仮想会議プログラム10は、この仮想会議空間を介して遠隔地にいる他の参加者が発話していることを認識できる映像表示と、他の参加者の発話内容が伝達できる音声出力、を提供する。
図1に示すように、仮想会議プログラム10は、ユーザオブジェクトを含むオブジェクトデータの制御を実現するオブジェクトデータ制御部11と、画像データ生成機能を実現する画像データ生成部12と、音声データ生成機能を実現する音声データ生成部13と、を有している。仮想会議プログラム10は、情報処理装置において実行されるものであって、いわゆるスタンドアロン型情報処理端末やネットワーク接続型情報処理端末など、形態を問わず、上記の各機能を実現するものである。なお、以下において説明する本実施形態では、情報処理端末100を例にして用いることとする。
オブジェクトデータ制御部11は、会議ユーザの「音声」や「動作」を示すデータを入力データとして受領する。オブジェクトデータ制御部11は、入力データと、複数の会議ユーザのそれぞれに対応するユーザオブジェクトのオブジェクトデータ群に含まれる各種データと、に応じて、画像データ生成部12に画像出力指示を通知し、かつ、音声データ生成部13に音声出力指示を通知する。
画像データ生成部12は、オブジェクトデータ制御部11から通知される画像出力指示に応じて、外部から入力される入力データとオブジェクトデータ群とに基づくユーザオブジェクトを仮想空間内に表示するための画像表示用データを生成する。また、画像データ生成部12は、生成した画像表示用データを情報処理端末100における画像出力機能部102に送る。これによって、仮想会議プログラム10を用いた会議システムのユーザに対して、仮想空間とともに、仮想空間内に配置されたユーザオブジェクトを提示することができる。
音声データ生成部13は、オブジェクトデータ制御部11から通知される音声出力指示に応じて、外部から入力される入力データとオブジェクトデータ群に基づく音声を出力するための音声出力用データを生成する。音声データ生成部13は、音声出力用データを情報処理端末100が備える音声出力機能部103に送る。これによって、仮想空間とともに、仮想空間内に配置されたユーザオブジェクトが表示された環境において、表示されているユーザオブジェクトに合うような音声が出力される。
なお、オブジェクトデータ制御部11に用いられるオブジェクトデータ群は、属性データ格納部104と、位置データ格納部105に、格納されて管理される。属性データ格納部104は、会議ユーザごとのユーザオブジェクトにおける「属性データ」を格納する。
「属性データ」には、例えば、以下のようなデータが含まれている。オブジェクトのプロフィール(「名称」または「氏名」、「ID」、「メールアドレス」、「年齢」、「性別」、「所属」、「肩書」、「プロフィール」、「態様」、「利用者画像(アバター)」)等である。また、「利用者画像(アバター)」として登録した物と異なる画像や、音声の癖の種類(言語、性別、大小、早口、ゆっくり、なまり、イントネーション、など)をパターン化した情報、および、音声の癖を均一化するためのデータが含まれる。
図3において、属性データ格納部104に格納される属性データの例を示す。図3に示すように、会議ユーザを一意に識別するためのユーザ識別子(ID)に対し、仮想空間において当該会議ユーザを識別するためのオブジェクト識別子や、現実の属性、仮想の属性、などが関連付けられて管理されている。
また、図4において、位置データ格納部105に格納される位置データの例を示す。図4に示すように、位置データ格納部105は、ユーザオブジェクト毎の、仮想空間内における座標に関するデータを位置データとして格納し管理する。位置データは、オブジェクト識別子に関連付けられていて、各ユーザオブジェクトの仮想空間内における三次元座標であって、X座標、Y座標、Z座標からなる。
各ユーザオブジェクトの座標は、仮想会議プログラム10が起動したときに、自動的に決定されてもよい。また、会議に参加するユーザの数に応じて予め設定されていてもよい。また、各ユーザオブジェクトの座標は、会議に参加するユーザに係るユーザオブジェクトが仮想空間に表示されるときの順番に基づいて設定されてもよい。
[情報処理端末100の外観]
次に、仮想会議プログラム10を実行するコンピュータの例として携帯型の情報端末であって、ネットワークを介して他の情報端末と通信できる機能を備える情報処理端末100について説明する。図8は、情報処理端末100の外観の例を示していて、情報処理端末100を、画像出力機能部102側から見た平面図である。画像出力機能部102は、画像データ生成部12において生成される表示用画像データに基づいて、仮想空間と、仮想空間に配置されているオブジェクトと、を表示する。
[情報処理端末100のハードウェア構成]
次に、情報処理端末100のハードウェア構成を図10に示す。情報処理端末100は、一般的なPC等と同様の構成を備える。図10に示すように、情報処理端末100は、CPU(Central Processing Unit)111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、HDD(Hard Disk Drive)114、操作部115、回線接続部116がバス117を介して接続されている。
また、情報処理端末100には、会議参加ユーザの動作を検知してオブジェクトデータ制御部11に動作データを伝えるための動作情報入力部である姿勢センサ118、画像出力機能部102を構成するハードウェア資源であるディスプレイ119、音声出力機能部103を構成するハードウェア資源であるスピーカ120、音声入力機能部を構成するハードウェア資源であるマイクロホン121が、所定のインターフェースを介してバス117に接続されている。
CPU111は演算手段であり、情報処理端末100の全体の動作を制御する。また、CPU111は、姿勢センサ118の検知により他の情報処理端末に通知される入力データに含まれる「動作」を示すデータを生成するための演算処理を実行する。また、CPU111は、仮想空間を生成して表示するための演算処理も実行する。CPU111において仮想会議プログラム10が実行されることにより、上記にて説明した各機能が実現される。
RAM112は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU111が各種の演算処理を実行するときの作業領域として用いられる。ROM113は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。
HDD114は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納される。
RAM112、ROM113、HDD114などの記憶媒体および、これらとは別体であって情報処理端末100に外部接続される記録媒体のハードウェア資源を用いて属性データ格納部104および位置データ格納部105が実現される。
操作部115は、ユーザが情報処理端末100に情報を入力するためのユーザーインターフェースである。回線接続部116は、情報処理端末100を通信ネットワークなどに接続するための通信用I/Fである。
姿勢センサ118は、例えば、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現されるセンサである。姿勢センサ118によって、他の会議ユーザのディスプレイ119に表示されているユーザオブジェクトの向きや、仮想空間に対する視野の向きを決定するための動作を検出することができる。
ディスプレイ119は、ユーザの視野全体に仮想空間画像を表示する表示装置である。
スピーカ120は、ユーザに対して音声を出力する。
マイクロホン121は、ユーザの発話を会議ユーザの発話を収音する。
なお、姿勢センサ118、ディスプレイ119、スピーカ120およびマイクロホン121は、情報処理端末100とは別体のハードウェアを用いてもよい。
[仮想会議プログラム10の実行環境その1]
ここで、仮想会議プログラム10の実行環境の例について図10を用いて説明する。図10は、ネットワーク接続機能を備える情報処理端末100をヘッドマウントディスプレイアダプタ300に装着し、会議ユーザであるユーザ500が使用する使用状態の例示である。この場合、情報処理端末100において、図1に示した仮想会議プログラム10が実行され、当該仮想会議プログラム10と情報処理端末100が備えるハードウェア資源により、各機能部、各データ格納部および出力機能部が実現される。図10に示すように、ヘッドマウントディスプレイアダプタ300に搭載された情報処理端末100は、ユーザ500の頭部に装着して使用される。
ヘッドマウントディスプレイアダプタ300は、筐体311、装着具312、およびヘッドホン313を備える。筐体311は、情報処理端末100が取り付けられる構造を備えていて、ディスプレイ119の表示面がユーザ500の視界に向くようになっている。装着具312は、筐体311が所定の位置で固定されるように、会議参加者の頭部に装着するための部材である。装着具312は例えば、ベルトや伸縮性の帯等で構成される。ヘッドホン313は、情報処理端末100のスピーカ120の代わりにユーザ500に音声を出力する。
ユーザ500が装着具312を装着すると、筐体311が当該ユーザ500の眼を覆う状態になる。この状態になるとユーザ500の視界は、筐体311によって遮られて視覚による情報は遮断される。また、ヘッドホン313によって外部環境における雑音は遮断される。これによって、ユーザ500が仮想空間における会議に集中できる環境を得ることができる。
[仮想会議プログラム10の実行環境その2]
次に、仮想会議プログラム10を実行環境の別の例について図11を用いて説明する。図11は、ネットワーク接続機能を備える情報処理端末100a,100b,100c、と通信ネットワーク600を介して接続されるクラウドコンピューティング型のサーバ100dと、を有する仮想会議システム1000の例である。仮想会議プログラム10は、サーバ100dが備えるハードウェア資源を用いて、すでに説明した機能を実現する。また、画像出力機能部102,音声出力機能部103を実現するハードウェア資源は、情報処理端末100a、100b、100cが備えるものを用いる。
サーバ100dは、複数のコンピュータを連係して動作させるように構成し、あたかも1台のコンピュータのように動作するものである。サーバ100dは、図9に示したような一般的なコンピュータが備えるハードウェア資源を備えていて、サーバ100dが備える演算処理装置において仮想会議プログラム10が実行され図1に示した機能ブロックが実現される。
以下において説明する仮想会議プログラム10の動作フローは、情報処理端末100または、仮想会議システム1000のいずれにおいても適用可能なものである。
[仮想会議プログラム10の動作フロー]
次に、仮想会議プログラム10の動作について、図2のフローチャートを用いて説明をする。なお、仮想会議プログラム10の処理が開始されるタイミングは、任意であって、会議を招集するユーザの操作による。なお、図2に示すフローチャートにおける各ステップの処理は、単なる一例である。したがって、同様の結果を得ることができれば、各ステップの処理の順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。
まず、仮想会議プログラム10の処理が開始されると、仮想空間表示処理において、画像出力機能部102を介してディスプレイ119に仮想空間が表示される(S201)。図5において仮想空間および仮想会議空間の表示例を説明する。図5に示すように、S201において、ディスプレイ119には、仮想空間の画像として仮想会議画像61が表示される。
仮想会議画像61は、ユーザ500に対応するユーザオブジェクトの一例としてのモノリス62が表示される例である。モノリス62は、属性データに係る仮想属性の一種であって、会議に参加するユーザ500の現実の属性とは関係のない仮想属性に基づいて表示されるユーザオブジェクトである。即ち、画像データ生成部12は、モノリスのように人間を模した画像とは異なる画像をユーザオブジェクトとして表示することもできる。モノリス62のように、実際のユーザ500の外見にこだわらないユーザオブジェクトを用いることで、現実のユーザ500に対する先入観を画像から与えることを排除することができる。
モノリス62に代表されるユーザオブジェクトは、仮想空間内において、会議参加者である会議ユーザの人数に相当する数が表示される。
仮想会議画像61の別の例を図7に示す。図7は、属性データに含まれる仮想属性の他のデータを用いた仮想会議画像61aの表示例であって、モノリス62のような図形ではなく、人間をある程度を模したユーザオブジェクトであるモノリス62aの表示例である。図7に示す各モノリス62aは、ユーザ500の現実の属性(性別、人種など)を反映したものではなくともよい。ユーザ500に対し、他のユーザ500への先入観や心理的ストレスなど、議論への集中を阻害する要因となる表示でなければよい。
図2に戻る。S201に続いて、入力データの受領の有無を判定する(S202)。入力データとは、情報処理端末100から送信される「動作」や「音声」に係るデータである。入力データの受領がなければ(S202:No)、処理をS201に遷移する。入力データの受領があれば(S202:Yes)、受領したデータに対応する対象オブジェクトを判別する(S203)。すなわち、入力データには、情報処理端末100を一意に識別できる情報、または、該当するユーザオブジェクトを一意に識別できる情報が含まれる。
ここで、受領した入力データとは、情報処理端末100から伝達されてくる会議参加者の向きを示す動作データや、音声などである。続いて、S203において受領したデータに基づいて、対象オブジェクトにおける画像出力指示を生成する(S204)。画像出力指示は、他の参加者の向きを判定した当該他のユーザに係るユーザオブジェクトの表示と、自端末である情報処理端末100の向きに係る仮想空間の表示を生成するために必要な情報を含む。
続いて、S203において判別された対象オブジェクトに関連する画像出力指示を生成する(S204)。S204において生成される指示は、S203において受領したデータに基づいて、対象オブジェクトに対する表示の変化内容等を示すものである。例えば、他のユーザ500における向きが変化した場合、ユーザ500に対する対象オブジェクトの属性データや位置データを元に、それを仮想会議空間上で反映した画像を表示できるような画像出力指示を生成する。
また、S203において判別された対象オブジェクトにおける音声出力指示を生成する(S205)。S205において生成される指示は、S203において受領したデータに基づいて、対象オブジェクトとの配置関係も加味し、受領した音声と、属性データに基づく音声出力の特性を調整した音声出力指示を生成して出力する。以上の処理を繰り返して実行することで、仮想会議プログラム10による仮想会議が実行される。
以上の実施形態によれば、仮想空間において、ユーザ500は、他のユーザ500の表情や声色による影響を排除し、会議に集中できる環境を得ることができる。
[仮想会議画像の表示例]
上記の処理により、ディスプレイ119に表示される仮想会議の画像は、ユーザ500の動作により変化するものとなる。図5を用いて説明した仮想会議画像61における正面にあるモノリス621は、現実の会議風景であれば、自己の正面にいる他のユーザ500に対応する。同様に、左側にあるモノリス622は、自己の左側にいる他のユーザ500に対応し、右側にあるモノリス623は、自己の右側にいる他のユーザ500に対応する。
図5に示すように、各モノリス62は、各ユーザ500の発話状況を明示するための音声表示画像63が含まれる。
仮想会議画像61は、当該ユーザ500が右を向くと、図6(a)に示すように、ユーザオブジェクト(図6の場合は、モノリス62)が円弧上を移動したような状態になる。この場合、図6(a)に示すように、正面に表示されていたモノリス621は、左側に表示され、右側に表示されていたモノリス623が表面に表示される。また、当該ユーザ500が正面から左に向くと、図6(c)に示すように、モノリス62が左方向において、円弧上を移動したような状態になる。この場合、図6(c)に示すように、正面に表示されていたモノリス621は、右側に表示され、左側に表示されていたモノリス622が表面に表示される。
[音声出力の例]
次に、仮想会議における音声出力の例について説明する。例えば、図5に示す仮想会議画像61が表示されている状態において、モノリス621からのユーザ500への音声は正面方向から聞こえる。また、モノリス622からのユーザ500への音声は左方向から、モノリス623に対応するユーザ500からの音声は右方向から、それぞれ聞こえるように調整した音声出力用データを音声データ生成部13が生成し出力する。
また、例えば、図6(a)に示した状態であれば、モノリス621からのユーザ500への音声は左方向から聞こえ、モノリス623からのユーザ500への音声が正面から聞こえる。図6(b)に示した状態であれば、モノリス622からのユーザ500への音声は正面から聞こえ、モノリス621からのユーザ500への声は右方向から聞こえる。
以上説明したとおり、本実施形態に係る仮想会議プログラム10は、一般的に知られているコンピュータと同等のハードウェア構成を備える装置(情報処理装置)において実行されるものである。ここで、ハードウェア構成は特に限定すべきものではなく、いわゆるスタンドアロン型情報処理端末、ネットワーク接続型情報処理端末など、クラウド型情報処理システムのいずれでもよい。
また、仮想会議プログラム10は、上記にて例示したように、情報処理端末100が備えるCPU111において、上記の各ステップの処理を実行するものの他に、各ステップの処理の一部の処理をCPU111以外のプロセッサや専用回路において実行するようにしてもよい。
以上説明したとおり、本発明に係る仮想会議プログラム10は、様々な態様のコンピュータにおいて実行されうるものであって、議論への集中を阻害する要因を排除した環境を実現する機能を備える。
10 仮想会議プログラム
11 オブジェクトデータ制御部
12 画像データ生成部
13 音声データ生成部
20 参加者端末
100 情報処理端末
102 画像出力機能部
103 音声出力機能部
104 属性データ格納部
105 位置データ格納部

Claims (9)

  1. 仮想空間とともに、当該仮想空間内に配置されたオブジェクトを表示させ、仮想会議を制御する機能をコンピュータにおいて実現する仮想会議プログラムであって、
    前記コンピュータに、
    複数の前記オブジェクトのうち、前記仮想会議に参加するユーザである会議ユーザを表すオブジェクトであるユーザオブジェクトごとの属性データと座標データを関連付けるオブジェクトデータ群および前記会議ユーザの動作に応じて前記ユーザオブジェクトを表示させるための画像出力指示と、前記会議ユーザの音声に基づく音声を出力させるための音声出力指示と、を出力するオブジェクトデータ制御機能と、
    前記画像出力指示に応じて、前記座標データに対応する位置に前記会議ユーザに関連する前記属性データと当該会議ユーザの姿勢とを反映させた前記ユーザオブジェクトを表示させるための画像表示用データを生成する画像データ生成機能と、
    前記音声出力指示に応じて、前記仮想空間における前記ユーザオブジェクトの位置および表示状態と当該ユーザオブジェクトの属性データとに基づいて前記会議ユーザからの音声を出力するための音声出力用データを生成する音声データ生成機能と、
    を実現させるための仮想会議プログラム。
  2. 前記オブジェクトデータ制御機能は、
    前記会議ユーザのそれぞれの動作および発声に基づいて、前記画像データ生成機能への前記画像出力指示の出力、および、前記音声データ生成機能への前記音声出力指示の出力をする、
    請求項1記載の仮想会議プログラム。
  3. 前記画像データ生成機能は、
    前記会議ユーザが音声を発したことが前記仮想空間において識別できるように前記画像表示用データを生成する、
    請求項1または2記載の仮想会議プログラム。
  4. 前記画像データ生成機能は、
    前記会議ユーザのそれぞれの前記動作を反映した前記画像表示用データを生成する、
    請求項1乃至3のいずれか一項に記載の仮想会議プログラム。
  5. 前記音声データ生成機能は、
    前記オブジェクトデータ制御機能において管理される前記座標データに基づいて、音声を発した前記会議ユーザに対応する前記ユーザオブジェクトが前記仮想空間において表示されている方向から前記音声が聞こえるような前記音声出力指示を出力する、
    請求項1乃至4のいずれか一項に記載の仮想会議プログラム。
  6. 前記オブジェクトデータ制御機能において管理される前記属性データは、前記会議ユーザの現実の特徴を表した現実属性データと、前記会議ユーザの仮想の特徴を表した仮想属性データと、を含み、
    前記オブジェクトデータ制御機能は、
    前記仮想属性データを用いて前記ユーザオブジェクトを表示するための前記画像表示用データを生成するように前記画像出力指示をする、
    請求項1乃至5のいずれか一項に記載の仮想会議プログラム。
  7. 前記オブジェクトデータ制御機能において管理される前記属性データは、前記会議ユーザの現実の特徴を表した現実属性データと、前記会議ユーザの仮想の特徴を表した仮想属性データと、を含み、
    前記音声データ生成機能は、
    前記仮想属性データを用いて、かつ、前記ユーザオブジェクトの表示状態に対応させて、前記音声出力用データを生成する、
    請求項1乃至5のいずれか一項に記載の仮想会議プログラム。
  8. 前記音声データ生成機能は、
    前記会議ユーザに関わらず一定の音量で前記音声を出力する前記音声出力用データを生成する、
    請求項1乃至7のいずれか一項に記載の仮想会議プログラム。
  9. 前記音声データ生成機能は、
    前記会議ユーザに関わらず標準的な前記音声を出力する前記音声出力用データを生成する、
    請求項1乃至7のいずれか一項に記載の仮想会議プログラム。
JP2017071692A 2017-03-31 2017-03-31 仮想会議プログラム Pending JP2018173829A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017071692A JP2018173829A (ja) 2017-03-31 2017-03-31 仮想会議プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071692A JP2018173829A (ja) 2017-03-31 2017-03-31 仮想会議プログラム

Publications (1)

Publication Number Publication Date
JP2018173829A true JP2018173829A (ja) 2018-11-08

Family

ID=64108767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071692A Pending JP2018173829A (ja) 2017-03-31 2017-03-31 仮想会議プログラム

Country Status (1)

Country Link
JP (1) JP2018173829A (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274596A (ja) * 1993-03-19 1994-09-30 Internatl Business Mach Corp <Ibm> 仮想会議システム用端末装置及び仮想会議システム
JPH07307935A (ja) * 1994-05-11 1995-11-21 Hitachi Ltd 会議画面表示制御装置
JP2001036884A (ja) * 1999-07-21 2001-02-09 Nec Corp 会議映像生成システムおよび方法
JP2006279588A (ja) * 2005-03-29 2006-10-12 Yamaha Corp 多地点通信会議用端末
JP2007115117A (ja) * 2005-10-21 2007-05-10 Pc Net Kk コンテンツ提供サーバー及びコンテンツ視聴システム
US20110239115A1 (en) * 2010-03-26 2011-09-29 Motorola, Inc. Selecting an avatar on a display screen of a mobile device
JP2013541075A (ja) * 2010-08-16 2013-11-07 ソーシャル・コミュニケーションズ・カンパニー ネットワーク通信環境における通信者対話の促進
JP2014149644A (ja) * 2013-01-31 2014-08-21 Sharp Corp 電子会議システム
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
JP2017062598A (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274596A (ja) * 1993-03-19 1994-09-30 Internatl Business Mach Corp <Ibm> 仮想会議システム用端末装置及び仮想会議システム
JPH07307935A (ja) * 1994-05-11 1995-11-21 Hitachi Ltd 会議画面表示制御装置
JP2001036884A (ja) * 1999-07-21 2001-02-09 Nec Corp 会議映像生成システムおよび方法
JP2006279588A (ja) * 2005-03-29 2006-10-12 Yamaha Corp 多地点通信会議用端末
JP2007115117A (ja) * 2005-10-21 2007-05-10 Pc Net Kk コンテンツ提供サーバー及びコンテンツ視聴システム
US20110239115A1 (en) * 2010-03-26 2011-09-29 Motorola, Inc. Selecting an avatar on a display screen of a mobile device
JP2013541075A (ja) * 2010-08-16 2013-11-07 ソーシャル・コミュニケーションズ・カンパニー ネットワーク通信環境における通信者対話の促進
JP2014149644A (ja) * 2013-01-31 2014-08-21 Sharp Corp 電子会議システム
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
JP2017062598A (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
US10075491B2 (en) Directing communications using gaze interaction
US10722800B2 (en) Co-presence handling in virtual reality
US11743064B2 (en) Private collaboration spaces for computing systems
US11456887B1 (en) Virtual meeting facilitator
US20210110596A1 (en) Information processing device, information processing method, and program
US11831814B2 (en) Parallel video call and artificial reality spaces
EP4054180A1 (en) Integrated input/output (i/o) for a three-dimensional (3d) environment
JP2024124434A (ja) 画像処理装置、画像処理方法及び画像処理システム
WO2021257868A1 (en) Video chat with spatial interaction and eye contact recognition
US20230300250A1 (en) Selectively providing audio to some but not all virtual conference participants reprsented in a same virtual space
US20240056492A1 (en) Presentations in Multi-user Communication Sessions
JP2011239397A (ja) 直感型仮想対話方法
US11159768B1 (en) User groups based on artificial reality
US20170246534A1 (en) System and Method for Enhanced Immersion Gaming Room
JP2018173829A (ja) 仮想会議プログラム
JP7143874B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2023146875A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7292765B1 (ja) コミュニケーション制御装置及びコンピュータープログラム
JP7312550B2 (ja) 仮想空間提供システム、仮想空間提供方法及びプログラム
US11816759B1 (en) Split applications in a multi-user communication session
US20240119619A1 (en) Deep aperture
US20240211093A1 (en) Artificial Reality Coworking Spaces for Two-Dimensional and Three-Dimensional Interfaces
US11533578B2 (en) Virtual environment audio stream delivery
US20230236792A1 (en) Audio configuration switching in virtual reality
US20240320893A1 (en) Lightweight Calling with Avatar User Representation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20200330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803