JP2023180343A - 仮想空間管理システムとその方法 - Google Patents
仮想空間管理システムとその方法 Download PDFInfo
- Publication number
- JP2023180343A JP2023180343A JP2022093565A JP2022093565A JP2023180343A JP 2023180343 A JP2023180343 A JP 2023180343A JP 2022093565 A JP2022093565 A JP 2022093565A JP 2022093565 A JP2022093565 A JP 2022093565A JP 2023180343 A JP2023180343 A JP 2023180343A
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- avatar
- client terminal
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 44
- 230000004044 response Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 あるユーザーが仮想空間に持ち込んだ自分のPCに対応する仮想PCオブジェクトの画面上に表示されたプレイベートコンテンツを、仮想空間内の別ユーザーのアバターに容易に共有する仕組みがない。【解決手段】 クライアント端末を利用して、複数のユーザーが、それぞれアバターとして参加できる仮想空間を管理する仮想空間管理システムであって、前記仮想空間における第1ユーザーのアバターによるユーザーデバイスオブジェクトと第2ユーザーのアバターとに対するジェスチャー、及び、前記第2ユーザーのアバターによる操作の少なくとも1つに基づき、前記ユーザーデバイスオブジェクトの表示領域でのプライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されるようにも制御することを特徴とする。【選択図】 図4
Description
本発明は、ARやVRにおける仮想空間内でのアバター間でのコンテンツの共有に係る技術に関する。
VR(Virtual Reality、仮想現実)やAR(Augumented Reality、拡張現実)といった現実と仮想の世界を融合して疑似体験を提供する空間を作り出す技術の総称としてXRが注目され、各種標準化の取り組みが行われている。また、近年ではこのような技術を利用した仮想空間やサービスをメタバースと呼び、ゲーム等の娯楽用途だけでなく、仮想オフィスやVR会議室のようにビジネスシーンでも利用されるようになってきた。
仮想オフィスシステムでは、各々のワーカーがHMD(Head Mounted Display)を装着し、HMDを介して仮想空間上のオフィスにアバターとして出社し、従来の現実空間と同様に仕事を行う。仮想空間で全ての仕事が完結するわけではなく、場面に応じて仮想空間と現実空間のハイブリッドで仕事を進めることもある。そのための手段の一つとして、仮想空間と現実空間をシームレスに繋ぐために仮想空間に現実空間のPC(Personal Computer)画面を同期する技術がある。現実空間に存在するPCを仮想空間に接続し、仮想空間上での自身の視点にPC画面を同期することで、あたかも仮想空間に現実空間のPCを持ち込んだような体験をすることができる。
また、仮想空間内でのユーザー同士のコミュニケーションを手助けするための技術として、特許文献1がある。特許文献1によると、仮想空間内でのアバター間の距離に応じて会話可否を決定したり、会話時のボリュームを調整したりすることが可能であり、仮想空間内の近接したユーザーとの音声コミュニケーションにおけるユーザー体験を向上させることができる。
前述したPC画面を仮想空間に持ち込む場合には、仮想空間に持ち込んだPC本体に相当する仮想オブジェクトは他のユーザーからは見えているが、そのPCオブジェクトの仮想画面上に表示されたコンテンツはプライベート情報であるため、他のユーザーからは見えていない。ただ、現実空間と同様に近くのユーザー、例えば、仮想空間内の自席の周辺のユーザーにのみPC画面を見せながらディスカッションしたいケースが考えられる。
他のユーザーにPC画面を共有したい場合、従来のオンライン会議システムのように会議室を作成後、その会議に参加してもらい、画面共有を有効にすることで画面共有は可能である。しかし、会議のような場ではなく仮想空間内に持ち込んだPC画面を自席の周辺のユーザーに見せながらアドホックにディスカッションしたい場合は、上記のようなオンライン会議システムの機能を利用した画面共有方法は手間がかかる。
本発明は上記課題を解決するためになされたものであり、仮想空間に持ち込んだPC画面に表示されたコンテンツを、同仮想空間内の近くに存在するユーザーに対して、容易に共有するための仕組みを提供することを目的とする。
クライアント端末を利用して、複数のユーザーが、それぞれアバターとして参加できる仮想空間を管理する仮想空間管理システムであって、前記仮想空間が、第1ユーザーのクライアント端末及び第2ユーザーのクライアント端末を介して提供されるよう制御する第1提供手段と、前記仮想空間で仮想オブジェクトの提供を制御する第2提供手段と、有し、
前記第2提供手段は、さらに、前記第1ユーザーが前記仮想空間において保有するユーザーデバイスオブジェクトが、前記第1ユーザーのクライアント端末及び前記第2ユーザーのクライアント端末を介して提供されるよう制御し、前記ユーザーデバイスオブジェクトの表示領域に、該第1ユーザーのプライベートコンテンツが、該第1ユーザーのクライアント端末を介して提供されるよう制御し、前記仮想空間における前記第1ユーザーのアバターによる前記ユーザーデバイスオブジェクトと第2ユーザーのアバターとに対するジェスチャー、及び、前記第2ユーザーのアバターによる操作の少なくとも1つに基づき、前記ユーザーデバイスオブジェクトの表示領域での前記プライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されるようにも制御する、ことを特徴とする。
前記第2提供手段は、さらに、前記第1ユーザーが前記仮想空間において保有するユーザーデバイスオブジェクトが、前記第1ユーザーのクライアント端末及び前記第2ユーザーのクライアント端末を介して提供されるよう制御し、前記ユーザーデバイスオブジェクトの表示領域に、該第1ユーザーのプライベートコンテンツが、該第1ユーザーのクライアント端末を介して提供されるよう制御し、前記仮想空間における前記第1ユーザーのアバターによる前記ユーザーデバイスオブジェクトと第2ユーザーのアバターとに対するジェスチャー、及び、前記第2ユーザーのアバターによる操作の少なくとも1つに基づき、前記ユーザーデバイスオブジェクトの表示領域での前記プライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されるようにも制御する、ことを特徴とする。
本発明によれば、仮想空間に持ち込んだPC画面に表示されたコンテンツを、同仮想空間内の近くに存在するユーザーに対して容易に共有するための仕組みを提供できる。
以下、本発明を実施するための最良の形態について図面を用いて説明する。
(実施例1)
図1は、本発明の実施の形態に係る、仮想空間管理システムを含むネットワークシステム全体の構成例を示す図である。図1において、仮想空間管理システム111、クライアント端末121、クライアント端末122、クライアント端末131、クライアント端末132は、ネットワーク101~103を介して接続されている。ネットワーク101~103は、例えば、インターネット等のLAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線等により実現される、いわゆる通信ネットワークである。ネットワーク101~103は、データの送受信が可能であればよい。本発明では、ネットワーク101はインターネット、ネットワーク102、103はインターネットや一般家庭内や会社内のネットワークに設定されている無線LANなどである。
図1は、本発明の実施の形態に係る、仮想空間管理システムを含むネットワークシステム全体の構成例を示す図である。図1において、仮想空間管理システム111、クライアント端末121、クライアント端末122、クライアント端末131、クライアント端末132は、ネットワーク101~103を介して接続されている。ネットワーク101~103は、例えば、インターネット等のLAN、WAN、電話回線、専用デジタル回線、ATMやフレームリレー回線、ケーブルテレビ回線、データ放送用無線回線等により実現される、いわゆる通信ネットワークである。ネットワーク101~103は、データの送受信が可能であればよい。本発明では、ネットワーク101はインターネット、ネットワーク102、103はインターネットや一般家庭内や会社内のネットワークに設定されている無線LANなどである。
クライアント端末121、131は、例えば、HMD(ヘッドマウントディスプレイ)やスマートグラスなどのXRで扱う仮想オブジェクトの描画に対応した専用ハードウェアである。また、クライアント端末121、131は、スマートフォンのようなプログラムの実行環境が内蔵されたモバイル端末などであってもよい。ユーザーは、それぞれクライアント端末を利用して、仮想空間管理システム111が提供する仮想空間にアバターとして参加することができる。仮想空間では、複数のユーザーのアバターが、交流できるようになっている。
クライアント端末121、131は、周囲を撮影するためのカメラと、仮想空間とその空間上に配置された仮想オブジェクトを投影または表示するためのディスプレイを備える。クライアント端末121、131はカメラを通じてユーザーの手指を認識し、現実空間での動作と仮想空間での動作を重ね合わせることで、現実と仮想の世界を融合した疑似体験を提供する。クライアント端末121、131がスマートフォンなどのように専用ハードウェアでない場合は、WebブラウザやOS等が提供するAPIを利用して仮想オブジェクトの描画を行う。なお、本実施例では、クライアント端末121、131をHMDとして説明する。
クライアント端末122、132はPC(Personal Computer)であり、ノートPC、デスクトップPC、スマートフォンなどのディスプレイを有する情報処理装置である。クライアント端末122、132は、仮想空間に現実空間のPC画面を持ち込む(同期する)ために、PC画面に表示されたコンテンツを仮想空間管理システム111に対して送信する機能を有する。以下、仮想空間内のあるユーザーのPC自体を示す仮想オブジェクトを、該ユーザーが仮想空間上で保有するユーザーデバイスオブジェクトと呼ぶ。ユーザーデバイスオブジェクトの表示領域(PCの画面)に表示されるプライベート情報を含むコンテンツをプライベートコンテンツと呼ぶ。また、本実施例では、仮想空間内の他のユーザーからは、そのユーザーデバイスオブジェクト自体は見ることができるが、ユーザーデバイスオブジェクトの画面に表示されたプライベートコンテンツは通常は見ることができない。
仮想空間管理システム111は、各クライアント端末に仮想空間内の仮想オブジェクトや各々のユーザーを模したアバターおよびそれらの位置情報を提供するためのシステムである。また、仮想空間管理システム111は、本発明の目的であるクライアント端末121、131などから送信されるプライベートコンテンツを受信・提供したり、共有状態等を管理する機能を有する。また仮想空間管理システム111は、クライアント端末121、122、131、132を利用するユーザーの管理も行う。即ち仮想空間管理システム111はクライアント端末121、122、131、132のログイン・ログアウト要求を受け、ログイン・ログアウト処理を行う。仮想空間管理システム111は、サーバコンピュータを用いて構築される。あるいは、クラウドコンピューティング技術などを採用して構築することができる。以下、仮想空間内で動作するユーザーに対応する仮想オブジェクトをアバターと呼ぶ。
本発明で説明する仮想空間管理システム111の機能は、単体のサーバ又は単体の仮想サーバによって実現しても構わないし、複数のサーバ又は複数の仮想サーバによって実現しても構わない。あるいは複数の仮想サーバが単体のサーバ上で実行されていても構わない。
図2は、本発明の実施形態に係る仮想空間管理システム111、クライアント端末121、122、131、132のハードウェア構成図である。図2において、Central Processing Unit(CPU)202は装置全体の制御を行う。CPU202は、HDD205に格納されているアプリケーションプログラム、OS等を実行し、RAM203にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。Graphics Processing Unit(GPU)210は仮想オブジェクトやアバターをリアルタイムに描画するために必要な演算処理を行う。Read Only Memory(ROM)204は記憶手段であり、内部には、基本I/Oプログラム等の各種データを記憶する。RAM203は一時記憶手段であり、CPU202,GPU210の主メモリ、ワークエリア等として機能する。Hard Disk Drive(HDD)205は外部記憶手段の一つであり、大容量メモリとして機能し、Webブラウザ等のアプリケーションプログラム、サービスサーバ群のプログラム、OS、関連プログラム等を格納している。
ディスプレイ206は表示手段であり、仮想オブジェクトや操作に必要な情報等を表示したりするものである。また、ディスプレイ206はタッチパネルのようなユーザーからの操作指示を受け付ける機能も有する装置であってもよい。カメラ207はクライアント端末121、131における、周囲の映像を撮影するアウトカメラや、主に自分自身を撮影するインカメラなどである。
カメラ207、特にアウトカメラによって撮影された映像をHDD205に格納されたアプリケーションプログラムで解析することで、現実空間の自身の手指と仮想空間内の自身のアバターの手指の動作とを同期することが可能である。さらに、同期した手指によってディスプレイ206上に表示された仮想空間内の仮想オブジェクトや他のアバターと仮想的に接触することもできるようになる。仮想空間管理システム111とクライアント端末122、132は必ずしもカメラ207を必要としない。
インターフェース208は外部装置I/Fであり、各種外付けセンサーのような周辺機器を接続する。前述したカメラ207で現実空間のユーザーの手指を認識することで仮想空間内の仮想オブジェクトの操作や他アバターへの接触が可能であるが、インターフェース208に接続した専用コントローラーを操作することでも同等の機能を実現できる。
システムバス201は、装置内におけるデータの流れを司るものである。Network Interface Card(NIC)209は、該NIC209、ネットワーク100~102を介して外部装置とのデータのやり取りを行う。なお、上記コンピュータの構成はその一例であり、図2の構成例に限定されるものではない。例えば、データやプログラムの格納先は、その特徴に応じてROM204、RAM203、HDD205などで変更することも可能である。加えて、CPU202、GPU210がHDD205に記憶されているプログラムに基づき処理を実行することによって、図3に示されるようなソフトウェア構成における処理が実現される。
図3は、本実施例に係る仮想空間管理システム111、クライアント端末121、122、131、132の内、本発明に関わる機能を抜粋したソフトウェア構成を説明したものである。
仮想空間管理システム111は、ユーザー管理機能としてユーザー管理部312、ログイン処理部314を備える。また、仮想空間管理システム111は、仮想空間を提供する基本機能として、仮想オブジェクト管理部316、仮想オブジェクト提供部318、位置情報管理部320、位置情報受信部322、位置情報提供部324も備える。
さらに、仮想空間管理システム111は、本発明の特徴であるコンテンツ管理部326、コンテンツ受信部328、コンテンツ提供部330、共有状態管理部332、共有状態提供部334も備える。
ユーザー管理部312は、ユーザー情報やログイン情報を管理する。ログイン処理部314は、クライアント端末121、122、131、132からログインリクエストを受けつけ、ユーザー管理部312の情報と照合してログイン処理結果をクライアント端末121、122、131、132に返却する。以下の表1に、ユーザー管理部312で管理するデータの例を示す。
ユーザーID列は、ユーザーを一意に識別するIDである。パスワード列はユーザーIDのログイン時に利用するベーシック認証のパスワードである。ログイン処理部314はクライアント端末121、122、131、132からのログイン要求に含まれるユーザーIDとパスワードの組み合わせを表1と照合し、一致していればログイン結果を成功として各クライアント端末に返却する。ログイン状態列は、ユーザーのログイン状態を示しており、“on”はログイン状態を、“off”はログアウト状態を示している。ログイン有効期限列は、ログインしたユーザーの認証状態の有効期限を示す。
オブジェクトID列は対象のユーザーデバイスオブジェクトが仮想空間内に存在する場合、つまり、クライアント端末122、132のPCが仮想空間内に仮想オブジェクトとして持ち込まれている場合に、ランダムに割り振られたユニークなIDが記載されている。
仮想オブジェクト管理部316は、仮想空間内に配置される仮想オブジェクトや各ユーザーのアバターの3Dデータ等を管理する。仮想オブジェクト提供部318は、仮想オブジェクト管理部316で管理されている3Dデータをクライアント端末121、131に提供する。
位置情報管理部320は、仮想オブジェクト管理部316で管理されている仮想オブジェクトやアバターの位置情報を管理する。以下の表2に、位置情報管理部320が管理する各ユーザーのアバターの位置情報の例を示す。
ユーザーID列は、ユーザーを一意に識別するIDである。空間ID列は、仮想空間を一意に識別するIDである。メイン座標列は、アバターの現在の位置(重心)を示す情報である。左手座標列、右手座標列はアバターの左手・右手の位置を示す情報であり、仮想オブジェクトやアバターとの接触状態を判断するために使用する。接触状態に関して、詳細は後述する。
表2と同様に、以下の表3に仮想オブジェクトの位置情報の例を示す。
仮想オブジェクトID列は、該仮想空間における仮想オブジェクトを一意に識別するIDである。空間ID列、メイン座標列は、表2の説明と同じである。
位置情報受信部322は、クライアント端末121、131からの操作により仮想空間内の仮想オブジェクトやアバターの位置に変化があった場合あるいは定期的にクライアント端末121、131から位置情報を受信する機能を有する。位置情報提供部324は、クライアント端末121、131に位置情報管理部320で管理している仮想空間内の仮想オブジェクトやアバターの位置情報を提供する。
コンテンツ管理部326は、クライアント端末122、132から送信されたプライベートコンテンツを管理する。コンテンツ受信部328は、クライアント端末122、132から送信されたプライベートコンテンツを受信する。コンテンツ提供部330は、プライベートコンテンツの共有が許可されたアバターのクライアント端末121、131に対してプライベートコンテンツを提供する。詳細は後述する。
共有状態管理部332は、本発明の特徴であるプライベートコンテンツの共有可否を判断するためデータを管理する。以下の表4に、共有状態管理部332が管理するデータ例を示す。
ユーザーID列は、ユーザーを一意に識別するIDである。ユーザーデバイスオブジェクトとの接触列は、仮想空間内におけるユーザーデバイスオブジェクトの所有者が自身の所有するユーザーデバイスオブジェクトと接触しているか否かを示す。接触ユーザー列は、仮想空間内で接触しているアバターのユーザーIDが記載されている。共有先ユーザー列は、プライベートコンテンツの共有先のユーザーIDが記載されている。接触判断や、共有可否判断に関する詳細は別の図を用いて後述する。
次に、クライアント端末121、131のソフトウェア構成に関して説明する。
クライアント端末121、131は、表示部352、ログイン部354、ローカル仮想オブジェクト管理部356、仮想オブジェクト取得部358を備える。クライアント端末121、131は、さらに、ローカル位置情報管理部360、位置情報送信部362、位置情報取得部364、コンテンツ取得部366、共有状態取得部368も備える。
表示部352は、ディスプレイ206を介して仮想空間内の仮想オブジェクトやアバターを投影、表示する。ログイン部354は、カメラ207で撮影した手指や、インターフェース208に接続された入力デバイスによって入力されたユーザー名とパスワードをログイン処理部314に送信する。なお、仮想空間管理システム111に対する認証方法は、カメラ207で撮影した顔画像による顔認証、虹彩による虹彩認証や、インターフェース208に接続された指紋センサーを利用した指紋認証などでもよい。
ローカル仮想オブジェクト管理部356は、仮想空間管理システム111から取得した仮想オブジェクトやアバターの3Dデータ等の情報をクライアント端末121、131上に管理する。仮想オブジェクト取得部358は、仮想オブジェクト提供部318から仮想オブジェクトやアバターの3Dデータ等の情報を取得し、ローカル仮想オブジェクト管理部356に保存する。
ローカル位置情報管理部360は、仮想空間管理システム111から取得した表2、表3で示した仮想空間内の仮想オブジェクトやアバターの位置情報を管理する。また、ローカル位置情報管理部360は、クライアント端末121、131の操作により変化した自端末上の仮想オブジェクトやアバターの位置を検出し、位置情報をローカル位置情報管理部360自体に保存する機能も有する。
位置情報送信部362は、クライアント端末121、131での操作により仮想空間内の位置情報に変化があった場合、あるいは定期的に位置情報受信部322に仮想オブジェクトやアバターの位置情報を送信する。位置情報取得部364は、定期的に位置情報提供部324から仮想オブジェクトやアバターの位置情報を取得し、ローカル位置情報管理部360に保存する。352~364の機能により、仮想空間管理システム111が提供する仮想空間内の仮想オブジェクトや他のアバターの挙動や状態をリアルタイムにディスプレイ206に反映することができる。
コンテンツ取得部366と共有状態取得部368は、他のアバターとプライベートコンテンツを共有するための本発明の特徴となる構成要素の一部である。コンテンツ取得部366は、プライベートコンテンツの共有先ユーザーとして共有が許可されている場合(表4の共有先ユーザー列に記載されている場合)にコンテンツ提供部330からプライベートコンテンツを取得する。そして、コンテンツ取得部366が取得したプライベートコンテンツを表示部352が仮想空間内に配備されたユーザーデバイスオブジェクト上にマッピングすることで、仮想空間から現実空間のPC画面を見ているかのような制御が可能になる。共有状態取得部368は、自身のプライベートコンテンツが共有状態にある場合に、表4のようなプライベートコンテンツの共有状態を共有状態提供部334から取得する。共有状態取得部368が取得できる共有状態に関する情報は、プライベートコンテンツの共有元ユーザーがどのアバターに対して共有しているかを把握するために使用する。あるいは、共有先ユーザーがどのプライベートコンテンツを取得するかを判断するためにも使用する。
最後に、クライアント端末122、132のソフトウェア構成に関して説明する。クライアント端末122、132は、表示部382、ログイン部384、コンテンツ送信部386から構成される。
表示部382は、現実空間のクライアント端末122、132のPCのディスプレイ206にコンテンツを表示する。ログイン部384は、ログイン部354と同様にインターフェース208に接続された入力デバイスによって入力されたユーザー名とパスワードをログイン処理部314に送信する。コンテンツ送信部386は、現実空間のクライアント端末122、132のPC画面に表示されたコンテンツを定期的にコンテンツ受信部328に送信する。
コンテンツ送信部386がプライベートコンテンツをコンテンツ受信部328に送信し、コンテンツ取得部366がコンテンツ提供部330から取得する処理を定期的に実行する。そうすることで、本来クライアント端末122、132からしか参照できないコンテンツを、クライアント端末121、131からも参照することが可能になる。なお、自明であるが、プライベートコンテンツを送信するクライアント端末のログインユーザーと、プライベートコンテンツを取得するクライアント端末のログインユーザーが同じ場合は、共有状態にかかわらずプライベートコンテンツを取得することができる。さらに、インターフェース208等を介して互いのクライアント端末間でローカル通信が可能な場合は、仮想空間管理システム111を経由しない構成でプライベートコンテンツを送受信することも可能である。
図4、5,6を用いて、仮想空間で、自分のアバターの近くの他人のアバターに対して、プライベートコンテンツを共有する方法を説明する。
図4(a)~(d)はいずれも、クライアント端末121、131のディスプレイ206に表示される仮想空間内の映像であり、本実施例におけるプライベートコンテンツを共有するための各アバターのジェスチャー例を示している。
図5は、プライベートコンテンツの所有者(以下、オーナーと呼ぶ)が、他のユーザー(以下、非オーナーと呼ぶ)のアバターにコンテンツを共有するまでのシーケンスの例を示す図である。図6(a)~(c)はいずれも、図5のシーケンス内の処理に関して説明するフローチャートである。
本実施例では、オーナーはクライアント端末121(HMD)とクライアント端末122(PC)を操作するものとし、前述の表1、2、4のユーザーID列のuserAのユーザーであるとする。また、図4の(a)と図4の(d)をオーナーのクライアント端末121のディスプレイ206に表示された映像とする。一方で、非オーナーはクライアント端末131(HMD)を操作するものとし、前述の表1、2、4のユーザーID列のuserBのユーザーであるとする。また、図4の(b)と図4の(c)を非オーナーのクライアント端末131のディスプレイ206に表示された映像とする。
図4(a)は、前述の通りオーナー視点での仮想空間内の映像である。412は、クライアント端末121のディスプレイ206を示す。仮想オブジェクト414は、仮想空間に持ち込んだクライアント端末122に相当するオーナーのユーザーデバイスオブジェクトである。図4(a)はオーナーの視点であるため、ユーザーデバイスオブジェクトである仮想オブジェクト414上にプライベートコンテンツが表示されている。仮想オブジェクト416は、仮想空間におけるオーナーアバターの手指を示す仮想オブジェクトであり、現実空間の手指の動作と同期している。
図4(b)は非オーナー視点での仮想空間内の映像である。432は、クライアント端末131のディスプレイ206を示す。アバター434は、オーナーであるuserAのアバターである。仮想オブジェクトや436は、アバター434の手指を示す仮想オブジェクトである。仮想オブジェクト438は、非オーナーであるuserBの手指を示す仮想オブジェクトであり、図4(a)の場合と同様に現実空間の手指の動作と同期している。仮想オブジェクト440は、オーナーが仮想空間に持ち込んだクライアント端末122に相当するオーナーのユーザーデバイスオブジェクトである。この段階では、非オーナー視点でユーザーデバイスオブジェクトである仮想オブジェクト440自体は見ることができるが、仮想オブジェクト440に表示されるプライベートコンテンツまでは見ることができない。
図4(c)は非オーナー視点での仮想空間内の映像である。図4(c)では、オーナーアバター434は、仮想オブジェクト436(左手)がユーザーデバイスオブジェクトである仮想オブジェクトや414に接触している。また、オーナーアバター434は、仮想オブジェクト436(右手)が非オーナーアバターの手指である仮想オブジェクト438に接触している。本実施例では、オーナーアバター434が共有したいプライベートコンテンツを表示するユーザーデバイスオブジェクトに触れることと、共有先の非オーナーアバターに触れることを条件に、プライベートコンテンツの共有を許可している。仮想オブジェクトとの接触判断や共有許可判断の処理内容に関しては図6のフローチャートで説明する。共有許可後、図4(c)の非オーナー視点でも、ユーザーデバイスオブジェクトである仮想オブジェクト414上にプライベートコンテンツが表示される。
図4(d)はオーナー視点での仮想空間内の映像であり、図4(c)で説明したプライベートコンテンツの共有許可後の映像を示す図である。仮想オブジェクト472は、非オーナーアバターであるuserBに対してプライベートコンテンツを共有していることを示している。
次に、図5を用いて全体の処理シーケンスについて説明する。
S502で、プライベートコンテンツのオーナーであるuserAのクライアント端末122(PC)のログイン部384は、ユーザーIDとパスワードをログイン処理部314に送信する。S504でログイン処理部314は、ユーザー管理部312で管理されているユーザーIDとパスワードがuserAと合致していることを確認し、合致していればログイン成功としてログイン結果を返却する。同様にS506でも、userAのクライアント端末121(HMD)のログイン部384は、ユーザーIDとパスワードをログイン処理部314に送信する。S508でログイン処理部314は、ユーザー管理部312で管理されているユーザーIDとパスワードがuserAと合致していることを確認し、合致していればログイン成功としてログイン結果を返却する。S502とS504では、同じユーザーIDを使用しているものとする。
S510で、クライアント端末122のコンテンツ送信部386は、PC画面に表示されているプライベートコンテンツをコンテンツ受信部328に送信する。このとき、コンテンツ受信部328が送信したプライベートコンテンツは、表1のオブジェクトID列に示すIDを識別子として、コンテンツ管理部326で管理されている。S512で、コンテンツ受信部328はプライベートコンテンツの受信が完了した旨のレスポンスを返す。以降、S510とS512は他のステップと非同期かつ定期的に実行されるものとする。
S514で、クライアント端末122のコンテンツ取得部366は、コンテンツ提供部330に対してプライベートコンテンツの取得要求を送信する。S516で、コンテンツ提供部330は、コンテンツ取得部366に対してプライベートコンテンツのデータを含むレスポンスを返す。S518で、クライアント端末122の表示部352はS516で取得したプライベートコンテンツを図4(a)のようにクライアント端末122のディスプレイ206に表示する。以降、S514~S518は他のステップと非同期かつ定期的に実行されるものとする。
S522で、非オーナーであるuserBのクライアント端末131(HMD)のログイン部354は、ユーザーIDとパスワードをログイン処理部314に送信する。S524でログイン処理部314は、ユーザー管理部312で管理されているユーザーIDとパスワードがuserBと合致していることを確認し、合致していればログイン成功としてログイン結果を返却する。この時点では、クライアント端末131のディスプレイ206には図4(b)のような仮想空間の映像が表示されている。
その後、S532~S543では、図4(c)に示す各アバターの操作と接触判断、共有許可判断に関するステップを実行しており、他のステップと非同期かつ定期的に実行されるものとする。
S532で、オーナーはクライアント端末121からアバターの手指を操作する。このとき、ローカル位置情報管理部360は、手指の操作に基づくuserAのアバターの手指の位置情報等を取得し、位置情報送信部362から位置情報受信部322に位置情報を送信する。その結果、位置情報管理部320は、表2に示したuserAの位置情報を更新する。S534で、位置情報受信部322は受信を完了した旨を位置情報送信部362に返す。S536で、共有状態管理部332は、オーナーアバターとユーザーデバイスオブジェクトが接触しているかどうかを判断する。以下、オーナーアバターとユーザーデバイスオブジェクトが接触しているかどうかの状態を、第一の接触状態と呼ぶ。
ここでS536の具体的な処理内容を図6(a)のフローチャートを用いて説明する。
S612で、共有状態管理部332は、表2、3で示したオーナーアバターとユーザーデバイスオブジェクトの位置情報を位置情報管理部320から取得し、S614に進む。S614で、共有状態管理部332は、オーナーアバターとユーザーデバイスオブジェクトが接触しているかどうかを判断する。具体的には、共有状態管理部332はS612で取得した各アバター、仮想オブジェクトの座標から接触しているかの判断を行う。共有状態管理部332は、S614で接触していると判断した場合はS616を、接触していないと判断した場合はS618を実行する。S616で、共有状態管理部332は、表4に示すオーナーアバターとユーザーデバイスオブジェクトとの接触状態(第一の接触状態)を接触状態(ON)にし、処理を終了する。一方でS618では、共有状態管理部332は、表4に示すオーナーアバターとユーザーデバイスオブジェクトとの接触状態(第一の接触状態)を接触状態(OFF)にし、処理を終了する。
次に、S538で非オーナーはクライアント端末131からアバターの手指を操作する。このとき、ローカル位置情報管理部360は、手指の操作に基づくuserBのアバターの手指の位置情報等を取得し、位置情報送信部362から位置情報受信部322に位置情報を送信する。その結果、位置情報管理部320は、表2に示したuserBの位置情報を更新する。S540で、位置情報受信部322は受信を完了した旨を位置情報送信部362に返す。S542で、共有状態管理部332は、アバター同士が接触しているかどうかを判断する。
以下、アバター同士が接触しているかどうかの状態を、第二の接触状態と呼ぶ。ここでS542の具体的な処理内容を図6(b)のフローチャートを用いて説明する。
S632で、共有状態管理部332は、表2で示した各アバターの位置情報を位置情報管理部320から取得し、S634に進む。S634で、共有状態管理部332はアバター同士の接触状態を判断し、表4の接触ユーザー列を更新した後に処理を終了する。なお、接触状態の判断はS614と同様にアバター同士の座標を基に判断する。本実施例ではアバターに関してメイン座標、左手座標、右手座標を定義しており、アバター間でいずれかの部位の座標が近接している場合に、共有状態管理部332は対象のアバター同士が接触していると判断する。
そして、S543で、共有状態管理部332は、オーナーのプライベートコンテンツを非オーナーに共有するか否かの共有許可の判断を実行する。S543の具体的な処理内容を図6(c)を用いて説明する。
S652で、共有状態管理部332は、表4に示す共有状態管理テーブルから接触状態を取得し、S654に進む。S654で、共有状態管理部332はS652で取得した接触状態の第一の接触状態と第二の接触状態をもとに共有許可判断を実行する。具体的には、共有状態管理部332は、第一の接触状態がON、且つ、第二の接触状態の関係にあるアバターが存在するかを確認し、条件を満たす場合はS656に進み、条件を満たさない場合は処理を終了する。表4を例にした場合、userAに関してはユーザーデバイスオブジェクトとの接触列(第一の接触状態)がONであり、接触ユーザー列(第二の接触状態)に接触ユーザーとしてuserBが存在するため、S656で共有状態管理部332は条件を満たすと判断する。S656で、共有状態管理部332は、第二の接触状態の関係にある非オーナーアバターに対するプライベートコンテンツの共有状態を有効にする。表4を例にした場合、第二の接触状態の関係にある非オーナーアバターはuserBであるため、共有状態管理部332は表4のuserAに関する共有先ユーザー列にuserBを設定し、userBに対してプライベートコンテンツの共有許可を有効にする。
S544~S550は非オーナーであるuserBのクライアント端末131と仮想空間管理システム111との処理であり、他のステップと非同期かつ定期的に実行されるものとする。
S544で、クライアント端末131の共有状態取得部368は、共有状態提供部334に対して共有状態にあるプライベートコンテンツに紐付くオブジェクトIDの一覧の取得要求を実行する。S545で、共有状態提供部334は表4の共有先ユーザー列を参照し、S544で要求されたユーザーが共有先に含まれる場合、共有元ユーザーのオブジェクトIDを表1のオブジェクトID列から取得する。そして、共有状態提供部334は、全ての共有元ユーザーのオブジェクトIDの一覧をクライアント端末131の共有状態取得部368に返却する。S546で、クライアント端末131のコンテンツ取得部366は、コンテンツ提供部330に対してS545で取得したオブジェクトIDに紐付くプライベートコンテンツの取得要求を送信する。S548で、コンテンツ提供部330は共有状態管理部332で管理されている表4の共有状態管理部テーブルを参照し、要求元のユーザーに対して共有許可がなされている場合はコンテンツ取得部366にプライベートコンテンツを返す。表4を例にした場合、userBは共有先ユーザーとしてプライベートコンテンツの共有許可がなされているため、クライアント端末131のコンテンツ取得部366はプライベートコンテンツを取得することができる。
S550で、クライアント端末131の表示部382は、S548で取得したプライベートコンテンツを含むユーザーデバイスオブジェクトをクライアント端末131のディスプレイ206に表示する(図4(c)の状態)。なお、クライアント端末131の共有状態取得部368がS545で複数のオブジェクトIDを取得した場合、クライアント端末131のコンテンツ取得部366はS548で複数のプライベートコンテンツを取得することができる。この場合、S550でクライアント端末131の表示部382は、S548で取得した複数のプライベートコンテンツを含むユーザーデバイスオブジェクトをクライアント端末131のディスプレイ206に表示することができる。
S552~S556はオーナーであるuserAのクライアント端末121と仮想空間管理システム111との処理であり、他のステップと非同期かつ定期的に実行されるものとする。
S552で、クライアント端末121の共有状態取得部368は、共有状態提供部334に対して共有状態の取得要求を実行する。S554で、共有状態提供部334はクライアント端末121の共有状態取得部368に、表4に示したような共有状態のデータを返す。S556で、クライアント端末121の表示部352は、取得した共有状態をもとに図4(d)の仮想オブジェクト472のようにプライベートコンテンツの共有先ユーザーをディスプレイ206に表示する。
以上のように、本実施例では仮想空間内でのアバターや仮想オブジェクトとの接触によりプライベートコンテンツの共有許可判断を行う方法を説明した。この方法により、仮想空間内の近くにいる特定のアバターに対して簡単なジェスチャーだけでプライベートコンテンツを共有することができる。
本実施例では接触していることを条件にプライベートコンテンツの共有許可判断を行ったが、共有したいプライベートコンテンツを表示するユーザーデバイスオブジェクトと共有先アバターを識別できる方法であれば異なるジェスチャーでもよい。
例えば、ユーザーデバイスオブジェクトやアバターに座標に加え向きを示す情報を付与し、ユーザーデバイスオブジェクトと非オーナーアバターが所定の距離以内で向かい合うことで、プライベートコンテンツの共有を許可するような方法でもよい。あるいは、オーナーアバターと非オーナーアバターが所定の距離以内で向かい合うことでプライベートコンテンツを共有するような方法でもよい。したがって、本実施例で説明した接触によるプライベートコンテンツの共有方法に限定せず、ユーザーデバイスオブジェクトとアバターの位置関係やアバター同士のジェスチャーを条件にプライベートコンテンツを共有することも可能である。
さらに、仮想空間内のアバターのジェスチャー以外の操作でもプライベートコンテンツを共有することも可能である。例えば、S545相当の要求で取得できるオブジェクトIDに署名を付けたIDを、オーナーが仮想空間外で非オーナーに対して通知しておく。その後、非オーナーのクライアント端末131のコンテンツ取得部366は、そのIDをリクエストに含めS546を仮想空間内で実行する。そして、S548で、コンテンツ提供部330が署名付きIDを検証し、正しい署名であればコンテンツ取得部366にプライベートコンテンツを返却する。そうすることで、仮想空間内でのアバターのジェスチャー無しに、非オーナーのクライアント端末131のコンテンツ取得部366は、コンテンツ提供部330からプライベートコンテンツを取得することが可能になる。
また、プライベートコンテンツのオーナーは、プライベートコンテンツを共有しないモードで仮想空間にクライアント端末122を持ち込むことも可能である。その場合、共有状態管理部332は、本実施例で説明した共有許可判断の条件を満たした場合でも、他のアバターにプライベートコンテンツを共有しないように制御する。
ここで、ユーザビリティの観点から、一度共有状態になったプライベートコンテンツはアバター同士の接触状態を解除しても共有状態が継続することが望ましいが、オーナーが共有状態を明示的に解除し忘れることも考えられる。そのような場合を考慮して、共有状態の解除方法の一例を、図7を用いて説明する。
図7(a)と図7(b)はいずれもプライベートコンテンツの共有状態を解除するための処理を示すフローチャートであり、図5のシーケンス図中の各ステップとは非同期かつ定期的に実行されるものとする。
まず、図7(a)では、オーナーアバターと非オーナーアバターとの仮想空間内の距離に応じて共有状態の解除判断を行う方法を説明している。
S712で、共有状態管理部332は、表2と表4のデータを基に共有関係にあるアバターの位置情報を取得する。本実施例では、userAとuserBが共有関係にあるため、共有状態管理部332は各々のアバターの位置情報を取得する。その後、S714に進む。
S714で、共有状態管理部332は、オーナーアバターと共有先アバターの位置が所定の距離以上離れているかどうかを判断し、離れていると判断した場合はS714に進み、離れていないと判断した場合は処理を終了する。所定の距離とは仮想空間管理システム111が定める任意の閾値であり、共有状態管理部332は、表2のアバターのメイン座標列の座標値から距離を算出し、閾値と比較することで真偽を判断することができる。また、共有状態管理部332は、距離という数値ではなく、例えば、表2の空間ID列を参照し空間IDの差異により真偽を判断することも可能である。S716で、共有状態管理部332は、共有先アバターへのプライベートコンテンツの共有状態をOFFにし、処理を終了する。
次に、図7(b)では、共有先ユーザーのログイン状態に応じて共有状態の解除判断を行う方法を説明している。
S732で、共有状態管理部332は表1、表4のデータを用いて共有先アバターのログイン状態を取得し、S734に進む。S734で、共有状態管理部332はS732で取得した共有先アバターのログイン状態を基に共有先アバターがログアウトしているかどうかを判断し、ログアウトしている場合はS736に進み、ログアウトしていない場合は処理を終了する。S736で、共有状態管理部332は、共有先アバターへのプライベートコンテンツの共有状態をOFFにし、処理を終了する。
以上のように、仮想空間内のアバター位置関係やログイン状態に応じて、プライベートコンテンツの共有状態を自動的に解除することも可能である。なお、図7で挙げた共有状態の解除方法は一例であるため、これらの方法に限定されるわけでない。
(実施例2)
実施例1では、プライベートコンテンツのオーナーと非オーナーの二人の場合の共有方法について説明したが、仮想空間内で近くに居る複数のアバターに対して一度の動作でプライベートコンテンツを共有したい場合も考えられる。実施例2では複数のアバターに対して一度の動作でプライベートコンテンツを共有する方法について説明する。
実施例1では、プライベートコンテンツのオーナーと非オーナーの二人の場合の共有方法について説明したが、仮想空間内で近くに居る複数のアバターに対して一度の動作でプライベートコンテンツを共有したい場合も考えられる。実施例2では複数のアバターに対して一度の動作でプライベートコンテンツを共有する方法について説明する。
実施例2では、実施例1と同様にプライベートコンテンツの所有者であるuserAをオーナーアバターにし、userBを非オーナーアバターとしてを扱うことに加え、新たにuserCも非オーナーアバターとして扱う。実施例1で説明した表1、表2、表4のデータを修正した表1’、表2’、表4’を以下に示す。
各列が示す内容は実施例1と同様であるが、表4’の接触ユーザー列に間接接触ユーザーという概念をさらに追加した。間接接触ユーザーとは、直接接触していないが他のアバターを介して間接的に接触しているユーザーである。ここで図8の説明に移る。
図8(a)は、非オーナーアバターのクライアント端末131から見た仮想空間の映像を示しており、図4(c)にアバター812を加えた図である。ここでは、アバター434をuserA、アバター812をuserB、仮想オブジェクト438(手指)を持つアバターをuserCとする。アバター812は、オーナーアバターであるアバター434と接触している。一方で、仮想オブジェクト438のアバターはアバター812とは接触しているが、アバター434とは接触していない。実施例2においては、共有状態管理部332は、仮想オブジェクト438を持つアバターはアバター812を介して間接的にアバター434と接触していると判断して、間接接触ユーザーとして表4’の接触ユーザー列に追加する。
図8(b)は、間接接触ユーザーであるuserCを共有先ユーザーとして共有状態にした場合の、オーナーアバター(userA)のクライアント端末121から見た仮想空間の映像を示した図である。仮想オブジェクト832は、実施例1における仮想オブジェクト472と同様の仮想オブジェクトであり、実施例2においては、userBとuserCが共有先ユーザーとして共有状態になっていることを示している。
図8(c)は、図6(b)のフローチャートに、間接接触ユーザーの判断を加えたフローチャートである。
S852では、S632と同様に、共有状態管理部332がアバター同士の位置情報を取得し、S854に進む。S854では、共有状態管理部332がアバター同士の接触状態(第二の接触状態)を更新し、S856に進む。
S856で、共有状態管理部332は、間接的に接触状態にあるアバターが存在するかを判断し、存在する場合はS858に進み、存在しない場合は処理を終了する。共有状態管理部332が実行する間接的な接触判断は、実施例1でも説明した方法と同様に表2’からもアバターの座標が分かるため、まずは直接接触しているアバター同士を抽出する。その後、共有状態管理部332は、直接接触しているアバターを辿ることにより間接的に接触しているアバターの存在を判断することができる。S858で、共有状態管理部332は、S856で抽出した間接的に接触しているアバター同士の接触状態(第二の接触状態)を表4’に反映する。
以上の方法により、非オーナーアバターが複数存在する場合でも、一度の動作でプライベートコンテンツを非オーナーアバターに共有するためことが可能になる。
(他の実施例)
本発明は、上述した実施形態を適宜組み合わせることにより構成された装置あるいはシステムやその方法も含まれるものとする。
本発明は、上述した実施形態を適宜組み合わせることにより構成された装置あるいはシステムやその方法も含まれるものとする。
ここで、本発明は、上述した実施形態の機能を実現する1以上のソフトウェア(プログラム)を実行する主体となる装置あるいはシステムである。また、その装置あるいはシステムで実行される上述した実施形態を実現するための方法も本発明の一つである。また、そのプログラムは、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給され、そのシステム或いは装置の1以上のコンピュータ(CPUやMPU等)によりそのプログラムが1以上のメモリーに読み出され、実行される。つまり、本発明の一つとして、さらにそのプログラム自体、あるいは該プログラムを格納したコンピュータにより読み取り可能な各種記憶媒体も含むものとする。また、上述した実施形態の機能を実現する回路(例えば、ASIC)によっても、本発明は実現可能である。
111 仮想空間管理システム
121、131 クライアント端末
121、131 クライアント端末
Claims (4)
- クライアント端末を利用して、複数のユーザーが、それぞれアバターとして参加できる仮想空間を管理する仮想空間管理システムであって、
前記仮想空間が、第1ユーザーのクライアント端末及び第2ユーザーのクライアント端末を介して提供されるよう制御する第1提供手段と、
前記仮想空間で仮想オブジェクトの提供を制御する第2提供手段と、有し、
前記第2提供手段は、さらに、
前記第1ユーザーが前記仮想空間において保有するユーザーデバイスオブジェクトが、前記第1ユーザーのクライアント端末及び前記第2ユーザーのクライアント端末を介して提供されるよう制御し、
前記ユーザーデバイスオブジェクトの表示領域に、該第1ユーザーのプライベートコンテンツが、該第1ユーザーのクライアント端末を介して提供されるよう制御し、
前記仮想空間における前記第1ユーザーのアバターによる前記ユーザーデバイスオブジェクトと第2ユーザーのアバターとに対するジェスチャー、及び、前記第2ユーザーのアバターによる操作の少なくとも1つに基づき、前記ユーザーデバイスオブジェクトの表示領域での前記プライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されるようにも制御する、ことを特徴とする仮想空間管理システム。 - 前記第2提供手段は、前記ジェスチャーとして、前記第1ユーザーのアバターによる前記ユーザーデバイスオブジェクトと第2ユーザーのアバターとに対する接触に基づき、前記プライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されるようにも制御する、ことを特徴とする請求項1に記載の仮想空間管理システム。
- 前記第2提供手段は、さらに、前記第1ユーザーのアバターと第2ユーザーのアバターとの前記仮想空間における距離が、所定の距離よりも離れたことに応じて、前記プライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されないよう制御する、ことを特徴とする請求項1または2に記載の仮想空間管理システム。
- クライアント端末を利用して、複数のユーザーが、それぞれアバターとして参加できる仮想空間を管理する仮想空間管理システムにおける方法であって、
前記仮想空間が、第1ユーザーのクライアント端末及び第2ユーザーのクライアント端末を介して提供されるよう制御する第1提供工程と、
前記仮想空間で仮想オブジェクトの提供を制御する第2提供工程と、有し、
前記第2提供工程では、さらに、
前記第1ユーザーが前記仮想空間において保有するユーザーデバイスオブジェクトが、前記第1ユーザーのクライアント端末及び前記第2ユーザーのクライアント端末を介して提供されるよう制御され、
前記ユーザーデバイスオブジェクトの表示領域に、該第1ユーザーのプライベートコンテンツが、該第1ユーザーのクライアント端末を介して提供されるよう制御され、
前記仮想空間における前記第1ユーザーのアバターによる前記ユーザーデバイスオブジェクトと第2ユーザーのアバターとに対するジェスチャー、及び、前記第2ユーザーのアバターによる操作の少なくとも1つに基づき、前記ユーザーデバイスオブジェクトの表示領域での前記プライベートコンテンツが、前記第2ユーザーのクライアント端末を介して提供されるようにも制御される、ことを特徴とする方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022093565A JP2023180343A (ja) | 2022-06-09 | 2022-06-09 | 仮想空間管理システムとその方法 |
KR1020230072643A KR20230169855A (ko) | 2022-06-09 | 2023-06-07 | 가상 공간 관리 시스템 및 이를 위한 방법 |
US18/330,959 US12008209B2 (en) | 2022-06-09 | 2023-06-07 | Virtual space management system and method for the same |
CN202310684628.7A CN117215402A (zh) | 2022-06-09 | 2023-06-09 | 虚拟空间管理系统及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022093565A JP2023180343A (ja) | 2022-06-09 | 2022-06-09 | 仮想空間管理システムとその方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023180343A true JP2023180343A (ja) | 2023-12-21 |
Family
ID=89034073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022093565A Pending JP2023180343A (ja) | 2022-06-09 | 2022-06-09 | 仮想空間管理システムとその方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12008209B2 (ja) |
JP (1) | JP2023180343A (ja) |
KR (1) | KR20230169855A (ja) |
CN (1) | CN117215402A (ja) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8963805B2 (en) * | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
US9443354B2 (en) * | 2013-04-29 | 2016-09-13 | Microsoft Technology Licensing, Llc | Mixed reality interactions |
US9898869B2 (en) * | 2015-09-09 | 2018-02-20 | Microsoft Technology Licensing, Llc | Tactile interaction in virtual environments |
US20170337352A1 (en) * | 2016-05-23 | 2017-11-23 | Daqri, Llc | Confidential information occlusion using augmented reality |
US10685489B2 (en) * | 2017-03-02 | 2020-06-16 | Daqri, Llc | System and method for authoring and sharing content in augmented reality |
US20200143773A1 (en) * | 2018-11-06 | 2020-05-07 | Microsoft Technology Licensing, Llc | Augmented reality immersive reader |
JP7143874B2 (ja) | 2020-05-19 | 2022-09-29 | oVice株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2024507749A (ja) * | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
US11995230B2 (en) * | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
US20230092103A1 (en) * | 2021-09-21 | 2023-03-23 | Meta Platforms Technologies, Llc | Content linking for artificial reality environments |
US20230135420A1 (en) * | 2021-11-02 | 2023-05-04 | Samsung Electronics Co., Ltd. | Wearable electronic device for displaying virtual object and method of controlling the same |
US20230334795A1 (en) * | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
-
2022
- 2022-06-09 JP JP2022093565A patent/JP2023180343A/ja active Pending
-
2023
- 2023-06-07 US US18/330,959 patent/US12008209B2/en active Active
- 2023-06-07 KR KR1020230072643A patent/KR20230169855A/ko active Search and Examination
- 2023-06-09 CN CN202310684628.7A patent/CN117215402A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117215402A (zh) | 2023-12-12 |
US12008209B2 (en) | 2024-06-11 |
KR20230169855A (ko) | 2023-12-18 |
US20230400959A1 (en) | 2023-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9479548B2 (en) | Collaboration system with whiteboard access to global collaboration data | |
US9479549B2 (en) | Collaboration system with whiteboard with federated display | |
US10420011B2 (en) | Communication system, transmission terminal, communication method, and medium | |
CN111290695B (zh) | 基于优先级控制的终端控制方法、装置和终端 | |
CN112243583A (zh) | 多端点混合现实会议 | |
US10114543B2 (en) | Gestures for sharing data between devices in close physical proximity | |
US20210092170A1 (en) | Communication terminal, communication system, and method of sharing data | |
JP6782812B2 (ja) | 仮想現実機器及び仮想現実機器を制御する方法 | |
US20170365098A1 (en) | Systems and methods of generating augmented reality experiences | |
CN107003819A (zh) | 多用户的基于传感器的交互 | |
JP2022542510A (ja) | 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体 | |
CN114760346A (zh) | 一种设备切换方法、装置、系统及电子设备 | |
KR20220159968A (ko) | 아바타를 이용한 컨퍼런스 처리 방법 및 시스템 | |
JP2023180343A (ja) | 仮想空間管理システムとその方法 | |
KR20220160558A (ko) | 가상 공간에서 사용자의 동작을 따라 하는 아바타를 표현하는 방법 및 시스템 | |
US20230368399A1 (en) | Display terminal, communication system, and non-transitory recording medium | |
JP7282222B2 (ja) | コンピュータプログラム、方法及びサーバ装置 | |
JP7038869B1 (ja) | コンピュータプログラム、方法及びサーバ装置 | |
WO2024057650A1 (ja) | 電子機器 | |
US20240179267A1 (en) | Display terminal, communication system, and display method | |
US20240040105A1 (en) | System and method | |
US20230308764A1 (en) | Display terminal, communication system, method for displaying, method for communicating, and recording medium | |
US20230215110A1 (en) | Method and apparatus for processing visual network service | |
US20230308622A1 (en) | Display terminal, displaying method, and recording medium | |
WO2024127596A1 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |