JP2023144941A - 通信システム - Google Patents
通信システム Download PDFInfo
- Publication number
- JP2023144941A JP2023144941A JP2022052163A JP2022052163A JP2023144941A JP 2023144941 A JP2023144941 A JP 2023144941A JP 2022052163 A JP2022052163 A JP 2022052163A JP 2022052163 A JP2022052163 A JP 2022052163A JP 2023144941 A JP2023144941 A JP 2023144941A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- electronic device
- dimensional
- conference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 69
- 230000004044 response Effects 0.000 claims abstract description 5
- 238000013461 design Methods 0.000 description 24
- 230000036544 posture Effects 0.000 description 22
- 230000008859 change Effects 0.000 description 16
- 238000004519 manufacturing process Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 12
- 238000012937 correction Methods 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000012552 review Methods 0.000 description 5
- 238000007792 addition Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012356 Product development Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/401—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】仮想現実空間を利用した会議において、参加者間の円滑なコミュニケーションを可能とする。【解決手段】VR会議システムは、投影ユニットと、投影ユニットと通信可能な表示ユニットと、を備える。投影ユニットは、仮想現実空間内に、ユーザ操作に対応して編集された立体像21を表示するVRゴーグルを有する。表示ユニットは、VRゴーグルによる視野を表示する二次元ディスプレイと、二次元ディスプレイの画面上における位置の指定を受け付けるユーザ操作部と、を有する。VRゴーグルは、前記位置に対応する仮想現実空間内の位置に、ダーツポインタ201dを表示する。【選択図】図5
Description
本発明は、通信システムに関する。
例えば、特許文献1の協調型仮想現実オンライン会議プラットフォームは、オンサイトの会議をVR(仮想現実)内の共通仮想空間での会議で置き換えるための技術を示している。このプラットフォームは、仮想空間を定義する3次元(3D)点群データと、複数の会議参加者の識別子と、会議参加者に対応する複数のアバターの仮想空間内の位置を含む会議データとを含む。また、複数の会議参加者のオンライン会議を開始する命令を実行するプロセッサを含む。また、オンライン会議を開始するステップは、各会議参加者に3D点群のアドレスを提供するステップと、各会議参加者に3D点群データおよび会議データを送信するステップとを含む。仮想空間内の各アバターの現在の場所は、すべての会議参加者に伝達される。
なお、特許文献1の明細書において「オンライン会議プラットフォーム」は異なる地理的場所にいる参加者らが音声回線を介して話し合いながら同じコンピュータ画面を見ている会議を意味する。複数の当事者は、それぞれのオフィスに位置し、VR内の(スキャンデータで表された)離れた場所で会合することができる。
ところで、企業等が様々な製品の開発などを行う際には、同じ企業や関連会社の複数の拠点にそれぞれ存在する複数の担当者が同じ場所に同時に集まって、特定の製品に関する検討を実施することが好ましい場合がある。
例えば、車両に搭載するワイヤハーネスの製品を新たに開発したり、既存の製品の仕様を変更するような場合には、現状では、車両メーカでワイヤハーネスの配索経路や形状などを決め、設計図を作製する。この際、車両メーカは、車両へのワイヤハーネスの組み付け易さなどの観点から検討を行う必要がある。
また、部品メーカは、車両メーカから送られてきた設計図に基づき、ワイヤハーネスの部品コストや製造コストなどの観点から検討を行ったり、ワイヤハーネスの製造しやすさなどの観点から検討を行い、部品メーカ用の設計図を作成する。
上記のように独立している複数の拠点でそれぞれ独自に検討を行う場合には、部品メーカでワイヤハーネスの設計に問題を発見した際に、その問題を車両メーカに伝達し、車両メーカは、その問題を修正した設計図を作成し直す。部品メーカは、修正された設計図を車両メーカから受け取ると、自社用の設計図を作成し直し、ワイヤハーネスを再度試作する。したがって、仕様の変更などを何回も繰り返し、多大な時間のロスが発生する可能性がある。特に、二次元形状の図面の内容を見ながら各企業の担当者がそれぞれ検討を行う場合には、ワイヤハーネス各部の実際の三次元形状を把握しにくいので、問題のある箇所を見つけにくい。
そこで、車両メーカや部品メーカなど複数の拠点の担当者が同時に同じ場所に集まり、例えば1つの作業テーブル上に配置したワイヤハーネスの実物モデルや冶具の実物を見ながら、全ての拠点の担当者が同時に検討を行うことが考えられる。これにより、ワイヤハーネスの製造仕様の変更などを繰り返す回数が減少し、開発の効率が改善される可能性がある。
例えば、特許文献1のようなVRシステムを採用した場合には、様々な拠点の担当者が移動して一箇所に集まらなくても、同じ製品の三次元形状をそれぞれ異なるコンピュータの画面上で同時に把握できる可能性がある。しかし、会議の途中で、ある担当者が例えば詳細に検討したい箇所や修正を希望する箇所等を、他の参加者に伝えたい場合に、その箇所を特定して口頭で伝達することが困難であり、円滑なコミュニケーションが行えない場合がある。
本発明は、上述した事情に鑑みてなされたものであり、その目的は、仮想現実空間を利用した会議において、参加者間の円滑なコミュニケーションを可能とすることにある。
本発明に係る上記目的は、下記構成により達成される。
第1電子機器と、前記第1電子機器と通信可能な第2電子機器と、を備える通信システムにおいて、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクトを表示する第1表示部を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野を表示する第2表示部と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタを表示する、
通信システム。
第1電子機器と、前記第1電子機器と通信可能な第2電子機器と、を備える通信システムにおいて、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクトを表示する第1表示部を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野を表示する第2表示部と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタを表示する、
通信システム。
本発明によれば、会議の参加者間の円滑なコミュニケーションが可能となる。
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。
<オンライン会議の状況>
図1は、本発明の仮想現実会議システムを利用したオンライン会議の状況を示す模式図である。仮想現実会議システムは、通信システムの一例である。
図1は、本発明の仮想現実会議システムを利用したオンライン会議の状況を示す模式図である。仮想現実会議システムは、通信システムの一例である。
例えば、自動車に搭載するワイヤハーネスの製品を開発する場合には、まず、車両メーカが設計図面を作成し、ワイヤハーネスなどの部品メーカは、その設計図面に基づいてワイヤハーネスの製造に適した設計図面に作り直す。しかし、部品メーカで作成した設計図面に基づいて製造したワイヤハーネスを車両に配索する際に問題が発生した場合には、その情報を車両メーカに伝達し、車両メーカが設計図面を作成し直し、部品メーカはその設計図面に基づいて自社用の設計図面を再度作成することになる。このように、不具合が発生する度に各拠点で設計のやり直しを行うことになり、製品開発の効率が低下する。
そこで、製品開発の効率を改善するために、例えばワイヤハーネスの製品を提供する企業グループ内の設計拠点、国内の製造拠点、海外の製造拠点、製造されたワイヤハーネスを搭載する車両を製造する自動車会社の設計拠点などのそれぞれに所属する担当者が同じ会議に参加して同時に検討することになる。
ここで、ワイヤハーネスの製品を開発する場合には、搭載する車体側の構造や各種電装品の配置状況に合わせて適切な配索経路を通るようにワイヤハーネスの各部の立体形状を適切に決める必要がある。また、ワイヤハーネス各部の立体形状に合わせて、そのワイヤハーネスを製造する際に使用する冶具のレイアウトを適切に決める必要がある。また、ワイヤハーネスの製造工程の作業効率が上がるように配慮して製造の手順等を適切に決める必要がある。更に、ワイヤハーネスを構成する各電線等の部品コストを低減できるようにワイヤハーネスの分岐位置や電線長などを適切に決める必要がある。
したがって、各拠点の担当者は、設計するワイヤハーネス各部の立体形状を把握しながら、それぞれの担当者が考慮すべき独自の観点から検討を実施する必要がある。そのため、一般的には実物の模型などを用意した上で、全ての拠点の担当者が移動して同じ検討場に集まり、全員が同じ場所で同じ実物の模型などを見ながら検討を実施する。これにより、会議の効率を上げることができる。しかし、それぞれの拠点は海外など互いに距離の離れた場所に存在する場合が多いので、会議を開催するための移動にかかる時間や費用などの負担が非常に大きくなる。
実施形態のVR会議システムを利用する場合には、例えば図1に示したVR検討場20を利用して会議を行うことで、各拠点の担当者が移動することなくオンライン会議を開催できる。
図1に示した例では、独立した4箇所の拠点H1、H2、H3、及びH4のそれぞれに存在する複数の担当者が同時に共通のVR検討場20に集まって検討会を開催する場合を想定している。拠点H1、H2、H3、及びH4は、それぞれワイヤハーネスの製品を提供する企業グループ内の設計拠点、国内の製造拠点、海外の製造拠点、製造されたワイヤハーネスを搭載する車両を製造する自動車会社の設計拠点などに相当する。
拠点H1内の特定の場所には検討会のための実在の会場V1がある。同様に、各拠点H2、H3、及びH4内の特定の場所に、それぞれ検討会のための実在の会場V2、V3、及びV4がある。
図1に示した例では、会場V1内に一人以上の検討者P11、及びそれ以外の一人以上の参加者P12が存在する。同様に、会場V2内には一人以上の検討者P21、及びそれ以外の一人以上の参加者P22が存在する。また、会場V3内には一人以上の検討者P31、及びそれ以外の一人以上の参加者P32が存在する。会場V4内には一人以上の検討者P41、及びそれ以外の一人以上の参加者P42が存在する。
また、会場V1内にはオンライン会議のために必要なシステム機材10Aとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備えられている。投影ユニット12は第1電子機器の一例であり、表示ユニット11は第2電子機器の一例である。
また、会場V2内にはシステム機材10Bとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備わっている。会場V3内にはシステム機材10Cとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備わっている。会場V4内にはシステム機材10Cとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備えられている。
会場V1内の検討者P11は、VR会議システムに含まれる投影ユニット12を装着した状態で、VR検討場20の仮想現実空間内でアバターA11として移動したり、アバターA11の姿勢を変更することが可能になる。また、投影ユニット12を装着した状態の検討者P11は、アバターA11の位置での視野における立体像21を、実際に立体的に見える像として視認することが可能になる。他の会場V2~V4内の検討者P21~P41についても同様である。立体像21は、オブジェクトの一例である。
実際には、後述するVRゴーグル15などを用いた投影表示により、検討者P11の左目に映る像と右目に映る像との間に視差を持たせることにより、立体的に認識可能な立体像を表示することが可能になる。
VR検討場20は、コンピュータの処理により仮想的に形成された三次元空間であり、例えば一般的な会議場の室内と同じような箱状の空間として形成される。図1に示した例では、製品として開発するワイヤハーネスの設計データに基づいて生成された立体像21がVR検討場20の空間の中に仮想的に存在している。より具体的には、ワイヤハーネスの立体モデルと、そのワイヤハーネスを製造する際に用いる作業台上に配置された多数の冶具の立体モデルとが立体像21に含まれている。
また、会場V1内の検討者P11に相当するキャラクター(人形など)であるアバターA11の立体像がVR検討場20の空間内に配置されている。また、他の会場V2~V4内の各検討者P21~P41に相当するアバターA21~A41の立体像もそれぞれVR検討場20の空間内に配置されている。
会場V1内の現実空間において検討者P11が移動すると、会場V1内に設置されている位置センサ13及び14がその位置変化を検出する。位置センサ13及び14が検出した検討者P11の実際の三次元位置変化は、VR検討場20の仮想空間におけるアバターA11の三次元位置変化に反映される。また、検討者P11の実際の姿勢変化は検討者P11が装着した投影ユニット12により検出され、その結果がVR検討場20内のアバターA11の姿勢変化に反映される。他の会場V2~V4内の各検討者P21~P41及び各アバターA21~A41についても同様である。
一方、会場V1内に配置されている表示ユニット11は、例えばノートパソコン(PC)のように二次元ディスプレイを備えたコンピュータであり、会場V1内の投影ユニット12と連携できるように接続されている。具体的には、会場V1内で投影ユニット12を装着している検討者P11の視野に映る映像とほぼ同じ範囲のVR検討場20の像が、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示される。勿論、表示ユニット11の画面は二次元ディスプレイなので、VR検討場20内の立体像21は座標変換されて二次元画像として表示ユニット11の二次元画面上に表示される。
同様に、会場V2内の表示ユニット11は、会場V2内で投影ユニット12を装着している検討者P21の視野に映る映像とほぼ同じ範囲のVR検討場20の像を、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示することができる。会場V3内の表示ユニット11は、会場V3内で投影ユニット12を装着している検討者P31の視野に映る映像とほぼ同じ範囲のVR検討場20の像を、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示することができる。会場V4内の表示ユニット11は、会場V4内で投影ユニット12を装着している検討者P41の視野に映る映像とほぼ同じ範囲のVR検討場20の像を、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示することができる。
各会場V1~V4内の表示ユニット11は例えば机の上に配置されている。また、同じ会場内の音声を集音するマイクや拡声用のスピーカも同じ机の上に配置されている。
会場V1内の検討者P11は、投影ユニット12を装着した状態で現実空間の会場V1内を動き回ることで、同時にVR検討場20の仮想空間内でも動き回ることができる。すなわち、検討者P11の実際の動きはVR検討場20内で検討者P11が見ている位置や姿勢の変化に反映され、投影ユニット12が投影する検討者P11の視野の内容にも反映される。他の会場V2~V4の検討者P21~P41についても同様である。
各会場V1~V4内の検討者P11~P41は、それぞれ実際に動き回ることで、VR検討場20内で製品や冶具の検討したい部位における立体形状などの状態を視覚的に詳細に把握することができる。
また、各会場V1~V4内の検討者P11~P41に相当する各アバターA11~A41がVR検討場20内に存在するので、各検討者P11~P41は他の拠点にいる各検討者が見ている位置や姿勢を、自分の投影ユニット12が投影する像により直ちに把握できる。そのため、異なる拠点の複数の検討者がVR検討場20内で製品の同じ部位を同時に確認し検討することが容易である。
また、各会場V1~V4内の検討者P11~P41以外の各参加者P12~P42も、表示ユニット11が表示する内容により、検討者P11~P41が検討している部位の映像を把握できる。
一方、後述するように、各拠点の投影ユニット12は各検討者P11~P41の入力操作を受け付けるユーザ操作部を備えている。また、各拠点の表示ユニット11も各参加者P12~P42の入力操作を受け付けるユーザ操作部を備えている。
各検討者P11~P41は、自分が装着している投影ユニット12のユーザ操作部を操作することで、VR検討場20内の立体像21のデータに対して変更、追加、削除などの修正を加えることができる。各検討者P11~P41による修正の操作は、VR会議システムによってデータとして記録され、立体像21にリアルタイムで反映される。また、各検討者P11~P41のいずれかが行った修正操作の結果は、全ての検討者P11~P41の投影ユニット12の投影内容、及び全ての参加者P12~P42の表示ユニット11の表示内容にリアルタイムで反映される。
したがって、それぞれ異なる拠点に存在する全ての検討者P11~P41は、共通のVR検討場20を利用して同じ立体像21をほぼ同じ視野内でそれぞれ確認しながら、同時に検討を行うことができる。また、それぞれ異なる拠点に存在する全ての検討者P11~P41は、立体像21として投影される製品や冶具の形状、構造、レイアウトなどに必要に応じて修正を加え、その修正結果をリアルタイムで確認できる。また、検討者P11~P41以外の参加者P12~P42についても、表示ユニット11の表示画面を参照することで、立体像21に対応する二次元画像を検討者P11~P41とほぼ同じ視野で確認し同時に検討することができる。そのため、オンライン会議の参加者全員が効率よく検討の作業を進めることができる。特に、参加者P12~P42の各々は、後述するように、例えば詳細に検討したい箇所や修正を希望する箇所等といった要注目箇所を、表示ユニット11の表示画面上で指定し、他の検討者P11~P41や参加者P12~P42と指定箇所を共有できる。よって、参加者間の円滑なコミュニケーションが可能となる。
<システムの構成>
図2は、VR会議システム100の構成例を示すブロック図である。図3は、会議管理サーバ30および投影ユニット12の構成例を示すブロック図である。
図2は、VR会議システム100の構成例を示すブロック図である。図3は、会議管理サーバ30および投影ユニット12の構成例を示すブロック図である。
図2に示した例では、それぞれ異なる拠点H1~H4の会場V1~V4に存在するシステム機材10A~10Dが、通信ネットワーク25を介して互いに通信できるように接続されている。
また、共通のVR検討場20を利用して複数の拠点H1~H4の間で同時にオンライン会議を可能にするために、会議管理サーバ30が通信ネットワーク25に接続されている。通信ネットワーク25については、各拠点H1~H4内に存在するローカルネットワークや、企業内の専用通信回線や、インターネットのような公衆通信回線を含むことが想定される。
なお、会議の通信がインターネットを経由する場合には、データを暗号化することで通信の安全性を確保できる。また、会議管理サーバ30は複数の拠点H1~H4のうちいずれかの場所に設置しても良いし、拠点H1~H4以外の場所にあるデータセンターなどに設置しても良い。
図3に示した会議管理サーバ30は、通信装置31、参加者管理部32、データベース管理部33、34、VRデータ生成部35、アバター制御部36、及び変更制御部37を備えている。
通信装置31は、各拠点H1~H4内のシステム機材10A~10Dとの間で通信ネットワーク25を介して安全にデータ通信するための機能を有している。
参加者管理部32は、検討者P11~P41、又は参加者P12~P42として共通のオンライン会議に参加する各参加者についてアクセスの管理を行う機能を有している。
参加者管理部32は、検討者P11~P41、又は参加者P12~P42として共通のオンライン会議に参加する各参加者についてアクセスの管理を行う機能を有している。
データベース管理部33は、開発途中のワイヤハーネスに対応する設計データを保持し管理している。この設計データの中には、対象となるワイヤハーネス各部の形状、寸法、各種部品などを表すデータや、このワイヤハーネスを製造する際に使用する様々な冶具の形状やレイアウトを表すデータが含まれている。
データベース管理部34は、データベース管理部33が保持している特定バージョンのデータに対する修正部分を表す更新データを保持し管理する機能を有している。例えば、ワイヤハーネスの特定部位の形状を変更することを表すデータ、ワイヤハーネスの特定部位に新たな部品を追加することを表すデータ、ワイヤハーネスの特定部位の部品を削除することを表すデータなどが、オンライン会議中にデータベース管理部34に逐次登録され保持される。
VRデータ生成部35は、VR検討場20の三次元仮想空間内に配置する立体像21のデータを生成する。VRデータ生成部35が生成する立体像21のデータの中には、データベース管理部33が保持しているワイヤハーネスの設計データに対応する立体像と、アバター制御部36が管理している各アバターに対応する立体像と、データベース管理部34が管理している更新データに対応する立体像とが含まれる。
アバター制御部36は、VR会議システム100のオンライン会議に参加している各拠点H1~H4の検討者P11~P41のそれぞれに対応するVR検討場20内のキャラクターをアバターA11~A41として管理する機能を有している。また、アバター制御部36は、各検討者P11~P41の位置(三次元座標)および姿勢(視線の方向)を常時監視して最新の状態を把握する機能を有している。
変更制御部37は、VR会議システム100のオンライン会議に参加している各拠点H1~H4の検討者P11~P41のそれぞれが投影ユニット12のユーザ操作部に対して行った入力操作や、各拠点H1~H4の参加者P12~P42のそれぞれが表示ユニット11のユーザ操作部に対して行った入力操作を、VR検討場20内の立体像21に対する修正指示として受け付ける機能を有している。また、変更制御部37は、受け付けた修正指示を、立体像21に対する変更、追加、削除などを表す更新データとしてデータベース管理部34に登録する機能を有している。
一方、図3に示した投影ユニット12は通信装置12a、ユーザ位置検出部12b、ユーザ操作部12c、音声伝送部12d、VRゴーグル15、及びヘッドセット16を備えている。また、VRゴーグル15はVR映像生成部15a、左目用ディスプレイ15b、右目用ディスプレイ15c、及びユーザ姿勢検出部15dの各機能を含んでいる。また、ヘッドセット16はマイク及びスピーカを内蔵している。VRゴーグル15は、第1表示部の一例である。
通信装置12aは、通信ネットワーク25を経由して会議管理サーバ30と接続し、会議管理サーバ30との間でデータの送受信を行うことができる。具体的には、VR検討場20における立体像21のデータを会議管理サーバ30から周期的に取得する。また、通信装置12aが会議管理サーバ30から取得する立体像21のデータには、ワイヤハーネスの三次元形状や冶具レイアウトなどの設計データと、各アバターA11~A41の三次元形状、位置、及び姿勢のデータが含まれる。
また、例えば拠点H1の投影ユニット12内の通信装置12aは、拠点H1内の位置センサ13、14が検出した検討者P11の三次元位置座標、及び検討者P11が装着したVRゴーグル15により検出された検討者P11の姿勢(視線の方向)の情報を会議管理サーバ30に周期的に送信できる。
また、例えば拠点H1の投影ユニット12内の通信装置12aは、拠点H1内の表示ユニット11と接続されており、検討者P11の三次元位置座標、及び検討者P11の姿勢に基づいて特定される検討者P11の仮想現実空間内における視野の範囲を表す情報を表示ユニット11に周期的に送信することができる。さらに、例えば拠点H1の投影ユニット12内の通信装置12aは、後述するように、拠点H1内の表示ユニット11において例えばマウス操作により表示画面上で位置が指定されると、クリックにより指定された位置の位置情報をこの表示ユニット11から受信する。
ユーザ位置検出部12bは、各拠点H1~H4内でVRゴーグル15を装着した検討者P11~P41と対向する部位に配置されている1組の位置センサ13及び14の検出状態に基づいて各検討者P11~P41の実空間における三次元位置座標およびその変化を検出することができる。
ユーザ操作部12cは、例えば一般的な入力装置であるマウスのように、ユーザによる各種ボタン操作や、座標入力操作を受付可能な機器である。本実施形態では、ユーザ操作部12cは投影ユニット12のVRゴーグル15を装着した各検討者P11~P41による入力操作を受け付けることができる。具体的には、VRゴーグル15により投影されているVR検討場20の立体像21におけるユーザ指定部位に対する移動などの変更、追加、削除などの修正指示をユーザ操作部12cで行うことができる。
音声伝送部12dは、ヘッドセット16のマイクにより取り込んだ検討者の音声の情報を通信装置12a及び通信ネットワーク25を経由して他の拠点に伝送することができる。また、音声伝送部12dは他の各拠点の検討者が発した音声の情報を通信ネットワーク25及び通信装置12aを介して受信し、ヘッドセット16のスピーカから音声として出力することができる。
VRゴーグル15は、これを装着しているユーザの左右の目に立体的に認識可能な像をそれぞれ投影する機能を有している。
VR映像生成部15aは、VR検討場20の三次元仮想空間における当該ユーザ(検討者P11~P41)の位置及び姿勢(例えば視線の方向)の状態を常時把握して、当該ユーザの視野の範囲を特定する。そして、VR検討場20の三次元仮想空間に存在する立体像21のデータのうち少なくとも当該ユーザの視野の範囲内のデータを会議管理サーバ30から取得し、当該ユーザの左右の目のそれぞれの視点位置から見える2種類の二次元画像データを立体像21のデータの座標変換により生成する。
左目用ディスプレイ15bは、VR映像生成部15aが生成した左目用の二次元画像データをVR映像生成部15aから入力し、二次元画像として当該ユーザの左側の目の位置に投影する。
右目用ディスプレイ15cは、VR映像生成部15aが生成した右目用の二次元画像データをVR映像生成部15aから入力し、二次元画像として当該ユーザの右側の目の位置に投影する。
ユーザ姿勢検出部15dは、例えばカメラなどで撮影した当該ユーザの黒目の位置の追跡により、当該ユーザの視線の方向を検出する。あるいは、ユーザ姿勢検出部15dは、3軸の加速度センサなどを用いて当該ユーザの頭の向きを表す3軸方向の角度(ロール角、ピッチ角、ヨー角)を検出する。
ユーザ姿勢検出部15dが検出した当該ユーザの姿勢、及びユーザ位置検出部12bが検出した位置の情報は、通信装置12a及び通信ネットワーク25を介して会議管理サーバ30に入力される。そして、当該ユーザの位置および姿勢は、会議管理サーバ30の処理によりVR検討場20内の仮想現実空間における対応する各アバターA11~A41の位置および姿勢に反映される。
一方、図2に示した表示ユニット11は通信装置11a、二次元映像生成部11b、二次元ディスプレイ11c、ユーザ操作部11d、及び音声伝送部11eを備えている。二次元ディスプレイ11cは第2表示部の一例であり、ユーザ操作部11dは位置指定部の一例である。
通信装置11aは、通信ネットワーク25を経由して会議管理サーバ30と接続し、会議管理サーバ30との間でデータの送受信を行うことができる。具体的には、VR検討場20における立体像21のデータを会議管理サーバ30から周期的に取得する。
また、通信装置11aは同じ拠点の投影ユニット12と接続されており、投影ユニット12を装着した検討者の視野の範囲と表示ユニット11の表示範囲とを同期させるために必要な情報を投影ユニット12から取得できる。
二次元映像生成部11bは、同じ拠点内で投影ユニット12を装着している検討者の視野の範囲を投影ユニット12から送信される情報により特定し、この検討者の視野と同等の範囲について、VR検討場20の三次元仮想空間に存在する立体像21のデータを会議管理サーバ30から取得する。そして、二次元映像生成部11bは、検討者の視点位置から見える像の二次元画像データを立体像21のデータの座標変換により生成する。
二次元ディスプレイ11cは、二次元映像生成部11bが生成した二次元画像データを二次元画像として画面上に表示する。なお、VRゴーグル15のVR映像生成部15aが生成する左右2種類の二次元画像データのいずれか一方を表示ユニット11が投影ユニット12から取得して二次元ディスプレイ11cに表示してもよい。
ユーザ操作部11dは、例えば一般的な入力装置であるマウスやキーボードのように、ユーザによる各種ボタン操作や、座標入力操作を受付可能な機器である。本実施形態では、ユーザ操作部11dは各参加者P12~P42による入力操作を受け付けることができる。具体的には、二次元ディスプレイ11cの画面に表示されているVR検討場20の立体像21におけるユーザ指定部位に対する移動などの変更、追加、削除などの修正指示をユーザ操作部11dで行うことができる。また、ユーザ操作部11dは、各参加者P12~P42による入力操作として、二次元ディスプレイ11cの画面上における位置の指定を受け付ける。ユーザ操作部11dは、二次元ディスプレイ11cの画面上においてクリックされた位置を算出する。算出された位置情報は、通信装置11aを介して会議管理サーバ30に送信される。そして、後述するように、会議管理サーバ30内の処理により、指定した位置にダーツポインタが生成されて立体像21に反映される。
音声伝送部11eは、ヘッドセット17のマイクにより取り込んだ参加者の音声の情報を通信装置11a及び通信ネットワーク25を経由して他の拠点に伝送することができる。また、音声伝送部11eは他の各拠点の検討者や参加者が発した音声の情報を通信ネットワーク25及び通信装置11aを介して受信し、ヘッドセット17のスピーカから音声として出力することができる。
<システムの動作>
VR会議システム100の動作例、特に、ダーツポインタを表示させる処理例について、図4から図6を参照して説明する。
VR会議システム100の動作例、特に、ダーツポインタを表示させる処理例について、図4から図6を参照して説明する。
会議管理サーバ30上のVRデータ生成部35は、データベース管理部33が保持しているワイヤハーネスの設計データに基づいてVR検討場20のVR空間における立体像21の三次元データを生成する。また、アバター制御部36が管理している各アバターA11~A41についても、VRデータ生成部35がVR検討場20のVR空間における立体像21の三次元データを生成する。
VR会議システム100を利用してオンライン会議を開始する時には、各拠点の検討者P11~P41が装着する投影ユニット12、及び各参加者P12~P42が使用する表示ユニット11を通信ネットワーク25を介して会議管理サーバ30と接続し互いに通信できる状態にする。
各拠点の投影ユニット12は、会議管理サーバ30のVRデータ生成部35が生成したVR検討場20内の立体像21のデータを取得し、このデータを各検討者P11~P41の左右の目のそれぞれの視野に映る立体像に座標変換してVRゴーグル15で各検討者P11~P41が視認できるように投影する。VRゴーグル15で各検討者P11~P41が視認できる映像(見える領域)は、VRゴーグル15毎に定まる。
また、各拠点の表示ユニット11は、会議管理サーバ30のVRデータ生成部35が生成したVR検討場20内の立体像21のデータを取得し、このデータを同じ拠点の各検討者P11~P41の視野に映る立体像とほぼ一致するように座標変換して二次元ディスプレイ11cの画面上に表示する。
図4は、拠点H1内にある表示ユニット11の表示画面111の一例を示す。表示画面111は、二次元映像生成部11bにより生成され、VR画面113とVR操作用画面115とを含む。VR操作用画面115は、VR画面113に対する、ツール選択等の操作を入力するための画面である。例えば、VR操作用画面115においてダーツポインタモードを選択すると、VR画面113にアイコン113dが表示されて、ダーツポインタ201d(図5参照)を表示可能となる。VR画面113は、拠点H1内の投影ユニット12が投影した検討者P11の視野に写る立体像と、ほぼ一致するように座標変換された二次元画像である。二次元映像生成部11bは、拠点H1内のVRゴーグル15で見える領域に、VR画面113の大きさを固定する。VR画面113の大きさを固定しないと、VR画面113の大きさが変更された場合に、検討者P1の視野に写る映像と異なってしまい、一部が切れてしまう。
各検討者P11~P41がVRゴーグル15により投影された立体像を視認しながら現実空間で移動したり姿勢や視線を変化させると、この変化がユーザ位置検出部12b及びユーザ姿勢検出部15dにより検出される。そして、実空間における各検討者P11~P41の姿勢や視線の変化が当該検討者のVR検討場20内の視野の変化に反映される。
VRゴーグル15のVR映像生成部15aは、当該検討者の視野の変化に合わせて、左目用ディスプレイ15b及び右目用ディスプレイ15cに投影する立体像を更新する)。また、表示ユニット11の二次元映像生成部11bは、同じ拠点に存在する検討者の視野の変化に追従するように、二次元ディスプレイ11cに表示する画像を更新する。この画像の表示サイズは固定される。
各拠点の検討者P11~P41は、ユーザ操作部12cを操作することで、自分の視野に映っている立体像の注目部位に必要に応じて変更を加えることができる。例えば、ワイヤハーネスの注目部位の形状を変化させたり、各冶具を配置する位置を移動したり、ワイヤハーネスの部品や冶具の追加や削除の操作を行うことができる。
また、各拠点の参加者P12~P42は、ユーザ操作部11dを操作することで、検討者P11~P41や他の参加者P12~P42に、要注目箇所を伝えることができる。例えば、参加者P12が、図4に示すように、VR画面113上においてマウスポインタ113eを要注目箇所に位置させマウスをクリックすると、VR画面113上の位置が指定位置として入力される。
各拠点の検討者P11~P41の入力操作による修正入力、及び各拠点の参加者P12~P42の入力操作による指定位置入力は、投影ユニット12及び表示ユニット11から、通信ネットワーク25を経由して会議管理サーバ30に入力される。会議管理サーバ30の変更制御部37は、各検討者P11~P41からの修正入力、及び各参加者P12~P42からの指定位置入力を受け付けてその内容を更新データとしてデータベース管理部34に記録する。
例えば、図4に示すように、参加者P12から指定位置が入力された場合、ユーザ操作部11dは、大きさが固定されたVR画面113の左下角を基準点113aとして、マウスでクリックした位置を算出する。ユーザ操作部11dは、基準点113aから右方向のX座標位置113b、及び基準点113aから上方向のY座標位置113cを算出し、指定位置の位置情報を求める。算出された位置情報は、通信装置11aから通信ネットワーク25を経由して会議管理サーバ30に入力され、更新データとしてデータベース管理部34に記録される。
会議管理サーバ30のVRデータ生成部35は、データベース管理部34に新たな更新データが追加されたことを検出すると、VRデータ生成部35が生成するVR検討場20の立体像21に、更新データの修正内容を反映させて新たな立体像21のデータを生成する。表示ユニット11から指定位置が入力された場合、VRデータ生成部35は、検討者P11が装着するVRゴーグル15の少なくとも位置のデータを取得して、ダーツポインタのスタート位置とする。VRデータ生成部35は、データベース管理部34に記録されている位置情報をゴール位置として、スタート位置からゴール位置に向かいゴール位置に到達した態様のダーツポインタについて、その立体像21のデータを生成する。
会議管理サーバ30の通信装置31は、各拠点H1~H4のシステム機材10A~10Dのそれぞれに対して、VRデータ生成部35が生成した修正後の立体像21のデータを送信する。
各拠点の投影ユニット12は、会議管理サーバ30から送信された修正後の立体像21のデータを取得し、このデータを各検討者P11~P41の左右の目のそれぞれの視野に映る立体像に座標変換してVRゴーグル15で各検討者P11~P41が視認できるように投影する。例えば拠点H1の投影ユニット12は、一例として、図5に示す立体画像201を投影する。図5の立体画像201において、ダーツポインタ201dは、位置201eに先端が配置される用に、表示される。位置201eは、左下角を基準点201aとして、X座標位置201b、Y座標位置201cが、図4に示したX座標位置113b、Y座標位置113cにそれぞれ対応する位置である。ダーツポインタ201dは、例えば図6に示すように、VR検討場20におけるアバターA11の位置、すなわちVRゴーグル15の位置をスタート位置T1として、ゴール位置T2に向かうベクトルVEに沿い、先端がゴール位置T2に配置されるように描画される。ダーツポインタ201dは、ポインタの一例である。
各拠点の表示ユニット11は、会議管理サーバ30から送信された修正後の立体像21のデータを取得し、このデータを同じ拠点の各検討者P11~P41の視野に映る立体像とほぼ一致するように座標変換して二次元ディスプレイ11cの画面上に表示する。
したがって、図2及び図3に示したVR会議システム100を利用することにより、図1に示すように拠点H1の検討者P11および参加者P12と、拠点H2の検討者P21および参加者P22と、拠点H3の検討者P31および参加者P32と、拠点H4の検討者P41および参加者P42との全員が、共通のVR検討場20の仮想現実空間を利用して、移動することなくオンライン会議を行うことができる。
特に、各検討者P11~P41はVRゴーグル15が投影する立体像21を実物と同様に立体的に認識することができ、しかも各自の移動や姿勢変化がVR検討場20の空間における各自の視野に反映されるので、検討が必要な部位の三次元形状や構造を詳細に確認することが容易である。
また、各拠点の検討者P11~P41に相当するアバターA11~A41がVR検討場20の中の立体像21にも含まれているので、各検討者P11~P41は、他の検討者が確認しているワイヤハーネス上の部位や視線の方向なども認識できる。つまり、各検討者P11~P41は互いに異なる場所の拠点にいながら、お互いの相対的な位置関係などを容易に把握できるので、立体像21上の共通の検討対象部位を全員で確認する作業を、共通の実空間で会議を行う場合と同じように効率的に行うことができる。
更に、各拠点の検討者P11~P41は、必要に応じて入力操作を行うことで、立体像21に対して変更、追加、削除などの修正操作を行うことができる。また、修正操作の結果が投影される立体像21の内容に反映されるので、各拠点の検討者P11~P41は修正後の立体像21の立体形状や構造を容易に把握できる。
また、各拠点の参加者P12~P42は、同じ拠点の検討者P11~P41の視野に映っている立体像21とほぼ同じ範囲の二次元画像を表示ユニット11の画面表示により確認できる。そのため、各会場V1~V4内に実物模型等がない場合でも、参加者P12~P42も検討者P11~P41と同様に検討対象の部位の形状や構造を把握することが容易になる。
特に、VR会議システム100においては、参加者P12~P42がマウス操作等により表示ユニット11の画面上で位置を指定することで、対応する立体像21の位置にダーツポインタ201dが表示される。したがって、オンライン会議の参加者間で、要注目箇所を共有できるため、円滑なコミュニケーションが可能となる。
なお、本発明は、上述した実施形態に限定されるものではなく、適宜、変形、改良、等が可能である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数、配置箇所、等は本発明を達成できるものであれば任意であり、限定されない。
例えば、上述の実施形態では複数の拠点で自動車用のワイヤハーネスの設計について検討するためにVR会議システム100を使用してオンライン会議を開催する場合を想定しているが、ワイヤハーネスに限らず、様々な種類の製品をVR検討場20に立体像21として配置して検討対象とすることができる。
また、会議管理サーバ30と同等の機能を複数の拠点のいずれかのシステム機材10A~10Dに搭載すれば、会議管理サーバ30を省略することも可能である。例えば会議管理サーバ30と同等の機能がシステム機材10Aの投影ユニット12に搭載された場合、表示ユニット11は、ユーザ操作部11dが位置の指定を受け付け、算出した位置情報を、通信装置11aを介してこの投影ユニット12に送信してもよい。そして、投影ユニット12内の処理により、ダーツポインタ201dが生成され立体像21に反映される。
また、各拠点H1~H4に配置された各表示ユニット11は各拠点H1~H4にいる検討者P11~P42の視野をそれぞれ表示したが、各拠点H1~H4の参加者P12~P42が、各表示ユニット11の画面上に、いずれの検討者P11~P41の視野を表示させるか選択可能に構成してもよい。すなわち、各表示ユニット11は、何れかの拠点H1~H4の検討者P11~P41のうち、選択された検討者の視野を画面に表示できる。例えば参加者P12が検討者P21の視野を選択した場合、検討者P21の視野に写る映像とほぼ同じ範囲のVR検討場20の像が、会議管理サーバ30を介して、拠点H1内の表示ユニット11の画面上に表示される。参加者P12が、この画面上で位置を指定することで、検討者P21の投影ユニット12は、VR検討場20において、検討者P21の投影ユニット12の位置から指定位置へ向かい指定位置に到達した態様のダーツポインタ201dを表示させることができる。このダーツポインタ201dの表示は、リアルタイムで、他の検討者P11、P31、P41の視野の内容に反映され、他の拠点H2、H3、H4内の表示ユニット11の表示内容にも反映される。
ここで、上述した本発明の実施形態に係る仮想現実会議システムの特徴をそれぞれ以下[1]~[3]に簡潔に纏めて列記する。
[1] 第1電子機器(投影ユニット12)と、前記第1電子機器と通信可能な第2電子機器(表示ユニット11)と、を備える通信システム(VR会議システム100)において、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクト(立体像21)を表示する第1表示部(VRゴーグル15)を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野(VR画面113)を表示する第2表示部(二次元ディスプレイ11c)と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部(ユーザ操作部11d)と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタ(ダーツポインタ201d)を表示する、
通信システム。
[1] 第1電子機器(投影ユニット12)と、前記第1電子機器と通信可能な第2電子機器(表示ユニット11)と、を備える通信システム(VR会議システム100)において、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクト(立体像21)を表示する第1表示部(VRゴーグル15)を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野(VR画面113)を表示する第2表示部(二次元ディスプレイ11c)と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部(ユーザ操作部11d)と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタ(ダーツポインタ201d)を表示する、
通信システム。
上記[1]の構成の通信システムによれば、第2電子機器の第2表示部上で位置を指定すると、第1電子機器の第1表示部にポインタが表示される。よって、第2電子機器の第2表示部を見ている人と、第1電子機器の第1表示部を見ている人とが、要注目箇所を共有できるので、円滑なコミュニケーションが可能となる。
[2] 前記第2表示部に表示される、前記第1表示部による前記視野の大きさは、固定される、
上記[1]に記載の通信システム。
上記[1]に記載の通信システム。
上記[2]の構成の通信システムによれば、第2表示部に表示される、第1表示部による視野の大きさが固定されるので、第2表示部は、第1表示部による視野の一部が切れることなく、第1表示部による視野と同等の画像を表示できる。
[3] 前記第2電子機器は、前記第2表示部における、前記位置指定部が受け付けた前記位置の位置情報を算出して、前記第1電子機器に送信し、
前記第1電子機器は、前記位置情報に基づく位置を前記ポインタのゴール位置とし、前記仮想現実空間内における前記第1電子機器の位置をスタート位置として、前記スタート位置から前記ゴール位置に向かい前記ゴール位置に到達した態様の前記ポインタを、前記仮想現実空間内に表示する、
上記[2]に記載の通信システム。
前記第1電子機器は、前記位置情報に基づく位置を前記ポインタのゴール位置とし、前記仮想現実空間内における前記第1電子機器の位置をスタート位置として、前記スタート位置から前記ゴール位置に向かい前記ゴール位置に到達した態様の前記ポインタを、前記仮想現実空間内に表示する、
上記[2]に記載の通信システム。
上記[3]の構成の通信システムによれば、仮想現実空間内において、第1表示部を見ている人の視線の先にポインタが表示され、ゴール位置に視線が誘導されるので、第1表示部を見ている人は、要注目箇所を容易に把握することができる。
10A,10B,10C,10D システム機材
11 表示ユニット
11a 通信装置
11b 二次元映像生成部
11c 二次元ディスプレイ
11d ユーザ操作部
11e 音声伝送部
12 投影ユニット
12a 通信装置
12b ユーザ位置検出部
12c ユーザ操作部
12d 音声伝送部
13,14 位置センサ
15 VRゴーグル
15a VR映像生成部
15b 左目用ディスプレイ
15c 右目用ディスプレイ
15d ユーザ姿勢検出部
16,17 ヘッドセット
20 VR検討場
21 立体像
25 通信ネットワーク
30 会議管理サーバ
31 通信装置
32 参加者管理部
33,34 データベース管理部
35 VRデータ生成部
36 アバター制御部
37 変更制御部
100 VR会議システム
201d ダーツポインタ
A11,A21,A31,A41 アバター
H1,H2,H3,H4 拠点
P11,P21,P31,P41 検討者
P12,P22,P32,P42 参加者
V1,V2,V3,V4 会場
11 表示ユニット
11a 通信装置
11b 二次元映像生成部
11c 二次元ディスプレイ
11d ユーザ操作部
11e 音声伝送部
12 投影ユニット
12a 通信装置
12b ユーザ位置検出部
12c ユーザ操作部
12d 音声伝送部
13,14 位置センサ
15 VRゴーグル
15a VR映像生成部
15b 左目用ディスプレイ
15c 右目用ディスプレイ
15d ユーザ姿勢検出部
16,17 ヘッドセット
20 VR検討場
21 立体像
25 通信ネットワーク
30 会議管理サーバ
31 通信装置
32 参加者管理部
33,34 データベース管理部
35 VRデータ生成部
36 アバター制御部
37 変更制御部
100 VR会議システム
201d ダーツポインタ
A11,A21,A31,A41 アバター
H1,H2,H3,H4 拠点
P11,P21,P31,P41 検討者
P12,P22,P32,P42 参加者
V1,V2,V3,V4 会場
本発明に係る上記目的は、下記構成により達成される。
第1電子機器と、前記第1電子機器と通信可能な第2電子機器と、を備える通信システムにおいて、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクトを表示する第1表示部を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野を表示する第2表示部と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタを表示し、
前記第2電子機器は、前記第2表示部における、前記位置指定部が受け付けた前記位置の位置情報を算出して、前記第1電子機器に送信し、
前記第1電子機器は、前記仮想現実空間内における前記位置情報に基づく位置をゴール位置とし、前記仮想現実空間内における前記第1電子機器の位置をスタート位置として、前記スタート位置から前記ゴール位置に向かうベクトルに沿い、先端が前記ゴール位置に配置されるダーツ形の前記ポインタを、前記仮想現実空間内に表示する、
通信システム。
第1電子機器と、前記第1電子機器と通信可能な第2電子機器と、を備える通信システムにおいて、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクトを表示する第1表示部を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野を表示する第2表示部と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタを表示し、
前記第2電子機器は、前記第2表示部における、前記位置指定部が受け付けた前記位置の位置情報を算出して、前記第1電子機器に送信し、
前記第1電子機器は、前記仮想現実空間内における前記位置情報に基づく位置をゴール位置とし、前記仮想現実空間内における前記第1電子機器の位置をスタート位置として、前記スタート位置から前記ゴール位置に向かうベクトルに沿い、先端が前記ゴール位置に配置されるダーツ形の前記ポインタを、前記仮想現実空間内に表示する、
通信システム。
Claims (3)
- 第1電子機器と、前記第1電子機器と通信可能な第2電子機器と、を備える通信システムにおいて、
前記第1電子機器は、仮想現実空間内に、ユーザ操作に対応して編集されたオブジェクトを表示する第1表示部を有し、
前記第2電子機器は、
前記第1電子機器の前記第1表示部による視野を表示する第2表示部と、
前記第2表示部の画面上における位置の指定を受け付ける位置指定部と、を有し、
前記第1表示部は、前記位置に対応する前記仮想現実空間内の位置に、ポインタを表示する、
通信システム。 - 前記第2表示部に表示される、前記第1表示部による前記視野の大きさは、固定される、
請求項1に記載の通信システム。 - 前記第2電子機器は、前記第2表示部における、前記位置指定部が受け付けた前記位置の位置情報を算出して、前記第1電子機器に送信し、
前記第1電子機器は、前記仮想現実空間内における前記位置情報に基づく位置を前記ポインタのゴール位置とし、前記仮想現実空間内における前記第1電子機器の位置をスタート位置として、前記スタート位置から前記ゴール位置に向かい前記ゴール位置に到達した態様の前記ポインタを、前記仮想現実空間内に表示する、
請求項2に記載の通信システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022052163A JP2023144941A (ja) | 2022-03-28 | 2022-03-28 | 通信システム |
CN202380023590.7A CN118749096A (zh) | 2022-03-28 | 2023-03-23 | 通信系统 |
PCT/JP2023/011667 WO2023190093A1 (ja) | 2022-03-28 | 2023-03-23 | 通信システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022052163A JP2023144941A (ja) | 2022-03-28 | 2022-03-28 | 通信システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023144941A true JP2023144941A (ja) | 2023-10-11 |
Family
ID=88202160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022052163A Pending JP2023144941A (ja) | 2022-03-28 | 2022-03-28 | 通信システム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023144941A (ja) |
CN (1) | CN118749096A (ja) |
WO (1) | WO2023190093A1 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4933164B2 (ja) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラムおよび記憶媒体 |
JP7530754B2 (ja) * | 2020-06-30 | 2024-08-08 | 東芝システムテクノロジー株式会社 | 教育支援システム、方法およびプログラム |
-
2022
- 2022-03-28 JP JP2022052163A patent/JP2023144941A/ja active Pending
-
2023
- 2023-03-23 WO PCT/JP2023/011667 patent/WO2023190093A1/ja unknown
- 2023-03-23 CN CN202380023590.7A patent/CN118749096A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023190093A1 (ja) | 2023-10-05 |
CN118749096A (zh) | 2024-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11206373B2 (en) | Method and system for providing mixed reality service | |
Lehner et al. | Distributed virtual reality: Supporting remote collaboration in vehicle design | |
KR102495447B1 (ko) | 거울 메타포를 사용한 원격 몰입 경험 제공 | |
Yang et al. | The effects of spatial auditory and visual cues on mixed reality remote collaboration | |
Lu et al. | Virtual and augmented reality technologies for product realization | |
EP3457253B1 (en) | Collaboration methods to improve use of 3d models in mixed reality environments | |
JP2019533372A (ja) | パノラマ画像の表示制御方法、装置及び記憶媒体 | |
US10950050B2 (en) | Information processing device, information processing method, and program for planning and execution of work plan | |
KR20200067537A (ko) | 가상 환경 회의실 제공 시스템 및 방법 | |
JP2020065229A (ja) | 映像通信方法、映像通信装置及び映像通信プログラム | |
JP2024150589A (ja) | 通信端末装置 | |
JP2017033299A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
WO2023190093A1 (ja) | 通信システム | |
WO2023190091A1 (ja) | 仮想現実会議システム | |
CN115053262A (zh) | 空间识别系统、空间识别方法、信息终端以及服务器装置 | |
WO2023190092A1 (ja) | 立体像表示システム | |
KR102467017B1 (ko) | 다중 사용자 간의 증강현실 커뮤니케이션 방법 | |
US20240372969A1 (en) | Virtual reality conferencing system | |
Schmidt et al. | A layer-based 3d virtual environment for architectural collaboration | |
JP2021081943A (ja) | 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム | |
JP2021005347A (ja) | 空間再現方法及び空間再現システム | |
JP7253044B2 (ja) | 図面検証システム、クライアント装置、プログラム、記録媒体、サーバ装置及び制御方法 | |
WO2024057642A1 (ja) | 情報処理装置、情報処理方法、プログラム、および記憶媒体 | |
Lumbreras et al. | Enhancing the realism with 3D sound in different virtual worlds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230904 |