JP2023056195A - 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法 - Google Patents

副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法 Download PDF

Info

Publication number
JP2023056195A
JP2023056195A JP2021165383A JP2021165383A JP2023056195A JP 2023056195 A JP2023056195 A JP 2023056195A JP 2021165383 A JP2021165383 A JP 2021165383A JP 2021165383 A JP2021165383 A JP 2021165383A JP 2023056195 A JP2023056195 A JP 2023056195A
Authority
JP
Japan
Prior art keywords
terminal
sub
virtual space
server
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021165383A
Other languages
English (en)
Inventor
英悟 池谷
Eigo Iketani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikeya Seisakusho Co Ltd
Original Assignee
Ikeya Seisakusho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikeya Seisakusho Co Ltd filed Critical Ikeya Seisakusho Co Ltd
Priority to JP2021165383A priority Critical patent/JP2023056195A/ja
Publication of JP2023056195A publication Critical patent/JP2023056195A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】本願の第1の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる主端末等を提供する。【解決手段】カメラを搭載した主端末において、副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取るマーカ読み取り手段と、読み取ったサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段とを有し、副端末と同一の仮想空間へ参入する。副端末は、マーカを、外部から視認可能なディスプレイに表示するものでもよい。ディスプレイには、副端末を装着するユーザによって異なるサーバアドレスが記録されたマーカが表示される。【選択図】図4

Description

本発明は、仮想現実(Virtual Reality)、拡張現実(Augmented Reality)又は複合現実(Mixed Reality)の技術に関する。
仮想現実とは、ユーザの頭部にHMD(Head Mount Display)端末を装着し、ユーザの視界に3次元の仮想空間を表示する技術をいう。ユーザは、自ら動きながら仮想空間への没入感を得ることができる。
拡張現実とは、ユーザの視界に映る現実空間に、CG(Computer Graphics)映像を表示する技術をいう。例えばシースルーのディスプレイ上に、又は、現実空間をカメラで撮影した映像上に、CGを重畳的に表示することによって、現実空間を拡張する。
複合現実とは、CGで人工的に作られた仮想空間を、現実空間と融合させる技術をいう。現実空間の物体が仮想空間と一体化しており、ユーザは、自らの動きが、現実空間且つ仮想空間として相互に影響する。
これら技術によれば、HMD端末やAR/MR端末は、姿勢センサによってユーザの動きを検知すると共に、仮想空間サーバにアクセスすることによって仮想空間情報を取得して表示する。
従来、複数のユーザ間における体験共有システムの技術がある(例えば特許文献1参照)。この技術によれば、カメラによって撮影された映像を無線で送信する「スマートめがね」と、そのスマートめがねから映像を受信し、ユーザに仮想現実映像を表示する「VR機器」とを有する。
また、拡張現実空間(又は仮想現実空間)を介したサービスを提供する技術もある(例えば特許文献2参照)。この技術によれば、識別コードが貼り付けられたIoT機器と、識別コードを撮影するAR(又はVR)機器とを有する。AR機器は、識別コードを読み取ることによって、その基準点となる拡張現実空間をユーザに表示すると共に、IoT機器は、拡張現実空間と連携してユーザにサービスを提供する。
特表2020-506565号公報 特開2016-71496号公報
SteamVR・lighthouse、[online]、[令和3年10月1日検索]、インターネット<URL:https://www.moguravr.com/terms/index-r/lighthouse/#:~:text=Lighthouse%E3%81%A8%E3%81%AF%E3%80%81PC%E5%90%91%E3%81%91,%E3%81%99%E3%82%8B%E3%81%93%E3%81%A8%E3%81%8C%E5%8F%AF%E8%83%BD%E3%81%A7%E3%81%99%E3%80%82> 回転行列、[online]、[令和3年10月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/%E5%9B%9E%E8%BB%A2%E8%A1%8C%E5%88%97> ARToolkit Overview、[online]、[令和3年10月1日検索]、インターネット<URL:https://im-lab.net/artoolkit-overview/> OpenCV Detection of ArUco Markers、[online]、[令和3年10月1日検索]、インターネット<URL:https://docs.opencv.org/master/d5/dae/tutorial_aruco_detection.html> SLAM、[online]、[令和3年10月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/SLAM> 指さし行動の理解支援に向けたAR図示システムの提案、[online]、[令和3年10月1日検索]、インターネット<URL:http://www.res.kutc.kansai-u.ac.jp/~yone/research/pdf_graduate_thesis/201703g_UENO_Kaede.pdf> コリジョンの概要、[online]、[令和3年10月1日検索]、インターネット<URL:https://docs.unrealengine.com/ja/InteractiveExperiences/Physics/Collision/Overview/index.html>
図1は、オペレータが視認可能な現実空間に複数の副端末が存在するシステム構成図である。
図1によれば、オペレータが、現実空間に存在する複数のユーザa~cを視認している。複数のユーザa~cはそれぞれ、HMD端末のような副端末2を頭部に装着し、各HMD端末は、仮想空間サーバ3にアクセスしている。これによって、副端末2はそれぞれ、ユーザ所望の仮想空間を再生することができる。
しかしながら、以下のような2つの課題がある。
[第1の課題]
HMD端末によって再生中の仮想空間は、そのHMD端末を装着したユーザ主導で体験するものである。勿論、仮想空間の映像を、他のディスプレイに表示することは既存技術でもできる。しかしながら、あくまで、その仮想空間に干渉できるのは、HMD端末を装着したユーザのみであり、極めて個人的な体験になってしまっている。
図1によれば、例えば、身体が不自由な要介護者(ユーザ)に、HMD端末(副端末2)を装着させ、仮想空間を体験してもらうことを想定する。このとき、要介護者は、個人的に仮想空間に没頭することができるが、介護者(オペレータ)は、その要介護者がHMD端末によって視認している仮想空間を認識することができない。当然、介護者は、要介護者の仮想空間に対する操作を補助することもできない。
このような課題は、介護の場面に限らない。例えばHMD端末を装着した職業訓練者と、仮想空間における訓練を指導する指導者との関係も同様なものである。
これに対し、本願の発明者は、オペレータも例えば主端末(例えばAR端末)を頭部に装着することによって、シースルーディスプレイを通して副端末2と同一の仮想空間へ参入することができればよいのではないか、と考えた。
そこで、第1の課題を解決する本願の第1の発明として、現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる主端末、システム、プログラム及び方法を提供することを目的とする。
[第2の課題]
オペレータが装着した主端末1は、ユーザが装着した複数のHMD端末(副端末2)と通信することは可能である。しかしながら、オペレータが、現実空間で視認可能な複数のHMD端末の中で、所望のHMD端末を選択することは難しい。
AR端末であれば、例えばオペレータの視認先となるHMD端末のオブジェクトを、オペレータの指で指し示すことによって、そのHMD端末を選択できるかもしれない。しかしながら、オペレータのAR端末のカメラから見える映像内のオブジェクトとして選択できたに過ぎない。このとき、オペレータ所望のHMD端末と通信するためのアドレス(端末ID)を特定することはできない。アドレスとは、例えばIPアドレスやMAC(Media Access Control)アドレス、ビーコンIDのような端末IDである。
結局、オペレータの主端末1は、ユーザの副端末2を任意に選択し、直接的な通信をすることができない。
これに対し、本願の発明者は、ユーザが、現実空間で視認可能な位置に存在する複数の副端末の中から、所望の通信相手となる副端末を選択した際に、その副端末のアドレスを特定することができないか、と考えた。
そこで、本発明は、第2の課題を解決する本願の第2の発明として、現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる主端末、システム、プログラム及び方法を提供することを目的とする。
本発明によれば、第1の課題を解決する第1の発明と、第2の課題を解決する第2の発明とを開示する。
<第1の発明>
本願の第1の発明は、副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法に関する。
本願の第1の発明によれば、カメラを搭載した主端末において、
副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、
カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取るマーカ読み取り手段と、
読み取ったサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、副端末と同一の仮想空間へ参入することを特徴とする。
本願の第1の発明における他の実施形態によれば、
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
本願の第1の発明における他の実施形態によれば、
マーカには、当該副端末の端末識別子又はユーザ識別子が更に記録されており、
マーカ読み取り手段は、当該マーカから、当該副端末の端末識別子又はユーザ識別子を読み取り、
サーバアクセス手段は、読み取った当該副端末の端末識別子又はユーザ識別子を、仮想空間サーバへ更に送信し、
仮想空間サーバによって、現実空間の当該副端末と仮想空間の端末とが紐付けられる
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
マーカに記録された当該副端末の端末識別子は、近距離通信又は狭域通信におけるMAC(Media Access Control)アドレスである
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
前述した主端末と、当該副端末とを有するシステムであって、
当該副端末は、当該マーカを、外部から視認可能なディスプレイに表示する
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
ディスプレイには、当該副端末を装着するユーザによって異なるサーバアドレスが記録されたマーカが表示される
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
当該副端末は、ユーザが所持するスマートフォンと通信可能であり、
当該副端末は、スマートフォンからユーザ情報を受信し、当該ユーザ情報に基づいてマーカを変化させてディスプレイに表示する
ことも好ましい。
本願の第1の発明によれば、カメラを搭載した主端末に搭載されたコンピュータを機能させるプログラムにおいて、
副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、
カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取るマーカ読み取り手段と、
読み取ったサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
してコンピュータを機能させ、副端末と同一の仮想空間へ参入する
ことを特徴とする。
本願の第1の発明によれば、カメラを搭載した主端末の仮想空間サーバ接続方法であって、
副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、
主端末は、
カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取る第1のステップと、
読み取ったサーバアドレスに基づく仮想空間サーバへログインする第2のステップと
を実行し、副端末と同一の仮想空間へ参入する
ことを特徴とする。
<第2の発明>
本願の第2の発明は、カメラに映り込む現実空間でユーザによって選択された副端末を特定する主端末、システム、プログラム及び方法に関する。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末であって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有することを特徴とする。
本願の第2の発明における他の実施形態によれば、
カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させ、当該副端末の端末識別子を特定する副端末選択手段と、
特定された端末識別子に対応する副端末と通信する副端末通信手段と
を更に有することも好ましい。
本願の第2の発明における他の実施形態によれば、
副端末通信手段は、副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得し、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段を更に有し、
副端末と同一の仮想空間へ参入することも好ましい。
本願の第2の発明における他の実施形態によれば、
サーバアクセス手段は、
外部に配置された仮想空間サーバへ、ネットワークを介してログインするか、又は、
副端末に搭載された仮想空間サーバへ、狭域通信を介してログインする
ことも好ましい。
本願の第2の発明における他の実施形態によれば、
副端末は、姿勢センサを有し、
主端末座標系Aは、主端末の座標系であり、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する傾きベクトルから導出されたものであり、
副端末座標系Hは、副端末の座標系であり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことも好ましい。
本願の第2の発明における他の実施形態によれば、
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定されることも好ましい。
本願の第2の発明における他の実施形態によれば、
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
本願の第2の発明における他の実施形態によれば、
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことも好ましい。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有することを特徴とする。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末と通信可能なシステムであって、
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末は、
主端末からの要求に応じて、端末識別子を応答する副端末識別子応答手段と、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段と
を有することを特徴とする。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末の副端末特定方法であって、
主端末は、
副端末それぞれから、端末識別子を取得する第1のステップと、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する第2のステップと、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する第3のステップと、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第4のステップと、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する第5のステップと、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける第6のステップと
を実行することを特徴とする
本願の第1の発明における主端末、システム、プログラム及び方法によれば、現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
また、本願の第2の発明における主端末、システム、プログラム及び方法によれば、現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
オペレータが視認可能な現実空間に複数の副端末が存在するシステム構成図である。 本発明におけるシステム構成図である。 副端末に表示されたマーカを表す説明図である。 第1の発明における主端末の機能構成図である。 第2の発明におけるシステム構成図である。 第2の発明における主端末の機能構成図である。 第2の発明における主端末のフローチャートである。 第2の発明における主端末座標系と副端末座標系との関係を表す説明図である。 第2の発明における現実空間と仮想空間との関係を表す説明図である。
以下では、図面を用いて、本発明を実施するための形態について詳細に説明する。
図2は、本発明におけるシステム構成図である。
既存技術によれば、仮想空間サーバは、一般的に、遠隔地に滞在する複数のユーザ同士を、同じ仮想空間に存在できるようにするものである。
これに対し、本発明によれば、オペレータが所持する主端末1と、ユーザが所持する副端末2とは、互いに、現実空間で視認可能な位置に存在することにある。即ち、本発明によれば、現実空間の近距離周辺で実現されることに特徴がある。
主端末1は、例えば眼鏡型のAR(Augmented Reality)端末であり、シースルーディスプレイに仮想空間のCGを表示することができる。オペレータは、主端末1を装着し、シースルーディスプレイを通して複数のユーザa~cを視認することができる。
一方で、副端末2は、例えばHMD(Head Mount Display)端末であり、仮想空間サーバ3へアクセスすることができる。ユーザa~cは、HMDを装着し、仮想空間を体験しているとする。
図2によれば、主端末1はAR端末であるとしているが、MR(Mixed Reality)端末であってもよいし、これらに限られるものではない。主端末1は、コンタクトレンズ型であってもよいし、カメラ付きで外界の映像も再生するHMD端末であってもよい。オペレータは、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末2を視認することができる。
一方で、副端末2もHMD端末であるとしているが、勿論、AR端末又はMR端末であってよいし、これに限られるものでもない。
主端末1及び副端末2は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末であってもよいし、タブレットやパーソナルコンピュータであってもよい。
図2によれば、主端末1も、仮想空間サーバ3にアクセスすることができる。仮想空間サーバ3が配置される場所として、例えば以下の3つのパターンがある。
(1)外部ネットワーク(インターネット)に配置された仮想空間サーバ(Dedicated Server)
(2)ローカルに配置された仮想空間サーバ(Dedicated Server)
(3)副端末に搭載された仮想空間サーバ(Listen Server)
ここで、仮想空間サーバ3がインターネットに配置されている場合、主端末1は、広域通信によってインターネットに接続する。そのインタフェースとなる広域通信も、無線であってもよいし、又は、有線であってもよい。
一方で、仮想空間サーバ3がローカルや副端末自体に配置されている場合、主端末1は、狭域通信を介して通信することができる。
<第1の発明>
本願の第1の発明としての主端末、システム、プログラム及び方法は、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
図3は、副端末に表示されたマーカを表す説明図である。
図3によれば、副端末2には、例えばQR(Quick Response)コードのような「マーカ」が装着されている。マーカは、副端末自体に装着されたものであってもよいし、又は、副端末に接続する周辺機器に装着されたものであってもよい。少なくとも、マーカは、副端末2について、主端末1から視認可能な位置に装着されたものであればよい。
本発明によれば、マーカには、当該副端末2がログインする仮想空間サーバ3の「サーバアドレス」が記録されている。
また、マーカには、サーバアドレスと共に、当該副端末3の「端末識別子」又は「ユーザ識別子」が更に記録されたものであってもよい。
端末識別子は、仮想空間サーバ3の仮想空間内における、副端末2の存在を特定するものである。尚、端末識別子は、近距離通信又は狭域通信におけるMAC(Media Access Control)アドレスであってもよい。
ユーザ識別子は、仮想空間サーバ3の仮想空間内における、副端末2を装着したユーザの存在を特定するものである。
また、副端末2は、マーカを、外部から視認可能なディスプレイに表示するものであってもよい。ディスプレイは、主端末1から視認可能となるように、例えば副端末2の前面に配置される。そして、ディスプレイには、当該副端末2を装着するユーザによって異なるサーバアドレスが記録されたマーカが表示される。
他の実施形態として、副端末2は、ユーザが所持するスマートフォンと通信可能なものであってもよい。図3によれば、ユーザbはスマートフォンを所持しており、そのスマートフォンは副端末2と通信する。副端末2は、スマートフォンからユーザ情報を受信し、当該ユーザ情報に基づいてマーカを変化させてディスプレイに表示することができる。即ち、副端末2を装着するユーザに応じて、仮想空間サーバ3のサーバアドレスと、端末識別子又はユーザ識別子とに基づいて、マーカを可変することができる。
図4は、第1の発明における主端末の機能構成図である。
図4によれば、主端末1は、ハードウェアとして少なくとも、オペレータの視覚に映すディスプレイ101と、現実空間の映像を撮影する2Dのカメラ104とを有する。また、アクセスすべき仮想空間サーバ3の場所によっては、狭域通信部102及び/又は広域通信部103も必要とする。
図4によれば、主端末1は、ソフトウェアとして、マーカ読み取り部10と、サーバアクセス部14とを有する。これら機能構成部は、主端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、仮想空間参入方法としても理解できる。
[マーカ読み取り部10]
マーカ読み取り部10は、カメラ104によって撮影された映像に映り込む「マーカ」を検出する。そして、そのマーカから、仮想空間サーバ3の「サーバアドレス」を読み取る。このとき、当該マーカから、当該副端末の「端末識別子」又は「ユーザ識別子」を読み取るものであってもよい。
マーカから読み取った情報は、サーバアクセス部14へ出力される。
[サーバアクセス部14]
サーバアクセス部14は、読み取った「サーバアドレス」に基づく仮想空間サーバ3へログインする。サーバアドレスとは、URL(Uniform Resource Locator)や、IPアドレス、ポート番号、その他の仮想空間サーバにアクセスするために必要な情報を含む。尚、サーバアドレスは、例えばVRChat(登録商標)のようなソーシャルVRプラットフォームにおける識別子であってもよい。
また、読み取った当該副端末2の「端末識別子」又は「ユーザ識別子」を、仮想空間サーバ3へ更に送信するものであってもよい。これによって、仮想空間サーバ3の仮想空間の中で、現実空間の当該副端末又はユーザと、仮想空間の端末又はユーザとが紐付けられる。
本願の第1の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
<第2の発明>
本願の第2の発明としての主端末、システム、プログラム及び方法は、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
図5は、第2の発明におけるシステム構成図である。
図5によれば、主端末1及び副端末2は、図2と比較して、姿勢センサ105及び205を更に有する。
[姿勢センサ105及び205]
姿勢センサ105及び205は、起動中は常時、自らの姿勢(Transform)となる「位置v」及び「傾きr」を検知するものである。
図5によれば、以下のような姿勢が表されている。
A1:主端末座標系Aの主端末姿勢
H2:副端末座標系Hの副端末姿勢
尚、主端末座標系Aは、機器起動時に設定される基準座標系とする。同様に、副端末座標系Hも、機器起動時に設定される基準座標系とする。
姿勢センサ105及び205は、「傾きr」を検知するために、IMU(Inertial Measurement Unit)を搭載している。これは、一般的なスマートフォンなどに搭載されたものと同じものである。
また、姿勢センサ105及び205は、「位置v」を検知するために、例えばSteamVR(登録商標)のLighthouse(登録商標)のような、ヘッドマウントディスプレイに搭載されたトラッキングデバイスを搭載する(例えば非特許文献1参照)。これは、現実空間に設置されたアンカー(ベースステーション)と通信することによって、所定範囲内における位置vを追跡することができる。
又は、姿勢センサ105及び205は、前述したIMUやカメラを搭載することによって、SLAM(Simultaneous Localization And Mapping)を用いて、自己位置v及び傾きrを同時に追跡することができる(例えば非特許文献5参照)。
本発明における「姿勢」とは、現実空間(3次元空間)における「位置v」(3行列)と、傾きr(3行列)から算出された「回転行列R」(3×3行列)とから、以下のように「姿勢T」(4×4行列)を定義する(例えば非特許文献2参照)。
Figure 2023056195000002
これによって、位置v及び傾きrから姿勢Tを導出することができると共に、逆に、姿勢Tから位置v及び傾きrを導出することもできる。
図6は、第2の発明における主端末の機能構成図である。
図7は、第2の発明における主端末のフローチャートである。
主端末1は、狭域通信によって、複数の副端末2と通信する。
「狭域通信」としては、無線であってもよいし、又は、有線であってもよい。特に、例えばBluetooth(登録商標)やZigbee(登録商標)のような近距離無線通信や、無線LANのような狭域無線ネットワークであることが好ましい。
例えばBluetoothの場合、特に電波の到達範囲が狭いBLE(Bluetooth Low Energy)が適する。低消費電力版Bluetoothとして、1/3程度の電力で動作するために、主端末1及び副端末2の電力消費を低く抑えることができる。
例えば副端末2が、タグデバイスとして、広報パケット(Advertising Packet)を常時発信する。広報パケットは、例えば100msの間隔で、周期的に送信される。BLE規格によれば、副端末2を「advertiser」として機能させ、広報パケットには、端末IDとして「ビーコンID」が含められる。
図6によれば、主端末1は、副端末検出部11と、副端末姿勢受信部111と、物体認識部112と、物体姿勢検出部113と、姿勢変位検出部114と、副端末特定部115と、副端末選択部12と、副端末通信部13と、サーバアクセス部14とを有する。これら機能構成部も、主端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、端末特定方法としても理解できる。
[副端末検出部11]
副端末検出部11は、副端末2それぞれから、端末IDを取得する。
端末IDとしては、例えばビーコンIDやIPアドレス、MAC(Media Access Control)アドレスであってもよい。
例えば狭域通信がBLEである場合、副端末2は定期的に端末IDを発信しており、主端末1の副端末検出部11は、その端末IDを受信することができる。
例えば狭域通信が無線LANである場合、主端末1の副端末検出部11は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末IDを受信することができる。
取得された端末IDは、副端末姿勢受信部111へ出力される。
[副端末姿勢受信部111]
副端末姿勢受信部111は、所定時間毎(Δt)に、副端末検出部11によって既に検出された副端末2それぞれから、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
H2:副端末座標系Hの副端末姿勢
副端末2それぞれにおける所定時間毎の副端末座標系Hの副端末姿勢TH2は、姿勢変位検出部114へ出力される。
[物体認識部112]
物体認識部112は、カメラ104によって撮影された映像から、現実空間の複数の副端末2を、オブジェクトとして認識する。
副端末2は、現実空間では同一物体であっても、視点によって多様な形状で映像に映り込む。そのように形状が変化しても、同一物体として検出できるようにロバストな特徴抽出技術が用いられる。例えば副端末2の外観(例えばHMD端末の外観)を予め学習した物体認識エンジンを用いて、副端末2のオブジェクトを認識するものであってもよい。一般的には、例えばSIFT(Scale-Invariant Feature Transform)や深層ニューラルネットワークのクラス分類技術がある。このような特徴抽出技術は、2D画像であっても、3D画像(又はポイントクラウド)であっても可能となる。
最も簡易には、2D画像であれば、物体認識部112は、例えば副端末2自体に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。
[物体姿勢検出部113]
物体姿勢検出部113は、所定時間毎(Δt)に、副端末2(のオブジェクト)それぞれについて、主端末1の姿勢センサ105に基づく主端末座標系Aの副端末姿勢TA2を検出する。
A2:主端末座標系Aの副端末姿勢
物体姿勢検出部113は、カメラによって撮影された映像から、物体認識部112によって認識された副端末2のオブジェクトそれぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出する。そして、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2として検出する。
前述した図5によれば、主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末2(HMD端末)を装着したユーザが向く前面に対する位置v及び傾きrから導出されたものである。ユーザが向く前面は、副端末2に配置された所定マーカの位置に基づいて特定される。
カメラ104によって撮影された2D画像に、物体(例えばマーカ)が映り込む場合、そのオブジェクトは、カメラの向きに応じて異なる角度から映る。映像に映り込むオブジェクトの画像の形状から、その姿勢(位置v及び傾きr)を検出することができる(例えば非特許文献3参照)。具体的には、マーカの中心位置を示す位置ベクトルと、x軸及びy軸がマーカの辺に平行で、z軸がそれらに垂直になるような回転軸ベクトルが検出される。
回転軸ベクトルとは、ロドリゲスの回転公式に従って、物体を任意の傾きにするべく回転させる際の軸方向を「向き」とし、回転角度を「ノルム」として持つベクトルを意味する。具体的には、OpenCV(登録商標)のarucoというマーカ検出機能を用いることができる(例えば非特許文献4参照)。
尚、主端末座標系Aの副端末姿勢TA2は、物体検知場所(例えばマーカ設置位置)に大きな影響を受けるために、姿勢補正行列を導入することが好ましい。
A2=TA11sS2c
A1:主端末座標系Aにおける主端末姿勢
1s:主端末姿勢座標系におけるカメラ(センサ)座標系の姿勢
S2:カメラ(センサ)座標系における映像認識された副端末の姿勢
c:姿勢補正行列
ここで、主端末姿勢座標系とは、主端末座標系Aにおける主端末姿勢を基準とする座標系である。
このように実際には、センサ座標系から主端末座標系に変換する処理が必要となる。
[姿勢変位検出部114]
姿勢変位検出部114は、所定時間毎(Δt)に、副端末姿勢受信部111から、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2を入力すると共に、物体姿勢検出部113から主端末座標系Aの副端末姿勢TA2を入力する。
(時刻t)
副端末21の副端末座標系Hの副端末姿勢TH21(t)
副端末22の副端末座標系Hの副端末姿勢TH22(t)
副端末23の副端末座標系Hの副端末姿勢TH23(t)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t)
(時刻t+Δt)
副端末21の副端末座標系Hの副端末姿勢TH21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t+Δt)
そして、姿勢変位検出部114は、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する。
副端末21の副端末座標系Hの副端末姿勢TH21の変位:
ΔTH21=(TH21(t))-1H21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22の変位:
ΔTH22=(TH22(t))-1H22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23の変位:
ΔTH23=(TH23(t))-1H23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2aの変位:
ΔTA2a=(TA2a(t))-1A2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2bの変位:
ΔTA2b=(TA2b(t))-1A2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2cの変位:
ΔTA2c=(TA2c(t))-1A2c(t+Δt)
図8は、第2の発明における主端末座標系と副端末座標系との関係を表す説明図である。
図9は、第2の発明における現実空間と仮想空間との関係を表す説明図である。
図8によれば、1つの物体としての副端末であっても、基準とする座標系が異なれば、姿勢も異なる。また、副端末座標系Hも、異なる主端末座標系Aを基準とした姿勢を持つ。
A1:主端末座標系Aの主端末姿勢
A2:主端末座標系Aの副端末姿勢
H2:副端末座標系Hの副端末姿勢
AH:主端末座標系Aからみた副端末座標系Hの姿勢
HA:副端末座標系Hからみた主端末座標系Aの姿勢
主端末座標系Aの主端末姿勢TA1は、主端末1に搭載された姿勢センサ105によって検知されたものである。
副端末座標系Hの副端末姿勢TH2も、副端末2に搭載された姿勢センサ205によって検知されたものである。主端末1は、副端末2から、その副端末座標系Hの副端末姿勢TH2を受信する。
主端末座標系Aの副端末姿勢TA2は、主端末1のカメラ104によって撮影された映像に映り込むオブジェクトから、物体姿勢検出部114によって検出されたものである。
現実空間の相対姿勢としては、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから算出した、例えば主端末座標系Aからみた副端末座標系Hの相対姿勢TAHである。これは、以下のように算出される。
AH=TA2H2 -1
A2:主端末座標系Aの副端末姿勢
H2 -1:副端末座標系Hの副端末姿勢TH2の逆行列
図9によれば、現実空間と仮想空間との関係を、主端末座標系Aからみた副端末座標系Hの姿勢TAHと、副端末座標系Hからみた主端末座標系Aの姿勢THAとを逆行列で一致させることができる。
AH:主端末座標系Aからみた副端末座標系Hの姿勢
HA:副端末座標系Hからみた主端末座標系Aの姿勢
AH=THA -1
[副端末特定部115]
副端末特定部115は、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける。
(副端末の端末ID) (映像認識されたオブジェクト)
副端末21 <-> 副端末a
副端末22 <-> 副端末c
副端末23 <-> 副端末b
副端末特定部115は、変位が最小となる副端末同士を対応付けるために、各ΔTAと各ΔTHにおける各要素の差の絶対値の和である「行列ノルム」を用いてもよい。他の方法としては、各ΔTAから抽出した位置v又は傾きrと、各ΔTHから抽出した位置v又は傾きrにおいて、ベクトル差を求め、その大きさである「ベクトルノルム」を用いてもよいし、各ΔTAから抽出した傾きrと各ΔTHから抽出した傾きrから回転軸ベクトルを算出し、そのノルムを用いてもよい。
これらのノルムが閾値以下かつ最も小さい副端末同士を対応付ける。
[副端末選択部12]
副端末選択部12は、オペレータ操作によって、いずれかの副端末2を選択する。選択された副端末2の端末IDは、副端末通信部13へ出力される。
副端末選択部12は、カメラ104によって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる。このとき、ディスプレイ101には、オペレータから視認するカメラの映像のオブジェクトと、取得した端末IDとが対応付けて表示され、オペレータにとって選択しやすくすることができる。また、各端末IDに、予め設定されたユーザ識別名を対応付けてディスプレイ101に表示することもできる。
前述した図7によれば、副端末選択部12は、カメラ104にオペレータの指が映り込んだ場合、その指で指し示すことによって、映像上の副端末2を選択することができる(例えば非特許文献6及び7参照)。具体的には、副端末2と認識された映像内のオブジェクトと、指と認識された映像内のオブジェクトとのコリジョンを判定する。
[副端末通信部13]
副端末通信部13は、副端末選択部12によって選択された副端末2から、当該副端末2がログイン中の仮想空間サーバ3のサーバアドレスを取得する。
例えば、副端末通信部13は、サーバアドレス要求を副端末2へ送信する。これに対し、副端末2は、アクセス中の仮想空間サーバ3のサーバアドレスを返信する。
これによって取得されたサーバアドレスは、サーバアクセス部14へ出力される。
(サーバアクセス部14)
そして、サーバアクセス部14は、読み取った「サーバアドレス」に基づく仮想空間サーバ3へログインする。
本願の第2の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
以上、詳細に説明したように、本願の第1の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
また、本願の第2の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
前述した本発明における種々の実施形態によれば、当業者は、本発明の技術思想及び見地の範囲における種々の変更、修正及び省略を容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 主端末
101 ディスプレイ
102 狭域通信部
103 広域通信部
104 カメラ
105 姿勢センサ
10 マーカ読み取り部
11 副端末検出部
12 副端末選択部
13 副端末通信部
14 サーバアクセス部
111 副端末姿勢受信部
112 物体認識部
113 物体姿勢検出部
114 姿勢変位検出部
115 副端末特定部
2 副端末
205 姿勢センサ
3 仮想空間サーバ

Claims (10)

  1. カメラを搭載した主端末において、
    副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、
    カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取るマーカ読み取り手段と、
    読み取ったサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
    を有し、副端末と同一の仮想空間へ参入することを特徴とする主端末。
  2. サーバアクセス手段は、
    広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
    狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
    狭域通信を介して副端末に搭載された仮想空間サーバへ
    アクセスすることを特徴とする請求項1に記載の主端末。
  3. マーカには、当該副端末の端末識別子又はユーザ識別子が更に記録されており、
    マーカ読み取り手段は、当該マーカから、当該副端末の端末識別子又はユーザ識別子を読み取り、
    サーバアクセス手段は、読み取った当該副端末の端末識別子又はユーザ識別子を、仮想空間サーバへ更に送信し、
    仮想空間サーバによって、現実空間の当該副端末と仮想空間の端末とが紐付けられる
    ことを特徴とする請求項1又は2に記載の主端末。
  4. マーカに記録された当該副端末の端末識別子は、近距離通信又は狭域通信におけるMAC(Media Access Control)アドレスである
    ことを特徴とする請求項3に記載の主端末。
  5. 主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
    ことを特徴とする請求項1から4のいずれか1項に記載の主端末。
  6. 請求項1から5のいずれ1項に記載の主端末と、当該副端末とを有するシステムであって、
    当該副端末は、当該マーカを、外部から視認可能なディスプレイに表示する
    ことを特徴とするシステム。
  7. ディスプレイには、当該副端末を装着するユーザによって異なるサーバアドレスが記録されたマーカが表示される
    ことを特徴とする請求項6に記載のシステム。
  8. 当該副端末は、ユーザが所持するスマートフォンと通信可能であり、
    当該副端末は、スマートフォンからユーザ情報を受信し、当該ユーザ情報に基づいてマーカを変化させてディスプレイに表示する
    ことを特徴とする請求項7に記載のシステム。
  9. カメラを搭載した主端末に搭載されたコンピュータを機能させるプログラムにおいて、
    副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、
    カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取るマーカ読み取り手段と、
    読み取ったサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
    してコンピュータを機能させ、副端末と同一の仮想空間へ参入する
    ことを特徴とする主端末のプログラム。
  10. カメラを搭載した主端末の仮想空間サーバ接続方法であって、
    副端末自体に又は副端末に接続する周辺機器に、当該副端末がログインする仮想空間サーバのサーバアドレスが記録されたマーカが付与されており、
    主端末は、
    カメラによって撮影された副端末自体に又は副端末に接続する周辺機器が映り込む映像から当該マーカを検出し、仮想空間サーバのサーバアドレスを読み取る第1のステップと、
    読み取ったサーバアドレスに基づく仮想空間サーバへログインする第2のステップと
    を実行し、副端末と同一の仮想空間へ参入する
    ことを特徴とする主端末の仮想空間サーバ接続方法。

JP2021165383A 2021-10-07 2021-10-07 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法 Pending JP2023056195A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021165383A JP2023056195A (ja) 2021-10-07 2021-10-07 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021165383A JP2023056195A (ja) 2021-10-07 2021-10-07 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法

Publications (1)

Publication Number Publication Date
JP2023056195A true JP2023056195A (ja) 2023-04-19

Family

ID=86004587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021165383A Pending JP2023056195A (ja) 2021-10-07 2021-10-07 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP2023056195A (ja)

Similar Documents

Publication Publication Date Title
KR102520183B1 (ko) 디지털 트윈을 이용한 증강현실 기반 현장 모니터링 시스템 및 방법
US11127210B2 (en) Touch and social cues as inputs into a computer
KR101985703B1 (ko) 증강현실 서비스형 소프트웨어 기반의 증강현실운영시스템
CN105264548B (zh) 用于生成增强现实体验的难以察觉的标签
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
EP2974509B1 (en) Personal information communicator
WO2014016986A1 (ja) 3次元環境共有システム及び3次元環境共有方法
CN105190484A (zh) 个人全息告示牌
JP2003256876A (ja) 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
KR20180101746A (ko) 증강 현실 컨텐츠를 제공하기 위한 방법, 전자 기기 및 시스템
EP3407168A1 (en) Determining full-body pose for a virtual reality environment
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
JP7266329B2 (ja) 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法
JP2023056195A (ja) 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法
JP7015081B1 (ja) 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法
JP7285586B2 (ja) 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム
JP7130213B1 (ja) 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法
WO2023074852A1 (ja) 情報処理装置
CN105787988B (zh) 一种信息处理方法、服务器及终端设备
JP7459038B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023149255A1 (ja) 表示制御装置
JP7476163B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7458363B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20220374505A1 (en) Bending estimation as a biometric signal
WO2023120472A1 (ja) アバター生成装置