JP2022175911A - 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 - Google Patents

副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 Download PDF

Info

Publication number
JP2022175911A
JP2022175911A JP2021082689A JP2021082689A JP2022175911A JP 2022175911 A JP2022175911 A JP 2022175911A JP 2021082689 A JP2021082689 A JP 2021082689A JP 2021082689 A JP2021082689 A JP 2021082689A JP 2022175911 A JP2022175911 A JP 2022175911A
Authority
JP
Japan
Prior art keywords
terminal
sub
attitude
coordinate system
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021082689A
Other languages
English (en)
Other versions
JP7015081B1 (ja
Inventor
英悟 池谷
Eigo Iketani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikeya Seisakusho Co Ltd
Original Assignee
Ikeya Seisakusho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikeya Seisakusho Co Ltd filed Critical Ikeya Seisakusho Co Ltd
Priority to JP2021082689A priority Critical patent/JP7015081B1/ja
Priority to JP2022004028A priority patent/JP7266329B2/ja
Application granted granted Critical
Publication of JP7015081B1 publication Critical patent/JP7015081B1/ja
Priority to US18/289,195 priority patent/US12124764B2/en
Priority to PCT/JP2022/018851 priority patent/WO2022239638A1/ja
Publication of JP2022175911A publication Critical patent/JP2022175911A/ja
Priority to JP2023064318A priority patent/JP2023083378A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】本願の第1の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる主端末等を提供する。【解決手段】主端末は、副端末それぞれから、端末識別子を取得する副端末検出手段と、オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段とを有し、副端末と同一の仮想空間へ参入する。サーバアクセス手段は、広域通信を介して外部ネットワークに配置された仮想空間サーバへ、狭域通信を介してローカルに配置された仮想空間サーバへ、又は、狭域通信を介して副端末に搭載された仮想空間サーバへアクセスする。【選択図】図3

Description

本発明は、仮想現実(Virtual Reality)、拡張現実(Augmented Reality)又は複合現実(Mixed Reality)の技術に関する。
仮想現実とは、ユーザの頭部にHMD(Head Mount Display)端末を装着し、ユーザの視界に3次元の仮想空間を表示する技術をいう。ユーザは、自ら動きながら仮想空間への没入感を得ることができる。
拡張現実とは、ユーザの視界に映る現実空間に、CG(Computer Graphics)映像を表示する技術をいう。例えばシースルーのディスプレイ上に、又は、現実空間をカメラで撮影した映像上に、CGを重畳的に表示することによって、現実空間を拡張する。
複合現実とは、CGで人工的に作られた仮想空間を、現実空間と融合させる技術をいう。現実空間の物体が仮想空間と一体化しており、ユーザは、自らの動きが、現実空間且つ仮想空間として相互に影響する。
これら技術によれば、HMD端末やAR/MR端末は、姿勢センサによってユーザの動きを検知すると共に、仮想空間サーバにアクセスすることによって仮想空間情報を取得して表示する。
従来、複数のユーザ間における体験共有システムの技術がある(例えば特許文献1参照)。この技術によれば、カメラによって撮影された映像を無線で送信する「スマートめがね」と、そのスマートめがねから映像を受信し、ユーザに仮想現実映像を表示する「VR機器」とを有する。
また、拡張現実空間(又は仮想現実空間)を介したサービスを提供する技術もある(例えば特許文献2参照)。この技術によれば、識別コードが貼り付けられたIoT機器と、識別コードを撮影するAR(又はVR)機器とを有する。AR機器は、識別コードを読み取ることによって、その基準点となる拡張現実空間をユーザに表示すると共に、IoT機器は、拡張現実空間と連携してユーザにサービスを提供する。
特表2020-506565号公報 特開2016-71496号公報
SteamVR・lighthouse、[online]、[令和2年5月1日検索]、インターネット<URL:https://www.moguravr.com/terms/index-r/lighthouse/#:~:text=Lighthouse%E3%81%A8%E3%81%AF%E3%80%81PC%E5%90%91%E3%81%91,%E3%81%99%E3%82%8B%E3%81%93%E3%81%A8%E3%81%8C%E5%8F%AF%E8%83%BD%E3%81%A7%E3%81%99%E3%80%82> 回転行列、[online]、[令和2年5月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/%E5%9B%9E%E8%BB%A2%E8%A1%8C%E5%88%97> ARToolkit Overview、[online]、[令和2年5月1日検索]、インターネット<URL:https://im-lab.net/artoolkit-overview/> OpenCV Detection of ArUco Markers、[online]、[令和2年5月1日検索]、インターネット<URL:https://docs.opencv.org/master/d5/dae/tutorial_aruco_detection.html> SLAM、[online]、[令和2年5月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/SLAM> 指さし行動の理解支援に向けたAR図示システムの提案、[online]、[令和2年5月1日検索]、インターネット<URL:http://www.res.kutc.kansai-u.ac.jp/~yone/research/pdf_graduate_thesis/201703g_UENO_Kaede.pdf> コリジョンの概要、[online]、[令和2年5月1日検索]、インターネット<URL:https://docs.unrealengine.com/ja/InteractiveExperiences/Physics/Collision/Overview/index.html>
図1は、オペレータが視認可能な現実空間に複数の副端末が存在するシステム構成図である。
図1によれば、オペレータが、現実空間に存在する複数のユーザa~cを視認している。複数のユーザa~cはそれぞれ、HMD端末のような副端末2を頭部に装着し、各HMD端末は、仮想空間サーバ3にアクセスしている。これによって、副端末2はそれぞれ、ユーザ所望の仮想空間を再生することができる。
しかしながら、以下のような2つの課題がある。
[第1の課題]
HMD端末によって再生中の仮想空間は、そのHMD端末を装着したユーザ主導で体験するものである。勿論、仮想空間の映像を、他のディスプレイに表示することは既存技術でもできる。しかしながら、あくまで、その仮想空間に干渉できるのは、HMD端末を装着したユーザのみであり、極めて個人的な体験になってしまっている。
図1によれば、例えば、身体が不自由な要介護者(ユーザ)に、HMD端末(副端末2)を装着させ、仮想空間を体験してもらうことを想定する。このとき、要介護者は、個人的に仮想空間に没頭することができるが、介護者(オペレータ)は、その要介護者がHMD端末によって視認している仮想空間を認識することができない。当然、介護者は、要介護者の仮想空間に対する操作を補助することもできない。
このような課題は、介護の場面に限らない。例えばHMD端末を装着した職業訓練者と、仮想空間における訓練を指導する指導者との関係も同様なものである。
これに対し、本願の発明者は、オペレータも例えば主端末(例えばAR端末)を頭部に装着することによって、シースルーディスプレイを通して副端末2と同一の仮想空間へ参入することができればよいのではないか、と考えた。
そこで、第1の課題を解決する本願の第1の発明として、現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる主端末、プログラム、システム及び方法を提供することを目的とする。
[第2の課題]
オペレータが装着した主端末1は、ユーザが装着した複数のHMD端末(副端末2)と通信することは可能である。しかしながら、オペレータが、現実空間で視認可能な複数のHMD端末の中で、所望のHMD端末を選択することは難しい。
AR端末であれば、例えばオペレータの視認先となるHMD端末のオブジェクトを、オペレータの指で指し示すことによって、そのHMD端末を選択できるかもしれない。しかしながら、オペレータのAR端末のカメラから見える映像内のオブジェクトとして選択できたに過ぎない。このとき、オペレータ所望のHMD端末と通信するためのアドレス(端末ID)を特定することはできない。アドレスとは、例えばIPアドレスやMAC(Media Access Control)アドレス、ビーコンIDのような端末IDである。
結局、オペレータの主端末1は、ユーザの副端末2を任意に選択し、直接的な通信をすることができない。
これに対し、本願の発明者は、ユーザが、現実空間で視認可能な位置に存在する複数の副端末の中から、所望の通信相手となる副端末を選択した際に、その副端末のアドレスを特定することができないか、と考えた。
そこで、本発明は、第2の課題を解決する本願の第2の発明として、現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる主端末、プログラム、システム及び方法を提供することを目的とする。
本発明によれば、第1の課題を解決する第1の発明と、第2の課題を解決する第2の発明とを開示する。
<第1の発明>
本願の第1の発明は、副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法に関する。
本願の第1の発明によれば、現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末であって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、副端末と同一の仮想空間へ参入することを特徴とする。
本願の第1の発明の主端末における他の実施形態によれば、
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
本願の第1の発明の主端末における他の実施形態によれば、
主端末は、カメラと、姿勢センサとを更に搭載し、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末選択手段は、カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことも好ましい。
本願の第1の発明の主端末における他の実施形態によれば、
副端末は、姿勢センサを有し、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものであることも好ましい。
本願の第1の発明の主端末における他の実施形態によれば、
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定されることも好ましい。
本願の第1の発明の主端末における他の実施形態によれば、
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
本願の第1の発明の主端末における他の実施形態によれば、
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことも好ましい。
本願の第1の発明によれば、現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
してコンピュータを機能させることを特徴とする。
本願の第1の発明によれば、主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末と通信可能なシステムであって、
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、
副端末は、主端末からの要求に応じて、端末識別子及びサーバアドレスを応答する
ことを特徴とする。
本願の第1の発明によれば、現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末の仮想空間サーバ接続方法であって、
主端末は、
副端末それぞれから、端末識別子を取得する第1のステップと、
オペレータ操作によって、いずれかの副端末を選択する第2のステップと、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する第3のステップと、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインする第4のステップと
を実行することを特徴とする。
<第2の発明>
本願の第2の発明は、カメラに映り込む現実空間でユーザによって選択された副端末を特定する主端末、プログラム、システム及び方法に関する。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末であって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有することを特徴とする。
本願の第2の発明における他の実施形態によれば、
カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させ、当該副端末の端末識別子を特定する副端末選択手段と、
特定された端末識別子に対応する副端末と通信する副端末通信手段と
を更に有することも好ましい。
本願の第2の発明における他の実施形態によれば、
副端末通信手段は、副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得し、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段を更に有し、
副端末と同一の仮想空間へ参入することも好ましい。
本願の第2の発明における他の実施形態によれば、
サーバアクセス手段は、
外部に配置された仮想空間サーバへ、ネットワークを介してログインするか、又は、
副端末に搭載された仮想空間サーバへ、狭域通信を介してログインする
ことも好ましい。
本願の第2の発明における他の実施形態によれば、
副端末は、姿勢センサを有し、
主端末座標系Aは、主端末の座標系であり、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する傾きベクトルから導出されたものであり、
副端末座標系Hは、副端末の座標系であり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことも好ましい。
本願の第2の発明における他の実施形態によれば、
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定されることも好ましい。
本願の第2の発明における他の実施形態によれば、
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
本願の第2の発明における他の実施形態によれば、
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことも好ましい。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有することを特徴とする。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末と通信可能なシステムであって、
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末は、
主端末からの要求に応じて、端末識別子を応答する副端末識別子応答手段と、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段と
を有することを特徴とする。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末の副端末特定方法であって、
主端末は、
副端末それぞれから、端末識別子を取得する第1のステップと、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する第2のステップと、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する第3のステップと、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第4のステップと、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する第5のステップと、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける第6のステップと
を実行することを特徴とする
本願の第1の発明における主端末、プログラム、システム及び方法によれば、現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
また、本願の第2の発明における主端末、プログラム、システム及び方法によれば、現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
オペレータが視認可能な現実空間に複数の副端末が存在するシステム構成図である。 本発明におけるシステム構成図である。 第1の発明における主端末の機能構成図である。 第1の発明における主端末の処理フローを表す説明図である。 第2の発明におけるシステム構成図である。 第2の発明における主端末の機能構成図である。 第2の発明における主端末のフローチャートである。 第2の発明における主端末座標系と副端末座標系との関係を表す説明図である。 第2の発明における現実空間と仮想空間との関係を表す説明図である。
以下では、図面を用いて、本発明を実施するための形態について詳細に説明する。
図2は、本発明におけるシステム構成図である。
既存技術によれば、仮想空間サーバは、一般的に、遠隔地に滞在する複数のユーザ同士を、同じ仮想空間に存在できるようにするものである。
これに対し、本発明によれば、オペレータが所持する主端末1と、ユーザが所持する副端末2とは、互いに、現実空間で視認可能な位置に存在することにある。即ち、本発明によれば、現実空間の近距離周辺で実現されることに特徴がある。
主端末1は、例えば眼鏡型のAR(Augmented Reality)端末であり、シースルーディスプレイに仮想空間のCGを表示することができる。オペレータは、主端末1を装着し、シースルーディスプレイを通して複数のユーザa~cを視認することができる。
一方で、副端末2は、例えばHMD(Head Mount Display)端末であり、仮想空間サーバ3へアクセスすることができる。ユーザa~cは、HMDを装着し、仮想空間を体験しているとする。
図2によれば、主端末1はAR端末であるとしているが、MR(Mixed Reality)端末であってもよいし、これらに限られるものではない。主端末1は、コンタクトレンズ型であってもよいし、カメラ付きで外界の映像も再生するHMD端末であってもよい。オペレータは、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末2を視認することができる。
一方で、副端末2もHMD端末であるとしているが、勿論、AR端末又はMR端末であってよいし、これに限られるものでもない。
主端末1及び副端末2は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末であってもよいし、タブレットやパーソナルコンピュータであってもよい。
図2によれば、主端末1は、狭域通信によって、複数の副端末2と通信する。
「狭域通信」としては、無線であってもよいし、又は、有線であってもよい。特に、例えばBluetooth(登録商標)やZigbee(登録商標)のような近距離無線通信や、無線LANのような狭域無線ネットワークであることが好ましい。
例えばBluetoothの場合、特に電波の到達範囲が狭いBLE(Bluetooth Low Energy)が適する。低消費電力版Bluetoothとして、1/3程度の電力で動作するために、主端末1及び副端末2の電力消費を低く抑えることができる。
例えば副端末2が、タグデバイスとして、広報パケット(Advertising Packet)を常時発信する。広報パケットは、例えば100msの間隔で、周期的に送信される。BLE規格によれば、副端末2を「advertiser」として機能させ、広報パケットには、端末IDとして「ビーコンID」が含められる。
図2によれば、主端末1も、仮想空間サーバ3にアクセスすることができる。仮想空間サーバ3が配置される場所として、例えば以下の3つのパターンがある。
(1)外部ネットワーク(インターネット)に配置された仮想空間サーバ(Dedicated Server)
(2)ローカルに配置された仮想空間サーバ(Dedicated Server)
(3)副端末に搭載された仮想空間サーバ(Listen Server)
ここで、仮想空間サーバ3がインターネットに配置されている場合、主端末1は、広域通信によってインターネットに接続する。そのインタフェースとなる広域通信も、無線であってもよいし、又は、有線であってもよい。
一方で、仮想空間サーバ3がローカルや副端末自体に配置されている場合、主端末1は、狭域通信を介して通信することができる。
図2によれば、副端末2はそれぞれ、自らの端末IDを用いて主端末1と通信する。また、本発明の特徴として、副端末2は、主端末1からの要求に応じて、ユーザが体験中の仮想空間サーバ3のアドレスを、主端末1へ応答することができる。
<第1の発明>
本願の第1の発明としての主端末、プログラム、システム及び方法は、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
図3は、第1の発明における主端末の機能構成図である。
図4は、第1の発明における主端末の処理フローを表す説明図である。
図3によれば、主端末1は、ハードウェアとして少なくとも、ディスプレイ101と、狭域通信部102とを有する。アクセスすべき仮想空間サーバ3の場所によっては、広域通信部103も必要とする。
図3によれば、主端末1は、副端末検出部11と、副端末選択部12と、副端末通信部13と、サーバアクセス部14とを有する。これら機能構成部は、主端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、仮想空間参入方法としても理解できる。
[副端末検出部11]
副端末検出部11は、副端末2それぞれから、端末IDを取得する。
端末IDとしては、例えばビーコンIDやIPアドレス、MAC(Media Access Control)アドレスであってもよい。
例えば狭域通信がBLEである場合、副端末2は定期的に端末IDを発信しており、主端末1の副端末検出部11は、その端末IDを受信することができる。
例えば狭域通信が無線LANである場合、主端末1の副端末検出部11は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末IDを受信することができる。
取得された端末IDは、副端末選択部12へ出力される。
[副端末選択部12]
副端末選択部12は、オペレータ操作によって、いずれかの副端末2を選択する。選択された副端末2の端末IDは、副端末通信部13へ出力される。
副端末選択部12は、例えば周辺から取得した複数の端末IDを、ディスプレイ101に表示し、オペレータに選択させるものであってもよい。各端末IDに、予め設定されたユーザ識別名を対応付けてディスプレイ101に表示することによって、オペレータが選択しやすくしたものであってもよい。図4によれば、複数の副端末2から取得したビーコンIDが表示されており、オペレータ自ら選択することができる。
尚、副端末2の選択機能については、本願の第2の発明を用いることによって、オペレータから視認するカメラの映像のオブジェクトと、取得した端末IDとを対応付けることができる。
[副端末通信部13]
副端末通信部13は、副端末選択部12によって選択された副端末2から、当該副端末2がログイン中の仮想空間サーバ3のサーバアドレスを取得する。取得されたサーバアドレスは、サーバアクセス部14へ出力される。
例えば主端末1が、サーバアドレス要求を副端末2へ送信する。これに対し、副端末2は、アクセス中の仮想空間サーバ3のサーバアドレスを、主端末1へ返信する。
サーバアドレスとは、URL(Uniform Resource Locator)や、IPアドレス、ポート番号、その他の仮想空間サーバにアクセスするために必要な情報を含む。
[サーバアクセス部14]
サーバアクセス部14は、副端末通信部13によって副端末2から取得されたサーバアドレスに基づく仮想空間サーバ3へログインする。
これによって、本願の第1の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
<第2の発明>
本願の第2の発明としての主端末、プログラム、システム及び方法は、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
図5は、第2の発明におけるシステム構成図である。
図5によれば、主端末1は、図2と比較して、カメラ104を更に有する。
[カメラ104]
カメラ104は、一般的な2Dカメラであってもよいし、3Dカメラであってもよい。例えば、レーザーに基づくLIDAR(light detection and ranging)であってもよい。尚、カメラに代えて、UWB(Ultra Wide Band)センサであってもよい。
また、図5によれば、主端末1及び副端末2は、図2と比較して、姿勢センサ105及び205を更に有する。
[姿勢センサ105及び205]
姿勢センサ105及び205は、起動中は常時、自らの姿勢(Transform)となる「位置v」及び「傾きr」を検知するものである。
図5によれば、以下のような姿勢が表されている。
A1:主端末座標系Aの主端末姿勢
H2:副端末座標系Hの副端末姿勢
尚、主端末座標系Aは、機器起動時に設定される基準座標系とする。同様に、副端末座標系Hも、機器起動時に設定される基準座標系とする。
姿勢センサ105及び205は、「傾きr」を検知するために、IMU(Inertial Measurement Unit)を搭載している。これは、一般的なスマートフォンなどに搭載されたものと同じものである。
また、姿勢センサ105及び205は、「位置v」を検知するために、例えばSteamVR(登録商標)のLighthouse(登録商標)のような、ヘッドマウントディスプレイに搭載されたトラッキングデバイスを搭載する(例えば非特許文献1参照)。これは、現実空間に設置されたアンカー(ベースステーション)と通信することによって、所定範囲内における位置vを追跡することができる。
又は、姿勢センサ105及び205は、前述したIMUやカメラを搭載することによって、SLAM(Simultaneous Localization And Mapping)を用いて、自己位置v及び傾きrを同時に追跡することができる(例えば非特許文献5参照)。
本発明における「姿勢」とは、現実空間(3次元空間)における「位置v」(3行列)と、傾きr(3行列)から算出された「回転行列R」(3×3行列)とから、以下のように「姿勢T」(4×4行列)を定義する(例えば非特許文献2参照)。
Figure 2022175911000002
これによって、位置v及び傾きrから姿勢Tを導出することができると共に、逆に、姿勢Tから位置v及び傾きrを導出することもできる。
図6は、第2の発明における主端末の機能構成図である。
図7は、第2の発明における主端末のフローチャートである。
図6によれば、主端末1は、図2と比較して、副端末姿勢受信部111と、物体認識部112と、物体姿勢検出部113と、姿勢変位検出部114と、副端末特定部115とを更に有する。これら機能構成部も、主端末1搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、端末特定方法としても理解できる。
[副端末姿勢受信部111]
副端末姿勢受信部111は、所定時間毎(Δt)に、副端末検出部110によって既に検出された副端末2それぞれから、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
H2:副端末座標系Hの副端末姿勢
副端末2それぞれにおける所定時間毎の副端末座標系Hの副端末姿勢TH2は、姿勢変位検出部114へ出力される。
[物体認識部112]
物体認識部112は、カメラ104によって撮影された映像から、現実空間の複数の副端末2を、オブジェクトとして認識する。
副端末2は、現実空間では同一物体であっても、視点によって多様な形状で映像に映り込む。そのように形状が変化しても、同一物体として検出できるようにロバストな特徴抽出技術が用いられる。例えば副端末2の外観(例えばHMD端末の外観)を予め学習した物体認識エンジンを用いて、副端末2のオブジェクトを認識するものであってもよい。一般的には、例えばSIFT(Scale-Invariant Feature Transform)や深層ニューラルネットワークのクラス分類技術がある。このような特徴抽出技術は、2D画像であっても、3D画像(又はポイントクラウド)であっても可能となる。
最も簡易には、2D画像であれば、物体認識部112は、例えば副端末2自体に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。
[物体姿勢検出部113]
物体姿勢検出部113は、所定時間毎(Δt)に、副端末2(のオブジェクト)それぞれについて、主端末1の姿勢センサ105に基づく主端末座標系Aの副端末姿勢TA2を検出する。
A2:主端末座標系Aの副端末姿勢
物体姿勢検出部113は、カメラによって撮影された映像から、物体認識部112によって認識された副端末2のオブジェクトそれぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出する。そして、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2として検出する。
前述した図5によれば、主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末2(HMD端末)を装着したユーザが向く前面に対する位置v及び傾きrから導出されたものである。ユーザが向く前面は、副端末2に配置された所定マーカの位置に基づいて特定される。
カメラ104によって撮影された2D画像に、物体(例えばマーカ)が映り込む場合、そのオブジェクトは、カメラの向きに応じて異なる角度から映る。映像に映り込むオブジェクトの画像の形状から、その姿勢(位置v及び傾きr)を検出することができる(例えば非特許文献3参照)。具体的には、マーカの中心位置を示す位置ベクトルと、x軸及びy軸がマーカの辺に平行で、z軸がそれらに垂直になるような回転軸ベクトルが検出される。
回転軸ベクトルとは、ロドリゲスの回転公式に従って、物体を任意の傾きにするべく回転させる際の軸方向を「向き」とし、回転角度を「ノルム」として持つベクトルを意味する。具体的には、OpenCV(登録商標)のarucoというマーカ検出機能を用いることができる(例えば非特許文献4参照)。
尚、主端末座標系Aの副端末姿勢TA2は、物体検知場所(例えばマーカ設置位置)に大きな影響を受けるために、姿勢補正行列を導入することが好ましい。
A2=TA11sS2c
A1:主端末座標系Aにおける主端末姿勢
1s:主端末姿勢座標系におけるカメラ(センサ)座標系の姿勢
S2:カメラ(センサ)座標系における映像認識された副端末の姿勢
c:姿勢補正行列
ここで、主端末姿勢座標系とは、主端末座標系Aにおける主端末姿勢を基準とする座標系である。
このように実際には、センサ座標系から主端末座標系に変換する処理が必要となる。
[姿勢変位検出部114]
姿勢変位検出部114は、所定時間毎(Δt)に、副端末姿勢受信部111から、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2を入力すると共に、物体姿勢検出部113から主端末座標系Aの副端末姿勢TA2を入力する。
(時刻t)
副端末21の副端末座標系Hの副端末姿勢TH21(t)
副端末22の副端末座標系Hの副端末姿勢TH22(t)
副端末23の副端末座標系Hの副端末姿勢TH23(t)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t)
(時刻t+Δt)
副端末21の副端末座標系Hの副端末姿勢TH21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t+Δt)
そして、姿勢変位検出部114は、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する。
副端末21の副端末座標系Hの副端末姿勢TH21の変位:
ΔTH21=(TH21(t))-1H21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22の変位:
ΔTH22=(TH22(t))-1H22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23の変位:
ΔTH23=(TH23(t))-1H23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2aの変位:
ΔTA2a=(TA2a(t))-1A2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2bの変位:
ΔTA2b=(TA2b(t))-1A2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2cの変位:
ΔTA2c=(TA2c(t))-1A2c(t+Δt)
図8は、第2の発明における主端末座標系と副端末座標系との関係を表す説明図である。
図9は、第2の発明における現実空間と仮想空間との関係を表す説明図である。
図8によれば、1つの物体としての副端末であっても、基準とする座標系が異なれば、姿勢も異なる。また、副端末座標系Hも、異なる主端末座標系Aを基準とした姿勢を持つ。
A1:主端末座標系Aの主端末姿勢
A2:主端末座標系Aの副端末姿勢
H2:副端末座標系Hの副端末姿勢
AH:主端末座標系Aからみた副端末座標系Hの姿勢
HA:副端末座標系Hからみた主端末座標系Aの姿勢
主端末座標系Aの主端末姿勢TA1は、主端末1に搭載された姿勢センサ105によって検知されたものである。
副端末座標系Hの副端末姿勢TH2も、副端末2に搭載された姿勢センサ205によって検知されたものである。主端末1は、副端末2から、その副端末座標系Hの副端末姿勢TH2を受信する。
主端末座標系Aの副端末姿勢TA2は、主端末1のカメラ104によって撮影された映像に映り込むオブジェクトから、物体姿勢検出部114によって検出されたものである。
現実空間の相対姿勢としては、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから算出した、例えば主端末座標系Aからみた副端末座標系Hの相対姿勢TAHである。これは、以下のように算出される。
AH=TA2H2 -1
A2:主端末座標系Aの副端末姿勢
H2 -1:副端末座標系Hの副端末姿勢TH2の逆行列
図9によれば、現実空間と仮想空間との関係を、主端末座標系Aからみた副端末座標系Hの姿勢TAHと、副端末座標系Hからみた主端末座標系Aの姿勢THAとを逆行列で一致させることができる。
AH:主端末座標系Aからみた副端末座標系Hの姿勢
HA:副端末座標系Hからみた主端末座標系Aの姿勢
AH=THA -1
[副端末特定部115]
副端末特定部115は、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける。
(副端末の端末ID) (映像認識されたオブジェクト)
副端末21 <-> 副端末a
副端末22 <-> 副端末c
副端末23 <-> 副端末b
副端末特定部115は、変位が最小となる副端末同士を対応付けるために、各ΔTAと各ΔTHにおける各要素の差の絶対値の和である「行列ノルム」を用いてもよい。他の方法としては、各ΔTAから抽出した位置v又は傾きrと、各ΔTHから抽出した位置v又は傾きrにおいて、ベクトル差を求め、その大きさである「ベクトルノルム」を用いてもよいし、各ΔTAから抽出した傾きrと各ΔTHから抽出した傾きrから回転軸ベクトルを算出し、そのノルムを用いてもよい。
これらのノルムが閾値以下かつ最も小さい副端末同士を対応付ける。
(副端末選択部12)
前述した図6における副端末選択部12は、カメラ104によって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる。
図7によれば、副端末選択部12は、カメラ104にオペレータの指が映り込んだ場合、その指で指し示すことによって、映像上の副端末2を選択することができる(例えば非特許文献6及び7参照)。具体的には、副端末2と認識された映像内のオブジェクトと、指と認識された映像内のオブジェクトとのコリジョンを判定する。
これによって、本願の第2の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
以上、詳細に説明したように、本願の第1の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
また、本願の第2の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
前述した本発明における種々の実施形態によれば、当業者は、本発明の技術思想及び見地の範囲における種々の変更、修正及び省略を容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 主端末
101 ディスプレイ
102 狭域通信部
103 広域通信部
104 カメラ
105 姿勢センサ
11 副端末検出部
12 副端末選択部
13 副端末通信部
14 サーバアクセス部
111 副端末姿勢受信部
112 物体認識部
113 物体姿勢検出部
114 姿勢変位検出部
115 副端末特定部
2 副端末
3 仮想空間サーバ

特表2020-506565号公報 特許第6417467号公報
SteamVR・lighthouse、[online]、[令和3年5月1日検索]、インターネット<URL:https://www.moguravr.com/terms/index-r/lighthouse/#:~:text=Lighthouse%E3%81%A8%E3%81%AF%E3%80%81PC%E5%90%91%E3%81%91,%E3%81%99%E3%82%8B%E3%81%93%E3%81%A8%E3%81%8C%E5%8F%AF%E8%83%BD%E3%81%A7%E3%81%99%E3%80%82> 回転行列、[online]、[令和3年5月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/%E5%9B%9E%E8%BB%A2%E8%A1%8C%E5%88%97> ARToolkit Overview、[online]、[令和2年5月1日検索]、インターネット<URL:https://im-lab.net/artoolkit-overview/> OpenCV Detection of ArUco Markers、[online]、[令和3年5月1日検索]、インターネット<URL:https://docs.opencv.org/master/d5/dae/tutorial_aruco_detection.html> SLAM、[online]、[令和3年5月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/SLAM> 指さし行動の理解支援に向けたAR図示システムの提案、[online]、[令和3年5月1日検索]、インターネット<URL:http://www.res.kutc.kansai-u.ac.jp/~yone/research/pdf_graduate_thesis/201703g_UENO_Kaede.pdf> コリジョンの概要、[online]、[令和3年5月1日検索]、インターネット<URL:https://docs.unrealengine.com/ja/InteractiveExperiences/Physics/Collision/Overview/index.html>
本願の第1の発明の主端末における他の実施形態によれば、
主端末は、カメラと、姿勢センサとを更に搭載し、
副端末検出手段によって端末識別子が取得された副端末それぞれから、所定時間毎に、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末選択手段は、カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことも好ましい。
本願の第1の発明によれば、主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末とを有するシステムであって、
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、
副端末は、主端末からの要求に応じて、端末識別子及びサーバアドレスを応答する
ことを特徴とする。
本願の第2の発明によれば、カメラ及び姿勢センサを搭載した主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末とを有するシステムであって、
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末は、
主端末からの要求に応じて、端末識別子を応答する副端末識別子応答手段と、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段と
を有することを特徴とする。
図6によれば、主端末1は、図2と比較して、副端末姿勢受信部111と、物体認識部112と、物体姿勢検出部113と、姿勢変位検出部114と、副端末特定部115とを更に有する。これら機能構成部も、主端末搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、端末特定方法としても理解できる。
[副端末姿勢受信部111]
副端末姿勢受信部111は、所定時間毎(Δt)に、副端末検出部11によって既に検出された副端末2それぞれから、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
H2:副端末座標系Hの副端末姿勢
副端末2それぞれにおける所定時間毎の副端末座標系Hの副端末姿勢TH2は、姿勢変位検出部114へ出力される。

Claims (10)

  1. 現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末であって、
    副端末それぞれから、端末識別子を取得する副端末検出手段と、
    オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
    選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
    副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
    を有し、副端末と同一の仮想空間へ参入することを特徴とする主端末。
  2. サーバアクセス手段は、
    広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
    狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
    狭域通信を介して副端末に搭載された仮想空間サーバへ
    アクセスすることを特徴とする請求項1に記載の主端末。
  3. 主端末は、カメラと、姿勢センサとを更に搭載し、
    所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
    カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
    所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
    所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
    副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
    を有し、
    副端末選択手段は、カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
    ことを特徴とする請求項1又は2に記載の主端末。
  4. 副端末は、姿勢センサを有し、
    主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
    副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
    ことを特徴とする請求項3に記載の主端末。
  5. 主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
    ことを特徴とする請求項4に記載の主端末。
  6. 副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
    物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
    ことを特徴とする請求項3から5のいずれか1項に記載の主端末。
  7. 主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
    ことを特徴とする請求項1から6のいずれか1項に記載の主端末。
  8. 現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
    副端末それぞれから、端末識別子を取得する副端末検出手段と、
    オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
    選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
    副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
    してコンピュータを機能させることを特徴とする主端末のプログラム。
  9. 主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末と通信可能なシステムであって、
    主端末は、
    副端末それぞれから、端末識別子を取得する副端末検出手段と、
    オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
    選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
    副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
    を有し、
    副端末は、主端末からの要求に応じて、端末識別子及びサーバアドレスを応答する
    ことを特徴とするシステム。
  10. 現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末の仮想空間サーバ接続方法であって、
    主端末は、
    副端末それぞれから、端末識別子を取得する第1のステップと、
    オペレータ操作によって、いずれかの副端末を選択する第2のステップと、
    選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する第3のステップと、
    副端末から取得したサーバアドレスに基づく仮想空間サーバへログインする第4のステップと
    を実行することを特徴とする主端末の仮想空間サーバ接続方法。

JP2021082689A 2021-05-14 2021-05-14 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 Active JP7015081B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021082689A JP7015081B1 (ja) 2021-05-14 2021-05-14 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法
JP2022004028A JP7266329B2 (ja) 2021-05-14 2022-01-14 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法
US18/289,195 US12124764B2 (en) 2021-05-14 2022-04-26 Main terminal for entering same virtual space as sub terminal, program, and system
PCT/JP2022/018851 WO2022239638A1 (ja) 2021-05-14 2022-04-26 副端末と同一の仮想空間へ参入する主端末、プログラム及びシステム
JP2023064318A JP2023083378A (ja) 2021-05-14 2023-04-11 副端末がアクセス中のサーバへアクセスする主端末、プログラム、システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021082689A JP7015081B1 (ja) 2021-05-14 2021-05-14 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022004028A Division JP7266329B2 (ja) 2021-05-14 2022-01-14 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法

Publications (2)

Publication Number Publication Date
JP7015081B1 JP7015081B1 (ja) 2022-02-14
JP2022175911A true JP2022175911A (ja) 2022-11-25

Family

ID=80912384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021082689A Active JP7015081B1 (ja) 2021-05-14 2021-05-14 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法

Country Status (1)

Country Link
JP (1) JP7015081B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110216002A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Calibration of Portable Devices in a Shared Virtual Space
JP2015192436A (ja) * 2014-03-28 2015-11-02 キヤノン株式会社 送信端末、受信端末、送受信システム、およびそのプログラム
WO2021053805A1 (ja) * 2019-09-20 2021-03-25 マクセル株式会社 情報端末装置および位置認識共有方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110216002A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Calibration of Portable Devices in a Shared Virtual Space
JP2015192436A (ja) * 2014-03-28 2015-11-02 キヤノン株式会社 送信端末、受信端末、送受信システム、およびそのプログラム
WO2021053805A1 (ja) * 2019-09-20 2021-03-25 マクセル株式会社 情報端末装置および位置認識共有方法

Also Published As

Publication number Publication date
JP7015081B1 (ja) 2022-02-14

Similar Documents

Publication Publication Date Title
KR101985703B1 (ko) 증강현실 서비스형 소프트웨어 기반의 증강현실운영시스템
CN105264548B (zh) 用于生成增强现实体验的难以察觉的标签
US9536350B2 (en) Touch and social cues as inputs into a computer
EP3340177B1 (en) Method and system for creating virtual message onto a moving object and searching the same
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
EP3422153A1 (en) System and method for selective scanning on a binocular augmented reality device
CN105190484A (zh) 个人全息告示牌
US11210932B2 (en) Discovery of and connection to remote devices
JPWO2014016986A1 (ja) 3次元環境共有システム及び3次元環境共有方法
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
CN113835352B (zh) 一种智能设备控制方法、系统、电子设备及存储介质
JP7266329B2 (ja) 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法
JP7015081B1 (ja) 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法
JP7285586B2 (ja) 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム
JP7130213B1 (ja) 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法
JP2023056195A (ja) 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法
US20220374505A1 (en) Bending estimation as a biometric signal
CN112581630B (zh) 一种用户交互方法和系统
WO2022246382A1 (en) Bending estimation as a biometric signal
US12124764B2 (en) Main terminal for entering same virtual space as sub terminal, program, and system
CN104062758A (zh) 图像显示的方法和显示设备
WO2023074852A1 (ja) 情報処理装置
US20230059119A1 (en) Information processing device, control method, and non-transitory computer-readable medium
TW202223749A (zh) 用於獲得場景中的設備或其使用者的標識資訊的方法和系統
TOKARCHUK et al. Crowd Analysis using visual and non-visual sensors, a survey

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220114

R150 Certificate of patent or registration of utility model

Ref document number: 7015081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150