JP7130213B1 - 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 - Google Patents
現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 Download PDFInfo
- Publication number
- JP7130213B1 JP7130213B1 JP2021082690A JP2021082690A JP7130213B1 JP 7130213 B1 JP7130213 B1 JP 7130213B1 JP 2021082690 A JP2021082690 A JP 2021082690A JP 2021082690 A JP2021082690 A JP 2021082690A JP 7130213 B1 JP7130213 B1 JP 7130213B1
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- sub
- attitude
- coordinate system
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 238000004891 communication Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 24
- 239000003550 marker Substances 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 9
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
拡張現実とは、ユーザの視界に映る現実空間に、CG(Computer Graphics)映像を表示する技術をいう。例えばシースルーのディスプレイ上に、又は、現実空間をカメラで撮影した映像上に、CGを重畳的に表示することによって、現実空間を拡張する。
複合現実とは、CGで人工的に作られた仮想空間を、現実空間と融合させる技術をいう。現実空間の物体が仮想空間と一体化しており、ユーザは、自らの動きが、現実空間且つ仮想空間として相互に影響する。
これら技術によれば、HMD端末やAR/MR端末は、姿勢センサによってユーザの動きを検知すると共に、仮想空間サーバにアクセスすることによって仮想空間情報を取得して表示する。
[第1の課題]
仮想空間コンテンツには、HMD端末を装着するユーザのみならず、AR端末又はHMD端末を装着するオペレータも参入することはできる。仮想空間内では、ユーザも自由に行動し、オペレータも自由に行動することができる。しかしながら、ユーザとオペレータとの間の仮想空間における距離感(具体的には位置及び角度に基づく姿勢)と、現実空間における距離感とは、異なっている。そのために、オペレータとユーザとが同じ仮想空間に参入したとしても、オペレータは現実空間のようにユーザを補助することができない。
このような課題は、介護の場面に限らない。例えばHMD端末を装着した職業訓練者と、仮想空間における訓練を指導する指導者との関係も同様なものである。
仮想空間コンテンツでは、HMD端末を装着するユーザ自らがアバターとなって、その仮想空間内を移動することができる。ユーザとオペレータとが同一の仮想空間に参入した場合、その仮想空間内では、アバターによって相手方を認識することができる。しかしながら、オペレータは、ユーザをアバターでしか認識できないために、現実空間と異なった態様であって、現実空間のようにユーザを補助することができない。
本願の第1の発明は、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる主端末、プログラム、システム及び方法に関する。
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする。
相対姿勢算出手段は、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、主端末座標系Aに対する副端末座標系Hの相対姿勢TAHを算出する
ことも好ましい。
サーバアクセス手段は、現実空間の相対姿勢として、以下のいずれかを仮想空間サーバへ送信する
主端末座標系Aに対する副端末座標系Hの相対姿勢TAH、
相対姿勢TAHから導出された位置v及び傾きr、
相対姿勢TAHの逆行列TAH -1(副端末座標系Hに対する主端末座標系Aの相対姿勢THA)、又は、
相対姿勢TAHの逆行列TAH -1から導出された位置v及び傾きr
ことも好ましい。
副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段を更に有し、
サーバアクセス手段は、副端末から取得したサーバアドレスに基づく仮想空間サーバへログインし、副端末と同一の仮想空間へ参入する
ことも好ましい。
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
副端末は、姿勢センサを有し、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことも好ましい。
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
ことも好ましい。
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末について、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する副端末をオペレータに視認させる
ことも好ましい。
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
サーバアクセス手段は、仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信し、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
を更に有するも好ましい。
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ようにコンピュータを機能させることを特徴とする。
主端末は、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、
副端末は、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段を有し、
仮想空間サーバの仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする。
主端末は、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する第1のステップと、
カメラによって撮影された映像から、現実空間の副端末を認識する第2のステップと、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第3のステップと、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する第4のステップと、
現実空間の相対姿勢を、仮想空間サーバへ送信する第5のステップと
を実行し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする。
本願の第2の発明は、現実空間におけるユーザの映像を仮想空間内に展開することができる主端末、プログラム、システム及び方法に関する。
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信するサーバアクセス手段と、
カメラによって撮影された映像から、現実空間の副端末を装着したユーザを認識する物体認識手段と、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
を有することを特徴とする。
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信するサーバアクセス手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
してコンピュータを機能させることを特徴とする。
主端末は、
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信する第1のステップと、
カメラによって撮影された映像から、現実空間の副端末を認識する第2のステップと、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出す第3のステップと、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する第4のステップと
を実行することを特徴とする。
また、本願の第2の発明における主端末、プログラム、システム及び方法によれば、現実空間におけるユーザの映像を仮想空間内に展開することができる。
これに対し、本発明によれば、オペレータが所持する主端末1と、ユーザが所持する副端末2とは、互いに、現実空間で視認可能な位置に存在することにある。即ち、本発明によれば、現実空間の近距離周辺で実現されることに特徴がある。
一方で、副端末2は、例えばHMD(Head Mount Display)端末であり、仮想空間サーバ3へアクセスすることができる。ユーザaは、HMDを装着し、仮想空間を体験しているとする。
一方で、副端末2もHMD端末であるとしているが、勿論、AR端末又はMR端末であってよいし、これに限られるものでもない。
主端末1及び副端末2は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末であってもよいし、タブレットやパーソナルコンピュータであってもよい。
「狭域通信」としては、無線であってもよいし、又は、有線であってもよい。特に、例えばBluetooth(登録商標)やZigbee(登録商標)のような近距離無線通信や、無線LANのような狭域無線ネットワークであることが好ましい。
例えばBluetoothの場合、特に電波の到達範囲が狭いBLE(Bluetooth Low Energy)が適する。低消費電力版Bluetoothとして、1/3程度の電力で動作するために、主端末1及び副端末2の電力消費を低く抑えることができる。
例えば副端末2が、タグデバイスとして、広報パケット(Advertising Packet)を常時発信する。広報パケットは、例えば100msの間隔で、周期的に送信される。BLE規格によれば、副端末2を「advertiser」として機能させ、広報パケットには、端末IDとして「ビーコンID」が含められる。
(1)外部ネットワーク(インターネット)に配置された仮想空間サーバ(Dedicated Server)
(2)ローカルに配置された仮想空間サーバ(Dedicated Server)
(3)副端末に搭載された仮想空間サーバ(Listen Server)
ここで、仮想空間サーバ3がインターネットに配置されている場合、主端末1は、広域通信によってインターネットに接続する。そのインタフェースとなる広域通信も、無線であってもよいし、又は、有線であってもよい。
一方で、仮想空間サーバ3がローカルや副端末自体に配置されている場合、主端末1は、狭域通信を介して通信することができる。
本願の第1の発明としての主端末、プログラム、システム及び方法は、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる。
カメラ104は、一般的な2Dカメラであってもよいし、3Dカメラであってもよい。例えば、レーザーに基づくLIDAR(light detection and ranging)であってもよい。尚、カメラに代えて、UWB(Ultra Wide Band)センサであってもよい。
姿勢センサ105及び205は、起動中は常時、自らの姿勢(Transform)となる「位置v」及び「傾きr」を検知するものである。
図3によれば、以下のような姿勢が表されている。
TA1:主端末座標系Aの主端末姿勢
TH2:副端末座標系Hの副端末姿勢
尚、主端末座標系Aは、機器起動時に設定される基準座標系とする。同様に、副端末座標系Hも、機器起動時に設定される基準座標系とする。
また、姿勢センサ105及び205は、「位置v」を検知するために、例えばSteamVR(登録商標)のLighthouse(登録商標)のような、ヘッドマウントディスプレイに搭載されたトラッキングデバイスを搭載する(例えば非特許文献1参照)。これは、現実空間に設置されたアンカー(ベースステーション)と通信することによって、所定範囲内における位置vを追跡することができる。
又は、姿勢センサ105及び205は、前述したIMUやカメラを搭載することによって、SLAM(Simultaneous Localization And Mapping)を用いて、自己位置v及び傾きrを同時に追跡することができる(例えば非特許文献5参照)。
図5は、第1の発明における主端末の処理フローを表す説明図である。
副端末検出部110は、副端末2から、端末IDを取得する。
端末IDとしては、例えばビーコンIDやIPアドレス、MAC(Media Access Control)アドレスであってもよい。
例えば狭域通信がBLEである場合、副端末2は定期的に端末IDを発信しており、主端末1の副端末検出部110は、その端末IDを受信することができる。
例えば狭域通信が無線LANである場合、主端末1の副端末検出部110は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末IDを受信することができる。
副端末姿勢受信部111は、副端末検出部110によって既に検出された副端末2から、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
TH2:副端末座標系Hの副端末姿勢
副端末2における副端末座標系Hの副端末姿勢TH2は、相対姿勢算出部12へ出力される。
物体認識部112は、カメラ104によって撮影された映像から、現実空間の副端末2を、オブジェクトとして認識する。
最も簡易には、2D画像であれば、物体認識部112は、例えば副端末2自体に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。
物体姿勢検出部113は、副端末2(のオブジェクト)について、主端末1の姿勢センサ105に基づく主端末座標系Aの副端末姿勢TA2を検出する。
TA2:主端末座標系Aの副端末姿勢
物体姿勢検出部113は、カメラによって撮影された映像から、物体認識部112によって認識された副端末2のオブジェクトについて、主端末座標系Aに基づく位置v及び傾きrを検出する。そして、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2として検出する。
前述した図3によれば、主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末2(HMD端末)を装着したユーザが向く前面に対する位置v及び傾きrから導出されたものである。ユーザが向く前面は、副端末2に配置された所定マーカの位置に基づいて特定される。
TA2=TA1T1sTS2Tc
TA1:主端末座標系Aにおける主端末姿勢
T1s:主端末姿勢座標系におけるカメラ(センサ)座標系の姿勢
TS2:カメラ(センサ)座標系における映像認識された副端末の姿勢
Tc:姿勢補正行列
ここで、主端末姿勢座標系とは、主端末座標系Aにおける主端末姿勢を基準とする座標系である。
このように実際には、センサ座標系から主端末座標系に変換する処理が必要となる。
相対姿勢算出部12は、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する。
図7は、第1の発明における現実空間と仮想空間との関係を表す説明図である。
TA1:主端末座標系Aの主端末姿勢
TA2:主端末座標系Aの副端末姿勢
TH2:副端末座標系Hの副端末姿勢
TAH:主端末座標系Aからみた副端末座標系Hの姿勢
THA:副端末座標系Hからみた主端末座標系Aの姿勢
副端末座標系Hの副端末姿勢TH2も、副端末2に搭載された姿勢センサ205によって検知されたものである。主端末1は、副端末2から、その副端末座標系Hの副端末姿勢TH2を受信する。
主端末座標系Aの副端末姿勢TA2は、主端末1のカメラ104によって撮影された映像に映り込むオブジェクトから、物体姿勢検出部113によって検出されたものである。
TAH=TA2TH2 -1
TA2:主端末座標系Aの副端末姿勢
TH2 -1:副端末座標系Hの副端末姿勢TH2の逆行列
TAH:主端末座標系Aからみた副端末座標系Hの姿勢
THA:副端末座標系Hからみた主端末座標系Aの姿勢
TAH=THA -1
副端末通信部13は、副端末2から、当該副端末2がログイン中の仮想空間サーバ3のサーバアドレスを取得する。取得されたサーバアドレスは、サーバアクセス部14へ出力される。
サーバアドレスとは、URL(Uniform Resource Locator)や、IPアドレス、ポート番号、その他の仮想空間サーバにアクセスするために必要な情報を含む。
サーバアクセス部14は、副端末通信部13によって副端末2から取得されたサーバアドレスに基づく仮想空間サーバ3へログインする。これによって、主端末1は、現実空間で視認可能な位置に存在する副端末2と同一の仮想空間へ参入することができる。
また、本発明の特徴として、サーバアクセス部14は、現実空間の相対姿勢を、仮想空間サーバ3へ送信する。
(1)主端末座標系Aに対する副端末座標系Hの相対姿勢TAH
(2)主端末座標系Aに対する副端末座標系Hの相対姿勢TAHから導出された位置v及び傾きr
(3)主端末座標系Aに対する副端末座標系Hの相対姿勢TAHの逆行列TAH -1(副端末座標系Hに対する主端末座標系Aの相対姿勢THA)
(4)主端末座標系Aに対する副端末座標系Hの相対姿勢TAHの逆行列TAH -1から導出された位置v及び傾きr
本願の第2の発明としての主端末、プログラム、システム及び方法は、現実空間におけるユーザの映像を仮想空間内に展開することができる。
図9は、第2の発明における主端末の処理フローを表す説明図である。
また、サーバアクセス部14は、仮想空間サーバ3から、副端末2を所持するユーザをアバターとして表現した仮想空間情報を受信する。仮想空間情報として再生された画像を、仮想画像生成部16へ出力する。
ユーザ画像切出部15は、カメラ104によって撮影された映像から、副端末2を装着したユーザと認識されたユーザ画像部分を切り出す。
具体的には、AIによって画像から被写体を自動的に切り出す物体検知技術もある(例えば非特許文献9参照)。
仮想画像生成部16は、切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する。
このとき、ユーザ画像部分のサイズが、アバター画像部分のサイズと一致するように拡大縮小の処理をするものであってもよい。
これによって、現実空間に存在するユーザの現実の映像が、1つの仮想空間内に存在することとなる。即ち、主端末1を装着したオペレータは、仮想空間に、現実空間のユーザがそのまま存在しているように視認することができる。また、仮想空間に存在するユーザは、現実空間と同じ距離及び姿勢で存在する。
また、本願の第2の発明として、現実空間におけるユーザの映像を仮想空間内に展開することができる。
101 ディスプレイ
102 狭域通信部
103 広域通信部
104 カメラ
105 姿勢センサ
110 副端末検出部
111 副端末姿勢受信部
112 物体認識部
113 物体姿勢検出部
12 相対姿勢算出部
13 副端末通信部
14 サーバアクセス部
15 ユーザ画像切出部
16 仮想画像生成部
2 副端末
205 姿勢センサ
3 仮想空間サーバ
Claims (13)
- カメラ及び姿勢センサを搭載した主端末について、現実空間で視認可能な位置に存在する副端末と通信可能な主端末であって、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする主端末。 - 相対姿勢算出手段は、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、主端末座標系Aに対する副端末座標系Hの相対姿勢TAHを算出する
ことを特徴とする請求項1に記載の主端末。 - サーバアクセス手段は、現実空間の相対姿勢として、以下のいずれかを仮想空間サーバへ送信する
主端末座標系Aに対する副端末座標系Hの相対姿勢TAH、
相対姿勢TAHから導出された位置v及び傾きr、
相対姿勢TAHの逆行列TAH -1(副端末座標系Hに対する主端末座標系Aの相対姿勢THA)、又は、
相対姿勢TAHの逆行列TAH -1から導出された位置v及び傾きr
ことを特徴とする請求項2に記載の主端末。 - 副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段を更に有し、
サーバアクセス手段は、副端末から取得したサーバアドレスに基づく仮想空間サーバへログインし、副端末と同一の仮想空間へ参入する
ことを特徴とする請求項1から3のいずれか1項に記載の主端末。 - サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることを特徴とする請求項1から4のいずれか1項に記載の主端末。 - 副端末は、姿勢センサを有し、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことを特徴とする請求項5に記載の主端末。 - 主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
ことを特徴とする請求項6に記載の主端末。 - 副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末について、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことを特徴とする請求項5から7のいずれか1項に記載の主端末。 - 主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する副端末をオペレータに視認させる
ことを特徴とする請求項1から8のいずれか1項に記載の主端末。 - 副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
サーバアクセス手段は、仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信し、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
を更に有することを特徴とする請求項1から9のいずれか1項に記載の主端末。 - カメラ及び姿勢センサを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在する副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ようにコンピュータを機能させることを特徴とする主端末のプログラム。 - カメラ及び姿勢センサを搭載した主端末と、当該主端末からみて現実空間で視認可能な位置に存在する副端末とを有するシステムであって、
主端末は、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、
副端末は、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段を有し、
仮想空間サーバの仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とするシステム。 - カメラ及び姿勢センサを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在する副端末と通信可能な主端末の仮想空間姿勢維持方法であって、
主端末は、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する第1のステップと、
カメラによって撮影された映像から、現実空間の副端末を認識する第2のステップと、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第3のステップと、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する第4のステップと、
現実空間の相対姿勢を、仮想空間サーバへ送信する第5のステップと
を実行し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする主端末の仮想空間姿勢維持方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082690A JP7130213B1 (ja) | 2021-05-14 | 2021-05-14 | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 |
PCT/JP2022/018862 WO2022239639A1 (ja) | 2021-05-14 | 2022-04-26 | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム及びシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082690A JP7130213B1 (ja) | 2021-05-14 | 2021-05-14 | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7130213B1 true JP7130213B1 (ja) | 2022-09-05 |
JP2022175912A JP2022175912A (ja) | 2022-11-25 |
Family
ID=83152200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021082690A Active JP7130213B1 (ja) | 2021-05-14 | 2021-05-14 | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7130213B1 (ja) |
WO (1) | WO2022239639A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019186800A (ja) | 2018-04-12 | 2019-10-24 | Kddi株式会社 | 情報端末装置、プログラム及び方法 |
WO2021053805A1 (ja) | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
-
2021
- 2021-05-14 JP JP2021082690A patent/JP7130213B1/ja active Active
-
2022
- 2022-04-26 WO PCT/JP2022/018862 patent/WO2022239639A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019186800A (ja) | 2018-04-12 | 2019-10-24 | Kddi株式会社 | 情報端末装置、プログラム及び方法 |
WO2021053805A1 (ja) | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2022175912A (ja) | 2022-11-25 |
WO2022239639A1 (ja) | 2022-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10496910B2 (en) | Inconspicuous tag for generating augmented reality experiences | |
US10062213B2 (en) | Augmented reality spaces with adaptive rules | |
CN105190484B (zh) | 个人全息告示牌 | |
CN103091844B (zh) | 头戴式显示设备及其控制方法 | |
US9536350B2 (en) | Touch and social cues as inputs into a computer | |
JP6992761B2 (ja) | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
CN111768479B (zh) | 图像处理方法、装置、计算机设备以及存储介质 | |
EP2974509B1 (en) | Personal information communicator | |
WO2021068356A1 (zh) | 一种基于用户-展品距离的增强现实博物馆协作交互方法与系统 | |
WO2013028586A1 (en) | Location based skins for mixed reality displays | |
KR20080022983A (ko) | 3d 가상지도상의 사용자의 아바타 객체의 위치 및 활동정보를 현실 세계로 광고하는 시스템 및 방법 | |
CN108351689B (zh) | 用于显示处于预定义区域中的对象的全息图像的方法和系统 | |
Irfan et al. | Crowd analysis using visual and non-visual sensors, a survey | |
JP7304639B2 (ja) | デジタル現実内の強化されたユーザ間通信を可能にするための方法及びシステム | |
JP7130213B1 (ja) | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 | |
JP7266329B2 (ja) | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 | |
JP7015081B1 (ja) | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 | |
JP7285586B2 (ja) | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム | |
JP2023056195A (ja) | 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法 | |
US12124764B2 (en) | Main terminal for entering same virtual space as sub terminal, program, and system | |
WO2023074852A1 (ja) | 情報処理装置 | |
TW202223749A (zh) | 用於獲得場景中的設備或其使用者的標識資訊的方法和系統 | |
KR20230132001A (ko) | 적외선 기반의 스마트형 객체 정보 처리 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7130213 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |