JP2022175911A - 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 - Google Patents
副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 Download PDFInfo
- Publication number
- JP2022175911A JP2022175911A JP2021082689A JP2021082689A JP2022175911A JP 2022175911 A JP2022175911 A JP 2022175911A JP 2021082689 A JP2021082689 A JP 2021082689A JP 2021082689 A JP2021082689 A JP 2021082689A JP 2022175911 A JP2022175911 A JP 2022175911A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- sub
- attitude
- coordinate system
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 238000004891 communication Methods 0.000 claims abstract description 40
- 238000006073 displacement reaction Methods 0.000 claims description 56
- 239000011159 matrix material Substances 0.000 claims description 24
- 239000003550 marker Substances 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
拡張現実とは、ユーザの視界に映る現実空間に、CG(Computer Graphics)映像を表示する技術をいう。例えばシースルーのディスプレイ上に、又は、現実空間をカメラで撮影した映像上に、CGを重畳的に表示することによって、現実空間を拡張する。
複合現実とは、CGで人工的に作られた仮想空間を、現実空間と融合させる技術をいう。現実空間の物体が仮想空間と一体化しており、ユーザは、自らの動きが、現実空間且つ仮想空間として相互に影響する。
これら技術によれば、HMD端末やAR/MR端末は、姿勢センサによってユーザの動きを検知すると共に、仮想空間サーバにアクセスすることによって仮想空間情報を取得して表示する。
[第1の課題]
HMD端末によって再生中の仮想空間は、そのHMD端末を装着したユーザ主導で体験するものである。勿論、仮想空間の映像を、他のディスプレイに表示することは既存技術でもできる。しかしながら、あくまで、その仮想空間に干渉できるのは、HMD端末を装着したユーザのみであり、極めて個人的な体験になってしまっている。
このような課題は、介護の場面に限らない。例えばHMD端末を装着した職業訓練者と、仮想空間における訓練を指導する指導者との関係も同様なものである。
オペレータが装着した主端末1は、ユーザが装着した複数のHMD端末(副端末2)と通信することは可能である。しかしながら、オペレータが、現実空間で視認可能な複数のHMD端末の中で、所望のHMD端末を選択することは難しい。
AR端末であれば、例えばオペレータの視認先となるHMD端末のオブジェクトを、オペレータの指で指し示すことによって、そのHMD端末を選択できるかもしれない。しかしながら、オペレータのAR端末のカメラから見える映像内のオブジェクトとして選択できたに過ぎない。このとき、オペレータ所望のHMD端末と通信するためのアドレス(端末ID)を特定することはできない。アドレスとは、例えばIPアドレスやMAC(Media Access Control)アドレス、ビーコンIDのような端末IDである。
結局、オペレータの主端末1は、ユーザの副端末2を任意に選択し、直接的な通信をすることができない。
本願の第1の発明は、副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法に関する。
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、副端末と同一の仮想空間へ参入することを特徴とする。
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
主端末は、カメラと、姿勢センサとを更に搭載し、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末選択手段は、カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことも好ましい。
副端末は、姿勢センサを有し、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものであることも好ましい。
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定されることも好ましい。
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことも好ましい。
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
してコンピュータを機能させることを特徴とする。
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、
副端末は、主端末からの要求に応じて、端末識別子及びサーバアドレスを応答する
ことを特徴とする。
主端末は、
副端末それぞれから、端末識別子を取得する第1のステップと、
オペレータ操作によって、いずれかの副端末を選択する第2のステップと、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する第3のステップと、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインする第4のステップと
を実行することを特徴とする。
本願の第2の発明は、カメラに映り込む現実空間でユーザによって選択された副端末を特定する主端末、プログラム、システム及び方法に関する。
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有することを特徴とする。
カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させ、当該副端末の端末識別子を特定する副端末選択手段と、
特定された端末識別子に対応する副端末と通信する副端末通信手段と
を更に有することも好ましい。
副端末通信手段は、副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得し、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段を更に有し、
副端末と同一の仮想空間へ参入することも好ましい。
サーバアクセス手段は、
外部に配置された仮想空間サーバへ、ネットワークを介してログインするか、又は、
副端末に搭載された仮想空間サーバへ、狭域通信を介してログインする
ことも好ましい。
副端末は、姿勢センサを有し、
主端末座標系Aは、主端末の座標系であり、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する傾きベクトルから導出されたものであり、
副端末座標系Hは、副端末の座標系であり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことも好ましい。
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定されることも好ましい。
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことも好ましい。
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有することを特徴とする。
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末は、
主端末からの要求に応じて、端末識別子を応答する副端末識別子応答手段と、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段と
を有することを特徴とする。
主端末は、
副端末それぞれから、端末識別子を取得する第1のステップと、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する第2のステップと、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する第3のステップと、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第4のステップと、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する第5のステップと、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける第6のステップと
を実行することを特徴とする
また、本願の第2の発明における主端末、プログラム、システム及び方法によれば、現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
これに対し、本発明によれば、オペレータが所持する主端末1と、ユーザが所持する副端末2とは、互いに、現実空間で視認可能な位置に存在することにある。即ち、本発明によれば、現実空間の近距離周辺で実現されることに特徴がある。
一方で、副端末2は、例えばHMD(Head Mount Display)端末であり、仮想空間サーバ3へアクセスすることができる。ユーザa~cは、HMDを装着し、仮想空間を体験しているとする。
一方で、副端末2もHMD端末であるとしているが、勿論、AR端末又はMR端末であってよいし、これに限られるものでもない。
主端末1及び副端末2は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末であってもよいし、タブレットやパーソナルコンピュータであってもよい。
「狭域通信」としては、無線であってもよいし、又は、有線であってもよい。特に、例えばBluetooth(登録商標)やZigbee(登録商標)のような近距離無線通信や、無線LANのような狭域無線ネットワークであることが好ましい。
例えばBluetoothの場合、特に電波の到達範囲が狭いBLE(Bluetooth Low Energy)が適する。低消費電力版Bluetoothとして、1/3程度の電力で動作するために、主端末1及び副端末2の電力消費を低く抑えることができる。
例えば副端末2が、タグデバイスとして、広報パケット(Advertising Packet)を常時発信する。広報パケットは、例えば100msの間隔で、周期的に送信される。BLE規格によれば、副端末2を「advertiser」として機能させ、広報パケットには、端末IDとして「ビーコンID」が含められる。
(1)外部ネットワーク(インターネット)に配置された仮想空間サーバ(Dedicated Server)
(2)ローカルに配置された仮想空間サーバ(Dedicated Server)
(3)副端末に搭載された仮想空間サーバ(Listen Server)
ここで、仮想空間サーバ3がインターネットに配置されている場合、主端末1は、広域通信によってインターネットに接続する。そのインタフェースとなる広域通信も、無線であってもよいし、又は、有線であってもよい。
一方で、仮想空間サーバ3がローカルや副端末自体に配置されている場合、主端末1は、狭域通信を介して通信することができる。
本願の第1の発明としての主端末、プログラム、システム及び方法は、主端末からみて現実空間で視認可能な位置に存在する副端末と同一の仮想空間へ参入することができる。
図4は、第1の発明における主端末の処理フローを表す説明図である。
図3によれば、主端末1は、副端末検出部11と、副端末選択部12と、副端末通信部13と、サーバアクセス部14とを有する。これら機能構成部は、主端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、仮想空間参入方法としても理解できる。
副端末検出部11は、副端末2それぞれから、端末IDを取得する。
端末IDとしては、例えばビーコンIDやIPアドレス、MAC(Media Access Control)アドレスであってもよい。
例えば狭域通信がBLEである場合、副端末2は定期的に端末IDを発信しており、主端末1の副端末検出部11は、その端末IDを受信することができる。
例えば狭域通信が無線LANである場合、主端末1の副端末検出部11は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末IDを受信することができる。
取得された端末IDは、副端末選択部12へ出力される。
副端末選択部12は、オペレータ操作によって、いずれかの副端末2を選択する。選択された副端末2の端末IDは、副端末通信部13へ出力される。
尚、副端末2の選択機能については、本願の第2の発明を用いることによって、オペレータから視認するカメラの映像のオブジェクトと、取得した端末IDとを対応付けることができる。
副端末通信部13は、副端末選択部12によって選択された副端末2から、当該副端末2がログイン中の仮想空間サーバ3のサーバアドレスを取得する。取得されたサーバアドレスは、サーバアクセス部14へ出力される。
サーバアドレスとは、URL(Uniform Resource Locator)や、IPアドレス、ポート番号、その他の仮想空間サーバにアクセスするために必要な情報を含む。
サーバアクセス部14は、副端末通信部13によって副端末2から取得されたサーバアドレスに基づく仮想空間サーバ3へログインする。
本願の第2の発明としての主端末、プログラム、システム及び方法は、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
[カメラ104]
カメラ104は、一般的な2Dカメラであってもよいし、3Dカメラであってもよい。例えば、レーザーに基づくLIDAR(light detection and ranging)であってもよい。尚、カメラに代えて、UWB(Ultra Wide Band)センサであってもよい。
[姿勢センサ105及び205]
姿勢センサ105及び205は、起動中は常時、自らの姿勢(Transform)となる「位置v」及び「傾きr」を検知するものである。
図5によれば、以下のような姿勢が表されている。
TA1:主端末座標系Aの主端末姿勢
TH2:副端末座標系Hの副端末姿勢
尚、主端末座標系Aは、機器起動時に設定される基準座標系とする。同様に、副端末座標系Hも、機器起動時に設定される基準座標系とする。
また、姿勢センサ105及び205は、「位置v」を検知するために、例えばSteamVR(登録商標)のLighthouse(登録商標)のような、ヘッドマウントディスプレイに搭載されたトラッキングデバイスを搭載する(例えば非特許文献1参照)。これは、現実空間に設置されたアンカー(ベースステーション)と通信することによって、所定範囲内における位置vを追跡することができる。
又は、姿勢センサ105及び205は、前述したIMUやカメラを搭載することによって、SLAM(Simultaneous Localization And Mapping)を用いて、自己位置v及び傾きrを同時に追跡することができる(例えば非特許文献5参照)。
図7は、第2の発明における主端末のフローチャートである。
副端末姿勢受信部111は、所定時間毎(Δt)に、副端末検出部110によって既に検出された副端末2それぞれから、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
TH2:副端末座標系Hの副端末姿勢
副端末2それぞれにおける所定時間毎の副端末座標系Hの副端末姿勢TH2は、姿勢変位検出部114へ出力される。
物体認識部112は、カメラ104によって撮影された映像から、現実空間の複数の副端末2を、オブジェクトとして認識する。
最も簡易には、2D画像であれば、物体認識部112は、例えば副端末2自体に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。
物体姿勢検出部113は、所定時間毎(Δt)に、副端末2(のオブジェクト)それぞれについて、主端末1の姿勢センサ105に基づく主端末座標系Aの副端末姿勢TA2を検出する。
TA2:主端末座標系Aの副端末姿勢
物体姿勢検出部113は、カメラによって撮影された映像から、物体認識部112によって認識された副端末2のオブジェクトそれぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出する。そして、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2として検出する。
前述した図5によれば、主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末2(HMD端末)を装着したユーザが向く前面に対する位置v及び傾きrから導出されたものである。ユーザが向く前面は、副端末2に配置された所定マーカの位置に基づいて特定される。
TA2=TA1T1sTS2Tc
TA1:主端末座標系Aにおける主端末姿勢
T1s:主端末姿勢座標系におけるカメラ(センサ)座標系の姿勢
TS2:カメラ(センサ)座標系における映像認識された副端末の姿勢
Tc:姿勢補正行列
ここで、主端末姿勢座標系とは、主端末座標系Aにおける主端末姿勢を基準とする座標系である。
このように実際には、センサ座標系から主端末座標系に変換する処理が必要となる。
姿勢変位検出部114は、所定時間毎(Δt)に、副端末姿勢受信部111から、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2を入力すると共に、物体姿勢検出部113から主端末座標系Aの副端末姿勢TA2を入力する。
(時刻t)
副端末21の副端末座標系Hの副端末姿勢TH21(t)
副端末22の副端末座標系Hの副端末姿勢TH22(t)
副端末23の副端末座標系Hの副端末姿勢TH23(t)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t)
(時刻t+Δt)
副端末21の副端末座標系Hの副端末姿勢TH21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t+Δt)
副端末21の副端末座標系Hの副端末姿勢TH21の変位:
ΔTH21=(TH21(t))-1TH21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22の変位:
ΔTH22=(TH22(t))-1TH22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23の変位:
ΔTH23=(TH23(t))-1TH23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2aの変位:
ΔTA2a=(TA2a(t))-1TA2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2bの変位:
ΔTA2b=(TA2b(t))-1TA2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2cの変位:
ΔTA2c=(TA2c(t))-1TA2c(t+Δt)
図9は、第2の発明における現実空間と仮想空間との関係を表す説明図である。
TA1:主端末座標系Aの主端末姿勢
TA2:主端末座標系Aの副端末姿勢
TH2:副端末座標系Hの副端末姿勢
TAH:主端末座標系Aからみた副端末座標系Hの姿勢
THA:副端末座標系Hからみた主端末座標系Aの姿勢
副端末座標系Hの副端末姿勢TH2も、副端末2に搭載された姿勢センサ205によって検知されたものである。主端末1は、副端末2から、その副端末座標系Hの副端末姿勢TH2を受信する。
主端末座標系Aの副端末姿勢TA2は、主端末1のカメラ104によって撮影された映像に映り込むオブジェクトから、物体姿勢検出部114によって検出されたものである。
TAH=TA2TH2 -1
TA2:主端末座標系Aの副端末姿勢
TH2 -1:副端末座標系Hの副端末姿勢TH2の逆行列
TAH:主端末座標系Aからみた副端末座標系Hの姿勢
THA:副端末座標系Hからみた主端末座標系Aの姿勢
TAH=THA -1
副端末特定部115は、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける。
(副端末の端末ID) (映像認識されたオブジェクト)
副端末21 <-> 副端末a
副端末22 <-> 副端末c
副端末23 <-> 副端末b
これらのノルムが閾値以下かつ最も小さい副端末同士を対応付ける。
前述した図6における副端末選択部12は、カメラ104によって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる。
また、本願の第2の発明として、主端末からみて現実空間で視認可能な位置に存在する副端末を選択でき、その副端末と通信することができる。
101 ディスプレイ
102 狭域通信部
103 広域通信部
104 カメラ
105 姿勢センサ
11 副端末検出部
12 副端末選択部
13 副端末通信部
14 サーバアクセス部
111 副端末姿勢受信部
112 物体認識部
113 物体姿勢検出部
114 姿勢変位検出部
115 副端末特定部
2 副端末
3 仮想空間サーバ
主端末は、カメラと、姿勢センサとを更に搭載し、
副端末検出手段によって端末識別子が取得された副端末それぞれから、所定時間毎に、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末選択手段は、カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことも好ましい。
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、
副端末は、主端末からの要求に応じて、端末識別子及びサーバアドレスを応答する
ことを特徴とする。
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末は、
主端末からの要求に応じて、端末識別子を応答する副端末識別子応答手段と、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段と
を有することを特徴とする。
副端末姿勢受信部111は、所定時間毎(Δt)に、副端末検出部11によって既に検出された副端末2それぞれから、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
TH2:副端末座標系Hの副端末姿勢
副端末2それぞれにおける所定時間毎の副端末座標系Hの副端末姿勢TH2は、姿勢変位検出部114へ出力される。
Claims (10)
- 現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末であって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、副端末と同一の仮想空間へ参入することを特徴とする主端末。 - サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることを特徴とする請求項1に記載の主端末。 - 主端末は、カメラと、姿勢センサとを更に搭載し、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の複数の副端末を認識する物体認識手段と、
所定時間毎に、カメラによって撮影された映像から、副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出する姿勢変位検出手段と、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける副端末特定手段と
を有し、
副端末選択手段は、カメラによって撮影された映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことを特徴とする請求項1又は2に記載の主端末。 - 副端末は、姿勢センサを有し、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことを特徴とする請求項3に記載の主端末。 - 主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
ことを特徴とする請求項4に記載の主端末。 - 副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことを特徴とする請求項3から5のいずれか1項に記載の主端末。 - 主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の副端末をオペレータに視認させる
ことを特徴とする請求項1から6のいずれか1項に記載の主端末。 - 現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
してコンピュータを機能させることを特徴とする主端末のプログラム。 - 主端末と、当該主端末からみて現実空間で視認可能な位置に存在する複数の副端末と通信可能なシステムであって、
主端末は、
副端末それぞれから、端末識別子を取得する副端末検出手段と、
オペレータ操作によって、いずれかの副端末を選択する副端末選択手段と、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段と、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインするサーバアクセス手段と
を有し、
副端末は、主端末からの要求に応じて、端末識別子及びサーバアドレスを応答する
ことを特徴とするシステム。 - 現実空間で視認可能な位置に存在する複数の副端末と通信可能な主端末の仮想空間サーバ接続方法であって、
主端末は、
副端末それぞれから、端末識別子を取得する第1のステップと、
オペレータ操作によって、いずれかの副端末を選択する第2のステップと、
選択された副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する第3のステップと、
副端末から取得したサーバアドレスに基づく仮想空間サーバへログインする第4のステップと
を実行することを特徴とする主端末の仮想空間サーバ接続方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082689A JP7015081B1 (ja) | 2021-05-14 | 2021-05-14 | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 |
JP2022004028A JP7266329B2 (ja) | 2021-05-14 | 2022-01-14 | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 |
US18/289,195 US12124764B2 (en) | 2021-05-14 | 2022-04-26 | Main terminal for entering same virtual space as sub terminal, program, and system |
PCT/JP2022/018851 WO2022239638A1 (ja) | 2021-05-14 | 2022-04-26 | 副端末と同一の仮想空間へ参入する主端末、プログラム及びシステム |
JP2023064318A JP2023083378A (ja) | 2021-05-14 | 2023-04-11 | 副端末がアクセス中のサーバへアクセスする主端末、プログラム、システム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021082689A JP7015081B1 (ja) | 2021-05-14 | 2021-05-14 | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022004028A Division JP7266329B2 (ja) | 2021-05-14 | 2022-01-14 | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7015081B1 JP7015081B1 (ja) | 2022-02-14 |
JP2022175911A true JP2022175911A (ja) | 2022-11-25 |
Family
ID=80912384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021082689A Active JP7015081B1 (ja) | 2021-05-14 | 2021-05-14 | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7015081B1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110216002A1 (en) * | 2010-03-05 | 2011-09-08 | Sony Computer Entertainment America Llc | Calibration of Portable Devices in a Shared Virtual Space |
JP2015192436A (ja) * | 2014-03-28 | 2015-11-02 | キヤノン株式会社 | 送信端末、受信端末、送受信システム、およびそのプログラム |
WO2021053805A1 (ja) * | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
-
2021
- 2021-05-14 JP JP2021082689A patent/JP7015081B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110216002A1 (en) * | 2010-03-05 | 2011-09-08 | Sony Computer Entertainment America Llc | Calibration of Portable Devices in a Shared Virtual Space |
JP2015192436A (ja) * | 2014-03-28 | 2015-11-02 | キヤノン株式会社 | 送信端末、受信端末、送受信システム、およびそのプログラム |
WO2021053805A1 (ja) * | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7015081B1 (ja) | 2022-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101985703B1 (ko) | 증강현실 서비스형 소프트웨어 기반의 증강현실운영시스템 | |
CN105264548B (zh) | 用于生成增强现实体验的难以察觉的标签 | |
US9536350B2 (en) | Touch and social cues as inputs into a computer | |
EP3340177B1 (en) | Method and system for creating virtual message onto a moving object and searching the same | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
EP3422153A1 (en) | System and method for selective scanning on a binocular augmented reality device | |
CN105190484A (zh) | 个人全息告示牌 | |
US11210932B2 (en) | Discovery of and connection to remote devices | |
JPWO2014016986A1 (ja) | 3次元環境共有システム及び3次元環境共有方法 | |
Irfan et al. | Crowd analysis using visual and non-visual sensors, a survey | |
CN113835352B (zh) | 一种智能设备控制方法、系统、电子设备及存储介质 | |
JP7266329B2 (ja) | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 | |
JP7015081B1 (ja) | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 | |
JP7285586B2 (ja) | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム | |
JP7130213B1 (ja) | 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 | |
JP2023056195A (ja) | 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法 | |
US20220374505A1 (en) | Bending estimation as a biometric signal | |
CN112581630B (zh) | 一种用户交互方法和系统 | |
WO2022246382A1 (en) | Bending estimation as a biometric signal | |
US12124764B2 (en) | Main terminal for entering same virtual space as sub terminal, program, and system | |
CN104062758A (zh) | 图像显示的方法和显示设备 | |
WO2023074852A1 (ja) | 情報処理装置 | |
US20230059119A1 (en) | Information processing device, control method, and non-transitory computer-readable medium | |
TW202223749A (zh) | 用於獲得場景中的設備或其使用者的標識資訊的方法和系統 | |
TOKARCHUK et al. | Crowd Analysis using visual and non-visual sensors, a survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7015081 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |