JP7130213B1 - 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 - Google Patents

現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 Download PDF

Info

Publication number
JP7130213B1
JP7130213B1 JP2021082690A JP2021082690A JP7130213B1 JP 7130213 B1 JP7130213 B1 JP 7130213B1 JP 2021082690 A JP2021082690 A JP 2021082690A JP 2021082690 A JP2021082690 A JP 2021082690A JP 7130213 B1 JP7130213 B1 JP 7130213B1
Authority
JP
Japan
Prior art keywords
terminal
sub
attitude
coordinate system
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021082690A
Other languages
English (en)
Other versions
JP2022175912A (ja
Inventor
英悟 池谷
Original Assignee
有限会社池谷製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 有限会社池谷製作所 filed Critical 有限会社池谷製作所
Priority to JP2021082690A priority Critical patent/JP7130213B1/ja
Priority to PCT/JP2022/018862 priority patent/WO2022239639A1/ja
Application granted granted Critical
Publication of JP7130213B1 publication Critical patent/JP7130213B1/ja
Publication of JP2022175912A publication Critical patent/JP2022175912A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】本願の第1の発明として、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる主端末等を提供する。【解決手段】副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段とを有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する。【選択図】図4

Description

本発明は、仮想現実(Virtual Reality)、拡張現実(Augmented Reality)又は複合現実(Mixed Reality)の技術に関する。
仮想現実とは、ユーザの頭部にHMD(Head Mount Display)端末を装着し、ユーザの視界に3次元の仮想空間を表示する技術をいう。ユーザは、自ら動きながら仮想空間への没入感を得ることができる。
拡張現実とは、ユーザの視界に映る現実空間に、CG(Computer Graphics)映像を表示する技術をいう。例えばシースルーのディスプレイ上に、又は、現実空間をカメラで撮影した映像上に、CGを重畳的に表示することによって、現実空間を拡張する。
複合現実とは、CGで人工的に作られた仮想空間を、現実空間と融合させる技術をいう。現実空間の物体が仮想空間と一体化しており、ユーザは、自らの動きが、現実空間且つ仮想空間として相互に影響する。
これら技術によれば、HMD端末やAR/MR端末は、姿勢センサによってユーザの動きを検知すると共に、仮想空間サーバにアクセスすることによって仮想空間情報を取得して表示する。
従来、複数のユーザ間における体験共有システムの技術がある(例えば特許文献1参照)。この技術によれば、カメラによって撮影された映像を無線で送信する「スマートめがね」と、そのスマートめがねから映像を受信し、ユーザに仮想現実映像を表示する「VR機器」とを有する。
また、拡張現実空間(又は仮想現実空間)を介したサービスを提供する技術もある(例えば特許文献2参照)。この技術によれば、識別コードが貼り付けられたIoT機器と、識別コードを撮影するAR(又はVR)機器とを有する。AR機器は、識別コードを読み取ることによって、その基準点となる拡張現実空間をユーザに表示すると共に、IoT機器は、拡張現実空間と連携してユーザにサービスを提供する。
特表2020-506565号公報 特許第6417467号公報
SteamVR・lighthouse、[online]、[令和2年5月1日検索]、インターネット<URL:https://www.moguravr.com/terms/index-r/lighthouse/#:~:text=Lighthouse%E3%81%A8%E3%81%AF%E3%80%81PC%E5%90%91%E3%81%91,%E3%81%99%E3%82%8B%E3%81%93%E3%81%A8%E3%81%8C%E5%8F%AF%E8%83%BD%E3%81%A7%E3%81%99%E3%80%82> 回転行列、[online]、[令和2年5月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/%E5%9B%9E%E8%BB%A2%E8%A1%8C%E5%88%97> ARToolkit Overview、[online]、[令和2年5月1日検索]、インターネット<URL:https://im-lab.net/artoolkit-overview/> OpenCV Detection of ArUco Markers、[online]、[令和2年5月1日検索]、インターネット<URL:https://docs.opencv.org/master/d5/dae/tutorial_aruco_detection.html> SLAM、[online]、[令和2年5月1日検索]、インターネット<URL:https://ja.wikipedia.org/wiki/SLAM> 指さし行動の理解支援に向けたAR図示システムの提案、[online]、[令和2年5月1日検索]、インターネット<URL:http://www.res.kutc.kansai-u.ac.jp/~yone/research/pdf_graduate_thesis/201703g_UENO_Kaede.pdf> コリジョンの概要、[online]、[令和2年5月1日検索]、インターネット<URL:https://docs.unrealengine.com/ja/InteractiveExperiences/Physics/Collision/Overview/index.html> 仮想空間にアバターで出勤、クラウドオフィス「RISA」が100人規模オフィスをリリース、[online]、[令和2年5月1日検索]、インターネット<URL:https://it.impress.co.jp/articles/-/20649> 画像から被写体をAIで自動的に切り出す「Grapick」が新たに動画にも対応、[online]、[令和2年5月1日検索]、インターネット<URL:https://marvin.news/6622>
図1は、オペレータが視認可能な現実空間に副端末が存在するシステム構成図である。
図1によれば、オペレータが、現実空間に存在するユーザaを視認している。ユーザaは、HMD端末のような副端末2を頭部に装着し、各HMD端末は、仮想空間サーバ3にアクセスしている。これによって、副端末2は、ユーザ所望の仮想空間を再生することができる。
しかしながら、以下のような2つの課題がある。
[第1の課題]
仮想空間コンテンツには、HMD端末を装着するユーザのみならず、AR端末又はHMD端末を装着するオペレータも参入することはできる。仮想空間内では、ユーザも自由に行動し、オペレータも自由に行動することができる。しかしながら、ユーザとオペレータとの間の仮想空間における距離感(具体的には位置及び角度に基づく姿勢)と、現実空間における距離感とは、異なっている。そのために、オペレータとユーザとが同じ仮想空間に参入したとしても、オペレータは現実空間のようにユーザを補助することができない。
図1によれば、例えば、身体が不自由な要介護者(ユーザ)に、HMD端末(副端末2)を装着させ、仮想空間を体験してもらうことを想定する。このとき、要介護者は、個人的に仮想空間に没頭することができるが、介護者(オペレータ)は、仮想空間の中で、その要介護者との距離感を認識することができず、要介護者の仮想空間に対する操作を補助することもできない。
このような課題は、介護の場面に限らない。例えばHMD端末を装着した職業訓練者と、仮想空間における訓練を指導する指導者との関係も同様なものである。
これに対し、本願の発明者は、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができればよいのではないか、と考えた。
そこで、第1の課題を解決する本願の第1の発明として、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる主端末、プログラム、システム及び方法を提供することを目的とする。
[第2の課題]
仮想空間コンテンツでは、HMD端末を装着するユーザ自らがアバターとなって、その仮想空間内を移動することができる。ユーザとオペレータとが同一の仮想空間に参入した場合、その仮想空間内では、アバターによって相手方を認識することができる。しかしながら、オペレータは、ユーザをアバターでしか認識できないために、現実空間と異なった態様であって、現実空間のようにユーザを補助することができない。
これに対し、本願の発明者は、現実空間におけるユーザの映像を仮想空間内に展開することができればよいのではないか、と考えた。
そこで、本発明は、第2の課題を解決する本願の第2の発明として、現実空間におけるユーザの映像を仮想空間内に展開することができる主端末、プログラム、システム及び方法を提供することを目的とする。
本発明によれば、第1の課題を解決する第1の発明と、第2の課題を解決する第2の発明とを開示する。
<第1の発明>
本願の第1の発明は、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる主端末、プログラム、システム及び方法に関する。
本願の第1の発明によれば、カメラ及び姿勢センサを搭載した主端末について、現実空間で視認可能な位置に存在する副端末と通信可能な主端末であって、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする。
本願の第1の発明における他の実施形態によれば、
相対姿勢算出手段は、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、主端末座標系Aに対する副端末座標系Hの相対姿勢TAHを算出する
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
サーバアクセス手段は、現実空間の相対姿勢として、以下のいずれかを仮想空間サーバへ送信する
主端末座標系Aに対する副端末座標系Hの相対姿勢TAH
相対姿勢TAHから導出された位置v及び傾きr、
相対姿勢TAHの逆行列TAH -1(副端末座標系Hに対する主端末座標系Aの相対姿勢THA)、又は、
相対姿勢TAHの逆行列TAH -1から導出された位置v及び傾きr
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段を更に有し、
サーバアクセス手段は、副端末から取得したサーバアドレスに基づく仮想空間サーバへログインし、副端末と同一の仮想空間へ参入する
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
本願の第1の発明における他の実施形態によれば、
副端末は、姿勢センサを有し、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
物体姿勢検出手段は、カメラによって撮影された映像から、副端末について、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する副端末をオペレータに視認させる
ことも好ましい。
本願の第1の発明における他の実施形態によれば、
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
サーバアクセス手段は、仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信し、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
を更に有するも好ましい。
本願の第1の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在する副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ようにコンピュータを機能させることを特徴とする。
本願の第1の発明によれば、カメラ及び姿勢センサを搭載した主端末と、当該主端末からみて現実空間で視認可能な位置に存在する副端末とを有するシステムであって、
主端末は、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
を有し、
副端末は、
所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段を有し、
仮想空間サーバの仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする。
本願の第1の発明によれば、カメラ及び姿勢センサを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在する副端末と通信可能な主端末の仮想空間姿勢維持方法であって、
主端末は、
副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する第1のステップと、
カメラによって撮影された映像から、現実空間の副端末を認識する第2のステップと、
カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第3のステップと、
主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する第4のステップと、
現実空間の相対姿勢を、仮想空間サーバへ送信する第のステップと
を実行し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
ことを特徴とする。
<第2の発明>
本願の第2の発明は、現実空間におけるユーザの映像を仮想空間内に展開することができる主端末、プログラム、システム及び方法に関する。
本願の第2の発明によれば、カメラを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在し且つユーザに装着された副端末と通信可能な主端末であって、
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信するサーバアクセス手段と、
カメラによって撮影された映像から、現実空間の副端末を装着したユーザを認識する物体認識手段と、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
を有することを特徴とする。
本願の第2の発明における主端末の他の実施形態によれば、
サーバアクセス手段は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
狭域通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
本願の第2の発明によれば、カメラを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在し且つユーザに装着された副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信するサーバアクセス手段と、
カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
してコンピュータを機能させることを特徴とする。
本願の第2の発明によれば、カメラを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在し且つユーザに装着された副端末と通信可能な主端末における仮想画像生成方法において、
主端末は、
副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信する第1のステップと、
カメラによって撮影された映像から、現実空間の副端末を認識する第2のステップと、
カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出す第3のステップと、
切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する第4のステップと
を実行することを特徴とする。
本願の第1の発明における主端末、プログラム、システム及び方法によれば、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる。
また、本願の第2の発明における主端末、プログラム、システム及び方法によれば、現実空間におけるユーザの映像を仮想空間内に展開することができる。
オペレータが視認可能な現実空間に副端末が存在するシステム構成図である。 本発明におけるシステム構成図である。 第1の発明における姿勢センサの座標系を表す説明図である。 第1の発明における主端末の機能構成図である。 第1の発明における主端末の処理フローを表す説明図である。 第1の発明における主端末座標系と副端末座標系との関係を表す説明図である。 第1の発明における現実空間と仮想空間との関係を表す説明図である。 第2の発明における主端末の機能構成図である。 第2の発明における主端末の処理フローを表す説明図である。
以下では、図面を用いて、本発明を実施するための形態について詳細に説明する。
図2は、本発明におけるシステム構成図である。
既存技術によれば、仮想空間サーバは、一般的に、遠隔地に滞在する複数のユーザ同士を、同じ仮想空間に存在できるようにするものである。
これに対し、本発明によれば、オペレータが所持する主端末1と、ユーザが所持する副端末2とは、互いに、現実空間で視認可能な位置に存在することにある。即ち、本発明によれば、現実空間の近距離周辺で実現されることに特徴がある。
主端末1は、例えば眼鏡型のAR(Augmented Reality)端末であり、シースルーディスプレイに仮想空間のCGを表示することができる。オペレータは、主端末1を装着し、シースルーディスプレイを通してユーザaを視認することができる。
一方で、副端末2は、例えばHMD(Head Mount Display)端末であり、仮想空間サーバ3へアクセスすることができる。ユーザaは、HMDを装着し、仮想空間を体験しているとする。
図2によれば、主端末1はAR端末であるとしているが、MR(Mixed Reality)端末であってもよいし、これらに限られるものではない。主端末1は、コンタクトレンズ型であってもよいし、カメラ付きで外界の映像も再生するHMD端末であってもよい。オペレータは、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する副端末2を視認することができる。
一方で、副端末2もHMD端末であるとしているが、勿論、AR端末又はMR端末であってよいし、これに限られるものでもない。
主端末1及び副端末2は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末であってもよいし、タブレットやパーソナルコンピュータであってもよい。
図2によれば、主端末1は、狭域通信によって、副端末2と通信する。
「狭域通信」としては、無線であってもよいし、又は、有線であってもよい。特に、例えばBluetooth(登録商標)やZigbee(登録商標)のような近距離無線通信や、無線LANのような狭域無線ネットワークであることが好ましい。
例えばBluetoothの場合、特に電波の到達範囲が狭いBLE(Bluetooth Low Energy)が適する。低消費電力版Bluetoothとして、1/3程度の電力で動作するために、主端末1及び副端末2の電力消費を低く抑えることができる。
例えば副端末2が、タグデバイスとして、広報パケット(Advertising Packet)を常時発信する。広報パケットは、例えば100msの間隔で、周期的に送信される。BLE規格によれば、副端末2を「advertiser」として機能させ、広報パケットには、端末IDとして「ビーコンID」が含められる。
図2によれば、主端末1も、仮想空間サーバ3にアクセスすることができる。仮想空間サーバ3が配置される場所として、例えば以下の3つのパターンがある。
(1)外部ネットワーク(インターネット)に配置された仮想空間サーバ(Dedicated Server)
(2)ローカルに配置された仮想空間サーバ(Dedicated Server)
(3)副端末に搭載された仮想空間サーバ(Listen Server)
ここで、仮想空間サーバ3がインターネットに配置されている場合、主端末1は、広域通信によってインターネットに接続する。そのインタフェースとなる広域通信も、無線であってもよいし、又は、有線であってもよい。
一方で、仮想空間サーバ3がローカルや副端末自体に配置されている場合、主端末1は、狭域通信を介して通信することができる。
<第1の発明>
本願の第1の発明としての主端末、プログラム、システム及び方法は、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる。
図3は、第1の発明における姿勢センサの座標系を表す説明図である。
図3によれば、主端末1は、図2と比較して、ハードウェアとして少なくとも、カメラ104と、姿勢センサ105とを更に有する。また、副端末2も、姿勢センサ205を有する。
[カメラ104]
カメラ104は、一般的な2Dカメラであってもよいし、3Dカメラであってもよい。例えば、レーザーに基づくLIDAR(light detection and ranging)であってもよい。尚、カメラに代えて、UWB(Ultra Wide Band)センサであってもよい。
[姿勢センサ105・205]
姿勢センサ105及び205は、起動中は常時、自らの姿勢(Transform)となる「位置v」及び「傾きr」を検知するものである。
図3によれば、以下のような姿勢が表されている。
A1:主端末座標系Aの主端末姿勢
H2:副端末座標系Hの副端末姿勢
尚、主端末座標系Aは、機器起動時に設定される基準座標系とする。同様に、副端末座標系Hも、機器起動時に設定される基準座標系とする。
姿勢センサ105及び205は、「傾きr」を検知するために、IMU(Inertial Measurement Unit)を搭載している。これは、一般的なスマートフォンなどに搭載されたものと同じものである。
また、姿勢センサ105及び205は、「位置v」を検知するために、例えばSteamVR(登録商標)のLighthouse(登録商標)のような、ヘッドマウントディスプレイに搭載されたトラッキングデバイスを搭載する(例えば非特許文献1参照)。これは、現実空間に設置されたアンカー(ベースステーション)と通信することによって、所定範囲内における位置vを追跡することができる。
又は、姿勢センサ105及び205は、前述したIMUやカメラを搭載することによって、SLAM(Simultaneous Localization And Mapping)を用いて、自己位置v及び傾きrを同時に追跡することができる(例えば非特許文献5参照)。
本発明における「姿勢」とは、現実空間(3次元空間)における「位置v」(3行列)と、傾きr(3行列)から算出された「回転行列R」(3×3行列)とから、以下のように「姿勢T」(4×4行列)を定義する(例えば非特許文献2参照)。
Figure 0007130213000002
これによって、位置v及び傾きrから姿勢Tを導出することができると共に、逆に、姿勢Tから位置v及び傾きrを導出することもできる。
図4は、第1の発明における主端末の機能構成図である。
図5は、第1の発明における主端末の処理フローを表す説明図である。
図4によれば、主端末1は、副端末検出部110と、副端末姿勢受信部111と、物体認識部112と、物体姿勢検出部113と、相対姿勢算出部12と、副端末通信部13と、サーバアクセス部14とを有する。これら機能構成部は、主端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、仮想空間姿勢維持方法としても理解できる。
[副端末検出部110]
副端末検出部110は、副端末2から、端末IDを取得する。
端末IDとしては、例えばビーコンIDやIPアドレス、MAC(Media Access Control)アドレスであってもよい。
例えば狭域通信がBLEである場合、副端末2は定期的に端末IDを発信しており、主端末1の副端末検出部110は、その端末IDを受信することができる。
例えば狭域通信が無線LANである場合、主端末1の副端末検出部110は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末IDを受信することができる。
[副端末姿勢受信部111]
副端末姿勢受信部111は、副端末検出部110によって既に検出された副端末2から、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサ205によって検知されたものである。
H2:副端末座標系Hの副端末姿勢
副端末2における副端末座標系Hの副端末姿勢TH2は、相対姿勢算出部12へ出力される。
[物体認識部112]
物体認識部112は、カメラ104によって撮影された映像から、現実空間の副端末2を、オブジェクトとして認識する。
副端末2は、現実空間では同一物体であっても、視点によって多様な形状で映像に映り込む。そのように形状が変化しても、同一物体として検出できるようにロバストな特徴抽出技術が用いられる。例えば副端末2の外観(例えばHMD端末の外観)を予め学習した物体認識エンジンを用いて、副端末2のオブジェクトを認識するものであってもよい。一般的には、例えばSIFT(Scale-Invariant Feature Transform)や深層ニューラルネットワークのクラス分類技術がある。このような特徴抽出技術は、2D画像であっても、3D画像(又はポイントクラウド)であっても可能となる。
最も簡易には、2D画像であれば、物体認識部112は、例えば副端末2自体に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。
[物体姿勢検出部113]
物体姿勢検出部113は、副端末2(のオブジェクト)について、主端末1の姿勢センサ105に基づく主端末座標系Aの副端末姿勢TA2を検出する。
A2:主端末座標系Aの副端末姿勢
物体姿勢検出部113は、カメラによって撮影された映像から、物体認識部112によって認識された副端末2のオブジェクトについて、主端末座標系Aに基づく位置v及び傾きrを検出する。そして、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2として検出する。
前述した図3によれば、主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末2(HMD端末)を装着したユーザが向く前面に対する位置v及び傾きrから導出されたものである。ユーザが向く前面は、副端末2に配置された所定マーカの位置に基づいて特定される。
カメラ104によって撮影された2D画像に、物体(例えばマーカ)が映り込む場合、そのオブジェクトは、カメラの向きに応じて異なる角度から映る。映像に映り込むオブジェクトの画像の形状から、その姿勢(位置v及び傾きr)を検出することができる(例えば非特許文献3参照)。具体的には、マーカの中心位置を示す位置ベクトルと、x軸及びy軸がマーカの辺に平行で、z軸がそれらに垂直になるような回転軸ベクトルが検出される。
回転軸ベクトルとは、ロドリゲスの回転公式に従って、物体を任意の傾きにするべく回転させる際の軸方向を「向き」とし、回転角度を「ノルム」として持つベクトルを意味する。具体的には、OpenCV(登録商標)のarucoというマーカ検出機能を用いることができる(例えば非特許文献4参照)。
尚、主端末座標系Aの副端末姿勢TA2は、物体検知場所(例えばマーカ設置位置)に大きな影響を受けるために、姿勢補正行列を導入することが好ましい。
A2=TA11sS2c
A1:主端末座標系Aにおける主端末姿勢
1s:主端末姿勢座標系におけるカメラ(センサ)座標系の姿勢
S2:カメラ(センサ)座標系における映像認識された副端末の姿勢
c:姿勢補正行列
ここで、主端末姿勢座標系とは、主端末座標系Aにおける主端末姿勢を基準とする座標系である。
このように実際には、センサ座標系から主端末座標系に変換する処理が必要となる。
[相対姿勢算出部12]
相対姿勢算出部12は、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する。
図6は、第1の発明における主端末座標系と副端末座標系との関係を表す説明図である。
図7は、第1の発明における現実空間と仮想空間との関係を表す説明図である。
図6によれば、1つの物体としての副端末であっても、基準とする座標系が異なれば、姿勢も異なる。また、副端末座標系Hも、異なる主端末座標系Aを基準とした姿勢を持つ。
A1:主端末座標系Aの主端末姿勢
A2:主端末座標系Aの副端末姿勢
H2:副端末座標系Hの副端末姿勢
AH:主端末座標系Aからみた副端末座標系Hの姿勢
HA:副端末座標系Hからみた主端末座標系Aの姿勢
主端末座標系Aの主端末姿勢TA1は、主端末1に搭載された姿勢センサ105によって検知されたものである。
副端末座標系Hの副端末姿勢TH2も、副端末2に搭載された姿勢センサ205によって検知されたものである。主端末1は、副端末2から、その副端末座標系Hの副端末姿勢TH2を受信する。
主端末座標系Aの副端末姿勢TA2は、主端末1のカメラ104によって撮影された映像に映り込むオブジェクトから、物体姿勢検出部113によって検出されたものである。
現実空間の相対姿勢としては、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから算出した、例えば主端末座標系Aからみた副端末座標系Hの相対姿勢TAHである。これは、以下のように算出される。
AH=TA2H2 -1
A2:主端末座標系Aの副端末姿勢
H2 -1:副端末座標系Hの副端末姿勢TH2の逆行列
図7によれば、現実空間と仮想空間との関係を、主端末座標系Aからみた副端末座標系Hの姿勢TAHと、副端末座標系Hからみた主端末座標系Aの姿勢THAとを逆行列で一致させることができる。
AH:主端末座標系Aからみた副端末座標系Hの姿勢
HA:副端末座標系Hからみた主端末座標系Aの姿勢
AH=THA -1
[副端末通信部13]
副端末通信部13は、副端末2から、当該副端末2がログイン中の仮想空間サーバ3のサーバアドレスを取得する。取得されたサーバアドレスは、サーバアクセス部14へ出力される。
例えば主端末1が、サーバアドレス要求を副端末2へ送信する。これに対し、副端末2は、アクセス中の仮想空間サーバ3のサーバアドレスを、主端末1へ返信する。
サーバアドレスとは、URL(Uniform Resource Locator)や、IPアドレス、ポート番号、その他の仮想空間サーバにアクセスするために必要な情報を含む。
[サーバアクセス部14]
サーバアクセス部14は、副端末通信部13によって副端末2から取得されたサーバアドレスに基づく仮想空間サーバ3へログインする。これによって、主端末1は、現実空間で視認可能な位置に存在する副端末2と同一の仮想空間へ参入することができる。
また、本発明の特徴として、サーバアクセス部14は、現実空間の相対姿勢を、仮想空間サーバ3へ送信する。
ここで、サーバアクセス部14は、仮想空間サーバ3へ送信する現実空間の相対姿勢として、以下の4つの実施形態がある。
(1)主端末座標系Aに対する副端末座標系Hの相対姿勢TAH
(2)主端末座標系Aに対する副端末座標系Hの相対姿勢TAHから導出された位置v及び傾きr
(3)主端末座標系Aに対する副端末座標系Hの相対姿勢TAHの逆行列TAH -1(副端末座標系Hに対する主端末座標系Aの相対姿勢THA
(4)主端末座標系Aに対する副端末座標系Hの相対姿勢TAHの逆行列TAH -1から導出された位置v及び傾きr
前述した図4における主端末について、カメラ104は、常時撮影し、その映像を物体認識部112へ入力する。物体認識部112と、物体姿勢検出部113と、端末姿勢受信部111と、相対姿勢算出部12とも、常時機能し、サーバアクセス部14は、リアルタイムに、現実空間の相対姿勢TAHを、仮想空間サーバ3へ送信する。そのために、図7のように、仮想空間サーバ3は、現実空間と仮想空間との関係を、主端末座標系Aからみた副端末座標系Hの姿勢TAHによって一致させることができる。
これによって、本願の第1の発明として、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる。
<第2の発明>
本願の第2の発明としての主端末、プログラム、システム及び方法は、現実空間におけるユーザの映像を仮想空間内に展開することができる。
図8は、第2の発明における主端末の機能構成図である。
図9は、第2の発明における主端末の処理フローを表す説明図である。
図8によれば、主端末1は、図3の物体認識部112及び物体姿勢検出部113に加えて、ユーザ画像切出部15と、仮想画像生成部16とを更に有する。これら機能構成部は、主端末に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、仮想画像生成方法としても理解できる。
物体認識部112は、カメラ104によって撮影された映像から、現実空間の副端末2を装着したユーザを、オブジェクトとして認識する。ユーザを認識した画像部分を、ユーザ画像切出部15へ出力する。
サーバアクセス部14は、本願の第1の発明と同様に、副端末2と同一の仮想空間サーバ3における同一の仮想空間にログインしているとする。
また、サーバアクセス部14は、仮想空間サーバ3から、副端末2を所持するユーザをアバターとして表現した仮想空間情報を受信する。仮想空間情報として再生された画像を、仮想画像生成部16へ出力する。
ここで、仮想空間情報とは、同一の仮想空間内で、ユーザ及びオペレータをアバターとして表現した映像空間を意味する(例えば非特許文献8参照)。ユーザやオペレータに相当するアバターは、その仮想空間内を自由に移動したり、互いに話をすることもできる。アバターの向きや行動は、そのアバターに対応するユーザやオペレータによって装着された端末(例えばHMD端末)に連動する。既存技術によれば、一般的には、遠隔に離れた人同士が、1つの仮想空間内でアバターとして存在するのに対し、本願の第2の発明によれば、現実空間に存在する人同士が、1つの仮想空間内で、現実空間と同じ距離及び姿勢でアバターとして存在することを想定している。
[ユーザ画像切出部15]
ユーザ画像切出部15は、カメラ104によって撮影された映像から、副端末2を装着したユーザと認識されたユーザ画像部分を切り出す。
具体的には、AIによって画像から被写体を自動的に切り出す物体検知技術もある(例えば非特許文献9参照)。
[仮想画像生成部16]
仮想画像生成部16は、切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する。
このとき、ユーザ画像部分のサイズが、アバター画像部分のサイズと一致するように拡大縮小の処理をするものであってもよい。
これによって、現実空間に存在するユーザの現実の映像が、1つの仮想空間内に存在することとなる。即ち、主端末1を装着したオペレータは、仮想空間に、現実空間のユーザがそのまま存在しているように視認することができる。また、仮想空間に存在するユーザは、現実空間と同じ距離及び姿勢で存在する。
図8によれば、図4とは別の機能として表現されているが、図4に組み合わせて実装される。カメラ104は、常時撮影し、その映像を物体認識部112へ入力する。また、物体認識部112と、サーバアクセス部14と、ユーザ画像切出部15と、仮想画像生成部16とも、常時機能する。そのために、オペレータが視認する仮想空間では、現実空間におけるユーザの副端末との相対位置姿勢が維持されると共に、現実空間のユーザが存在しているように視認できる。
以上、詳細に説明したように、本願の第1の発明として、現実空間における副端末との相対位置姿勢を仮想空間内で維持することができる。
また、本願の第2の発明として、現実空間におけるユーザの映像を仮想空間内に展開することができる。
前述した本発明における種々の実施形態によれば、当業者は、本発明の技術思想及び見地の範囲における種々の変更、修正及び省略を容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 主端末
101 ディスプレイ
102 狭域通信部
103 広域通信部
104 カメラ
105 姿勢センサ
110 副端末検出部
111 副端末姿勢受信部
112 物体認識部
113 物体姿勢検出部
12 相対姿勢算出部
13 副端末通信部
14 サーバアクセス部
15 ユーザ画像切出部
16 仮想画像生成部
2 副端末
205 姿勢センサ
3 仮想空間サーバ

Claims (13)

  1. カメラ及び姿勢センサを搭載した主端末について、現実空間で視認可能な位置に存在する副端末と通信可能な主端末であって、
    副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
    カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
    カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
    主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
    現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
    を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
    ことを特徴とする主端末。
  2. 相対姿勢算出手段は、主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、主端末座標系Aに対する副端末座標系Hの相対姿勢TAHを算出する
    ことを特徴とする請求項1に記載の主端末。
  3. サーバアクセス手段は、現実空間の相対姿勢として、以下のいずれかを仮想空間サーバへ送信する
    主端末座標系Aに対する副端末座標系Hの相対姿勢TAH
    相対姿勢TAHから導出された位置v及び傾きr、
    相対姿勢TAHの逆行列TAH -1(副端末座標系Hに対する主端末座標系Aの相対姿勢THA)、又は、
    相対姿勢TAHの逆行列TAH -1から導出された位置v及び傾きr
    ことを特徴とする請求項2に記載の主端末。
  4. 副端末から、当該副端末がログイン中の仮想空間サーバのサーバアドレスを取得する副端末通信手段を更に有し、
    サーバアクセス手段は、副端末から取得したサーバアドレスに基づく仮想空間サーバへログインし、副端末と同一の仮想空間へ参入する
    ことを特徴とする請求項1から3のいずれか1項に記載の主端末。
  5. サーバアクセス手段は、
    広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
    狭域通信を介してローカルに配置された仮想空間サーバへ、又は、
    狭域通信を介して副端末に搭載された仮想空間サーバへ
    アクセスすることを特徴とする請求項1から4のいずれか1項に記載の主端末。
  6. 副端末は、姿勢センサを有し、
    主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
    副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
    ことを特徴とする請求項5に記載の主端末。
  7. 主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
    ことを特徴とする請求項6に記載の主端末。
  8. 副端末姿勢受信手段は、当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
    物体姿勢検出手段は、カメラによって撮影された映像から、副端末について、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
    ことを特徴とする請求項5から7のいずれか1項に記載の主端末。
  9. 主端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する副端末をオペレータに視認させる
    ことを特徴とする請求項1から8のいずれか1項に記載の主端末。
  10. 副端末と同一の仮想空間サーバにおける同一の仮想空間にログインしており、
    サーバアクセス手段は、仮想空間サーバから、副端末を所持するユーザをアバターとして表現した仮想空間情報を受信し、
    カメラによって撮影された映像から、副端末を装着したユーザと認識されたユーザ画像部分を切り出すユーザ画像切出手段と、
    切り出されたユーザ画像部分を、仮想空間情報におけるアバター画像部分に重畳する仮想画像生成手段と
    を更に有することを特徴とする請求項1から9のいずれか1項に記載の主端末。
  11. カメラ及び姿勢センサを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在する副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムであって、
    副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
    カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
    カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
    主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
    現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
    を有し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
    ようにコンピュータを機能させることを特徴とする主端末のプログラム。
  12. カメラ及び姿勢センサを搭載した主端末と、当該主端末からみて現実空間で視認可能な位置に存在する副端末とを有するシステムであって、
    主端末は、
    副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する副端末姿勢受信手段と、
    カメラによって撮影された映像から、現実空間の副端末を認識する物体認識手段と、
    カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する物体姿勢検出手段と、
    主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する相対姿勢算出手段と、
    現実空間の相対姿勢を、仮想空間サーバへ送信するサーバアクセス手段と
    を有し、
    副端末は、
    所定時間毎に、当該副端末座標系Hの副端末姿勢TH2を送信する副端末姿勢送信手段を有し、
    仮想空間サーバの仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
    ことを特徴とするシステム。
  13. カメラ及び姿勢センサを搭載した主端末について、当該主端末からみて現実空間で視認可能な位置に存在する副端末と通信可能な主端末の仮想空間姿勢維持方法であって、
    主端末は、
    副端末から、当該副端末座標系Hの副端末姿勢TH2を受信する第1のステップと、
    カメラによって撮影された映像から、現実空間の副端末を認識する第2のステップと、
    カメラによって撮影された映像から、副端末について、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する第3のステップと、
    主端末座標系Aの副端末姿勢TA2と、副端末座標系Hの副端末姿勢TH2とから、現実空間の相対姿勢を算出する第4のステップと、
    現実空間の相対姿勢を、仮想空間サーバへ送信する第のステップと
    を実行し、仮想空間サーバの同一の仮想空間内で主端末と副端末との間の現実空間の相対姿勢を維持する
    ことを特徴とする主端末の仮想空間姿勢維持方法。
JP2021082690A 2021-05-14 2021-05-14 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法 Active JP7130213B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021082690A JP7130213B1 (ja) 2021-05-14 2021-05-14 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法
PCT/JP2022/018862 WO2022239639A1 (ja) 2021-05-14 2022-04-26 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021082690A JP7130213B1 (ja) 2021-05-14 2021-05-14 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法

Publications (2)

Publication Number Publication Date
JP7130213B1 true JP7130213B1 (ja) 2022-09-05
JP2022175912A JP2022175912A (ja) 2022-11-25

Family

ID=83152200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021082690A Active JP7130213B1 (ja) 2021-05-14 2021-05-14 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法

Country Status (2)

Country Link
JP (1) JP7130213B1 (ja)
WO (1) WO2022239639A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186800A (ja) 2018-04-12 2019-10-24 Kddi株式会社 情報端末装置、プログラム及び方法
WO2021053805A1 (ja) 2019-09-20 2021-03-25 マクセル株式会社 情報端末装置および位置認識共有方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186800A (ja) 2018-04-12 2019-10-24 Kddi株式会社 情報端末装置、プログラム及び方法
WO2021053805A1 (ja) 2019-09-20 2021-03-25 マクセル株式会社 情報端末装置および位置認識共有方法

Also Published As

Publication number Publication date
JP2022175912A (ja) 2022-11-25
WO2022239639A1 (ja) 2022-11-17

Similar Documents

Publication Publication Date Title
US10496910B2 (en) Inconspicuous tag for generating augmented reality experiences
US10062213B2 (en) Augmented reality spaces with adaptive rules
CN105190484B (zh) 个人全息告示牌
CN103091844B (zh) 头戴式显示设备及其控制方法
US9536350B2 (en) Touch and social cues as inputs into a computer
JP6992761B2 (ja) サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
CN111768479B (zh) 图像处理方法、装置、计算机设备以及存储介质
EP2974509B1 (en) Personal information communicator
WO2021068356A1 (zh) 一种基于用户-展品距离的增强现实博物馆协作交互方法与系统
WO2013028586A1 (en) Location based skins for mixed reality displays
KR20080022983A (ko) 3d 가상지도상의 사용자의 아바타 객체의 위치 및 활동정보를 현실 세계로 광고하는 시스템 및 방법
CN108351689B (zh) 用于显示处于预定义区域中的对象的全息图像的方法和系统
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
JP7304639B2 (ja) デジタル現実内の強化されたユーザ間通信を可能にするための方法及びシステム
JP7130213B1 (ja) 現実空間における副端末との相対位置姿勢を仮想空間内で維持する主端末、プログラム、システム及び方法
JP7266329B2 (ja) 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法
JP7015081B1 (ja) 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法
JP7285586B2 (ja) 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム
JP2023056195A (ja) 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法
US12124764B2 (en) Main terminal for entering same virtual space as sub terminal, program, and system
WO2023074852A1 (ja) 情報処理装置
TW202223749A (zh) 用於獲得場景中的設備或其使用者的標識資訊的方法和系統
KR20230132001A (ko) 적외선 기반의 스마트형 객체 정보 처리 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220816

R150 Certificate of patent or registration of utility model

Ref document number: 7130213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150