JP7285586B2 - 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム - Google Patents
副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム Download PDFInfo
- Publication number
- JP7285586B2 JP7285586B2 JP2021172083A JP2021172083A JP7285586B2 JP 7285586 B2 JP7285586 B2 JP 7285586B2 JP 2021172083 A JP2021172083 A JP 2021172083A JP 2021172083 A JP2021172083 A JP 2021172083A JP 7285586 B2 JP7285586 B2 JP 7285586B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- sub
- main terminal
- virtual space
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000002093 peripheral effect Effects 0.000 claims description 45
- 239000003550 marker Substances 0.000 claims description 39
- 238000006073 displacement reaction Methods 0.000 claims description 32
- 238000004891 communication Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000013475 authorization Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
- User Interface Of Digital Computer (AREA)
- Mobile Radio Communication Systems (AREA)
Description
拡張現実とは、ユーザの視界に映る現実空間に、CG(Computer Graphics)映像を表示する技術をいう。例えばシースルーのディスプレイ上に、又は、現実空間をカメラで撮影した映像上に、CGを重畳的に表示することによって、現実空間を拡張する。
複合現実とは、CGで人工的に作られた仮想空間を、現実空間と融合させる技術をいう。現実空間の物体が仮想空間と一体化しており、ユーザは、自らの動きが、現実空間且つ仮想空間として相互に影響する。
これら技術によれば、HMD端末やAR/MR端末は、姿勢センサによってユーザの動きを検知すると共に、仮想空間サーバにアクセスすることによって仮想空間情報を取得して表示する。
このような課題は、介護の場面に限らない。例えばHMD端末を装着した職業訓練者と、仮想空間における訓練を指導する指導者との関係も同様なものである。
これに対し、本願の発明者は、主端末が、副端末との間で視認可能な距離に存在していることを条件として、その主端末のユーザを、副端末の仮想空間へ参入させるのがよい、のではないかと考えた。即ち、要介護者が副端末によって視認している仮想空間に、介護者(オペレータ)が主端末によって参入することができれば、介護者は、要介護者の仮想空間に対する操作を補助することができるのではないか、と考えた。
主端末は、カメラを搭載し、副端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
主端末は、カメラによる現実空間の映像から物体認識によって当該副端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定する第1のステップと、
主端末が、真と判定した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する第2のステップと
を有することを特徴とする。
システムは、ユーザ識別子と、当該ユーザ識別子に相当するユーザが現に参入している仮想空間サーバのサーバアドレスとを対応付けて記憶する検索サーバを更に有し、
第1のステップについて、
主端末は、現実空間で視認可能な距離に存在する副端末又はその周辺機器からユーザ識別子を取得し、
第2のステップについて、
主端末が、副端末から取得したユーザ識別子を、検索サーバへ送信し、
検索サーバが、当該ユーザ識別子に対応するサーバアドレスを、主端末へ応答し、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことも好ましい。
第2のステップについて、主端末は、副端末から取得したユーザ識別子を、仮想空間サーバへ更に送信し、
仮想空間サーバに対して、現実空間の当該副端末と仮想空間の端末とを紐付ける
ことも好ましい。
第1のステップについて、
主端末は、現実空間で視認可能な距離に存在する副端末又はその周辺機器から、仮想空間サーバのサーバアドレスを取得し、
第2のステップについて、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことも好ましい。
主端末は、副端末からユーザ識別子又はサーバアドレスを取得するために、
副端末からの近距離通信用電波によって受信するか、又は、
副端末に装着された、ユーザ識別子又はサーバアドレスが記述されたマーカを、カメラによって撮影して読み取る
ことも好ましい。
主端末は、カメラ及び姿勢センサを更に搭載し、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信し、
所定時間毎に、カメラの映像から物体認識によって現実空間の副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出し、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出し、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付け、
カメラの映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことも好ましい。
副端末も、姿勢センサを搭載しており、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことも好ましい。
主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
ことも好ましい。
当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
カメラの映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことも好ましい。
副端末は、カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
副端末は、カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知する第1のステップと、
主端末が、副端末から許可信号を取得した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する第2のステップと
を有することを特徴とする。
システムは、ユーザ識別子と、当該ユーザ識別子に相当するユーザが現に参入している仮想空間サーバのサーバアドレスとを対応付けて記憶する検索サーバを更に有し、
第1のステップについて、
副端末は、許可信号としてユーザ識別子を主端末へ通知し、
第2のステップについて、
主端末が、副端末から取得したユーザ識別子を、検索サーバへ送信し、
検索サーバが、当該ユーザ識別子に対応するサーバアドレスを、主端末へ応答し、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことも好ましい。
第2のステップについて、主端末は、副端末から取得したユーザ識別子を、仮想空間サーバへ更に送信し、
仮想空間サーバに対して、現実空間の当該副端末と仮想空間の端末とを紐付ける
ことも好ましい。
第1のステップについて、
副端末は、許可信号としてサーバアドレスを主端末へ通知し、
第2のステップについて、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことも好ましい。
副端末は、主端末へユーザ識別子又はサーバアドレスを通知するために、
主端末へ近距離通信用電波によって送信するか、又は、
副端末に装着された、ユーザ識別子又はサーバアドレスが記述されたマーカを、主端末のカメラによって撮影させて読み取らせる
ことも好ましい。
副端末は、カメラ及び姿勢センサを更に搭載し、
所定時間毎に、端末それぞれから、主端末座標系Hの主端末姿勢TH2を受信し、
所定時間毎に、カメラの映像から物体認識によって現実空間の主端末それぞれについて、副端末の姿勢センサに基づく副端末座標系Aの主端末姿勢TA2を検出し、
所定時間毎に、主端末それぞれについて、主端末座標系Hの主端末姿勢TH2の変位ΔTH2と、副端末座標系Aの主端末姿勢TA2の変位ΔTA2とを検出し、
主端末それぞれについて、主端末座標系Hの主端末姿勢TH2の変位ΔTH2と最も近い変位となる副端末座標系Aの主端末姿勢TA2の変位ΔTA2の主端末を特定し、当該主端末の端末識別子を、映像から認識された主端末に対応付け、
カメラの映像に映り込む現実空間の複数の主端末の中で、1つの主端末のオブジェクトをオペレータ操作によって選択させる
ことも好ましい。
主端末は、姿勢センサを搭載しており、
副端末座標系Aの主端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
主端末座標系Hの主端末姿勢TH2は、当該主端末の姿勢センサによって検知されたものである
ことも好ましい。
副端末座標系Aの主端末姿勢TA2について、映像に映り込む主端末におけるユーザが向く前面は、主端末に配置された所定マーカの位置に基づいて特定される
ことも好ましい。
当該主端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Hの主端末姿勢TH2とし、
カメラの映像から、主端末それぞれについて、副端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Aの主端末姿勢TA2とする
ことも好ましい。
第2のステップについて、主端末は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
近距離通信を介してローカルに配置された仮想空間サーバへ、又は、
近距離通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることも好ましい。
主端末又は副端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の端末をオペレータに視認させる
ことも好ましい。
カメラを搭載し、副端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該副端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定する視認距離判定手段と、
視認距離判定手段によって真と判定した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入するサーバアクセス手段と
を有することを特徴とする。
副端末は、カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
副端末は、カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器を検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知し、
主端末が、副端末から許可信号を取得した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する
ことを特徴とする。
カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知する許可信号通知手段
を有し、
主端末に、副端末と同一の仮想空間サーバへアクセスさせ、同一の仮想空間へ参入させる
ことを特徴とする。
カメラを搭載し、副端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該副端末又はその周辺機器を検出したかを判定する視認距離判定手段と、
視認距離判定手段によって真と判定した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入するサーバアクセス手段と
してコンピュータを機能させることを特徴とする。
カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知する許可信号通知手段と
してコンピュータを機能させ、
主端末に、副端末と同一の仮想空間サーバへアクセスさせ、同一の仮想空間へ参入させる
ことを特徴とする。
これに対し、本発明によれば、オペレータが所持する主端末1と、ユーザが所持する副端末2とは、「互いに現実空間で視認可能な距離に存在する」ことを条件としている。即ち、本発明によれば、現実空間の近距離周辺で実現されることに特徴があり、そのために、副端末2を装着する要介護者を、主端末1を装着する介護者(オペレータ)が補助できるようにしたものである。
一方で、副端末2は、例えばHMD(Head Mount Display)端末であり、仮想空間サーバ3へアクセスすることができる。ユーザa~cは、HMDを装着し、仮想空間を体験しているとする。
一方で、副端末2もHMD端末であるとしているが、勿論、AR端末又はMR端末であってもよいし、これに限られるものでもない。
主端末1及び副端末2は、例えばスマートフォンのような、カメラとディスプレイとを搭載した端末であってもよいし、タブレットやパーソナルコンピュータであってもよい。
(1)外部ネットワーク(インターネット)に配置された仮想空間サーバ(Dedicated Server)
(2)ローカルに配置された仮想空間サーバ(Dedicated Server)
(3)副端末に搭載された仮想空間サーバ(Listen Server)
ここで、仮想空間サーバ3がインターネットに配置されている場合、主端末1は、広域通信を介してインターネットに接続する。
(S1)主端末1が、現実空間で視認可能な距離に、副端末2又はその周辺機器が存在するか否かを判定する。
(S2)主端末1が、S1について真と判定した際に、副端末2と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する。
主端末1は、副端末2が現実空間で視認可能な距離に存在するか否かを、例えば以下の判定1~5によって判定することができる。
副端末2は、現実空間では同一物体であっても、視点によって多様な形状で映像に映り込む。そのように形状が変化しても、同一物体として検出できるようにロバストな特徴抽出技術が用いられる。例えば副端末2の外観(例えばHMD端末の外観)を予め学習した物体認識エンジンを用いて、副端末2のオブジェクトを認識するものであってもよい。一般的には、例えばSIFT(Scale-Invariant Feature Transform)や深層ニューラルネットワークのクラス分類技術がある。このような特徴抽出技術は、2D画像であっても、3D画像(又はポイントクラウド)であっても可能となる。
最も簡易には、2D画像であれば、物体認識は、例えば副端末2自体に又はその周辺装置に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQR(Quick Response)コード(登録商標)であってもよい。少なくとも、マーカは、副端末2について、主端末1から視認可能な位置に装着されたものであればよい。
距離センサとは、光源(LEDやレーザダイオード)から光を照射し、副端末2のような測定対象物から反射した光を受光素子で受光する。光源からの投光から、反射によって受光するまでの時間から距離を算出する。
デプスカメラとは、奥行きの情報を取得する深度センサを内蔵したカメラである。その方式としては、TOF(Time-of-Flight)があり、照射範囲を拡散してカメラのように画像で距離情報を得ることができる。
「近距離通信」としては、例えばBluetooth(登録商標)やZigbee(登録商標)、UWB(Ultra Wide Band)であってもよい。例えばBluetoothの場合、特に電波の到達範囲が狭いBLE(Bluetooth Low Energy)が適する。低消費電力版Bluetoothとして、1/3程度の電力で動作するために、主端末1及び副端末2の電力消費を低く抑えることができる。
例えば副端末2が、タグデバイスとして、広報パケット(Advertising Packet)を常時発信する。広報パケットは、例えば100msの間隔で、周期的に送信される。BLE規格によれば、副端末2を「advertiser」として機能させ、広報パケットには、端末IDとして「ビーコンID」が含められる。主端末1は、広報パケットを受信することによって、その電波の受信強度を検知し、副端末2が現実空間で視認可能な程度に近いと想定することができる。
例えばLighthouse(登録商標)のようなエリアトラッキング技術を採用することができる(例えば非特許文献1,2参照)。例えばUWB(Ultra Wide Band)のような超広帯域無線通信を用いて、室内に配置された複数の基準アンカーからの電波を受信することによって測位するものであってもよい。主端末1及び副端末2の両方をトラッキングしているエリア識別子が同一であるということによって、両端末の距離が近いと判定することができる。UWBの場合、低消費電力で且つ到達距離30メートル程度であり、誤差が数十cmと正確な屋内測位を可能とする。
例えば無線LANの場合、主端末1は、現に電波を受信している無線ルータのアクセスポイント識別子が、副端末2のアクセスポイント識別子と同一であるということによって、両端末の距離が近いと判定する。このとき、同一の無線ルータから受信する電波強度について、主端末1の電波強度と、副端末2の電波強度との差が閾値以下である場合、両端末の距離は近いと判定するものであってもよい。
例えば無線LANである場合、主端末1は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末識別子を含む応答を受信することができる。応答を得られた端末識別子によって、両端末が同一エリアにいるか否かを判定することができる。
ここで、主端末1は、副端末2から「ユーザID」を取得するために、以下の2つの実施形態がある。
(S1-1)副端末2からの近距離通信用電波によって受信する。例えばBluetoothの場合、副端末2から配信される広報パケットに、ユーザIDを含めることもできる。
(S1-2)副端末2に装着された、ユーザIDが記述されたマーカを、カメラによって撮影して読み取る。
Dを、検索サーバ4へ送信する。これに対し、検索サーバ4は、当該ユーザIDに対応するサーバアドレスを検索する。検索サーバ4は、当該ユーザIDに対応するサーバアドレスを、主端末1へ応答する。そして、主端末1は、当該サーバアドレスに基づく仮想空間サーバへログインすることができる。
(S1)主端末1は、当該副端末2又はその周辺機器から「サーバアドレス」を取得するものであってもよい。サーバアドレスとは、URL(Uniform Resource Locator)や、IPアドレス、ポート番号、その他の仮想空間サーバにアクセスするために必要な情報を含む。尚、サーバアドレスは、仮想空間ルーム名や、例えばVRChat(登録商標)のようなソーシャルVRプラットフォームにおける識別子であってもよい。
(S2)主端末1は、S1によって真と判定された場合、当該サーバアドレスに基づく仮想空間サーバへログインすることができる。
視認距離判定部11は、現実空間で視認可能な距離に、副端末2又はその周辺機器が存在するか否かを判定する。前述したS1と同様の処理を実行する。
[サーバアクセス部12]
サーバアクセス部12は、視認距離判定部11によって真と判定した際に、副端末2と同一の仮想空間サーバ3へアクセスし、同一の仮想空間へ参入する。前述したS2と同様の処理を実行する。
(S1)副端末2が、現実空間で視認可能な距離に、主端末1又はその周辺機器が存在するか否かを判定し、真と判定した際に、許可信号を主端末1へ通知する。
(S2)主端末1が、副端末2から許可信号を取得した際に、副端末2と同一の仮想空間サーバ3へアクセスし、同一の仮想空間へ参入する。
ここで、副端末2は、主端末1へ「ユーザID」を通知するために、以下の2つの実施形態がある。
(S1-1)副端末2からの近距離通信用電波によって、許可信号として主端末1へ送信する。例えばBluetoothの場合、副端末2から配信される広報パケットに、許可信号として、ユーザIDを含めることもできる。
(S1-2)副端末2は、ユーザIDが記述されたマーカを表示し、主端末1のカメラによって撮影して読み取らせる。
(S2)主端末1は、副端末2から許可信号と共に受信したユーザIDを、検索サーバ4へ送信する。これに対し、検索サーバ4は、当該ユーザIDに対応するサーバアドレスを検索する。検索サーバ4は、当該ユーザIDに対応するサーバアドレスを、主端末1へ応答する。そして、主端末1は、当該サーバアドレスに基づく仮想空間サーバへログインすることができる。
(S1)副端末2は、当該主端末1へ「サーバアドレス」を通知するものであってもよい。
(S2)主端末1は、副端末2から通知されたサーバアドレスに基づく仮想空間サーバ3へログインすることができる。
オペレータが装着した主端末1は、ユーザが装着した複数の副端末2と通信することは可能である。しかしながら、オペレータが、現実空間で視認可能な複数の副端末2の中で、所望の副端末2を選択することは難しい。
主端末がAR端末であれば、例えばオペレータの視認先となる副端末2のオブジェクトを、オペレータの指で指し示すことによって、その副端末2を選択できるかもしれない。しかしながら、オペレータのAR端末のカメラから見える映像内のオブジェクトとして選択できたに過ぎない。このとき、オペレータ所望の副端末2と通信するためのアドレス(端末ID)を特定することはできない。アドレスとは、例えばIPアドレスやMAC(Media Access Control)アドレス、ビーコンIDのような端末IDである。
オペレータの主端末1は、ユーザの副端末2を任意に選択し、直接的な通信をすることは難しい。
[姿勢センサ]
姿勢センサは、起動中は常時、自らの姿勢(Transform)となる「位置v」及び「傾きr」を検知するものである。
図9によれば、以下のような姿勢が表されている。
TA1:主端末座標系Aの主端末姿勢
TH2:副端末座標系Hの副端末姿勢
尚、主端末座標系Aは、機器起動時に設定される基準座標系とする。同様に、副端末座標系Hも、機器起動時に設定される基準座標系とする。
また、姿勢センサは、「位置v」を検知するために、例えばSteamVR(登録商標)のLighthouse(登録商標)のような、ヘッドマウントディスプレイに搭載されたトラッキングデバイスを搭載する(例えば非特許文献1参照)。これは、現実空間に設置されたアンカー(ベースステーション)と通信することによって、所定範囲内における位置vを追跡することができる。
又は、姿勢センサは、前述したIMUやカメラを搭載することによって、SLAM(Simultaneous Localization And Mapping)を用いて、自己位置v及び傾きrを同時に追跡することができる(例えば非特許文献6参照)。
副端末検出部101は、副端末2それぞれから、端末IDを取得する。
端末IDとしては、例えばビーコンIDやIPアドレス、MAC(Media Access Control)アドレスであってもよい。
例えば近距離通信がBLEである場合、副端末2は定期的に端末IDを発信しており、主端末1の副端末検出部101は、その端末IDを受信することができる。
例えば近距離通信が無線LANである場合、主端末1の副端末検出部101は、マルチキャストで問い合わせ要求を配信することによって、副端末2から端末IDを受信することができる。
取得された端末IDは、副端末姿勢受信部102へ出力される。
副端末姿勢受信部102は、所定時間毎(Δt)に、副端末検出部101によって既に検出された副端末2それぞれから、副端末座標系Hの副端末姿勢TH2(位置v及び傾きr)を受信する。副端末座標系Hの副端末姿勢TH2は、副端末2の姿勢センサによって検知されたものである。
TH2:副端末座標系Hの副端末姿勢
副端末2それぞれにおける所定時間毎の副端末座標系Hの副端末姿勢TH2は、姿勢変位検出部104へ出力される。
最も簡易には、2D画像であれば、物体認識部112は、例えば副端末2自体に貼り付けられたマーカを認識するものであってもよい。マーカは、例えば2次元的なQRコード(登録商標)であってもよい。
物体姿勢検出部103は、所定時間毎(Δt)に、副端末2(のオブジェクト)それぞれについて、主端末1の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出する。
TA2:主端末座標系Aの副端末姿勢
物体姿勢検出部103は、カメラによって撮影された映像から、物体認識部112によって認識された副端末2のオブジェクトそれぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出する。そして、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2として検出する。
前述した図5によれば、主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末2(HMD端末)を装着したユーザが向く前面に対する位置v及び傾きrから導出されたものである。ユーザが向く前面は、副端末2に配置された所定マーカの位置に基づいて特定される。
TA2=TA1T1sTS2Tc
TA1:主端末座標系Aにおける主端末姿勢
T1s:主端末姿勢座標系におけるカメラ(センサ)座標系の姿勢
TS2:カメラ(センサ)座標系における映像認識された副端末の姿勢
Tc:姿勢補正行列
ここで、主端末姿勢座標系とは、主端末座標系Aにおける主端末姿勢を基準とする座標系である。
このように実際には、センサ座標系から主端末座標系に変換する処理が必要となる。
姿勢変位検出部104は、所定時間毎(Δt)に、副端末姿勢受信部102から、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2を入力すると共に、物体姿勢検出部103から主端末座標系Aの副端末姿勢TA2を入力する。
(時刻t)
副端末21の副端末座標系Hの副端末姿勢TH21(t)
副端末22の副端末座標系Hの副端末姿勢TH22(t)
副端末23の副端末座標系Hの副端末姿勢TH23(t)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t)
(時刻t+Δt)
副端末21の副端末座標系Hの副端末姿勢TH21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2c(t+Δt)
副端末21の副端末座標系Hの副端末姿勢TH21の変位:
ΔTH21=(TH21(t))-1TH21(t+Δt)
副端末22の副端末座標系Hの副端末姿勢TH22の変位:
ΔTH22=(TH22(t))-1TH22(t+Δt)
副端末23の副端末座標系Hの副端末姿勢TH23の変位:
ΔTH23=(TH23(t))-1TH23(t+Δt)
映像認識されたオブジェクトaの主端末座標系Aの副端末姿勢TA2aの変位:
ΔTA2a=(TA2a(t))-1TA2a(t+Δt)
映像認識されたオブジェクトbの主端末座標系Aの副端末姿勢TA2bの変位:
ΔTA2b=(TA2b(t))-1TA2b(t+Δt)
映像認識されたオブジェクトcの主端末座標系Aの副端末姿勢TA2cの変位:
ΔTA2c=(TA2c(t))-1TA2c(t+Δt)
図12は、現実空間と仮想空間との関係を表す説明図である。
TA1:主端末座標系Aの主端末姿勢
TA2:主端末座標系Aの副端末姿勢
TH2:副端末座標系Hの副端末姿勢
TAH:主端末座標系Aからみた副端末座標系Hの姿勢
THA:副端末座標系Hからみた主端末座標系Aの姿勢
副端末座標系Hの副端末姿勢TH2も、副端末2に搭載された姿勢センサによって検知されたものである。主端末1は、副端末2から、その副端末座標系Hの副端末姿勢TH2を受信する。
主端末座標系Aの副端末姿勢TA2は、主端末1のカメラによって撮影された映像に映り込むオブジェクトから、物体姿勢検出部114によって検出されたものである。
TAH=TA2TH2 -1
TA2:主端末座標系Aの副端末姿勢
TH2 -1:副端末座標系Hの副端末姿勢TH2の逆行列
TAH:主端末座標系Aからみた副端末座標系Hの姿勢
THA:副端末座標系Hからみた主端末座標系Aの姿勢
TAH=THA -1
副端末特定部105は、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付ける。
(副端末の端末ID) (映像認識されたオブジェクト)
副端末21 <-> 副端末a
副端末22 <-> 副端末c
副端末23 <-> 副端末b
これらのノルムが閾値以下かつ最も小さい副端末同士を対応付ける。
副端末選択部106は、オペレータ操作によって、いずれかの副端末2を選択する。選択された副端末2の端末IDは、視認距離判定部11へ出力される。
101 副端末検出部
102 副端末姿勢受信部
103 物体姿勢検出部
104 姿勢変位検出部
105 副端末特定部
106 副端末選択部
11 視認距離判定部
12 サーバアクセス部
2 副端末
21 視認距離判定部
3 仮想空間サーバ
4 検索サーバ
Claims (25)
- 主端末と副端末とを有するシステムの仮想空間参入方法であって、
主端末は、カメラを搭載し、副端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
主端末は、カメラによる現実空間の映像から物体認識によって当該副端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定する第1のステップと、
主端末が、真と判定した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する第2のステップと
を有することを特徴とする仮想空間参入方法。 - システムは、ユーザ識別子と、当該ユーザ識別子に相当するユーザが現に参入している仮想空間サーバのサーバアドレスとを対応付けて記憶する検索サーバを更に有し、
第1のステップについて、
主端末は、現実空間で視認可能な副端末又はその周辺機器からユーザ識別子を取得し、
第2のステップについて、
主端末が、副端末から取得したユーザ識別子を、検索サーバへ送信し、
検索サーバが、当該ユーザ識別子に対応するサーバアドレスを、主端末へ応答し、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことを特徴とする請求項1に記載の仮想空間参入方法。 - 第2のステップについて、主端末は、副端末から取得したユーザ識別子を、仮想空間サーバへ更に送信し、
仮想空間サーバに対して、現実空間の当該副端末と仮想空間の端末とを紐付ける
ことを特徴とする請求項2に記載の仮想空間参入方法。 - 第1のステップについて、
主端末は、現実空間で視認可能な副端末又はその周辺機器から、仮想空間サーバのサーバアドレスを取得し、
第2のステップについて、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことを特徴とする請求項1に記載の仮想空間参入方法。 - 主端末は、副端末からユーザ識別子又はサーバアドレスを取得するために、
副端末からの近距離通信用電波によって受信するか、又は、
副端末に装着された、ユーザ識別子又はサーバアドレスが記述されたマーカを、カメラによって撮影して読み取る
ことを特徴とする請求項2から4のいずれか1項に記載の仮想空間参入方法。 - 主端末は、カメラ及び姿勢センサを更に搭載し、
所定時間毎に、副端末それぞれから、副端末座標系Hの副端末姿勢TH2を受信し、
所定時間毎に、カメラの映像から物体認識によって現実空間の副端末それぞれについて、主端末の姿勢センサに基づく主端末座標系Aの副端末姿勢TA2を検出し、
所定時間毎に、副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と、主端末座標系Aの副端末姿勢TA2の変位ΔTA2とを検出し、
副端末それぞれについて、副端末座標系Hの副端末姿勢TH2の変位ΔTH2と最も近い変位となる主端末座標系Aの副端末姿勢TA2の変位ΔTA2の副端末を特定し、当該副端末の端末識別子を、映像から認識された副端末に対応付け、
カメラの映像に映り込む現実空間の複数の副端末の中で、1つの副端末のオブジェクトをオペレータ操作によって選択させる
ことを特徴とする請求項1から5のいずれか1項に記載の仮想空間参入方法。 - 副端末も、姿勢センサを搭載しており、
主端末座標系Aの副端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
副端末座標系Hの副端末姿勢TH2は、当該副端末の姿勢センサによって検知されたものである
ことを特徴とする請求項6に記載の仮想空間参入方法。 - 主端末座標系Aの副端末姿勢TA2について、映像に映り込む副端末におけるユーザが向く前面は、副端末に配置された所定マーカの位置に基づいて特定される
ことを特徴とする請求項7に記載の仮想空間参入方法。 - 当該副端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Hの副端末姿勢TH2とし、
カメラの映像から、副端末それぞれについて、主端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Aの副端末姿勢TA2とする
ことを特徴とする請求項6から8のいずれか1項に記載の仮想空間参入方法。 - 主端末と副端末とを有するシステムの仮想空間参入方法であって、
副端末は、カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
副端末は、カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知する第1のステップと、
主端末が、副端末から許可信号を取得した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する第2のステップと
を有することを特徴とする仮想空間参入方法。 - システムは、ユーザ識別子と、当該ユーザ識別子に相当するユーザが現に参入している仮想空間サーバのサーバアドレスとを対応付けて記憶する検索サーバを更に有し、
第1のステップについて、
副端末は、許可信号としてユーザ識別子を主端末へ通知し、
第2のステップについて、
主端末が、副端末から取得したユーザ識別子を、検索サーバへ送信し、
検索サーバが、当該ユーザ識別子に対応するサーバアドレスを、主端末へ応答し、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことを特徴とする請求項10に記載の仮想空間参入方法。 - 第2のステップについて、主端末は、副端末から取得したユーザ識別子を、仮想空間サーバへ更に送信し、
仮想空間サーバに対して、現実空間の当該副端末と仮想空間の端末とを紐付ける
ことを特徴とする請求項11に記載の仮想空間参入方法。 - 第1のステップについて、
副端末は、許可信号としてサーバアドレスを主端末へ通知し、
第2のステップについて、
主端末が、当該サーバアドレスに基づく仮想空間サーバへログインする
ことを特徴とする請求項12に記載の仮想空間参入方法。 - 副端末は、主端末へユーザ識別子又はサーバアドレスを通知するために、
主端末へ近距離通信用電波によって送信するか、又は、
副端末に装着された、ユーザ識別子又はサーバアドレスが記述されたマーカを、主端末のカメラによって撮影させて読み取らせる
ことを特徴とする請求項11から13のいずれか1項に記載の仮想空間参入方法。 - 副端末は、カメラ及び姿勢センサを更に搭載し、
所定時間毎に、端末それぞれから、主端末座標系Hの主端末姿勢TH2を受信し、
所定時間毎に、カメラの映像から物体認識によって現実空間の主端末それぞれについて、副端末の姿勢センサに基づく副端末座標系Aの主端末姿勢TA2を検出し、
所定時間毎に、主端末それぞれについて、主端末座標系Hの主端末姿勢TH2の変位ΔTH2と、副端末座標系Aの主端末姿勢TA2の変位ΔTA2とを検出し、
主端末それぞれについて、主端末座標系Hの主端末姿勢TH2の変位ΔTH2と最も近い変位となる副端末座標系Aの主端末姿勢TA2の変位ΔTA2の主端末を特定し、当該主端末の端末識別子を、映像から認識された主端末に対応付け、
カメラの映像に映り込む現実空間の複数の主端末の中で、1つの主端末のオブジェクトをオペレータ操作によって選択させる
ことを特徴とする請求項10から14のいずれか1項に記載の仮想空間参入方法。 - 主端末は、姿勢センサを搭載しており、
副端末座標系Aの主端末姿勢TA2は、映像に映り込む副端末におけるユーザが向く前面に対する位置v及び傾きrから導出されたものであり、
主端末座標系Hの主端末姿勢TH2は、当該主端末の姿勢センサによって検知されたものである
ことを特徴とする請求項15に記載の仮想空間参入方法。 - 副端末座標系Aの主端末姿勢TA2について、映像に映り込む主端末におけるユーザが向く前面は、主端末に配置された所定マーカの位置に基づいて特定される
ことを特徴とする請求項16に記載の仮想空間参入方法。 - 当該主端末座標系Hに基づく位置v及び傾きrを受信し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、主端末座標系Hの主端末姿勢TH2とし、
カメラの映像から、主端末それぞれについて、副端末座標系Aに基づく位置v及び傾きrを検出し、傾きrに基づく回転行列Rと位置vとからなる姿勢行列を、副端末座標系Aの主端末姿勢TA2とする
ことを特徴とする請求項16又は17に記載の仮想空間参入方法。 - 第2のステップについて、主端末は、
広域通信を介して外部ネットワークに配置された仮想空間サーバへ、
近距離通信を介してローカルに配置された仮想空間サーバへ、又は、
近距離通信を介して副端末に搭載された仮想空間サーバへ
アクセスすることを特徴とする請求項1から18のいずれか1項に記載の仮想空間参入方法。 - 主端末又は副端末は、ディスプレイを搭載した眼鏡型、コンタクトレンズ型、又は、ヘッドマウント型の端末であり、シースルーによって、又は、カメラによって撮影された映像を表示するディスプレイによって、現実空間に存在する複数の端末をオペレータに視認させる
ことを特徴とする請求項1から19のいずれか1項に記載の仮想空間参入方法。 - 副端末と通信可能な主端末において、
カメラを搭載し、副端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該副端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定する視認距離判定手段と、
視認距離判定手段によって真と判定した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入するサーバアクセス手段と
を有することを特徴とする主端末。 - 主端末と、当該主端末と通信可能な副端末とを有するシステムにおいて、
副端末は、カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
副端末は、カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器を検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知し、
主端末が、副端末から許可信号を取得した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入する
ことを特徴とするシステム。 - 主端末と通信可能な副端末において、
カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知する許可信号通知手段
を有し、
主端末に、副端末と同一の仮想空間サーバへアクセスさせ、同一の仮想空間へ参入させる
ことを特徴とする副端末。 - 副端末と通信可能な主端末に搭載されたコンピュータを機能させるプログラムにおいて、
カメラを搭載し、副端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該副端末又はその周辺機器を検出したか否かを判定する視認距離判定手段と、
視認距離判定手段によって真と判定した際に、副端末と同一の仮想空間サーバへアクセスし、同一の仮想空間へ参入するサーバアクセス手段と
してコンピュータを機能させることを特徴とする主端末用のプログラム。 - 主端末と通信可能な副端末に搭載されたコンピュータを機能させるプログラムにおいて、
カメラを搭載し、主端末又はその周辺機器の物体形状又はマーカを予め記憶しており、
カメラによる現実空間の映像から物体認識によって当該主端末又はその周辺機器の物体形状又はマーカを検出したか否かを判定し、真と判定した際に、許可信号を主端末へ通知する許可信号通知手段と
してコンピュータを機能させ、
主端末に、副端末と同一の仮想空間サーバへアクセスさせ、同一の仮想空間へ参入させる
ことを特徴とする副端末用のプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021172083A JP7285586B2 (ja) | 2021-10-21 | 2021-10-21 | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム |
JP2023080501A JP2023113678A (ja) | 2021-10-21 | 2023-05-16 | 副端末と同一のサーバへ主端末からアクセスする方法、副端末、主端末及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021172083A JP7285586B2 (ja) | 2021-10-21 | 2021-10-21 | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023080501A Division JP2023113678A (ja) | 2021-10-21 | 2023-05-16 | 副端末と同一のサーバへ主端末からアクセスする方法、副端末、主端末及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023062235A JP2023062235A (ja) | 2023-05-08 |
JP7285586B2 true JP7285586B2 (ja) | 2023-06-02 |
Family
ID=86269891
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021172083A Active JP7285586B2 (ja) | 2021-10-21 | 2021-10-21 | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム |
JP2023080501A Pending JP2023113678A (ja) | 2021-10-21 | 2023-05-16 | 副端末と同一のサーバへ主端末からアクセスする方法、副端末、主端末及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023080501A Pending JP2023113678A (ja) | 2021-10-21 | 2023-05-16 | 副端末と同一のサーバへ主端末からアクセスする方法、副端末、主端末及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7285586B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229379A (ja) | 2005-02-16 | 2006-08-31 | Nec Corp | 多者間通信システム、クライアント端末及びそれらに用いる多者間通信方法並びにそのプログラム |
US20110216002A1 (en) | 2010-03-05 | 2011-09-08 | Sony Computer Entertainment America Llc | Calibration of Portable Devices in a Shared Virtual Space |
JP2015192436A (ja) | 2014-03-28 | 2015-11-02 | キヤノン株式会社 | 送信端末、受信端末、送受信システム、およびそのプログラム |
WO2021053805A1 (ja) | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
-
2021
- 2021-10-21 JP JP2021172083A patent/JP7285586B2/ja active Active
-
2023
- 2023-05-16 JP JP2023080501A patent/JP2023113678A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229379A (ja) | 2005-02-16 | 2006-08-31 | Nec Corp | 多者間通信システム、クライアント端末及びそれらに用いる多者間通信方法並びにそのプログラム |
US20110216002A1 (en) | 2010-03-05 | 2011-09-08 | Sony Computer Entertainment America Llc | Calibration of Portable Devices in a Shared Virtual Space |
JP2015192436A (ja) | 2014-03-28 | 2015-11-02 | キヤノン株式会社 | 送信端末、受信端末、送受信システム、およびそのプログラム |
WO2021053805A1 (ja) | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2023113678A (ja) | 2023-08-16 |
JP2023062235A (ja) | 2023-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8965741B2 (en) | Context aware surface scanning and reconstruction | |
US10395116B2 (en) | Dynamically created and updated indoor positioning map | |
CN104903775B (zh) | 头戴式显示器及其控制方法 | |
US9661470B1 (en) | Methods and systems for locating an actor within an environment | |
US20170176209A1 (en) | Systems, apparatus and methods for delivery of location-oriented information | |
CN106575425B (zh) | 经由地理围栏边界段穿越进行的调节 | |
CN117356116A (zh) | 用于定位可穿戴设备和向可穿戴设备递送内容的信标 | |
US9721388B2 (en) | Individual identification character display system, terminal device, individual identification character display method, and computer program | |
KR101958723B1 (ko) | 지오펜스 크로싱 기반 제어를 위한 시스템들 및 기술들 | |
US20180053352A1 (en) | Occluding augmented reality content or thermal imagery for simultaneous display | |
US20140253589A1 (en) | Inconspicuous tag for generating augmented reality experiences | |
CN109117684A (zh) | 用于在双目增强现实设备上选择性扫描的系统和方法 | |
US20130169682A1 (en) | Touch and social cues as inputs into a computer | |
JP4282091B1 (ja) | 端末装置、情報処理方法及びプログラム | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
CN105378801A (zh) | 全息图快照网格 | |
US11532227B2 (en) | Discovery of and connection to remote devices | |
US9875546B1 (en) | Computer vision techniques for generating and comparing three-dimensional point clouds | |
CN110168615A (zh) | 信息处理设备、信息处理方法和程序 | |
TW202004424A (zh) | 用於追蹤和渲染對應於實體對象的虛擬對象的追蹤系統以及用於其的操作方法 | |
JP7285586B2 (ja) | 副端末と同一の仮想空間へ主端末を参入させる方法、システム、主端末、副端末及びプログラム | |
JP7266329B2 (ja) | 現実空間で視認可能な位置に存在する副端末を特定する主端末、プログラム、システム及び方法 | |
JP7015081B1 (ja) | 副端末と同一の仮想空間へ参入する主端末、プログラム、システム及び方法 | |
CN112581630B (zh) | 一种用户交互方法和系统 | |
JP2023056195A (ja) | 副端末と同一の仮想空間へ参入する主端末、システム、プログラム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7285586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |