JP2024004019A - 制御装置及び制御システム - Google Patents
制御装置及び制御システム Download PDFInfo
- Publication number
- JP2024004019A JP2024004019A JP2022103446A JP2022103446A JP2024004019A JP 2024004019 A JP2024004019 A JP 2024004019A JP 2022103446 A JP2022103446 A JP 2022103446A JP 2022103446 A JP2022103446 A JP 2022103446A JP 2024004019 A JP2024004019 A JP 2024004019A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional map
- user
- virtual space
- application
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 abstract 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 71
- 239000011521 glass Substances 0.000 description 69
- 238000004891 communication Methods 0.000 description 47
- 238000003384 imaging method Methods 0.000 description 36
- 230000033001 locomotion Effects 0.000 description 28
- 238000001514 detection method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005401 electroluminescence Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】仮想空間において、アプリケーションを実行することによって表示されるアプリ画像の位置を、ユーザが俯瞰的に把握できる。【解決手段】建物の内部においてユーザUの位置に応じた仮想空間VSを示す画像を、表示装置15に表示させる制御装置10であって、建物の内部を3次元で表現した3次元地図TMを生成する生成部112と、アプリケーションを実行することによって得られるアプリ画像Wが仮想空間VS上に配置される第1の位置と、アプリケーションに対応する対応画像Iが3次元地図TM上に配置される第2の位置とを対応付けて管理する管理部113と、仮想空間VS上の第1の位置にアプリ画像Wを表示装置15に表示させると共に、ユーザUの操作に応じて対応画像Iが第2の位置に配置された3次元地図TMを表示装置15に表示させる表示制御部115と、を備える。【選択図】図5
Description
本発明は、制御装置及び制御システムに関する。
VR(Virtual Reality)技術、AR(Augmented Reality)技術、及びMR(Mixed Reality)技術といったXR技術を用いることにより、XR空間における様々な場所に、各種の仮想オブジェクトが配置されることがある。そのため、XR空間を体験するユーザ自身が、各々の仮想オブジェクトの位置を把握することに困難性が伴う。
例えば特許文献1に記載されたゲーム装置は、3次元の仮想空間に対応する3次元モデルによって構成されるマップオブジェクトを生成する。このマップオブジェクトには、プレイヤーを示すプレイヤアイコンが配置される。即ち、従来のゲーム装置は、ゲームの状況をユーザに視認できるように、ゲームに登場するアイテム及びプレイヤアイコンを配置したマップオブジェクトを表示する。
しかし、従来のゲーム装置が提供するマップオブジェクトは、ゲームの仮想空間を3次元で表現しているに過ぎないため、従来のゲーム装置は、現実空間に対応付けられた3次元地図と仮想オブジェクトの関係を表示できなかった。特に、仮想オブジェクトがアプリケーションを実行することによって表示されるアプリ画像である場合、アプリ画像を現実空間と対応付けて仮想的に仮想空間に配置した位置と、3次元地図上の位置とを対応付けて管理できなかった。
そこで、本発明は、仮想オブジェクトがアプリケーションを実行することによって表示されるアプリ画像である場合、アプリ画像を現実空間と対応付けて仮想的に仮想空間に配置した位置と、3次元地図上の位置とを対応付けて管理できる制御装置及び制御システムを提供することを目的とする。
本発明の好適な態様に係る制御装置は、建物の内部においてユーザの位置に応じた仮想空間を示す画像を、表示装置に表示させる制御装置であって、前記建物の内部を3次元で表現した3次元地図を生成する生成部と、アプリケーションを実行することによって得られるアプリ画像が前記仮想空間上に配置される第1の位置と、前記アプリケーションに対応する対応画像が前記3次元地図上に配置される第2の位置とを対応付けて管理する管理部と、前記仮想空間上の第1の位置に前記アプリ画像を前記表示装置に表示させると共に、前記ユーザの操作に応じて前記対応画像が前記第2の位置に配置された前記3次元地図を前記表示装置に表示させる表示制御部と、を備える制御装置である。
本発明によれば、仮想オブジェクトがアプリケーションを実行することによって表示されるアプリ画像である場合、アプリ画像を現実空間と対応付けて仮想的に仮想空間に配置した位置と、3次元地図上の位置とを対応付けて管理することが可能となる。
1:第1実施形態
以下、図1~図8を参照しつつ、本発明の第1実施形態に係る制御装置としての端末装置10を含む制御システム1の構成について説明する。
以下、図1~図8を参照しつつ、本発明の第1実施形態に係る制御装置としての端末装置10を含む制御システム1の構成について説明する。
1-1:第1実施形態の構成
1-1-1:全体構成
図1は、制御システム1の全体構成を示す図である。図1に示されるように、制御システム1は、端末装置10-1、10-2、…10-J、…10-K、…10-N、XRグラス20-J、及びサーバ30を備える。Nは1以上の整数である。Jは1以上N以下の整数である。Kは1以上N以下であると共に、Jとは異なる整数である。本実施形態において、端末装置10-1~10-Nは同一の構成である。但し、構成が同一でない端末装置が含まれても良い。なお、以下では端末装置10-1~10-Nを、「端末装置10」として総称することがある。
1-1-1:全体構成
図1は、制御システム1の全体構成を示す図である。図1に示されるように、制御システム1は、端末装置10-1、10-2、…10-J、…10-K、…10-N、XRグラス20-J、及びサーバ30を備える。Nは1以上の整数である。Jは1以上N以下の整数である。Kは1以上N以下であると共に、Jとは異なる整数である。本実施形態において、端末装置10-1~10-Nは同一の構成である。但し、構成が同一でない端末装置が含まれても良い。なお、以下では端末装置10-1~10-Nを、「端末装置10」として総称することがある。
制御システム1において、端末装置10-1、10-2、…10-J、…10-K、…10-Nと、サーバ30とは、通信網NETを介して互いに通信可能に接続される。また、端末装置10-JとXRグラス20-Jとは互いに通信可能に接続される。なお、図1において、ユーザUJは、端末装置10-JとXRグラス20-Jとの組を利用するものとする。ユーザUKは、端末装置10-Kを利用するものとする。なお、ユーザUKは、端末装置10-Kに備わる後述のディスプレイ15の代わりに、ユーザUJが使用するXRグラス20-Jと同様のXRグラスを使用してもよい。また、図1において、端末装置10-1~10-Nのうち、端末装置10-J及び端末装置10-K以外の端末装置10に、XRグラス20-Jと同様のXRグラスが接続されてもよく、接続されなくてもよい。なお、ユーザUJとユーザUKとを含む一般的なユーザを、「ユーザU」と総称する。
サーバ30は、通信網NETを介して、端末装置10-1~10-Nに対して各種データ及びクラウドサービスを提供する。とりわけ、サーバ30は、端末装置10-1~10-Nに対して、XR空間に表示される各種コンテンツを提供する。
端末装置10-1~10-Nは、当該端末装置10-1~10-Nに備わる、後述のディスプレイ15、及び、端末装置10-Jに接続され、ユーザUJが頭部に装着するXRグラス20-Jに対して、仮想オブジェクトを含む仮想空間を表示させる。仮想オブジェクトは、例として、静止画像、動画、3DCGモデル、HTMLファイル、及びテキストファイル等のデータを示す仮想オブジェクト、及びアプリケーションを示す仮想オブジェクトである。ここで、テキストファイルとしては、例として、メモ、及びソースコードが挙げられる。また、アプリケーションとしては、例として、ブラウザ、SNSを用いるためのアプリケーション、及びドキュメントファイルを生成するためのアプリケーションが挙げられる。なお、端末装置10-1~10-Nは、例として、スマートフォン、及びタブレット等の携帯端末装置であることが好適である。
XRグラス20-Jは、ユーザUJの頭部に装着するシースルー型のウェアラブルディスプレイである。すなわち、ユーザUJは、XRグラス20-Jを通して、外界を視認可能である。XRグラス20-Jは、端末装置10-Jが制御することによって、両眼用のレンズの各々に設けられた表示パネルに仮想オブジェクトを表示させる。また、以下ではXRグラス20-JがMRグラスである場合の例について説明する。しかし、XRグラス20-JがMRグラスであることはあくまで一例であり、XRグラス20-Jは、VRグラス又はARグラスであってもよい。
とりわけ本実施形態において、XRグラス20-Jを装着したユーザUJは、建物の内部において、ユーザUJの位置に応じた仮想空間を示す画像を、XRグラス20-J上で視認する。更に、XRグラス20-Jには、当該建物の内部を3次元で表現した3次元地図が表示される。
図2は、3次元地図TMの一例を示す図である。また、図3は、ユーザUJが視認する仮想空間VSを示す画像の一例を示す図である。
図2に示されるように、3次元地図TMは、ユーザUJが位置する建物の内部を3次元で表現した3次元地図である。図2に例示される3次元地図TMにおいて、当該建物には、第1寝室B1、第2寝室B2、リビングL1、及び玄関E1が含まれる。また、第1寝室B1に対応する空間には、アイコンI1が表示される。アイコンI1は、一例として、動画アプリケーションに対応するアイコンである。当該アイコンI1は、上記の建物の内部の現実空間に重畳する仮想空間VSのうち、第1寝室B1に対応する位置において、動画アプリケーションを実行することによって得られるアプリ画像が配置されていることを示す。ここで、仮想空間VSにおいて、動画アプリケーションを実行することによって得られるアプリ画像が配置される位置は、「第1の位置」の一例である。また、3次元地図TMにおいて、アイコンI1が配置される位置は、「第2の位置」の一例である。
同様に、リビングL1に対応する空間には、アイコンI2が表示される。アイコンI2は、一例として、地図アプリケーションに対応するアイコンである。当該アイコンI2は、上記の建物の内部の現実空間に重畳する仮想空間VSのうち、リビングL1に対応する位置において、地図アプリケーションを実行することによって得られるアプリ画像が配置されていることを示す。ここで、仮想空間VSにおいて、地図アプリケーションを実行することによって得られるアプリ画像が配置される位置は、「第1の位置」の一例である。また、3次元地図TMにおいて、アイコンI2が配置される位置は、「第2の位置」の一例である。
同様に、玄関E1に対応する空間には、アイコンI3が表示される。アイコンI3は、一例として、ToDoリストアプリケーションに対応するアイコンである。当該アイコンI3は、上記の建物の内部の現実空間に重畳する仮想空間VSのうち、玄関E1に対応する位置において、ToDoリストアプリケーションを実行することによって得られるアプリ画像が配置されていることを示す。ここで、仮想空間VSにおいて、ToDoリストアプリケーションを実行することによって得られるアプリ画像が配置される位置は、「第1の位置」の一例である。また、3次元地図TMにおいて、アイコンI3が配置される位置は、「第2の位置」の一例である。
図3に示されるように、ユーザUJは、自身の操作により、自らが視認する仮想空間VSに、3次元地図TMを表示させる。ユーザUJが、3次元地図TMから動画アプリケーションに対応するアイコンI1を取り出す動作をすると、仮想空間VSにおいて、当該アイコンI1に対応する動画アプリケーションを実行することによって得られるアプリ画像W1が、ユーザUJの眼前に表示される。同様に、ユーザUJが、3次元地図TMから地図アプリケーションに対応するアイコンI2を取り出す動作をすると、仮想空間VSにおいて、当該アイコンI2に対応する地図アプリケーションを実行することによって得られるアプリ画像W2が、ユーザUJの眼前に表示される。更に、ユーザUJが、3次元地図TMからToDoリストアプリケーションに対応するアイコンI3を取り出す動作をすると、仮想空間VSにおいて、当該アイコンI3に対応するToDoリストアプリケーションを実行することによって得られるアプリ画像W3が、ユーザUJの眼前に表示される。
なお、アイコンI1~I3は、「対応画像」の一例である。また以下では、本実施形態におけるアイコンI1~I3を含む一般的なアイコンを、「アイコンI」として総称することがある。更に以下では、本実施形態におけるアプリ画像W1~W3を含む一般的なアプリ画像を、「アプリ画像W」として総称することがある。
ここで、ユーザUJが、例えば第1寝室B1で、3次元地図TMからアイコンI2を取り出した場合、すなわち、3次元地図TMから、建物の内部の現実空間に重畳する仮想空間VSのうち、第1寝室B1に対応する位置にアイコンI2を移動した場合、当該位置に、アプリ画像Wが配置される。当該位置は、「第3の位置」の一例である。なお、「第3の位置」は、上記の「第1の位置」と同一の位置であってもよい。
また、とりわけ、3次元地図TM上において、第1寝室B1と、元々アイコンI2が配置されていた第2の位置とが対応しない場合、アイコンI2は、第1寝室B1に対応する位置に配置し直される。アイコンI2が再度配置された位置は、「第4の位置」の一例である。なお、「第4の位置」は、上記の「第2の位置」と同一の位置であってもよい。
更に、ユーザUJは、当該地図アプリケーションの使用を中止した後、当該地図アプリケーションのアプリ画像W2を、3次元地図TMに戻すと、3次元地図TMに、地図アプリケーションに対応するアイコンI2が配置される。
ここで、ユーザUJが、例えば、3次元地図TMにおける、第2寝室B2に対応する空間に、アプリ画像W2を移動した場合、3次元地図TMに対してアプリ画像W2を移動した位置であり、3次元地図TMにおいてアイコンI2が配置される位置は、「第5の位置」の一例である。なお、「第5の位置」は、上記の「第1の位置」及び「第3の位置」のうち少なくとも一方と同一の位置であってもよい。
この場合、上記の建物の内部の現実空間に重畳する仮想空間VSのうち、第2寝室B2に対応する位置に、アプリ画像W2が配置される。仮想空間VSにおいて、アプリ画像W2が配置される位置は、「第6の位置」の一例である。なお、「第6の位置」は、上記の「第2の位置」及び「第4の位置」のうち少なくとも一方と同一の位置であってもよい。
なお、ユーザUJは、ユーザUJと同じ建物の内部に位置する、1人以上の他のユーザUKと3次元地図TMを共用できる。また、ユーザUJは、他のユーザUKと、ユーザUJが視認するアプリ画像W1~W3のうち、1つ以上のアプリ画像Wを共用できる。
この結果、例えばユーザUJが、第1寝室B1で、ToDoリストアプリケーションを立ち上げてToDoリストを作成し、作成したToDoリストを、3次元地図TMにおける玄関E1に対応する空間に配置した場合、他のユーザUKは、仮想空間VSにおける玄関E1に対応する位置において、ユーザUJによって作成されたToDoリストを確認できる。
1-1-2:XRグラスの構成
図4は、XRグラス20-Jの構成例を示すブロック図である。XRグラス20-Jは、処理装置21、記憶装置22、視線検出装置23、GPS装置24、動き検出装置25、測距装置26、撮像装置27、通信装置28、及びディスプレイ29を備える。XRグラス20-Jが有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。
図4は、XRグラス20-Jの構成例を示すブロック図である。XRグラス20-Jは、処理装置21、記憶装置22、視線検出装置23、GPS装置24、動き検出装置25、測距装置26、撮像装置27、通信装置28、及びディスプレイ29を備える。XRグラス20-Jが有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。なお、本明細書における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。
処理装置21は、XRグラス20-Jの全体を制御するプロセッサである。処理装置21は、例えば、単数又は複数のチップを用いて構成される。また、処理装置21は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)を用いて構成される。なお、処理装置21が有する機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアによって実現してもよい。処理装置31は、各種の処理を並列的又は逐次的に実行する。
記憶装置22は、処理装置21による読取及び書込が可能な記録媒体である。また、記憶装置22は、処理装置21が実行する制御プログラムPR2を含む複数のプログラムを記憶する。
視線検出装置23は、ユーザUJの視線を検出して、検出結果を示す視線情報を生成する。視線検出装置23による視線の検出は、どのような方法を用いてもよい。視線検出装置23は、例えば、目頭の位置と虹彩の位置に基づいて視線情報を検出してもよい。視線情報はユーザUJの視線の方向を示す。視線検出装置23は、視線情報を後述の処理装置31に出力する。処理装置21に出力された視線情報は、通信装置28を介して、端末装置10-Jに出力される。
GPS装置24は、複数の衛星からの電波を受信する。また、GPS装置24は、受信した電波から位置情報を生成する。位置情報は、XRグラス20-Jの位置を示す。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。位置情報は、例えば、XRグラス20-Jの緯度と経度とを示す。一例として、位置情報はGPS装置24から得られる。しかし、XRグラス20-Jは、どのような方法によって位置情報を取得してもよい。取得された位置情報は、処理装置21に出力される。処理装置21に出力された位置情報は、通信装置28を介して、端末装置10-Jに出力される。
動き検出装置25は、XRグラス20-Jの動きを検出する。動き検出装置25としては、加速度を検出する加速度センサ及び角加速度を検出するジャイロセンサなどの慣性センサが該当する。加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。ジャイロセンサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。動き検出装置25は、ジャイロセンサの出力情報に基づいて、XRグラス20-Jの姿勢を示す姿勢情報を生成できる。また、動き検出装置25は、加速度センサ及びジャイロセンサの出力情報に基づいて、XRグラス20-Jの動きを示す動き情報を生成できる。動き情報は、3軸の加速度を各々示す加速度データ及び3軸の角加速度を各々示す角加速度データを含む。動き検出装置25は、XRグラス20-Jの動きに係る動き情報、及びXRグラス20-Jの姿勢を示す姿勢情報を処理装置21に出力する。処理装置21に出力された動き情報及び姿勢情報は、通信装置28を介して、端末装置10-Jに出力される。
測距装置26は、XRグラス20-Jと、当該XRグラス20-Jの周囲の物体との距離を計測して得られた距離情報を、処理装置21に出力する。測距装置26は、例えばLIDAR(Light Detection and Ranging)センサを含む。
撮像装置27は、外界を撮像して得られた撮像情報を出力する。また、撮像装置27は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備える。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は撮像信号を増幅した上でAD変換器に出力する。AD変換器はアナログ信号である増幅された撮像信号をデジタル信号である撮像情報に変換する。変換された撮像情報は、処理装置21に出力される。処理装置21に出力された撮像情報は、通信装置28を介して、端末装置10-Jに出力される。
通信装置28は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。また、通信装置28は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置28は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置28は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
ディスプレイ29は、画像を表示するデバイスである。ディスプレイ29は、処理装置21による制御のもとで各種の画像を表示する。ディスプレイ29は、左眼用のレンズ、左眼用の表示パネル、及び左眼用の光学部材、並びに右眼用のレンズ、右眼用の表示パネル、及び右眼用の光学部材を含む。表示パネルとしては、例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルが好適に利用される。なお、ディスプレイ29は、「表示装置」の一例である。
処理装置21は、例えば、記憶装置22から制御プログラムPR2を読み出して実行することによって、取得部211、生成部212、出力部213、及び表示制御部214として機能する。
取得部211は、通信装置28を介して、端末装置10-JからXRグラス20-Jに表示される画像を示す画像情報を取得する。また、取得部211は、通信装置28を介して、端末装置10-Jから、各種の制御信号を取得する。
また、取得部211は、視線検出装置23から入力される視線情報、GPS装置24から入力される位置情報、動き検出装置25から入力される動き情報及び姿勢情報、測距装置26から入力される距離情報、並びに撮像装置27から入力される撮像情報を取得する。
生成部212は、少なくとも、取得部211によって取得された動き情報、姿勢情報、及び距離情報を用いて、ユーザUJが位置する建物の内部を3次元で表現した構造情報を生成する。
具体的には、ユーザUJは、XRグラス20-Jを頭部に装着した状態で、ユーザUJが位置する建物の内部を、建物の内部の主要な箇所の全てを視野に入れながら移動する。この結果、XRグラス20-Jは、ユーザUJの移動に伴って、建物の内部をスキャンし続ける。生成部212は、ユーザUJの移動中の各々の時点における、動き情報、姿勢情報、及び距離情報を互いに対応付けながら、上記の構造情報を生成する。
出力部213は、通信装置28を介して、端末装置10-Jに対し、取得部211が取得した視線情報、位置情報、動き情報、姿勢情報、及び撮像情報、及び生成部212が生成した構造情報を出力する。
表示制御部214は、取得部211が端末装置10-Jから取得した画像情報に基づいて、ディスプレイ29に対して、当該画像情報によって示される画像を表示させる。とりわけ本実施形態において、表示制御部214は、ディスプレイ29に対して、図2及び図3に例示される3次元地図TM、及びアプリ画像W1~W3を含む仮想空間VSを示す画像を表示させる。
1-1-3:端末装置の構成
図5は、端末装置10-Jの構成例を示すブロック図である。端末装置10-Jは、処理装置11、記憶装置12、通信装置13、撮像装置14、ディスプレイ15、入力装置16、及び慣性センサ17を備える。端末装置10-Jが有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
図5は、端末装置10-Jの構成例を示すブロック図である。端末装置10-Jは、処理装置11、記憶装置12、通信装置13、撮像装置14、ディスプレイ15、入力装置16、及び慣性センサ17を備える。端末装置10-Jが有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
処理装置11は、端末装置10-Jの全体を制御するプロセッサである。また、処理装置11は、例えば、単数又は複数のチップを用いて構成される。処理装置11は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置11が有する機能の一部又は全部を、DSP、ASIC、PLD、FPGA等のハードウェアによって実現してもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
記憶装置12は、処理装置11が読取及び書込が可能な記録媒体である。また、記憶装置12は、処理装置11が実行する制御プログラムPR1を含む複数のプログラムを記憶する。
更に、記憶装置12は、対応関係テーブルTB1を記憶する。図6は、対応関係テーブルTB1の一例を示す表である。図6に示されるように、対応関係ID、アプリ画像W、アプリ画像Wの仮想空間VS内での位置情報、アイコンI、及びアイコンIの3次元地図TM内での位置情報が組となって、対応関係テーブルTB1に格納される。例えば、対応関係ID=1のデータセットとして、アプリ画像W1、アプリ画像W1の仮想空間VS内での位置情報である、仮想空間VS内の座標値(x1,y1,z1)、アイコンI1、アイコンI1の3次元地図TM内での位置情報である、3次元地図TM内の座標値(p1,q1,r1)が組となって、対応関係テーブルTB1に格納される。なお、図5に例示される対応関係テーブルTB1においては、対応関係ID=1~UまでのU組のデータセットが格納される。しかし、U組のデータセットが対応関係テーブルTB1に格納されることは一例であって、任意の組数のデータセットが対応関係テーブルTB1に格納される。
説明を図5に戻すと、通信装置13は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置13は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置13は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置13は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
撮像装置14は、外界を撮像して得られた撮像情報を出力する。また、撮像装置14は、例えば、レンズ、撮像素子、増幅器、及びAD変換器を備える。レンズを介して集光された光は、撮像素子によってアナログ信号である撮像信号に変換される。増幅器は撮像信号を増幅した上でAD変換器に出力する。AD変換器はアナログ信号である増幅された撮像信号をデジタル信号である撮像情報に変換する。変換された撮像情報は、処理装置21に出力される。処理装置11に出力された撮像情報は、通信装置13を介して、サーバ30に出力される。なお、端末装置10-JにXRグラス20-Jが接続される場合、撮像装置14は、必須の構成要素としなくてもよい。この場合、当該XRグラス20-Jが、撮像装置14と同一の機能を更に有することとなる。
ディスプレイ15は、画像及び文字情報を表示するデバイスである。ディスプレイ15は、処理装置11による制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL(Electro Luminescence)表示パネル等の各種の表示パネルがディスプレイ15として好適に利用される。なお、端末装置10-JにXRグラス20-Jが接続される場合、ディスプレイ15は、必須の構成要素としなくてもよい。この場合、当該XRグラス20-Jが、ディスプレイ15と同一の機能を更に有することとなる。
入力装置16は、XRグラス20-Jを頭部に装着したユーザUJからの操作を受け付ける。例えば、入力装置16は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置16は、タッチパネルを含んで構成される場合、ディスプレイ15を兼ねてもよい。
慣性センサ17は、慣性力を検出するセンサである。慣性センサ17は、例えば、加速度センサ、角速度センサ、及びジャイロセンサのうち、1以上のセンサを含む。処理装置11は、慣性センサ17の出力情報に基づいて、端末装置10-Jの姿勢を検出する。更に、処理装置11は、端末装置10-Jの姿勢に基づいて、仮想空間VSにおいて、仮想オブジェクトの選択、文字の入力、及び指示の入力を受け付ける。例えば、ユーザUJが端末装置10-Jの中心軸を仮想空間VSの所定領域に向けた状態で、入力装置16を操作することによって、所定領域に配置される仮想オブジェクトが選択される。入力装置16に対するユーザUJの操作は、例えば、ダブルタップである。このようにユーザUJは端末装置10-Jを操作することによって、端末装置10-Jに備わる入力装置16を見なくても仮想オブジェクトを選択できる。
処理装置11は、記憶装置12から制御プログラムPR1を読み出して実行することによって、取得部111、生成部112、管理部113、受付部114、表示制御部115、及び出力部116として機能する。
取得部111は、通信装置13を介して、XRグラス20-Jから、視線情報、位置情報、動き情報、姿勢情報、撮像情報、及び構造情報を取得する。また、取得部111は、通信装置13を介して、サーバ30から、XRグラス20-J又はディスプレイ15に表示する仮想オブジェクトを示す画像情報を取得する。また、取得部111は、通信装置13を介して、サーバ30から、各種の制御信号を取得する。
生成部112は、取得部111が取得した、視線情報、位置情報、動き情報、姿勢情報、撮像情報、及び画像情報に基づいて、ユーザUJの位置に応じた仮想空間VSであって、仮想オブジェクトを含む仮想空間VSを示す画像を生成する。
とりわけ、生成部112は、取得部111が取得した構造情報に基づいて、ユーザUJが位置する建物の内部を3次元で表現した3次元地図TMを生成する。更に、生成部112は、取得部111が取得した、少なくとも動き情報及び姿勢情報に基づいて、3次元地図TMに、建物内の位置情報を紐づける。生成部112が生成する3次元地図TMの一例は、上記のように、図2に例示される。
管理部113は、ユーザUJがアプリケーションを実行することによって得られるアプリ画像Wが仮想空間VSに配置される位置と、アプリケーションに対応するアイコンIが、3次元地図TM上に配置される位置とを、対応付けて管理する。ここで、アプリ画像Wが仮想空間VSに配置される位置は、上記の「第1の位置」の一例である。一方で、アプリケーションに対応するアイコンIが、3次元地図TM上に配置される位置は、上記の「第2の位置」の一例である。
管理部113は、例えば、仮想空間VSに設定されるローカル座標系におけるアプリ画像Wの位置情報と、3次元地図TM上に設定される3次元地図TMに設定される3次元座標系におけるアイコンIの位置情報とを組として、記憶装置12に記憶される対応関係テーブルTB1格納する
この結果、アプリケーションを実行することによって得られるアプリ画像Wが仮想空間VS上に配置される第1の位置と、アプリケーションに対応するアイコンIが3次元地図TM上に配置される第2の位置とが対応付けられるため、ユーザUJは、3次元地図TMを視認するだけで、アプリ画像Wが配置されている仮想空間VS内での位置を把握できる。
受付部114は、ユーザUJによる操作を受け付ける。例えば、受付部114は、ユーザUJによって入力装置16を介して入力される入力内容を、ユーザUJによる操作として受け付ける。あるいは、受付部114は、例えば、ユーザUJが端末装置10-Jを移動させた場合、慣性センサ17によって検出される端末装置10-Jの姿勢に基づいて、ユーザUJの操作を受け付ける。ここで、ユーザUJによる操作は、例えば、仮想オブジェクトの選択、文字の入力、及び指示の入力である。
とりわけ本実施形態において、受付部114は、XRグラス20-JにアイコンIが配置される3次元地図TMが表示されている状態において、3次元地図TM上のアイコンIを、仮想空間VS上の、上記の「第3の位置」に移動するユーザUJの操作を受け付ける。この場合、管理部113は、仮想空間VS上の第3の位置に、アプリ画像Wを配置し、当該第3の位置に対応する3次元地図TM上の、上記の「第4の位置」に、アイコンIを配置する。
この結果、ユーザUJが、3次元地図TM上において、元々アイコンIが配置されていた位置とは対応しない、仮想空間VS内の第3の位置にアプリ画像Wを取り出して用いることが可能となる。更に、ユーザUJは、3次元地図TM上でも、当該第3の位置に対応する第4の位置に、アイコンIを配置し直すことが可能となる。この場合、ユーザUJは、元々アプリケーションを使用していた場所とは異なる場所で、継続して当該アプリケーションを使用できる。
また、本実施形態において、受付部114は、仮想空間VS上の第3の位置に配置されるアプリ画像Wを、3次元地図TM上の、上記の「第5の位置」に移動するユーザUJの操作を受け付ける。この場合、管理部113は、3次元地図TM上の第5の位置にアイコンIを配置し、第5の位置に対応する仮想空間VS上の、上記の「第6の位置」にアプリ画像Wを配置する。
この結果、ユーザUJは、仮想空間VSの中で、現時点においてアプリ画像Wを使用している位置とは異なる位置に対応する、3次元地図TM上の第5の位置に、アイコンIを収めることが可能となる。更に、ユーザUJは、仮想空間VSの中でも、当該第5の位置に対応する第6の位置に、アプリ画像Wを配置し直すことが可能となる。この場合、ユーザUJは、現在アプリケーションを使用している場所とは異なる場所で、継続して当該アプリケーションを使用できる。
表示制御部115は、生成部112が生成した、仮想オブジェクトを含む仮想空間VSを示す画像を、XRグラス20-J又はディスプレイ15に表示させる。
とりわけ本実施形態において、表示制御部115は、建物の内部におけるユーザUJの位置に応じて、アプリ画像Wが配置された仮想空間VSを、XRグラス20-J又はディスプレイ15に表示させる。この結果、ユーザUJは、建物の内部の現実空間に仮想空間VSが重畳した拡張現実空間又は複合現実空間を認識できる。
また、本実施形態において、表示制御部115は、ユーザUJによる操作に応じて、XRグラス20-J又はディスプレイ15に対して、仮想空間VS上の第1の位置にアプリ画像Wを表示させる。更に表示制御部115は、ユーザUJによる操作に応じて、XRグラス20-J又はディスプレイ15に対して、アイコンIが第2の位置に配置された3次元地図TMを表示させる。
同様に、表示制御部115は、ユーザUJによる操作に応じて、XRグラス20-J又はディスプレイ15に対して、仮想空間VS上の第3の位置にアプリ画像Wを表示させる。更に表示制御部115は、ユーザUJによる操作に応じて、XRグラス20-J又はディスプレイ15に対して、アイコンIが第4の位置に配置された3次元地図TMを表示させる。
同様に、表示制御部115は、ユーザUJによる操作に応じて、XRグラス20-J又はディスプレイ15に対して、仮想空間VS上の第5の位置にアプリ画像Wを表示させる。更に表示制御部115は、ユーザUJによる操作に応じて、XRグラス20-J又はディスプレイ15に対して、アイコンIが第6の位置に配置された3次元地図TMを表示させる。
出力部116は、通信装置13を介して、サーバ30に対し、取得部111が取得した視線情報、位置情報、動き情報、姿勢情報、撮像情報、及び構造情報を出力する。また、出力部116は、通信装置13を介して、端末装置10-Jに対し、各種の制御信号を取得する。
1-1-4:サーバの構成
図7は、サーバ30の構成例を示すブロック図である。サーバ30は、処理装置31、記憶装置32、通信装置33、ディスプレイ34、及び入力装置35を備える。サーバ30が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
図7は、サーバ30の構成例を示すブロック図である。サーバ30は、処理装置31、記憶装置32、通信装置33、ディスプレイ34、及び入力装置35を備える。サーバ30が有する各要素は、情報を通信するための単体又は複数のバスによって相互に接続される。
処理装置31は、サーバ30の全体を制御するプロセッサである。また、処理装置31は、例えば、単数又は複数のチップを用いて構成される。処理装置31は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU)を用いて構成される。なお、処理装置31が有する機能の一部又は全部を、DSP、ASIC、PLD、FPGA等のハードウェアによって実現してもよい。処理装置31は、各種の処理を並列的又は逐次的に実行する。
記憶装置32は、処理装置31が読取及び書込が可能な記録媒体である。また、記憶装置32は、処理装置31が実行する制御プログラムPR3を含む複数のプログラムを記憶する。
通信装置33は、他の装置と通信を行うための、送受信デバイスとしてのハードウェアである。通信装置33は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュール等とも呼ばれる。通信装置33は、有線接続用のコネクターを備え、上記コネクターに対応するインタフェース回路を備えていてもよい。また、通信装置33は、無線通信インタフェースを備えていてもよい。有線接続用のコネクター及びインタフェース回路としては有線LAN、IEEE1394、USBに準拠した製品が挙げられる。また、無線通信インタフェースとしては無線LAN及びBluetooth(登録商標)等に準拠した製品が挙げられる。
ディスプレイ34は、画像及び文字情報を表示するデバイスである。ディスプレイ34は、処理装置31による制御のもとで各種の画像を表示する。例えば、液晶表示パネル及び有機EL表示パネル等の各種の表示パネルがディスプレイ34として好適に利用される。
入力装置35は、サーバ30の管理者による操作を受け付ける機器である。例えば、入力装置35は、キーボード、タッチパッド、タッチパネル又はマウス等のポインティングデバイスを含んで構成される。ここで、入力装置35は、タッチパネルを含んで構成される場合、ディスプレイ34を兼ねてもよい。
処理装置31は、例えば、記憶装置32から制御プログラムPR3を読み出して実行することによって、取得部311、及び出力部312として機能する。
取得部311は、通信装置33を介して、端末装置10-Jから、視線情報、位置情報、動き情報、姿勢情報、撮像情報、及び構造情報を取得する。
出力部312は、通信装置33を介して、端末装置10-Jに対し、XRグラス20-J又はディスプレイ15に表示する仮想オブジェクトを示す画像情報を出力する。また、出力部312は、通信装置33を介して、端末装置10-Jに対し、各種の制御信号を出力する。
とりわけ出力部312は、取得部311が取得した視線情報、位置情報、動き情報、姿勢情報、撮像情報、及び構造情報のうち、少なくとも1つの情報に応じて、端末装置10-Jに対し、仮想オブジェクトを示す画像情報を出力する。
1-2:第1実施形態の動作
図8は、第1実施形態に係る制御システム1に含まれる端末装置10-Jの動作を示すフローチャートである。以下、図8を参照しつつ、端末装置10-Jの動作について説明する。なお、図8に示されるフローチャートにおいては、3次元地図TMが既に生成されていることを前提とする。また、仮想空間VS上の「第1の位置」にアプリ画像Wが配置され、3次元地図TMの「第2の位置」に、アプリ画像Wに対応するアイコンIが配置されているものとする。
図8は、第1実施形態に係る制御システム1に含まれる端末装置10-Jの動作を示すフローチャートである。以下、図8を参照しつつ、端末装置10-Jの動作について説明する。なお、図8に示されるフローチャートにおいては、3次元地図TMが既に生成されていることを前提とする。また、仮想空間VS上の「第1の位置」にアプリ画像Wが配置され、3次元地図TMの「第2の位置」に、アプリ画像Wに対応するアイコンIが配置されているものとする。
ステップS1において、端末装置10-Jに備わる処理装置11は、表示制御部115として機能する。処理装置11は、XRグラス20-J又はディスプレイ15に対して、3次元地図TMを表示させる。
ステップS2において、端末装置10-Jに備わる処理装置11は、受付部114として機能する。処理装置11が、3次元地図TMからアイコンIを移動する操作を受け付けた場合、すなわちステップS2においてYESの場合には、処理装置11はステップS3の処理を実行する。処理装置11が3次元地図TMからアイコンIを移動する操作を受け付けていない場合、すなわちステップS2においてNOの場合には、処理装置11はステップS5の処理を実行する。
ステップS3において、端末装置10-Jに備わる処理装置11は、管理部113として機能する。処理装置11は、ステップS2における操作対象であるアイコンIに対応するアプリ画像Wを、仮想空間VS上の「第3の位置」に配置する。なお、当該「第3の位置」は、上記の「第1の位置」と同一の位置であってもよい。
ステップS4において、端末装置10-Jに備わる処理装置11は、管理部113として機能する。処理装置11は、ステップS3における「第3の位置」に対応する3次元地図TM上の「第4の位置」にアイコンIを配置する。なお、当該「第4の位置」は、上記の「第2の位置」と同一の位置であってもよい。
ステップS5において、端末装置10-Jに備わる処理装置11は、受付部114として機能する。処理装置11が3次元地図TM上にアプリ画像Wを移動する操作を受け付けた場合、すなわちステップS5においてYESの場合には、処理装置11はステップS6の処理を実行する。処理装置11が3次元地図TMにアプリ画像Wを移動する操作を受け付けていない場合、すなわちステップS5においてNOの場合には、処理装置11はステップS1の処理を実行する。
ステップS6において、端末装置10-Jに備わる処理装置11は、管理部113として機能する。処理装置11は、ステップS5における操作対象であるアプリ画像Wに対応するアイコンIを、3次元地図TMの「第5の位置」に配置する。なお、当該「第5の位置」は、上記の「第1の位置」と同一の位置であってもよい。
ステップS7において、端末装置10-Jに備わる処理装置11は、管理部113として機能する。処理装置11は、ステップS6における「第5の位置」に対応する仮想空間VS上の「第6の位置」にアプリ画像Wを配置する。なお、当該「第6の位置」は、上記の「第2の位置」と同一の位置であってもよい。
1-3:第1実施形態が奏する効果
以上の説明によれば、本実施形態に係る制御装置としての端末装置10は、建物の内部においてユーザUの位置に応じた仮想空間VSを示す画像を、表示装置としてのディスプレイ15又は29に表示させる制御装置である。端末装置10は、生成部112、管理部113、及び表示制御部115を備える。生成部112は、建物の内部を3次元で表現した3次元地図TMを生成する。管理部113は、アプリケーションを実行することによって得られるアプリ画像Wが仮想空間VS上に配置される第1の位置と、アプリケーションに対応する対応画像としてのアイコンIが3次元地図TM上に配置される第2の位置とを対応付けて管理する。表示制御部115は、仮想空間VS上の第1の位置にアプリ画像Wを、ディスプレイ15又は29に表示させると共に、ユーザUによる操作に応じてアイコンIが第2の位置に配置された3次元地図TMをディスプレイ15又は29に表示させる。
以上の説明によれば、本実施形態に係る制御装置としての端末装置10は、建物の内部においてユーザUの位置に応じた仮想空間VSを示す画像を、表示装置としてのディスプレイ15又は29に表示させる制御装置である。端末装置10は、生成部112、管理部113、及び表示制御部115を備える。生成部112は、建物の内部を3次元で表現した3次元地図TMを生成する。管理部113は、アプリケーションを実行することによって得られるアプリ画像Wが仮想空間VS上に配置される第1の位置と、アプリケーションに対応する対応画像としてのアイコンIが3次元地図TM上に配置される第2の位置とを対応付けて管理する。表示制御部115は、仮想空間VS上の第1の位置にアプリ画像Wを、ディスプレイ15又は29に表示させると共に、ユーザUによる操作に応じてアイコンIが第2の位置に配置された3次元地図TMをディスプレイ15又は29に表示させる。
端末装置10は上記の構成を有するので、仮想オブジェクトがアプリケーションを実行することによって表示されるアプリ画像である場合、アプリ画像Wを現実空間と対応付けて仮想的に仮想空間に配置した位置と、3次元地図TM上の位置とを対応付けて管理することが可能となる。
とりわけ、アプリケーションを実行することによって得られるアプリ画像Wが仮想空間VS上に配置される第1の位置と、アプリケーションに対応するアイコンIが3次元地図TM上に配置される第2の位置とが対応付けられるため、ユーザUは、3次元地図TMを視認するだけで、アプリ画像Wが配置されている仮想空間VS内での位置を把握できる。
また以上の説明によれば、端末装置10において、表示装置としてのディスプレイ15又は29は、ユーザUが外界を視認可能なシースルータイプである。端末装置10は、取得部111を更に備える。取得部111は、建物の内部を3次元で表現した構造情報を取得する。生成部112は、構造情報に基づいて3次元地図TMを生成する。表示制御部115は、建物の内部におけるユーザUの位置に応じてアプリ画像Wが配置された仮想空間VSを、ディスプレイ15又は29に表示させることによって、建物の内部の現実空間に仮想空間VSが重畳した拡張現実空間又は複合現実空間をユーザUに認識させる。
端末装置10は上記の構成を有するので、ユーザUは、3次元地図TMを視認するだけで、仮想空間VSが重畳される現実空間において、アプリ画像Wがどこに位置するかを把握できる。
また以上の説明によれば、端末装置10は、受付部114を更に備える。受付部114は、表示装置としてのディスプレイ15又は29に、対応画像としてのアイコンIが配置される3次元地図TMが表示されている状態において、3次元地図TM上のアイコンIを仮想空間VS上の第3の位置に移動するユーザUの操作を受け付ける。管理部113は、仮想空間VS上の第3の位置にアプリ画像Wを配置し、第3の位置に対応する3次元地図TM上の第4の位置に対応画像としてのアイコンIを配置する。
端末装置10は上記の構成を有するので、ユーザUが、3次元地図TM上において、元々アイコンIが配置されていた位置とは対応しない、仮想空間VS内の第3の位置にアプリ画像Wを取り出して用いることが可能である。更に、ユーザUは、3次元地図TM上でも、当該第3の位置に対応する第4の位置に、アイコンIを配置し直すことが可能となる。この場合、ユーザUJは、元々アプリケーションを使用していた場所とは異なる場所で、継続して当該アプリケーションを使用できる。
また以上の説明によれば、端末装置10において、受付部114は、仮想空間VS上の第3の位置に配置されるアプリ画像Wを、3次元地図TM上の第5の位置に移動するユーザUの操作を受け付ける。管理部113は、3次元地図TM上の第5の位置に対応画像としてのアイコンIを配置し、第5の位置に対応する仮想空間VS上の第6の位置にアプリ画像Wを配置する。
端末装置10は上記の構成を有するので、ユーザUは、仮想空間VSの中で、現時点においてアプリ画像Wを使用している位置とは異なる位置に対応する、3次元地図TM上の第5の位置に、アイコンIを配置することが可能となる。更に、ユーザUは、仮想空間VSの中でも、当該第5の位置に対応する第6の位置に、アプリ画像Wを配置し直すことが可能となる。この場合、ユーザUJは、現在アプリケーションを使用している場所とは異なる場所で、継続して当該アプリケーションを使用できる。
また以上の説明によれば、本実施形態に係る制御システム1は、端末装置10を複数台備える。複数台の端末装置10は、仮想空間VSにおいて、3次元地図TMとアプリ画像Wとを共用する。
制御システム1は上記の構成を有するので、各々が端末装置10を使用する複数のユーザU間で、3次元地図TM及びアプリ画像Wを共用できる。
2:変形例
本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
本開示は、以上に例示した実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
2-1:変形例1
上記の実施形態において、アプリケーションに対応する対応画像として、アイコンI1~I3を例示したが、当該対応画像はアイコンI1~I3に限定されない。例えば、当該対応画像は、アプリケーションを実行した場合に表示されるアプリ画像Wのサムネイル画像であってもよい。
上記の実施形態において、アプリケーションに対応する対応画像として、アイコンI1~I3を例示したが、当該対応画像はアイコンI1~I3に限定されない。例えば、当該対応画像は、アプリケーションを実行した場合に表示されるアプリ画像Wのサムネイル画像であってもよい。
2-2:変形例2
上記の実施形態において、端末装置10-JにXRグラス20-Jが接続される態様を示したが、端末装置10-Jに接続される装置は、XRグラス20-Jに限定されない。例えば、XRグラス20-Jの代わりに、VR技術、AR技術、又はMR技術を用いたビデオシースルー型のヘッドマウントディスプレイ(HMD:Head Mounted Display)が、端末装置10-Jに接続されてもよい。
上記の実施形態において、端末装置10-JにXRグラス20-Jが接続される態様を示したが、端末装置10-Jに接続される装置は、XRグラス20-Jに限定されない。例えば、XRグラス20-Jの代わりに、VR技術、AR技術、又はMR技術を用いたビデオシースルー型のヘッドマウントディスプレイ(HMD:Head Mounted Display)が、端末装置10-Jに接続されてもよい。
2-3:変形例3
上記の実施形態において、端末装置10-JとXRグラス20-Jとは別体として実現されるが、同一の筐体に含まれてもよい。すなわち、上記の実施形態に係る制御システム1は、別体となった端末装置10-J及びXRグラス20-Jの代わりに、一つの筐体内に端末装置10-JとXRグラス20-Jとが備わるユーザ装置を備えてもよい。
上記の実施形態において、端末装置10-JとXRグラス20-Jとは別体として実現されるが、同一の筐体に含まれてもよい。すなわち、上記の実施形態に係る制御システム1は、別体となった端末装置10-J及びXRグラス20-Jの代わりに、一つの筐体内に端末装置10-JとXRグラス20-Jとが備わるユーザ装置を備えてもよい。
2-4:変形例4
上記の実施形態において、XRグラス20-Jに備わる生成部212が構造情報を生成するが、生成部212の代わりに、端末装置10-Jに備わる生成部112が当該構造情報を生成してもよい。この場合、端末装置10-Jに備わる取得部111は、XRグラス20-Jから、視線情報、位置情報、動き情報、及び撮像情報に加えて、上記の距離情報を取得する。生成部112は、ユーザUJの移動中の各々の時点における、動き情報、姿勢情報、及び距離情報を互いに対応付けながら、上記の構造情報を生成する。
上記の実施形態において、XRグラス20-Jに備わる生成部212が構造情報を生成するが、生成部212の代わりに、端末装置10-Jに備わる生成部112が当該構造情報を生成してもよい。この場合、端末装置10-Jに備わる取得部111は、XRグラス20-Jから、視線情報、位置情報、動き情報、及び撮像情報に加えて、上記の距離情報を取得する。生成部112は、ユーザUJの移動中の各々の時点における、動き情報、姿勢情報、及び距離情報を互いに対応付けながら、上記の構造情報を生成する。
3:その他
(1)上述した実施形態では、端末装置10、XRグラス20-J、及びサーバ30を例示したが、端末装置10、XRグラス20-J、及びサーバ30が備える記憶装置は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、外部装置が実行するプログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NETから送信されてもよい。
(1)上述した実施形態では、端末装置10、XRグラス20-J、及びサーバ30を例示したが、端末装置10、XRグラス20-J、及びサーバ30が備える記憶装置は、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、外部装置が実行するプログラムは、電気通信回線を介してネットワークから送信されてもよい。また、プログラムは、電気通信回線を介して通信網NETから送信されてもよい。
(2)上述した実施形態において、説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(3)上述した実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(4)上述した実施形態において、判定は、1ビットを用いて表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(5)上述した実施形態において例示した処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)図1~図8に例示された各機能は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(7)上述した実施形態において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称を用いて呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(8)前述の各形態において、「システム」及び「ネットワーク」という用語は、互換的に使用される。
(9)本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
(10)上述した実施形態において、端末装置10、及びサーバ30は、移動局(MS:Mobile Station)である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。また、本開示においては、「移動局」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」等の用語は、互換的に使用され得る。
(11)上述した実施形態において、「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことが可能である。要素間の結合又は接続は、物理的な結合又は接続であっても、論理的な結合又は接続であっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」を用いて読み替えられてもよい。本開示において使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることが可能である。
(12)上述した実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(13)本開示において使用される「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(14)上述した実施形態において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(15)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(16)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」等の用語も、「異なる」と同様に解釈されてもよい。
(17)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行う通知に限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本開示の記載は、例示説明を目的とし、本開示に対して何ら制限的な意味を有さない。
1…制御システム、10…端末装置、11…処理装置、12…記憶装置、13…通信装置、14…撮像装置、15…ディスプレイ、16…入力装置、17…慣性センサ、20…XRグラス、21…処理装置、22…記憶装置、23…視線検出装置、24…GPS装置、25…動き検出装置、26…測距装置、27…撮像装置、28…通信装置、29…ディスプレイ、30…サーバ、31…処理装置、32…記憶装置、33…通信装置、34…ディスプレイ、35…入力装置、36…撮像装置、111…取得部、112…生成部、113…管理部、114…受付部、115…表示制御部、116…出力部、211…取得部、212…生成部、213…出力部、214…表示制御部、311…取得部、312…出力部、B1…第1寝室、B2…第2寝室、E1…玄関、I1,I2,I3…アイコン、L1…リビング、PR1,PR2,PR3…制御プログラム、TB1…対応関係テーブル、W1,W2,W3…アプリ画像
Claims (5)
- 建物の内部においてユーザの位置に応じた仮想空間を示す画像を、表示装置に表示させる制御装置であって、
前記建物の内部を3次元で表現した3次元地図を生成する生成部と、
アプリケーションを実行することによって得られるアプリ画像が前記仮想空間上に配置される第1の位置と、前記アプリケーションに対応する対応画像が前記3次元地図上に配置される第2の位置とを対応付けて管理する管理部と、
前記仮想空間上の第1の位置に前記アプリ画像を前記表示装置に表示させると共に、前記ユーザの操作に応じて前記対応画像が前記第2の位置に配置された前記3次元地図を前記表示装置に表示させる表示制御部と、
を備える制御装置。 - 前記表示装置は、前記ユーザが外界を視認可能なシースルータイプであり、
前記建物の内部を3次元で表現した構造情報を取得する取得部を更に備え、
前記生成部は、前記構造情報に基づいて前記3次元地図を生成し、
前記表示制御部は、前記建物の内部における前記ユーザの位置に応じて前記アプリ画像が配置された前記仮想空間を前記表示装置に表示させることによって、前記建物の内部の現実空間に前記仮想空間が重畳した拡張現実空間又は複合現実空間を前記ユーザに認識させる、
請求項1に記載の制御装置。 - 前記表示装置に前記対応画像が配置される3次元地図が表示されている状態において、前記3次元地図上の前記対応画像を前記仮想空間上の第3の位置に移動する前記ユーザの操作を受け付ける受付部を更に備え、
前記管理部は、前記仮想空間上の前記第3の位置に前記アプリ画像を配置し、前記第3の位置に対応する前記3次元地図上の第4の位置に前記対応画像を配置する、
請求項1に記載の制御装置。 - 前記受付部は、前記仮想空間上の前記第3の位置に配置される前記アプリ画像を、前記3次元地図上の第5の位置に移動する前記ユーザの操作を受け付け、
前記管理部は、前記3次元地図上の第5の位置に前記対応画像を配置し、前記第5の位置に対応する前記仮想空間上の第6の位置に前記アプリ画像を配置する、
請求項3に記載の制御装置。 - 請求項1に記載の制御装置を複数台備える制御システムであって、
複数台の前記制御装置は、前記仮想空間において、前記3次元地図と前記アプリ画像とを共用する制御システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022103446A JP2024004019A (ja) | 2022-06-28 | 2022-06-28 | 制御装置及び制御システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022103446A JP2024004019A (ja) | 2022-06-28 | 2022-06-28 | 制御装置及び制御システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024004019A true JP2024004019A (ja) | 2024-01-16 |
Family
ID=89538157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022103446A Pending JP2024004019A (ja) | 2022-06-28 | 2022-06-28 | 制御装置及び制御システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024004019A (ja) |
-
2022
- 2022-06-28 JP JP2022103446A patent/JP2024004019A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11127210B2 (en) | Touch and social cues as inputs into a computer | |
EP3629290B1 (en) | Localization for mobile devices | |
JP6619005B2 (ja) | 仮想空間に提示されるアプリケーションと物理的ディスプレイとの選択的ペアリング | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
US9268410B2 (en) | Image processing device, image processing method, and program | |
US20170277259A1 (en) | Eye tracking via transparent near eye lens | |
KR20160148557A (ko) | 월드 락 디스플레이의 품질 피드백 기법 | |
US20210405363A1 (en) | Augmented reality experiences using social distancing | |
US20240031678A1 (en) | Pose tracking for rolling shutter camera | |
CN110276794B (zh) | 信息处理方法、信息处理装置、终端设备及服务器 | |
Cho et al. | Multi-scale 7DOF view adjustment | |
JP2024004019A (ja) | 制御装置及び制御システム | |
WO2023149255A1 (ja) | 表示制御装置 | |
WO2023149256A1 (ja) | 表示制御装置 | |
WO2023176317A1 (ja) | 表示制御装置 | |
WO2023145890A1 (ja) | 端末装置 | |
WO2023199627A1 (ja) | ガイド画像管理装置 | |
WO2023204159A1 (ja) | 表示制御装置 | |
WO2023171341A1 (ja) | 表示制御装置 | |
WO2023145273A1 (ja) | 表示制御装置 | |
WO2023112838A1 (ja) | 情報処理装置 | |
WO2023145265A1 (ja) | メッセージ送信装置及びメッセージ受信装置 | |
WO2023074852A1 (ja) | 情報処理装置 | |
WO2023145892A1 (ja) | 表示制御装置及びサーバ | |
WO2023199626A1 (ja) | 表示制御装置 |