JP7247532B2 - Controllers, programs and systems - Google Patents

Controllers, programs and systems Download PDF

Info

Publication number
JP7247532B2
JP7247532B2 JP2018216239A JP2018216239A JP7247532B2 JP 7247532 B2 JP7247532 B2 JP 7247532B2 JP 2018216239 A JP2018216239 A JP 2018216239A JP 2018216239 A JP2018216239 A JP 2018216239A JP 7247532 B2 JP7247532 B2 JP 7247532B2
Authority
JP
Japan
Prior art keywords
information
display device
unit
display
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018216239A
Other languages
Japanese (ja)
Other versions
JP2020086628A (en
Inventor
幸男 篠田
功 大木
正弘 芹澤
啓允 上打田内
泰司 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP2018216239A priority Critical patent/JP7247532B2/en
Publication of JP2020086628A publication Critical patent/JP2020086628A/en
Application granted granted Critical
Publication of JP7247532B2 publication Critical patent/JP7247532B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、制御装置、プログラムおよびシステムに関する。 The present invention relates to control devices, programs and systems.

複合現実(MR:Mixed Reality)の技術が知られている。MRの技術は、現実の空間に仮想的なデジタルの3次元情報を重ね合わせて、現実の物体と仮想的な3次元情報とを相互に作用させつつ可視化する技術である。 A technology of mixed reality (MR) is known. The MR technology is a technology for superimposing virtual digital three-dimensional information on the real space and visualizing the real object and the virtual three-dimensional information while interacting with each other.

MRの技術では、例えば、物体に仮想的な3次元情報のデータを重ねて描画すること、あるいは、ユーザーの手で直感的に操作することを可能とすることなどが行われる。このようなMRの技術の使用法は、拡張現実(AR:Augmented Reality)と仮想現実(VR:Virtual Reality)とを融合させた使用法とも言える。ここで、ARの技術は、現実の空間に情報を重ねて拡張する技術である。また、VRの技術は、デジタル空間で仮想の世界を体験することを可能とする技術である。 In the MR technology, for example, it is possible to superimpose virtual three-dimensional information data on an object and draw it, or to enable intuitive manipulation by the user's hand. Such usage of MR technology can be said to be usage in which augmented reality (AR) and virtual reality (VR) are combined. Here, the AR technology is a technology for superimposing and expanding information on the real space. Also, the VR technology is a technology that makes it possible to experience a virtual world in a digital space.

MRの技術では、ユーザーの身に装着可能(ウェアラブル)な装置が用いられる。当該装置として、例えば、ヘッドマウントディスプレイである表示装置がある。当該表示装置は、眼鏡のような装置であり、ユーザーの頭部に装着される。当該表示装置は、ユーザーの頭部に装着された場合に当該ユーザーの両目に対向する位置に透過型の表示部を備えており、制御装置によって制御されて、当該表示部に仮想的な情報を表示する。これにより、当該表示装置は、当該ユーザーの両目に、現実の物体と仮想的な3次元情報とを相互に作用させた視覚情報を与える。 MR technology uses a device that can be worn by the user (wearable). As such a device, for example, there is a display device that is a head-mounted display. The display device is a spectacle-like device that is worn on the user's head. When the display device is worn on the user's head, the display device has a transmissive display section at a position facing the user's eyes, and is controlled by the control device to display virtual information on the display section. indicate. Thereby, the display device provides both eyes of the user with visual information that interacts with real objects and virtual three-dimensional information.

MRの技術の一例として、特許文献1に記載された溶接検査方法では、MR画像を提示する情報処理装置を用いており、当該情報処理装置によって現実の空間の金属加工品と仮想空間の3次元モデルとを位置合わせすることが行われている(特許文献1参照。)。 As an example of MR technology, the welding inspection method described in Patent Document 1 uses an information processing device that presents MR images. Alignment with the model is performed (see Patent Document 1).

特開2017-44496号JP 2017-44496

しかしながら、上記のようなウェアラブルな表示装置の制御装置では、当該表示装置を装着したユーザーの動きに応じてデータ検索のキーを受け付けることが行われるため、当該ユーザーの労力が多大になる場合があった。
例えば、当該制御装置では、仮想的なキーボードおよび仮想的なマウスによって文字などの入力を受け付ける。この際、当該制御装置では、当該表示装置を装着したユーザーの頭部の向きの変化に応じて仮想的なキーボードあるいは仮想的なマウスに対する動作を判定し、当該動作に応じて文字などの入力を受け付ける。このように、当該ユーザーは頭部を動かして文字などを入力するため、多大な労力を要する場合があった。
However, in the control device for the wearable display device as described above, data search keys are accepted in accordance with the movement of the user wearing the display device, which may require a great deal of effort on the part of the user. rice field.
For example, the control device accepts input such as characters using a virtual keyboard and a virtual mouse. At this time, the control device determines the operation of the virtual keyboard or the virtual mouse according to the change in the direction of the head of the user wearing the display device, and inputs characters and the like according to the operation. accept. In this way, the user inputs characters by moving his or her head, which sometimes requires a great deal of effort.

また、このような制御装置では、当該表示装置を装着したユーザーの音声を認識し、当該音声の認識結果に応じてデータ検索のキーを受け付ける入力手法も考えられるが、当該ユーザーの音声が十分な精度で検出されない場所で当該表示装置が使用される場合が考えられる。例えば、当該ユーザーが所定の作業場において作業を行う場合、当該ユーザーおよび当該表示装置の周囲の機械動作音が大きいとき、あるいは、当該作業場におけるノイズが大きいときなどがあり得る。 In such a control device, an input method of recognizing the voice of the user wearing the display device and accepting a data search key according to the recognition result of the voice is also conceivable. It is conceivable that the display device will be used in places where it cannot be detected with accuracy. For example, when the user is working in a predetermined workplace, there may be times when mechanical operation sounds around the user and the display device are loud, or there may be times when noise is loud in the workplace.

本発明は、このような事情を考慮してなされたもので、ユーザーによって装着される表示装置によってMRの表示が行われる場合に、データ検索のキーを受け付けることを、当該ユーザーにとって簡易に、行うことができる制御装置、プログラムおよびシステムを提供することを課題とする。 SUMMARY OF THE INVENTION The present invention has been made in consideration of such circumstances, and enables a user to easily accept a key for data retrieval when an MR is displayed by a display device worn by the user. An object of the present invention is to provide a control device, a program, and a system that can

一構成例として、ユーザーに装着されて実空間の光を表示部に透過させて仮想的な画像を前記表示部に表示することが可能な表示装置の周囲の情報を取得する周囲情報取得装置によって取得された前記情報に基づいて空間を認識する空間認識部と、前記空間認識部によって認識された前記空間と所定の地図情報とを対応付ける対応付け部と、前記対応付け部による対応付けの結果および前記表示装置の状況に基づいて、前記表示装置の状況に応じて階層的に変化するキーワードを取得するキーワード取得部と、前記キーワード取得部によって取得された前記キーワードを前記表示装置によって表示させる表示制御部と、を備える制御装置である。 As one configuration example, an ambient information acquisition device that acquires information around a display device that is worn by a user and is capable of transmitting light in a real space to a display unit and displaying a virtual image on the display unit. a space recognizing unit that recognizes a space based on the acquired information; an associating unit that associates the space recognized by the space recognizing unit with predetermined map information; a result of the associating by the associating unit; A keyword acquisition unit for acquiring a keyword that hierarchically changes according to the situation of the display device based on the situation of the display device ; and display control for causing the display device to display the keyword acquired by the keyword acquisition unit. and a control device.

一構成例として、制御装置において、前記表示装置の状況は、前記表示装置の位置、前記表示装置の姿勢、あるいは、前記周囲情報取得装置によって取得される前記情報のうちの1以上を含む
一構成例として、制御装置において、前記キーワードを用いて検索を行う検索部を備え、前記表示制御部は、前記検索部によって検索された情報を前記表示装置によって表示させる。
一構成例として、制御装置において、前記表示制御部は、前記ユーザーによって行われる指示に応じて、前記キーワードまたは前記検索部によって検索された情報のうちの少なくとも一方を所定の箇所に貼り付けた表示を行う。
As one configuration example, in the control device, the status of the display device includes one or more of the position of the display device, the orientation of the display device, or the information acquired by the ambient information acquisition device .
As one configuration example, the control device includes a search unit that performs a search using the keyword, and the display control unit causes the display device to display information searched by the search unit.
As one configuration example, in the control device, the display control unit displays at least one of the keyword and the information searched by the search unit pasted at a predetermined location in accordance with an instruction given by the user. I do.

一構成例として、ユーザーに装着されて実空間の光を表示部に透過させて仮想的な画像を前記表示部に表示することが可能な表示装置の周囲の情報を取得する周囲情報取得装置によって取得された前記情報に基づいて空間を認識する機能と、認識された前記空間と所定の地図情報とを対応付ける機能と、前記対応付けの結果および前記表示装置の状況に基づいて、前記表示装置の状況に応じて階層的に変化するキーワードを取得する機能と、取得された前記キーワードを前記表示装置によって表示させる機能と、をコンピュータに実現させるためのプログラムである。 As one configuration example, an ambient information acquisition device that acquires information around a display device that is worn by a user and is capable of transmitting light in a real space to a display unit and displaying a virtual image on the display unit. a function of recognizing a space based on the acquired information; a function of associating the recognized space with predetermined map information ; A program for causing a computer to realize a function of acquiring a keyword that hierarchically changes according to a situation and a function of displaying the acquired keyword on the display device.

一構成例として、ユーザーに装着されて実空間の光を表示部に透過させて仮想的な画像を前記表示部に表示することが可能な表示装置と、サーバ装置と、を有するシステムであって、前記表示装置の周囲の情報を取得する周囲情報取得装置によって取得された前記情報に基づいて空間を認識する空間認識部と、前記空間認識部によって認識された前記空間と所定の地図情報とを対応付ける対応付け部と、前記対応付け部による対応付けの結果および前記表示装置の状況に基づいて、前記表示装置の状況に応じて階層的に変化するキーワードを取得するキーワード取得部と、前記キーワード取得部によって取得された前記キーワードを前記表示装置によって表示させる表示制御部と、を備える。 As one configuration example, a system comprising a display device worn by a user and capable of transmitting light in a real space to a display unit and displaying a virtual image on the display unit, and a server device, a space recognition unit that recognizes a space based on the information acquired by a surrounding information acquisition device that acquires information around the display device; and the space recognized by the space recognition unit and predetermined map information. a matching unit for matching, a keyword acquiring unit for acquiring a keyword that hierarchically changes according to the status of the display device based on the result of matching by the matching unit and the status of the display device , and the keyword acquisition. a display control unit that causes the display device to display the keyword acquired by the unit.

本発明によれば、ユーザーによって装着される表示装置によってMRの表示が行われる場合に、データ検索のキーを受け付けることを、当該ユーザーにとって簡易に、行うことができる。 According to the present invention, when MR is displayed by the display device worn by the user, it is possible for the user to easily accept a data search key.

本発明の一実施形態に係るMRシステムの概略的な構成を示す図である。1 is a diagram showing a schematic configuration of an MR system according to one embodiment of the present invention; FIG. 本発明の一実施形態に係る表示装置の概略的な構成を示す図である。1 is a diagram showing a schematic configuration of a display device according to an embodiment of the invention; FIG. 本発明の一実施形態に係る携帯装置の概略的な構成を示す図である。1 is a diagram showing a schematic configuration of a mobile device according to one embodiment of the present invention; FIG. 本発明の一実施形態に係る制御装置の概略的な構成を示す図である。It is a figure showing a schematic structure of a control device concerning one embodiment of the present invention. 本発明の一実施形態に係るフロアの配置の例を示す図である。FIG. 2 is a diagram showing an example of floor layout according to an embodiment of the present invention; (A)~(E)は、本発明の一実施形態に係るキーワードの絞り込みの例を示す図である。(A) to (E) are diagrams showing examples of narrowing down keywords according to an embodiment of the present invention. (A)~(E)は、本発明の一実施形態に係るキーワードの絞り込みの他の例を示す図である。(A) to (E) are diagrams showing other examples of narrowing down keywords according to an embodiment of the present invention. 本発明の一実施形態に係る表示装置において表示される情報の一例を示す図である。FIG. 4 is a diagram showing an example of information displayed on the display device according to one embodiment of the present invention; 本発明の一実施形態に係る選択情報の貼り付けの例を示す図である。FIG. 5 is a diagram showing an example of pasting selection information according to an embodiment of the present invention; 本発明の一実施形態に係る検索結果情報の例を示す図である。It is a figure which shows the example of the search-result information which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御装置において行われる処理の手順の例を示す図である。It is a figure which shows the example of the procedure of the process performed in the control apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御装置において行われる処理の手順の例を示す図である。It is a figure which shows the example of the procedure of the process performed in the control apparatus which concerns on one Embodiment of this invention.

以下、図面を参照し、本発明の実施形態について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
第1実施形態を説明する。
<MRシステム>
図1は、本発明の一実施形態に係るMRシステム1の概略的な構成を示す図である。
MRシステム1は、表示装置11と、携帯装置12と、サーバ装置21と、情報処理装置22と、ディスプレイ装置23と、データベース24と、ルータ装置25と、ネットワーク31を備える。
また、図1には、ユーザー51およびオペレーター61を示してある。本実施形態では、ユーザー51およびオペレーター61は、それぞれ、人間である。
[First embodiment]
A first embodiment will be described.
<MR system>
FIG. 1 is a diagram showing a schematic configuration of an MR system 1 according to one embodiment of the invention.
The MR system 1 includes a display device 11 , a mobile device 12 , a server device 21 , an information processing device 22 , a display device 23 , a database 24 , a router device 25 and a network 31 .
Also shown in FIG. 1 are a user 51 and an operator 61 . In this embodiment, user 51 and operator 61 are each human.

表示装置11は、ウェアラブルな装置であり、本実施形態では、ヘッドマウントディスプレイ装置であって、ユーザー51の頭部に着脱可能である。本実施形態では、表示装置11は、ユーザー51の頭部に装着されている。
また、表示装置11は、例えば、透過型の表示機能を有する。透過型の表示機能では、外界の光をユーザー51の両目の部分を覆う表示部に透過させつつ、仮想的な画像を当該表示部に表示させることが可能である。これにより、透過型の表示機能では、現実の世界と仮想的な画像とが組み合わされた視覚情報をユーザー51に与えることが可能である。仮想的な画像は、例えば、ホログラム画像と呼ばれてもよい。
このように、表示装置11は、ユーザー51に装着されて、実空間の光を表示部に透過させて、仮想的な画像を当該表示部に表示することが可能である。
The display device 11 is a wearable device, and is a head-mounted display device in this embodiment, and can be attached to and detached from the head of the user 51 . In this embodiment, the display device 11 is worn on the head of the user 51 .
Further, the display device 11 has, for example, a transmissive display function. With the transmissive display function, a virtual image can be displayed on the display section covering both eyes of the user 51 while allowing external light to pass through the display section. As a result, the transmissive display function can provide the user 51 with visual information in which the real world and virtual images are combined. A virtual image may be called a hologram image, for example.
In this manner, the display device 11 is worn by the user 51 and can transmit light in the real space to the display section to display a virtual image on the display section.

携帯装置12は、ユーザー51によって携帯されることが可能である。携帯装置12は、例えば、携帯電話機、スマートフォン、あるいは、携帯情報端末(PDA:Personal Digital Assistant)などである。本実施形態では、携帯装置12は、ユーザー51によって携帯されている。 Portable device 12 can be carried by user 51 . The mobile device 12 is, for example, a mobile phone, a smart phone, or a personal digital assistant (PDA: Personal Digital Assistant). In this embodiment, the mobile device 12 is carried by the user 51 .

サーバ装置21は、制御装置41を備える。サーバ装置21および制御装置41は、それぞれ、例えば、コンピュータである。なお、サーバ装置21と制御装置41は、例えば、共通のコンピュータを用いて構成されてもよく、あるいは、異なるコンピュータであってもよい。
情報処理装置22は、例えば、コンピュータである。
情報処理装置22は、ディスプレイ装置23を備える。
The server device 21 has a control device 41 . The server device 21 and the control device 41 are each, for example, computers. Note that the server device 21 and the control device 41 may be configured using, for example, a common computer, or may be different computers.
The information processing device 22 is, for example, a computer.
The information processing device 22 includes a display device 23 .

ここで、本実施形態では、情報処理装置22とディスプレイ装置23とが通信可能に接続されている。この接続は、例えば、有線の回線を用いて行われてもよく、あるいは、無線の回線を用いて行われてもよい。
また、情報処理装置22とサーバ装置21とが接続されている。この接続は、例えば、有線の回線を用いて行われてもよく、あるいは、無線の回線を用いて行われてもよい。
Here, in the present embodiment, the information processing device 22 and the display device 23 are communicably connected. This connection may be made using, for example, a wired line or a wireless line.
An information processing device 22 and a server device 21 are also connected. This connection may be made using, for example, a wired line or a wireless line.

また、サーバ装置21と、データベース24と、ルータ装置25は、それぞれ、ネットワーク31と接続されており、ネットワーク31を介して互いに通信可能である。この接続は、例えば、有線の回線を用いて行われてもよく、あるいは、無線の回線を用いて行われてもよい。つまり、ネットワーク31は、有線のネットワークであってもよく、無線のネットワークであってもよく、あるいは、有線と無線とが組み合わされたネットワークであってもよい。
また、ルータ装置25は、例えば、Wi-Fi(登録商標)に対応している。
Server device 21 , database 24 , and router device 25 are each connected to network 31 and can communicate with each other via network 31 . This connection may be made using, for example, a wired line or a wireless line. That is, the network 31 may be a wired network, a wireless network, or a combination of wired and wireless.
Also, the router device 25 is compatible with, for example, Wi-Fi (registered trademark).

表示装置11と、携帯装置12は、それぞれ、ルータ装置25との間で無線により通信可能に接続される。
本実施形態では、この接続は、無線の回線を介して行われるが、他の例として、この接続は、有線の回線を介して行われてもよい。
The display device 11 and the mobile device 12 are connected to the router device 25 so as to communicate wirelessly.
In this embodiment, this connection is made through a wireless line, but as another example, this connection may be made through a wired line.

<MRシステムの動作の概要>
本実施形態では、サーバ装置21において、制御装置41は、ネットワーク31およびルータ装置25を介して、表示装置11および携帯装置12と通信する。制御装置41は、表示装置11を制御して、表示装置11によってMRの表示を行わせる。制御装置41は、表示装置11あるいは携帯装置12から受信された情報をMRの表示に使用することが可能である。
また、制御装置41は、ネットワーク31を介して、データベース24と通信する。データベース24は、各種の情報を記憶する。制御装置41は、データベース24に記憶された情報を検索して、得られた情報を受信する。制御装置41は、検索により得られた情報をMRの表示に使用することが可能である。
データベース24に記憶される情報は、任意の情報であってもよく、例えば、監視対象が監視された結果の情報であってもよい。監視対象は、例えば、所定の設備あるいは機器などの温度あるいは圧力などであってもよい。
<Overview of operation of MR system>
In this embodiment, in the server device 21 , the control device 41 communicates with the display device 11 and the mobile device 12 via the network 31 and the router device 25 . The control device 41 controls the display device 11 so that the display device 11 displays MR. The control device 41 can use the information received from the display device 11 or the portable device 12 to display the MR.
Also, the control device 41 communicates with the database 24 via the network 31 . The database 24 stores various information. The control device 41 searches the information stored in the database 24 and receives the obtained information. The control device 41 can use the information obtained by the search to display MR.
The information stored in the database 24 may be arbitrary information, for example, information obtained as a result of monitoring a monitoring target. The monitored object may be, for example, the temperature or pressure of predetermined equipment or equipment.

ルータ装置25は、制御装置41から送信される信号を中継して表示装置11あるいは携帯装置12に送信する。また、ルータ装置25は、表示装置11から送信される信号および携帯装置12から送信される信号を中継して制御装置41に送信する。
情報処理装置22は、サーバ装置21の制御装置41と通信する。情報処理装置22は、制御装置41に指示などの信号を送信し、制御装置41から送信される信号を受信する。情報処理装置22は、ディスプレイ装置23の画面に情報を表示する。本実施形態では、中央管理場所にいるオペレーター61が、情報処理装置22を操作し、ディスプレイ装置23の画面に表示される情報を見る。本実施形態では、例えば、オペレーター61が情報処理装置22を操作することで制御装置41を制御し、これにより、表示装置11から遠隔に離れた場所で遠隔制御を行い、表示装置11が存在する現場を支援することが行われてもよい。また、情報処理装置22は、例えば、ディスプレイ装置23の画面に、表示装置11を装着したユーザー51によって見られる実空間の画像と仮想的な画像とのうちの一方または両方を表示させてもよく、これにより、ユーザー51によって行われる作業の監視が行われてもよい。
なお、それぞれの信号には、各種の情報が含まれてもよい。
The router device 25 relays a signal transmitted from the control device 41 and transmits the signal to the display device 11 or the mobile device 12 . Also, the router device 25 relays a signal transmitted from the display device 11 and a signal transmitted from the mobile device 12 and transmits the signals to the control device 41 .
The information processing device 22 communicates with the control device 41 of the server device 21 . The information processing device 22 transmits signals such as instructions to the control device 41 and receives signals transmitted from the control device 41 . The information processing device 22 displays information on the screen of the display device 23 . In this embodiment, an operator 61 at the central management location operates the information processing device 22 and sees information displayed on the screen of the display device 23 . In this embodiment, for example, the operator 61 operates the information processing device 22 to control the control device 41, thereby performing remote control at a location remote from the display device 11, and the display device 11 exists. On-site assistance may be provided. Further, the information processing device 22 may display, for example, one or both of a real space image and a virtual image viewed by the user 51 wearing the display device 11 on the screen of the display device 23. , whereby monitoring of work performed by user 51 may be performed.
Note that each signal may include various types of information.

表示装置11は、制御装置41によって制御されて、ユーザー51に対してMRの表示を行う。
携帯装置12は、当該携帯装置12の位置を検出して、検出された位置の情報を制御装置41に送信する。
本実施形態では、表示装置11はユーザー51によって装着されており、携帯装置12はユーザー51によって携帯されており、表示装置11の位置と携帯装置12の位置とユーザー51の位置とが同じであるとみなす。つまり、実際には、表示装置11の位置と携帯装置12の位置とユーザー51の位置とは異なり得るが、本実施形態では、これらがほぼ同じ位置に存在する状態が維持されるとしている。このため、以下の説明では、表示装置11の位置と携帯装置12の位置とユーザー51の位置はいずれも同じ位置であるとみなすが、他の例として、それぞれの位置が区別される処理(本実施形態では詳細な説明を省略する。)が行われる場合には、それぞれの位置が別の位置として検出される。
なお、表示装置11と携帯装置12とは、例えば、直接的に有線または無線で通信してもよく、あるいは、ルータ装置25を介して通信してもよい。
The display device 11 is controlled by the control device 41 to display MR to the user 51 .
The mobile device 12 detects the position of the mobile device 12 and transmits information on the detected position to the control device 41 .
In this embodiment, the display device 11 is worn by the user 51, the portable device 12 is carried by the user 51, and the position of the display device 11, the position of the portable device 12, and the position of the user 51 are the same. Consider. In other words, the position of the display device 11, the position of the portable device 12, and the position of the user 51 may differ in practice, but in this embodiment, they are maintained at substantially the same positions. Therefore, in the following description, the position of the display device 11, the position of the portable device 12, and the position of the user 51 are all considered to be the same position. Detailed description is omitted in the embodiment.) is performed, each position is detected as a different position.
Note that the display device 11 and the mobile device 12 may communicate directly by wire or wirelessly, or may communicate via the router device 25, for example.

ここで、情報処理装置22とディスプレイ装置23とは、必ずしも別体でなくてもよく、一体化されていてもよい。
また、情報処理装置22、データベース24、およびルータ装置は、必ずしもサーバ装置21と別体でなくてもよく、情報処理装置22、データベース24、およびルータ装置のうちの任意の1以上の装置が、サーバ装置21と一体化されていてもよい。
また、本実施形態に係るMRシステム1では、オペレーター61により使用される情報処理装置22およびディスプレイ装置23が備えられるが、他の例として、これらの装置が備えられなくてもよい。
Here, the information processing device 22 and the display device 23 may not necessarily be separate units, and may be integrated.
Further, the information processing device 22, the database 24, and the router device do not necessarily have to be separate from the server device 21, and any one or more of the information processing device 22, the database 24, and the router device It may be integrated with the server device 21 .
Further, the MR system 1 according to the present embodiment includes the information processing device 22 and the display device 23 used by the operator 61, but as another example, these devices may not be provided.

また、本実施形態では、携帯装置12が位置を検出する機能を有する場合を示すが、他の例として、表示装置11が位置を検出する機能を有してもよく、この場合、携帯装置12は備えられなくてもよい。本実施形態では、携帯装置12は、主に、位置を検出するために使用されている。
また、本実施形態では、制御装置41がMRの表示のための画像を生成して当該画像を表示装置11に送信し、表示装置11は当該情報を受信して表示する。
Further, in the present embodiment, the mobile device 12 has the function of detecting the position, but as another example, the display device 11 may have the function of detecting the position. may not be provided. In this embodiment, the mobile device 12 is primarily used for position detection.
Further, in the present embodiment, the control device 41 generates an image for MR display, transmits the image to the display device 11, and the display device 11 receives and displays the information.

<表示装置>
図2は、本発明の一実施形態に係る表示装置11の概略的な構成を示す図である。
表示装置11は、通信部111と、記憶部112と、表示部113と、検出部114と、制御部115を備える。
通信部111は、ルータ装置25およびネットワーク31を介して、サーバ装置21の制御装置41と通信する。
記憶部112は、各種の情報を記憶する。
表示部113は、情報を表示する。表示部113は、例えば、ユーザー51の右目用の表示部分と左目用の表示部分を有していてもよい。
<Display device>
FIG. 2 is a diagram showing a schematic configuration of the display device 11 according to one embodiment of the invention.
The display device 11 includes a communication section 111 , a storage section 112 , a display section 113 , a detection section 114 and a control section 115 .
Communication unit 111 communicates with control device 41 of server device 21 via router device 25 and network 31 .
The storage unit 112 stores various information.
The display unit 113 displays information. The display unit 113 may have, for example, a display portion for the right eye of the user 51 and a display portion for the left eye.

検出部114は、所定の情報を検出する。
本実施形態では、検出部114は、周囲の情報を取得する周囲情報取得装置を備えており、当該周囲情報取得装置によって、表示装置11の周囲の情報を検出して、当該情報を取得する。
また、本実施形態では、周囲情報取得装置は、撮像装置を含んでおり、当該撮像装置によって、表示装置11の外界の画像を撮像して、当該画像の情報を取得する。
本実施形態では、表示装置11において、当該撮像装置は、表示装置11を装着したユーザー51の視線の方向の周囲の画像を外界の画像として撮像する位置に備えられている。具体的には、当該撮像装置は、表示装置11がユーザー51によって装着された状態において、ユーザー51の両目の中央にあたる位置に備えられており、ユーザー51の頭部とは反対方向の画像を撮像するように配置されている。
The detection unit 114 detects predetermined information.
In this embodiment, the detection unit 114 includes an ambient information acquisition device that acquires ambient information. The ambient information acquisition device detects information about the surroundings of the display device 11 and acquires the information.
In addition, in the present embodiment, the ambient information acquisition device includes an imaging device, which captures an image of the outside world of the display device 11 and acquires information of the image.
In the present embodiment, in the display device 11, the imaging device is provided at a position for capturing an image of the surroundings in the line-of-sight direction of the user 51 wearing the display device 11 as an image of the outside world. Specifically, when the display device 11 is worn by the user 51, the imaging device is provided at a position corresponding to the center of both eyes of the user 51, and captures an image in the direction opposite to the head of the user 51. are arranged to

また、本実施形態では、周囲情報取得装置は、画像以外の情報を取得する装置を含んでもよい。例えば、周囲情報取得装置は、表示装置11の周囲の超音波を検出して当該超音波の情報を取得する装置、あるいは、表示装置11の周囲の温度を検出して当該温度の情報を取得する装置などを含んでもよい。超音波を検出して当該超音波の情報を取得する装置としては、例えば、ソナーが用いられてもよい。温度を検出して当該温度の情報を取得する装置としては、例えば、温度センサが用いられてもよい。 Further, in the present embodiment, the ambient information acquisition device may include a device that acquires information other than images. For example, the ambient information acquisition device is a device that detects ultrasonic waves around the display device 11 and acquires information about the ultrasonic waves, or detects the temperature around the display device 11 and acquires information about the temperature. It may also include devices and the like. For example, a sonar may be used as a device that detects ultrasonic waves and acquires information on the ultrasonic waves. A temperature sensor, for example, may be used as a device that detects temperature and acquires temperature information.

また、本実施形態では、周囲情報取得装置に含まれる撮像装置によって撮像された画像の情報を使用するに際して、さらに超音波あるいは温度などの情報を使用して、全体の精度を向上させることが図られるが、必ずしも、周囲情報取得装置によって画像の情報が取得されなくてもよい。
例えば、周囲情報取得装置は、画像を撮像する撮像装置を含まずに、画像以外の超音波あるいは温度などのうちの1以上の情報を取得する装置を含んでもよい。この場合、周囲の情報としては、画像以外の情報が用いられる。
In addition, in this embodiment, when using the information of the image captured by the imaging device included in the ambient information acquisition device, it is possible to further use information such as ultrasonic wave or temperature to improve the overall accuracy. However, the image information does not necessarily have to be acquired by the ambient information acquisition device.
For example, the ambient information acquisition device may include a device that acquires one or more information other than an image, such as ultrasonic waves or temperature, without including an imaging device that captures an image. In this case, information other than the image is used as the surrounding information.

ここで、検出部114は、周囲情報取得装置以外に、任意の情報を検出するセンサを備えていてもよい。つまり、本実施形態では、検出部114が周囲情報取得装置とともに他のセンサを備える構成も含んでおり、当該他のセンサによる検出結果が任意に利用される構成も含んでいる。なお、検出部114が周囲情報取得装置のみを備える場合には、検出部114は周囲情報取得装置であると捉えられてもよい。
また、他の例として、検出部114は、表示装置11とは別体で備えられてもよい。例えば、検出部114が複数の情報取得装置を含む場合、これら複数の情報取得装置のうちの一部が別体で備えられてもよい。なお、情報取得装置としては、例えば、周囲情報取得装置に含まれる各種の情報を取得する装置(例えば、画像の情報を取得する撮像装置、超音波の情報を取得する装置、温度の情報を取得する装置など)であると捉えられてもよく、または、周囲情報取得装置の全体であると捉えられてもよく、あるいは、その他の各種のセンサであると捉えられてもよい。
Here, the detection unit 114 may include a sensor that detects arbitrary information in addition to the ambient information acquisition device. In other words, the present embodiment includes a configuration in which the detection unit 114 is provided with another sensor in addition to the ambient information acquisition device, and includes a configuration in which the detection result of the other sensor is arbitrarily used. Note that when the detection unit 114 includes only the ambient information acquisition device, the detection unit 114 may be regarded as the ambient information acquisition device.
As another example, the detection unit 114 may be provided separately from the display device 11 . For example, when the detection unit 114 includes a plurality of information acquisition devices, some of the plurality of information acquisition devices may be separately provided. As the information acquisition device, for example, a device that acquires various types of information included in the surrounding information acquisition device (for example, an imaging device that acquires image information, a device that acquires ultrasound information, and a device that acquires temperature information device, etc.), or the entire ambient information acquisition device, or various other sensors.

制御部115は、表示装置11における各種の制御を行う。
制御部115は、機能部の例として、表示制御部131と、検出情報送信制御部132を備える。
表示制御部131は、表示部113による画像の表示を制御する。本実施形態では、表示装置11では、制御装置41から送信される画像の情報を通信部111によって受信し、表示制御部131が受信された画像の情報に基づいて表示部113によって当該画像を表示させる制御を行う。
検出情報送信制御部132は、検出部114によって検出された情報を通信部111によって制御装置41に対して送信する。本実施形態では、当該情報は、検出部114が有する周囲情報取得装置によって取得された情報を含む。
The control unit 115 performs various controls in the display device 11 .
The control unit 115 includes a display control unit 131 and a detection information transmission control unit 132 as examples of functional units.
The display control unit 131 controls image display by the display unit 113 . In this embodiment, in the display device 11, the communication unit 111 receives image information transmitted from the control device 41, and the display control unit 131 displays the image on the display unit 113 based on the received image information. control to allow
The detected information transmission control section 132 transmits the information detected by the detection section 114 to the control device 41 through the communication section 111 . In this embodiment, the information includes information acquired by the ambient information acquisition device included in the detection unit 114 .

<携帯装置>
図3は、本発明の一実施形態に係る携帯装置12の概略的な構成を示す図である。
携帯装置12は、入力部211と、出力部212と、通信部213と、記憶部214と、位置検出部215と、制御部216を備える。
入力部211は、ユーザー51によって行われる操作の内容を受け付けて入力する機能、および有線で接続された外部の装置から出力される情報を入力する機能を有する。
出力部212は、情報を表示画面に出力する機能、および有線で接続された外部の装置に情報を出力する機能を有する。
ここで、外部の装置は、例えば、USBメモリなどの携帯可能な記録媒体であってもよい。
<Portable device>
FIG. 3 is a diagram showing a schematic configuration of the portable device 12 according to one embodiment of the invention.
Portable device 12 includes input unit 211 , output unit 212 , communication unit 213 , storage unit 214 , position detection unit 215 , and control unit 216 .
The input unit 211 has a function of receiving and inputting the contents of operations performed by the user 51 and a function of inputting information output from an external device connected by wire.
The output unit 212 has a function of outputting information to a display screen and a function of outputting information to an external device connected by wire.
Here, the external device may be, for example, a portable recording medium such as a USB memory.

通信部213は、外部の装置と無線により通信する。本実施形態では、通信部213は、ルータ装置25およびネットワーク31を介して、サーバ装置21の制御装置41と通信する。
記憶部214は、各種の情報を記憶する。
位置検出部215は、携帯装置12の位置を検出する。本実施形態では、位置検出部215は、GPS(Global Positioning System)の機能を有しており、GPS衛星から無線送信される信号を受信し、受信された信号に基づいて位置を検出する。
The communication unit 213 wirelessly communicates with an external device. In this embodiment, the communication unit 213 communicates with the control device 41 of the server device 21 via the router device 25 and the network 31 .
The storage unit 214 stores various information.
The position detection unit 215 detects the position of the mobile device 12 . In this embodiment, the position detection unit 215 has a GPS (Global Positioning System) function, receives signals wirelessly transmitted from GPS satellites, and detects a position based on the received signals.

制御部216は、携帯装置12における各種の制御を行う。
制御部216は、機能部の例として、位置情報送信制御部231を備える。
位置情報送信制御部231は、位置検出部215によって検出された位置の情報を通信部213によって制御装置41に対して送信する。
The control unit 216 performs various controls in the mobile device 12 .
The control unit 216 includes a position information transmission control unit 231 as an example of a functional unit.
The position information transmission control section 231 transmits the information of the position detected by the position detection section 215 to the control device 41 through the communication section 213 .

<制御装置>
図4は、本発明の一実施形態に係る制御装置41の概略的な構成を示す図である。
制御装置41は、入力部311と、出力部312と、通信部313と、記憶部314と、制御部315を備える。
入力部311は、制御装置41を操作する者によって行われる操作の内容を受け付けて入力する機能、および有線で接続された外部の装置から出力される情報を入力する機能を有する。
出力部312は、情報を表示画面に出力する機能、および有線で接続された外部の装置に情報を出力する機能を有する。
<Control device>
FIG. 4 is a diagram showing a schematic configuration of the control device 41 according to one embodiment of the invention.
The control device 41 includes an input section 311 , an output section 312 , a communication section 313 , a storage section 314 and a control section 315 .
The input unit 311 has a function of receiving and inputting details of an operation performed by a person who operates the control device 41 and a function of inputting information output from an external device connected by wire.
The output unit 312 has a function of outputting information to a display screen and a function of outputting information to an external device connected by wire.

通信部313は、外部の装置と無線により通信する。本実施形態では、通信部313は、ルータ装置25およびネットワーク31を介して、表示装置11および携帯装置12と通信する。また、本実施形態では、通信部313は、ネットワーク31を介して、データベース24と通信する。
記憶部314は、各種の情報を記憶する。本実施形態では、記憶部314は、地図情報331を記憶する。
The communication unit 313 wirelessly communicates with an external device. In this embodiment, the communication unit 313 communicates with the display device 11 and the mobile device 12 via the router device 25 and the network 31 . Also, in this embodiment, the communication unit 313 communicates with the database 24 via the network 31 .
The storage unit 314 stores various information. In this embodiment, the storage unit 314 stores map information 331 .

ここで、地図情報331は、少なくとも、表示装置11の撮像装置によって撮像されることが想定されている場所の地図の情報を含む。
地図情報331には、様々な領域の情報、設備あるいは機器などの情報が含まれてもよい。
なお、「設備」あるいは「機器」といった語は、例示であって、他の任意の名称で呼ばれてもよい。また、「設備」と「機器」は、必ずしも区別されなくてもよく、両者が同様なものを表すと捉えられてもよい。
Here, the map information 331 includes at least map information of a place that is assumed to be imaged by the imaging device of the display device 11 .
The map information 331 may include information on various areas, information on facilities or equipment, and the like.
It should be noted that the terms "equipment" and "equipment" are examples and may be called by other arbitrary names. Also, "facility" and "equipment" do not necessarily have to be distinguished from each other, and both may be considered to represent the same thing.

例えば、本実施形態では、地図情報331には、あらかじめ定められた1個以上の領域の識別情報および当該領域を特定する情報が含まれている。領域の識別情報としては、例えば、当該領域の名称などの情報が用いられる。領域は、例えば、設備あるいは機器などと対応付けられていてもよい。
例えば、本実施形態では、地図情報331には、あらかじめ定められた1個以上の設備あるいは機器などの識別情報および当該設備あるいは機器などの配置の情報が含まれている。当該設備あるいは機器などの識別情報としては、例えば、当該設備あるいは機器などの名称などの情報が用いられる。
For example, in this embodiment, the map information 331 includes identification information of one or more predetermined areas and information specifying the area. As the area identification information, for example, information such as the name of the area is used. A region may be associated with, for example, equipment or equipment.
For example, in this embodiment, the map information 331 includes identification information of one or more predetermined facilities or devices and information on the arrangement of the facilities or devices. Information such as the name of the facility or device is used as the identification information of the facility or device, for example.

地図情報331は、例えば、作業員であるユーザー51が作業を行う現場の図面の情報を含んでもよい。
また、地図情報331において、設備あるいは機器などは、例えば、直方体あるいは円柱などのように、簡易化された立体を用いて表されてもよい。仮想空間における簡易化された立体と、実空間における該当する箇所とが、位置合わせされてもよい。
The map information 331 may include, for example, map information of the site where the user 51 who is the worker is working.
Also, in the map information 331, facilities or equipment may be represented using simplified solids such as rectangular parallelepipeds or cylinders. The simplified solid in virtual space and the corresponding location in real space may be registered.

本実施形態では、地図情報331に含まれる情報に基づいて領域あるいは機器などに関連するキーワードを取得することが可能である。このようなキーワードは、例えば、1個以上のキーワードのリストとして地図情報331に含まれてもよく、あるいは、機器などの説明文などのように、機器などに関連する情報として地図情報331に含まれてもよい。このように、本実施形態では、地図情報331において、機器などと、キーワードを取得することが可能な情報とが、対応付けられている。
地図情報331は、例えば、あらかじめ人間または装置によって作成されて記憶部314に記憶させられる。一例として、地図情報331は、情報処理装置22あるいはサーバ装置21において生成されてもよい。
なお、本実施形態では、制御装置41が地図情報331に基づいてキーワードを取得することが可能な場合を示すが、他の例として、制御装置41が領域あるいは機器などに関連するキーワードを取得するための情報が、地図情報331とは別の情報として記憶部314に記憶されてもよい。
In this embodiment, it is possible to acquire keywords related to areas or devices based on information included in the map information 331 . Such keywords may be included in the map information 331 as, for example, a list of one or more keywords, or may be included in the map information 331 as information related to the equipment, such as a description of the equipment. may be As described above, in the present embodiment, in the map information 331, devices and the like are associated with information from which keywords can be acquired.
The map information 331 is, for example, created in advance by a person or a device and stored in the storage unit 314 . As an example, the map information 331 may be generated by the information processing device 22 or the server device 21 .
In this embodiment, the control device 41 can acquire keywords based on the map information 331. As another example, the control device 41 acquires keywords related to areas or devices. Information for this may be stored in the storage unit 314 as information separate from the map information 331 .

制御部315は、制御装置41における各種の制御を行う。
制御部315は、機能部の例として、空間認識部351と、地図取得部352と、機器配置対応付け部353と、位置姿勢取得部354と、キーワード取得部355と、検索部356と、表示制御部357を備える。
The control unit 315 performs various controls in the control device 41 .
The control unit 315 includes, as examples of functional units, a space recognition unit 351, a map acquisition unit 352, an equipment layout association unit 353, a position/orientation acquisition unit 354, a keyword acquisition unit 355, a search unit 356, a display A control unit 357 is provided.

空間認識部351は、表示装置11から送信されて通信部313によって受信された表示装置11の周囲の情報を取得する。空間認識部351は、取得された情報に基づいて、3次元の空間を認識する。例えば、表示装置11の周囲の情報に表示装置11の外界の画像の情報が含まれる場合、空間認識部351は、当該画像に写された3次元の空間を認識してもよい。空間を認識する手法としては、特に限定は無く、例えば、3次元点群を用いて空間を認識する手法が用いられてもよい。 The space recognition unit 351 acquires information around the display device 11 transmitted from the display device 11 and received by the communication unit 313 . The space recognition unit 351 recognizes a three-dimensional space based on the acquired information. For example, when the information about the surroundings of the display device 11 includes the information of the image of the outside world of the display device 11, the space recognition section 351 may recognize the three-dimensional space shown in the image. The method for recognizing space is not particularly limited, and for example, a method for recognizing space using a three-dimensional point group may be used.

地図取得部352は、記憶部314に記憶された地図情報331を取得する。
本実施形態では、地図取得部352は、表示装置11から送信されて通信部313によって受信された情報に含まれる所定のマーカーの情報を検出する。例えば、表示装置11の周囲の情報に表示装置11の外界の画像の情報が含まれる場合、当該マーカーの情報としては、当該画像に含まれる視覚的に認識可能な情報であってもよい。当該マーカーとしては、例えば、ARマーカーが用いられてもよい。
本実施形態では、地図情報331には、空間認識部351によって認識された空間の地図の情報が含まれている。
本実施形態では、地図情報331は、所定のマーカーと対応付けられている。そして、地図取得部352は、検出されたマーカーに対応付けられた地図情報331を取得する。
なお、空間認識部351によって認識される空間があらかじめ定められていて、当該空間に対応する地図情報331があらかじめ特定されている場合には、所定のマーカーは用いられなくてもよい。
The map acquisition section 352 acquires the map information 331 stored in the storage section 314 .
In this embodiment, the map acquisition unit 352 detects information on a predetermined marker included in information transmitted from the display device 11 and received by the communication unit 313 . For example, when the information on the surroundings of the display device 11 includes information on an image of the outside world of the display device 11, the information on the marker may be visually recognizable information included in the image. As the marker, for example, an AR marker may be used.
In this embodiment, the map information 331 includes map information of the space recognized by the space recognition unit 351 .
In this embodiment, the map information 331 is associated with predetermined markers. Then, the map acquisition unit 352 acquires the map information 331 associated with the detected marker.
In addition, when the space recognized by the space recognition unit 351 is predetermined and the map information 331 corresponding to the space is specified in advance, the predetermined marker may not be used.

また、地図取得部352は、例えば、携帯装置12から送信されて通信部313によって受信された位置の情報に基づいて、表示装置11の位置の情報を取得してもよい。
一例として、地図取得部352は、所定のマーカーが検出された空間においては当該マーカーに基づいて当該空間に対応する地図情報331を取得し、所定のマーカーが検出されない空間においては位置の情報に基づいて当該位置に対応する地図情報331を取得してもよい。
Further, the map acquisition unit 352 may acquire the position information of the display device 11 based on the position information transmitted from the portable device 12 and received by the communication unit 313, for example.
As an example, the map acquisition unit 352 acquires the map information 331 corresponding to the space based on the marker in the space where the predetermined marker is detected, and based on the position information in the space where the predetermined marker is not detected. You may acquire the map information 331 corresponding to the said position by pressing.

なお、制御部315では、例えば、取得された表示装置11の位置の情報に基づいて、移動する表示装置11の位置を追従すること、あるいは、移動する表示装置11の速度を検出すること、などを行ってもよい。
また、例えば、携帯装置12により検出される位置の情報が使用されない場合には、MRシステム1に携帯装置12が備えられなくてもよく、また、制御装置41に当該位置の情報を取得する機能が備えられなくてもよい。
Note that the control unit 315 may follow the position of the moving display device 11 or detect the speed of the moving display device 11 based on the acquired position information of the display device 11, for example. may be performed.
Further, for example, if the position information detected by the portable device 12 is not used, the MR system 1 may not be provided with the portable device 12, and the control device 41 has the function of acquiring the position information. may not be provided.

機器配置対応付け部353は、空間認識部351によって認識された空間と、地図取得部352によって取得された地図の情報に含まれる機器の配置の情報に基づいて、当該空間と機器の配置とを対応付ける。
ここで、機器の配置の情報では、それぞれの機器の寸法の情報が設定されている。当該寸法としては、例えば、3次元直交座標系であるXYZ座標系のうちの1個、2個、または3個の軸方向の寸法が用いられてもよい。一例として、寸法が幅、奥行き、および高さで規定される場合に、例えば、幅のみ、幅と奥行き、幅と高さ、または、幅と奥行きと高さ、などが用いられてもよい。
Based on the space recognized by the space recognition unit 351 and information on the placement of the devices included in the map information acquired by the map acquisition unit 352, the device placement association unit 353 associates the space with the placement of the devices. Associate.
Here, information on the dimensions of each device is set in the device layout information. As the dimensions, for example, one, two, or three axial dimensions of an XYZ coordinate system, which is a three-dimensional orthogonal coordinate system, may be used. As an example, when dimensions are defined by width, depth, and height, only width, width and depth, width and height, or width, depth, and height may be used, for example.

また、機器配置対応付け部353は、例えば、さらに、空間と機器の配置との対応付けの精度を向上させる処理を行ってもよい。
一例として、機器配置対応付け部353は、表示装置11を装着したユーザー51が所定の機器の所定の位置を指したときの指の位置を検出して、その検出結果に基づいて、空間と機器の配置との対応付けを微調整してもよい。
In addition, the equipment arrangement association unit 353 may further perform processing for improving the accuracy of associating the space and the arrangement of the equipment, for example.
As an example, the device layout association unit 353 detects the finger position when the user 51 wearing the display device 11 points to a predetermined position of a predetermined device, and based on the detection result, determines the space and the device. may be fine-tuned.

位置姿勢取得部354は、表示装置11の位置の情報および姿勢の情報を取得する。
ここで、位置姿勢取得部354は、例えば、機器配置対応付け部353によって行われた対応付けの結果と、表示装置11から送信されて通信部313によって受信された情報に基づいて、表示装置11の位置の情報を取得する。
また、位置姿勢取得部354は、表示装置11から送信されて通信部313によって受信された情報に基づいて、表示装置11の姿勢の情報を取得する。つまり、ユーザー51の頭部の姿勢の変化によって表示装置11の姿勢が変化する。
The position/orientation acquisition unit 354 acquires position information and orientation information of the display device 11 .
Here, the position/orientation acquisition unit 354 acquires the position and orientation of the display device 11 based on the result of the association performed by the device layout association unit 353 and the information transmitted from the display device 11 and received by the communication unit 313, for example. Get location information for .
Also, the position/orientation acquisition unit 354 acquires orientation information of the display device 11 based on information transmitted from the display device 11 and received by the communication unit 313 . That is, the posture of the display device 11 changes according to the change in the posture of the user's 51 head.

本実施形態では、制御部315において、空間認識部351と地図取得部352と機器配置対応付け部353の処理結果に基づいて、実空間に対応する仮想空間を生成する。そして、位置姿勢取得部354は、当該仮想空間における表示装置11の位置および姿勢を検出することで、その検出結果を実空間での位置および姿勢とみなす。
ここで、実空間とは現実の空間のことであり、仮想空間とは現実の空間に基づいて捉えられた仮想的な空間のことである。
In this embodiment, the control unit 315 generates a virtual space corresponding to the real space based on the processing results of the space recognition unit 351 , the map acquisition unit 352 and the device layout association unit 353 . Then, the position and orientation acquisition unit 354 detects the position and orientation of the display device 11 in the virtual space, and regards the detection result as the position and orientation in the real space.
Here, the real space means a real space, and the virtual space means a virtual space captured based on the real space.

また、位置姿勢取得部354は、例えば、取得された姿勢の情報に基づいて、ユーザー51の視線の方向を検出すること、ユーザー51の視線の方向の変化を検出すること、あるいは、ユーザー51の頭部の動きを検出すること、などが可能である。
例えば、制御部315では、ユーザー51の視線の方向、当該方向の変化、あるいはユーザー51の頭部の動きに基づいて、文字あるいは指示などの情報の入力の受け付けなどを行ってもよい。
また、本実施形態では、表示装置11において取得された情報に基づいて表示装置11の姿勢を判定する。一例として、表示装置11において撮像された画像に基づいて表示装置11の姿勢を判定する構成が用いられてもよい。他の例として、表示装置11にジャイロセンサなどのように姿勢を検出することが可能なセンサを備えて、当該センサの検出結果に基づいて表示装置11の姿勢を判定する構成が用いられてもよい。
Further, the position/orientation acquisition unit 354 detects the direction of the line of sight of the user 51, detects a change in the direction of the line of sight of the user 51, or detects the direction of the line of sight of the user 51, or It is possible to detect the movement of the head, and so on.
For example, the control unit 315 may accept input of information such as characters or instructions based on the direction of the user's 51 line of sight, changes in the direction, or movement of the user's 51 head.
Further, in this embodiment, the orientation of the display device 11 is determined based on the information acquired by the display device 11 . As an example, a configuration may be used in which the orientation of the display device 11 is determined based on an image captured by the display device 11 . As another example, a configuration in which the display device 11 is provided with a sensor capable of detecting the orientation such as a gyro sensor and the orientation of the display device 11 is determined based on the detection result of the sensor may be used. good.

表示装置11においてユーザー51から文字あるいは指示などを受け付ける構成として、例えば、仮想的なキーボードあるいは仮想的なマウスなどを表示装置11によって表示して、ユーザー51の動きなどに応じて文字あるいは指示などを受け付ける構成が用いられてもよい。
なお、表示装置11の姿勢の情報が使用されない場合には、制御装置41に当該姿勢の情報を取得する機能が備えられなくてもよい。
As a configuration for receiving characters or instructions from the user 51 on the display device 11, for example, a virtual keyboard or a virtual mouse is displayed on the display device 11, and characters or instructions are displayed according to the movement of the user 51. Any configuration that accepts may be used.
Note that when the orientation information of the display device 11 is not used, the control device 41 may not be provided with the function of acquiring the orientation information.

また、表示装置11においてユーザー51から文字あるいは指示などを受け付ける構成として、例えば、検出部114に音声を検出するマイクなどを備え、当該マイクなどによってユーザー51から発せられた音声を検出し、検出された音声を音声認識して文字あるいは指示などを受け付ける構成が用いられてもよい。 Further, as a configuration for receiving characters or instructions from the user 51 in the display device 11, for example, a microphone for detecting voice is provided in the detection unit 114, and the voice emitted from the user 51 is detected by the microphone or the like, and the detected voice is detected. A configuration may also be used in which characters or instructions are received by recognizing the voice.

キーワード取得部355は、位置姿勢取得部354によって検出された位置および姿勢と地図情報331に基づいて、キーワードを取得する。つまり、本実施形態では、キーワード取得部355は、表示装置11を装着したユーザー51がいる位置および姿勢と地図情報331に基づいて、自動的に、キーワードを検出する。
なお、キーワード取得部355は、位置姿勢取得部354によって検出された位置と地図情報331に基づいて、キーワードを取得してもよい。つまり、キーワードを取得するために、姿勢の情報が用いられなくてもよい。
A keyword acquisition unit 355 acquires a keyword based on the position and orientation detected by the position/orientation acquisition unit 354 and the map information 331 . That is, in the present embodiment, the keyword acquisition unit 355 automatically detects keywords based on the position and orientation of the user 51 wearing the display device 11 and the map information 331 .
Note that the keyword acquisition unit 355 may acquire keywords based on the position detected by the position/orientation acquisition unit 354 and the map information 331 . In other words, posture information may not be used to acquire keywords.

ここで、キーワード取得部355は、例えば、表示装置11を装着しているユーザー51が存在する位置に対応する領域あるいは機器に関するキーワードを取得する。また、キーワード取得部355は、例えば、表示装置11を装着しているユーザー51が存在する位置および姿勢に基づいて、表示装置11を装着しているユーザー51の視線の周囲に存在する機器に関するキーワードを取得してもよい。ユーザー51の視線の周囲としては、例えば、ユーザー51の視界が用いられてもよい。ユーザー51の視界は、表示装置11の位置および姿勢に基づいて特定される。例えば、キーワード取得部355は、ユーザー51の視界に入っていると判定される機器などに関するキーワードを取得してもよく、あるいは、ユーザー51の視界に入っているか否かとは無関係にユーザー51の近傍にある機器などに関するキーワードを取得してもよい。
また、キーワード取得部355は、領域の名称あるいは機器の名称などを用いて、キーワードを取得してもよい。
Here, the keyword acquisition unit 355 acquires, for example, a keyword related to an area or device corresponding to the position where the user 51 wearing the display device 11 is present. The keyword acquisition unit 355 also obtains keywords related to devices existing around the line of sight of the user 51 wearing the display device 11 based on the position and posture of the user 51 wearing the display device 11, for example. may be obtained. For example, the field of view of the user 51 may be used as the surroundings of the line of sight of the user 51 . The field of view of user 51 is specified based on the position and orientation of display device 11 . For example, the keyword acquisition unit 355 may acquire keywords related to equipment determined to be within the field of view of the user 51 , or may acquire keywords related to devices in the vicinity of the user 51 regardless of whether they are within the field of view of the user 51 . Keywords related to devices in
Further, the keyword acquisition unit 355 may acquire the keyword using the name of the area, the name of the device, or the like.

このように、キーワード取得部355は、例えば、表示装置11を装着しているユーザー51が所定の領域に存在する場合には、ユーザー51の視線あるいは視界とは無関係に、当該所定の領域に関連するキーワードを取得してもよく、あるいは、表示装置11を装着しているユーザー51が所定の領域に存在する場合であっても、必ずしも当該所定の領域に存在する機器などに関連するキーワードを取得するとは限られず、ユーザー51の視線あるいは視界の向きに存在する機器などに関連するキーワードを取得してもよい。
他の例として、キーワード取得部355は、表示装置11を装着しているユーザー51が所定の領域に存在するか否かを判定することなく、ユーザー51の視線あるいは視界の向きに存在する機器などに関連するキーワードを取得してもよい。
他の例として、キーワード取得部355は、表示装置11を装着しているユーザー51の位置と所定の機器などの位置との距離が所定の閾値以下である場合に、当該所定の機器などに関連するキーワードを検出してもよい。
As described above, for example, when the user 51 wearing the display device 11 is present in a predetermined area, the keyword acquisition unit 355 generates a Alternatively, even if the user 51 wearing the display device 11 is present in a predetermined area, a keyword related to the device or the like present in the predetermined area is necessarily obtained. However, keywords related to devices existing in the line of sight or line of sight of the user 51 may be acquired.
As another example, the keyword acquisition unit 355 does not determine whether or not the user 51 wearing the display device 11 exists in a predetermined area. You can get keywords related to
As another example, when the distance between the position of the user 51 wearing the display device 11 and the position of the predetermined device or the like is equal to or less than a predetermined threshold, the keyword acquisition unit 355 may obtain a keyword related to the predetermined device or the like. You may detect keywords that

本実施形態では、キーワード取得部355は、例えば、表示装置11の状況に基づいて、キーワードを取得する。表示装置11の状況としては、例えば、表示装置11の位置、表示装置11の姿勢、あるいは、表示装置11の周囲の情報(周囲情報取得装置によって取得される情報)のうちの1以上を含んでもよい。 In this embodiment, the keyword acquisition unit 355 acquires keywords based on the status of the display device 11, for example. The status of the display device 11 may include, for example, one or more of the position of the display device 11, the orientation of the display device 11, and information about the surroundings of the display device 11 (information obtained by the surrounding information obtaining device). good.

検索部356は、キーワード取得部355によって取得されたキーワードのうちの一部または全部を用いて、情報を検索する。
ここで、検索部356は、キーワード取得部355によって取得されたキーワードのなかから、ユーザー51によって選択されたキーワードを検索用のキーワードとして受け付けてもよい。この場合、例えば、キーワード取得部355によって取得されたキーワードが表示装置11によって表示されて、表示されたキーワードのなかから、ユーザー51の動作などに応じて1個以上のキーワードの選択を受け付ける。
本実施形態では、検索部356は、通信部313によってネットワーク31を介して、キーワードを用いてデータベース24に記憶された情報を検索する。
そして、検索部356は、検索された結果の情報を取得する。
Search unit 356 searches for information using some or all of the keywords acquired by keyword acquisition unit 355 .
Here, the search unit 356 may accept a keyword selected by the user 51 from among the keywords acquired by the keyword acquisition unit 355 as a keyword for search. In this case, for example, the keywords acquired by the keyword acquisition unit 355 are displayed by the display device 11, and selection of one or more keywords from the displayed keywords is accepted according to the user's 51's actions or the like.
In this embodiment, the search unit 356 searches information stored in the database 24 using a keyword via the network 31 by the communication unit 313 .
Then, the search unit 356 acquires the information of the searched result.

表示制御部357は、表示装置11におけるMRの表示を制御する。具体的には、表示制御部357は、表示装置11によって表示させる画像の情報を生成し、当該画像の情報を通信部313によって表示装置11に送信する。
表示制御部357は、例えば、地図情報331、キーワード取得部355によって取得されたキーワード、あるいは、検索部356によって検索された結果などのうちの1以上に基づいて、表示装置11によって表示させる画像の情報を生成する。つまり、表示制御部357は、例えば、地図、キーワード、検索結果などのうちの任意の1以上の情報を表示装置11に表示させる機能を有する。
The display control unit 357 controls the display of MR on the display device 11 . Specifically, the display control unit 357 generates information of an image to be displayed by the display device 11 and transmits the information of the image to the display device 11 through the communication unit 313 .
The display control unit 357 selects an image to be displayed by the display device 11 based on one or more of the map information 331, the keyword acquired by the keyword acquisition unit 355, or the search result of the search unit 356, for example. Generate information. In other words, the display control unit 357 has a function of causing the display device 11 to display any one or more pieces of information such as a map, keywords, search results, and the like.

ここで、本実施形態では、説明を簡易化するために、1個の制御装置41によって1個の表示装置11を制御して監視する場合を示す。
他の例として、1個の制御装置41によって複数の異なる表示装置11を監視する場合には、例えば、それぞれの表示装置11に識別情報が設定され、制御装置41とそれぞれの表示装置11とはそれぞれの識別情報を用いて通信する。また、情報処理装置22およびサーバ装置21では、例えば、それぞれの表示装置11に関する情報を、それぞれの識別情報を用いて、管理する。
Here, in this embodiment, in order to simplify the explanation, a case where one display device 11 is controlled and monitored by one control device 41 will be described.
As another example, when a plurality of different display devices 11 are monitored by one control device 41, for example, identification information is set for each display device 11, and the control device 41 and each display device 11 are Communicate using each identification information. Further, the information processing device 22 and the server device 21, for example, manage information about the respective display devices 11 using their respective identification information.

また、本実施形態では、地図情報331が制御装置41の記憶部314に記憶される場合を示したが、他の例として、地図情報331は、制御装置41以外の任意の装置の記憶部に記憶されてもよい。この場合、地図取得部352は、制御装置41から外部の装置にアクセスして当該装置に記憶されている地図情報331を取得する。当該装置は、例えば、データベースであってもよく、一例として、データベース24であってもよい。 Further, in this embodiment, the map information 331 is stored in the storage unit 314 of the control device 41, but as another example, the map information 331 may be stored in the storage unit of any device other than the control device 41. may be stored. In this case, the map acquisition unit 352 accesses the external device from the control device 41 and acquires the map information 331 stored in the device. The device may be, for example, a database, by way of example database 24 .

<MRシステムにおける動作の例>
図5~図10を参照して、MRシステム1における動作の例を示す。
図5は、本発明の一実施形態に係るフロア411の配置の例を示す図である。
フロア411は、発電所がある建物の2階のフロアを表している。図5の例では、1つの階のフロア411を示すが、建物が2以上の階数を有する場合には、それぞれの階についても同様なフロアが認識されてもよい。
<Example of operation in MR system>
5 to 10, examples of operations in the MR system 1 are shown.
FIG. 5 is a diagram illustrating an example layout of the floor 411 according to one embodiment of the present invention.
Floor 411 represents the second floor of the building where the power plant is located. Although one floor 411 is shown in the example of FIG. 5, if the building has two or more floors, similar floors may be recognized for each floor.

図5の例では、フロア411には、8号機の機器群が配置されている。ここで、8号機は一例であり、他の場所に1号機~7号機および9号機以降のうちの1以上が配置されていてもよい。また、「号機」は名称の例であり、他の任意の名称であってもよい。
8号機には、3個の軸である1軸431、2軸432、3軸433が配置されている。ここで、1軸431~3軸433は一例であり、軸の数は1、2、あるいは、4以上であってもよい。また、「軸」は名称の例であり、他の任意の名称であってもよい。
1軸431の領域には、2個の機器451、452が配置されている。2軸432の領域には1個の機器453が配置されている。3軸433の領域には2個の機器454、455が配置されている。なお、各軸に配置される機器の数あるいは種類は任意であってもよい。
In the example of FIG. 5, on the floor 411, the device group of machine No. 8 is arranged. Here, the 8th machine is an example, and one or more of the 1st to 7th machines and the 9th and subsequent machines may be arranged at other locations. In addition, "machine number" is an example of a name, and any other name may be used.
In the 8th machine, three shafts, namely, a 1st shaft 431, a 2nd shaft 432 and a 3rd shaft 433 are arranged. Here, the 1-axis 431 to 3-axis 433 are examples, and the number of axes may be 1, 2, or 4 or more. Also, "axis" is an example of a name, and any other name may be used.
Two devices 451 and 452 are arranged in the area of one axis 431 . One device 453 is arranged in the area of the two axes 432 . Two devices 454 and 455 are arranged in the area of the three axes 433 . Note that the number or types of devices arranged on each axis may be arbitrary.

フロア411の8号機には、8号機の領域であると判定される号機領域421が設定されている。
1軸431には、1軸431の領域であると判定される1軸領域441が設定されている。
2軸432には、2軸432の領域であると判定される2軸領域442が設定されている。
3軸433には、3軸433の領域であると判定される3軸領域443が設定されている。
それぞれの機器451~455には、それぞれの機器451~455の領域であると判定される機器領域461~465が設定されている。
For the eighth car on the floor 411, a car area 421 determined to be the area of the eighth car is set.
A 1-axis region 441 that is determined to be the region of the 1-axis 431 is set on the 1-axis 431 .
A biaxial region 442 that is determined to be the region of the biaxial 432 is set on the biaxial 432 .
A 3-axis region 443 that is determined to be the 3-axis 433 region is set in the 3-axis 433 .
Device regions 461 to 465 that are determined to be regions of the devices 451 to 455 are set for the devices 451 to 455, respectively.

ここで、フロア411、1軸431、2軸432、3軸433、および各機器451~455は、実空間に存在するものであるが、本実施形態では、説明の便宜上、制御装置41が実空間に対応付けた仮想空間におけるものも、同じ符号を用いて説明する。
また、号機領域421、1軸領域441、2軸領域442、3軸領域443、機器領域461~465は、制御装置41が実空間に対応付けた仮想空間におけるものである。
これらの仮想空間におけるものは、地図情報331によって規定されている。
Here, the floor 411, the first axis 431, the second axis 432, the third axis 433, and the devices 451 to 455 exist in real space. Items in the virtual space associated with the space will also be described using the same reference numerals.
Also, the machine number area 421, the 1-axis area 441, the 2-axis area 442, the 3-axis area 443, and the equipment areas 461 to 465 are in the virtual space that the control device 41 associates with the real space.
Things in these virtual spaces are defined by the map information 331 .

フロア411には、ARマーカー471が設置されている。ARマーカー471は、例えば、3次元のマーカーであってもよく、あるいは、2次元のマーカーであってもよい。
図5の例では、表示装置11を装着したユーザー51がフロア411に入ったときにいる位置に近いところに、ARマーカー471が設置されている。
制御装置41では、ARマーカー471を検出したことに基づいて、フロア411の空間に地図情報331を重ねることで、フロア411の状況を把握する。
An AR marker 471 is installed on the floor 411 . AR marker 471 may be, for example, a three-dimensional marker or a two-dimensional marker.
In the example of FIG. 5, an AR marker 471 is installed near the position where the user 51 wearing the display device 11 enters the floor 411 .
The control device 41 grasps the situation of the floor 411 by superimposing the map information 331 on the space of the floor 411 based on the detection of the AR marker 471 .

本実施形態では、階層的な領域が規定されている。具体的には、フロア411のなかに8号機が含まれている。8号機の号機領域421のなかに、1軸領域431、2軸領域432、および3軸領域433が含まれている。1軸領域441のなかに2個の機器領域461、462が含まれている。2軸領域442のなかに1個の機器領域463が含まれている。3軸領域443のなかに2個の機器領域464、465が含まれている。
つまり、階層の大きい方から小さい方へ向かって、「号機」、「軸」、「機器」といった順に階層化されている。
In this embodiment, hierarchical areas are defined. Specifically, the floor 411 includes the 8th machine. A 1-axis area 431, a 2-axis area 432, and a 3-axis area 433 are included in the car area 421 of the 8th car. Two device regions 461 and 462 are included in the one-axis region 441 . One device region 463 is included in the two-axis region 442 . Two instrument regions 464 and 465 are included in the triaxial region 443 .
In other words, the hierarchies are arranged in the order of "machine number", "axis", and "equipment" from the higher to the lower hierarchies.

本実施形態では、具体例として、表示装置11の周囲情報取得装置が、表示装置11の外界の画像を撮像する撮像装置を含む場合を示す。このため、具体例として、表示装置11の周囲の情報の例として表示装置11の周囲の画像の情報が用いられる場合を示すが、例えば、超音波あるいは温度などのように画像以外の検出情報がさらに用いられて精度の向上が図られてもよい。また、他の例として、表示装置11の周囲の情報として、画像の情報が用いられずに、超音波あるいは温度などのように画像以外の検出情報が用いられる構成であってもよい。 In this embodiment, as a specific example, the case where the ambient information acquisition device of the display device 11 includes an imaging device that captures an image of the outside world of the display device 11 will be described. For this reason, as a specific example, a case where image information around the display device 11 is used as an example of information around the display device 11 will be described. Further, it may be used to improve accuracy. As another example, the information about the surroundings of the display device 11 may be configured to use detection information other than images, such as ultrasonic waves or temperature, instead of using image information.

表示装置11を装着したユーザー51がフロア411のARマーカー471の付近に来ると、表示装置11によってARマーカー471の画像が撮像される。そして、制御装置41は、当該画像に基づいて、ARマーカー471を認識し、フロア411に、図5に示されるような仮想空間を設定する。この段階で、制御装置41は、ユーザー51の位置が8号機の号機領域421に存在することを判定し、「8号機」またはそれに関する語句をキーワードとして設定する。 When the user 51 wearing the display device 11 comes near the AR marker 471 on the floor 411 , the image of the AR marker 471 is captured by the display device 11 . Based on the image, the control device 41 recognizes the AR marker 471 and sets a virtual space on the floor 411 as shown in FIG. At this stage, the control device 41 determines that the position of the user 51 is in the car area 421 of car No. 8, and sets "car No. 8" or a related phrase as a keyword.

その後、ユーザー51が移動して1軸領域441に入ったとする。この段階で、制御装置41は、ユーザー51の位置が8号機の号機領域421に存在するとともに1軸領域441に存在することを判定し、「8号機」と「1軸」とでAND条件としたときに関する語句、または、これらに関する語句をキーワードとして設定する。 Assume that the user 51 then moves and enters the 1-axis area 441 . At this stage, the control device 41 determines that the position of the user 51 exists in the machine area 421 of the 8th machine and also exists in the 1-axis area 441. Set the phrases related to when you do or the phrases related to these as keywords.

その後、ユーザー51が移動して機器領域461に入ったとする。この段階で、制御装置41は、ユーザー51の位置が8号機の号機領域421に存在するとともに1軸領域441に存在し、かつ機器領域461に存在することを判定し、「8号機」と「1軸」と機器451の「機器」とでAND条件としたときに関する語句、または、これらに関する語句をキーワードとして設定する。 Assume that the user 51 then moves and enters the device area 461 . At this stage, the control device 41 determines that the position of the user 51 exists in the machine region 421 of the 8th car, in the 1-axis region 441, and in the device region 461, and determines that "8th car" and " Axis 1” and the “equipment” of the equipment 451 are set as keywords.

このように、ユーザー51が、フロア411に存在してそれよりも詳細な領域には存在しない状態から、フロア411における8号機の号機領域421に存在してそれよりも詳細な領域には存在しない状態へ移行し、次に、号機領域421と1軸領域441に存在してそれよりも詳細な領域には存在しない状態へ移行し、そして、号機領域421と1軸領域441と機器451に存在する状態へ移行するにしたがって、より詳細な領域に関するキーワードが自動的に絞り込まれて設定されていく。
ここで、本実施形態では、広い領域から次第に詳細な領域に行く場合に、AND条件でキーワードを絞り込むことが行われるが、他の条件でキーワードが設定されてもよい。
In this way, the user 51 exists on the floor 411 and does not exist in a more detailed area than that, to the state where the user 51 exists in the car number 8 area 421 on the floor 411 but does not exist in a more detailed area. state, then to a state that exists in the machine number area 421 and the 1-axis area 441 but does not exist in the more detailed area, and then to a state that exists in the machine number area 421, the 1-axis area 441, and the device 451 Keywords related to more detailed areas are automatically narrowed down and set as the state shifts to the state where the
Here, in the present embodiment, keywords are narrowed down with an AND condition when going from a wide area to a detailed area, but the keywords may be set with other conditions.

なお、ここではユーザー51が広い領域から次第に詳細な領域に移動する場合を示したが、逆に、ユーザー51が詳細な領域からより広い領域へ移動していく場合には、次第に、キーワードの絞り込みが解除されていく。つまり、この場合、キーワードが詳細に絞り込まれた状態から、それほど絞り込まれていない状態へ移行していく。
また、ここではユーザー51の移動を規定したが、ユーザー51がどのように移動するかに関わらず、ユーザー51が存在する位置に応じて、当該位置を含む領域に応じてキーワードが絞り込まれた状態となる。
Although the case where the user 51 moves from a wide area to a detailed area is shown here, conversely, when the user 51 moves from a detailed area to a wider area, the keywords are gradually narrowed down. is released. That is, in this case, the state in which the keywords are narrowed down in detail is shifted to the state in which the keywords are not so narrowed down.
In addition, although the movement of the user 51 is specified here, keywords are narrowed down according to the area including the position where the user 51 exists regardless of how the user 51 moves. becomes.

ここで、それぞれの状態におけるキーワードとしては、種々なキーワードが用いられてもよい。
例えば、ユーザー51がフロア411に存在してそれよりも詳細な領域には存在しない状態では、制御装置41は、地図情報331に基づいて、フロア411に関するキーワードを設定する。
例えば、ユーザー51が、フロア411における8号機の号機領域421に存在してそれよりも詳細な領域には存在しない状態では、制御装置41は、地図情報331に基づいて、フロア411にある8号機に関するキーワードを設定する。なお、この状態において、制御装置41は、より広い領域であるフロア411に関するキーワードについても設定してもよく、あるいは、設定しなくてもよい。
Here, various keywords may be used as keywords in each state.
For example, in a state where the user 51 exists on the floor 411 and does not exist in a more detailed area, the control device 41 sets keywords related to the floor 411 based on the map information 331 .
For example, when the user 51 exists in the car area 421 of car No. 8 on the floor 411 and does not exist in a more detailed area, the control device 41 detects car No. 8 on the floor 411 based on the map information 331. set keywords for In this state, the control device 41 may or may not set a keyword related to the floor 411, which is a wider area.

例えば、ユーザー51が、号機領域421と1軸領域441に存在してそれよりも詳細な領域には存在しない状態では、制御装置41は、地図情報331に基づいて、フロア411にある8号機にある1軸431に関するキーワードを設定する。なお、この状態において、制御装置41は、より広い領域であるフロア411に関するキーワードあるいはフロア411にある8号機に関するキーワードのうちの1以上についても設定してもよく、あるいは、設定しなくてもよい。
例えば、ユーザー51が、号機領域421と1軸領域441と機器領域461に存在する状態では、制御装置41は、地図情報331に基づいて、フロア411にある8号機にある1軸431にある機器451に関するキーワードを設定する。なお、この状態において、制御装置41は、より広い領域であるフロア411に関するキーワード、フロア411にある8号機に関するキーワード、あるいはフロア411にある8号機にある1軸431に関するキーワードのうちの1以上についても設定してもよく、あるいは、設定しなくてもよい。
For example, when the user 51 exists in the machine area 421 and the 1-axis area 441 and does not exist in the more detailed area, the control device 41, based on the map information 331, moves to the 8th machine on the floor 411. A keyword related to a certain axis 431 is set. In this state, the control device 41 may or may not set one or more of the keywords related to the floor 411, which is a wider area, or the keywords related to the No. 8 car on the floor 411. .
For example, when the user 51 exists in the machine area 421, the 1st axis area 441, and the equipment area 461, the control device 41, based on the map information 331, controls the equipment on the 1st axis 431 in the 8th machine on the floor 411. Set keywords for 451. Note that in this state, the control device 41 does not specify any one or more of the keywords related to the floor 411 which is a wider area, the keywords related to the 8th car on the floor 411, or the keywords related to the 1st axis 431 in the 8th car on the floor 411. may be set or may not be set.

図6(A)~(E)は、本発明の一実施形態に係るキーワードの絞り込みの例を示す図である。
図6(A)は、フロアに関するキーワードを示してある。本例では、1階を表す「1FL」、2階を表す「2FL」、および3階を表す「3FL」がある。
図6(B)は、2階にある号機に関するキーワードを示してある。本例では、2階の7号機を表す「2FL 7号機」、および2階の8号機を表す「2FL 8号機」がある。
図6(C)は、軸に関するキーワードを示してある。本例では、「1軸」、「2軸」、「3軸」、およびすべての軸に共通であることを表す「共通」がある。
図6(D)は、機器に関するキーワードを示してある。本例では、「グランド蒸気コンデンサのファン」、「ST主要弁」、「電源盤」、「その他」がある。
FIGS. 6A to 6E are diagrams showing examples of narrowing down keywords according to an embodiment of the present invention.
FIG. 6A shows keywords related to floors. In this example, there are "1FL" representing the first floor, "2FL" representing the second floor, and "3FL" representing the third floor.
FIG. 6(B) shows keywords related to the car on the second floor. In this example, there is a "2FL No. 7" representing the second floor, and a "2FL No. 8" representing the second floor, the No. 8.
FIG. 6C shows keywords related to axes. In this example, there are "single-axis", "two-axis", "three-axis", and "common" indicating common to all axes.
FIG. 6D shows keywords related to equipment. In this example, there are "Gland Steam Condenser Fan", "ST Main Valve", "Power Panel", and "Other".

図6(E)は、フロア、号機、軸、機器といった階層が次第に特定されていった結果としてキーワードが得られた後に、任意のキーワードを用いて検索された情報が表示される状態を示してある。
本実施形態では、制御装置41は、表示装置11を装着したユーザー51の位置および姿勢に基づいてキーワードを自動的に設定して、設定されたキーワードの情報を表示装置11によって表示させる。このようなキーワードの情報は、例えば、ユーザー51が空間に階層的に設けられた領域あるいは機器などのところを移動していくことなどに応じて、階層的に変化していく。
また、制御装置41は、表示装置11によって検出されたユーザー51の頭部の動きなどに基づいて、ユーザー51によって選択されたキーワードを取得する。そして、制御装置41は、取得されたキーワードを用いてデータベース24を検索し、検索された結果の情報を表示装置11によって表示させる。
FIG. 6(E) shows a state in which information retrieved using an arbitrary keyword is displayed after keywords are obtained as a result of gradually specifying a hierarchy such as floor, machine number, axis, and equipment. be.
In this embodiment, the control device 41 automatically sets a keyword based on the position and posture of the user 51 wearing the display device 11 and causes the display device 11 to display information on the set keyword. Such keyword information changes hierarchically, for example, as the user 51 moves through areas or devices hierarchically provided in the space.
Further, the control device 41 acquires the keyword selected by the user 51 based on the movement of the user's 51 head detected by the display device 11 . Then, the control device 41 searches the database 24 using the acquired keyword, and causes the display device 11 to display the information of the searched result.

ここで、本実施形態では、制御装置41は、ユーザー51の頭部の動きなどによってキーワードの選択を受け付けるが、他の例として、ユーザー51の位置および姿勢によって、自動的に、検索に用いるキーワードを設定(選択)してもよい。 Here, in this embodiment, the control device 41 accepts the selection of a keyword based on the movement of the head of the user 51, etc. As another example, the position and posture of the user 51 automatically select a keyword to be used for searching. may be set (selected).

図7(A)~(E)は、本発明の一実施形態に係るキーワードの絞り込みの他の例を示す図である。
本例では、ユーザー51が、表示装置11によって表示されたキーワードとは別のキーワードを選択する場合を示す。
FIGS. 7A to 7E are diagrams showing other examples of narrowing down keywords according to an embodiment of the present invention.
This example shows a case where the user 51 selects a keyword different from the keyword displayed by the display device 11 .

図7(A)は、軸に関するキーワードを示してある。本例では、「1軸」、「2軸」、「3軸」、およびすべての軸に共通であることを表す「共通」がある。
例えば、このとき、ユーザー51が、図7(A)に表示されたキーワードとは異なるキーワードを設定することを希望したとする。本例では、ユーザー51は、頭部の動きなどによって、図7(B)に示される情報を表示させることを指示する。
図7(B)は、ユーザー51の指示に応じて表示されるキーワードを示してある。本例では、「タービン建屋」、「HRSG」、「屋外」がある。
FIG. 7A shows keywords related to axes. In this example, there are "single-axis", "two-axis", "three-axis", and "common" indicating common to all axes.
For example, at this time, assume that the user 51 desires to set a keyword different from the keyword displayed in FIG. 7(A). In this example, the user 51 instructs to display the information shown in FIG. 7B by moving the head or the like.
FIG. 7B shows keywords displayed according to the user's 51 instructions. In this example, there are "turbine building", "HRSG", and "outdoor".

例えば、このとき、ユーザー51が「タービン建屋」を選択することを指示したとする。
図7(C)は、ユーザー51の指示に応じて表示されるキーワードを示してある。本例では、1階のタービンを表す「1FL タービン」、1階の他のものを表す「1FL その他」、2階のタービンを表す「2FL タービン」、2階の他のものを表す「2FL その他」、3階のタービンを表す「3FL タービン」、3階の他のものを表す「3FL その他」がある。
For example, at this time, assume that the user 51 instructs to select "turbine building".
FIG. 7C shows keywords displayed according to the user's 51 instructions. In this example, "1FL Turbine" for first floor turbines, "1FL other" for first floor others, "2FL Turbine" for second floor turbines, "2FL other" for second floor others , "3FL Turbine" for third floor turbines, and "3FL other" for others on third floor.

例えば、このとき、ユーザー51が「2FL タービン」を選択することを指示したとする。
図7(D)は、ユーザー51の指示に応じて表示されるキーワードを示してある。本例では、「グランド蒸気コンデンサのファン」、「ST主要弁」、「電源盤」、「その他」がある。
For example, at this time, assume that the user 51 instructs to select "2FL Turbine".
FIG. 7D shows keywords displayed according to the user's 51 instruction. In this example, there are "Gland Steam Condenser Fan", "ST Main Valve", "Power Panel", and "Other".

例えば、このとき、ユーザー51が所望のキーワードによる検索を行うことを指示したとする。
図7(E)は、指示されたキーワードを用いて検索された情報が表示される状態を示してある。
本実施形態では、制御装置41は、表示装置11を装着したユーザー51の頭部の動きなどによってキーワードの選択が行われた場合には、選択されたキーワードを用いてデータベース24を検索し、検索された結果の情報を表示装置11によって表示させる。
For example, at this time, assume that the user 51 instructs to perform a search using a desired keyword.
FIG. 7(E) shows a state in which information retrieved using the specified keyword is displayed.
In this embodiment, when a keyword is selected by movement of the head of the user 51 wearing the display device 11, the control device 41 searches the database 24 using the selected keyword, and searches the database 24. The resulting information is displayed by the display device 11 .

図8は、本発明の一実施形態に係る表示装置11において表示される情報(表示情報1011)の一例を示す図である。
表示情報1011は、例えば、キーワードが絞り込まれていく場合に、任意の時点で表示されてもよい。
本例では、説明の便宜上、図面を見たときの上下左右を用いて、説明する。
表示情報1011では、最も左の上下の欄には、各種の指示に対応付けられたワードが表示されている。図8の例では、所望の情報を選択することを指示する「えらぶ」、別の装置を選択することを指示する「別の装置」、所望の情報の選択を解除することを指示する「はがす」、1つ前の状態に戻ることを指示する「もどる」、最初の状態に戻ることを指示する「さいしょへ」がある。
ここで、ユーザー51によって「別の装置」が選択されると、例えば、図7に示されるように、制御装置41は、表示情報1011に含まれるキーワード以外のキーワードをユーザー51によって設定することを可能とする。
FIG. 8 is a diagram showing an example of information (display information 1011) displayed on the display device 11 according to one embodiment of the present invention.
The display information 1011 may be displayed at any time, for example, when keywords are being narrowed down.
In this example, for convenience of explanation, the top, bottom, left, and right when viewing the drawing will be used for explanation.
In the display information 1011, words associated with various instructions are displayed in the leftmost upper and lower columns. In the example of FIG. 8, "select" instructs to select desired information, "another device" instructs to select another device, and "peel off" instructs to deselect desired information. ', 'return' for returning to the previous state, and 'saisho e' for returning to the initial state.
Here, when the user 51 selects "another device", for example, as shown in FIG. make it possible.

また、表示情報1011では、左から2番目以降の上下の欄に、各種の特性値に関する情報が表示されている。
本例では、識別子と、名称と、数値と、単位とが一組になった情報が、上下方向に、複数格納されている。具体的には、識別子である「1A0000」と、名称である「給水温度」と、数値である「40」と、単位である「°C」とが一組になった情報、識別子である「1A0001」と、名称である「給水圧力」と、数値である「4」と、単位である「MPa」とが一組になった情報、などがある。
Further, in the display information 1011, information regarding various characteristic values is displayed in the upper and lower columns from the second column onward from the left.
In this example, a plurality of sets of information consisting of an identifier, a name, a numerical value, and a unit are stored in the vertical direction. Specifically, the identifier "1A0000", the name "water supply temperature", the numerical value "40", and the unit "°C" are a set of information, and the identifier "1A0001", the name "water supply pressure", the numerical value "4", and the unit "MPa" as a set.

図9は、本発明の一実施形態に係る選択情報の貼り付けの例を示す図である。
図9には、給水管2011と、選択情報2021を示してある。
まず、表示装置11を装着しているユーザー51には、現実世界に存在する給水管2011が見えているとする。なお、給水管2011は、現実世界に存在するものでなくてもよく、他の例として、仮想世界に存在するものであってもよい。
FIG. 9 is a diagram showing an example of pasting selection information according to one embodiment of the present invention.
FIG. 9 shows a water supply pipe 2011 and selection information 2021 .
First, it is assumed that the user 51 wearing the display device 11 can see the water supply pipe 2011 existing in the real world. Note that the water supply pipe 2011 may not exist in the real world, and as another example, it may exist in the virtual world.

図8に示される表示情報1011が表示されている場合に、ユーザー51によって「えらぶ」が選択されて、さらに、ユーザー51によって「1A000 給水温度 40 °C」という一組の情報が選択されたとする。すると、制御装置41は、図9に示されるように、選択された一組の情報の内容を有する選択情報2021を表示装置11によって表示させる。 Suppose that when the display information 1011 shown in FIG. 8 is displayed, the user 51 selects "select" and further selects a set of information "1A000 water supply temperature 40°C". . Then, the control device 41 causes the display device 11 to display selection information 2021 having the content of the selected set of information, as shown in FIG.

ユーザー51は、頭部の動きなどによって、選択情報2021を給水管2011あるいはその付近に貼り付けることを指示することができる。制御装置41は、このような指示を受け付けたことに応じて、選択情報2021を給水管2011あるいはその付近に貼り付ける。本例では、選択情報2021を給水管2011あるいはその付近に貼り付けることは、選択情報2021と給水管2011との相対的な配置を維持したまま表示することを表す。
なお、選択情報2021を給水管2011あるいはその付近に貼り付けるためにユーザー51によって行われる動作としては、任意の動作が用いられてもよい。
The user 51 can instruct to paste the selection information 2021 on or near the water supply pipe 2011 by moving the head or the like. In response to receiving such an instruction, the control device 41 pastes the selection information 2021 on or near the water supply pipe 2011 . In this example, pasting the selection information 2021 on or near the water supply pipe 2011 means displaying while maintaining the relative arrangement of the selection information 2021 and the water supply pipe 2011 .
Any operation may be used as the operation performed by the user 51 to attach the selection information 2021 to the water supply pipe 2011 or its vicinity.

また、ユーザー51は、頭部の動きなどによって、給水管2011あるいはその付近に貼り付けられた選択情報2021をはがすことを指示することができる。本例では、図8に示される表示情報1011が表示されている場合に、ユーザー51によって「はがす」が選択されて、さらに、ユーザー51によって選択情報2021が選択されたとする。すると、制御装置41は、給水管2011あるいはその付近に貼り付けられた選択情報2021を消去して表示装置11によって表示されないように制御する。 In addition, the user 51 can instruct to peel off the selection information 2021 pasted on or near the water supply pipe 2011 by moving the head or the like. In this example, when the display information 1011 shown in FIG. 8 is displayed, it is assumed that the user 51 selects “peel off” and further selects the selection information 2021 . Then, the control device 41 erases the selection information 2021 pasted on or near the water supply pipe 2011 so that it is not displayed on the display device 11 .

図10は、本発明の一実施形態に係る検索結果情報1021の例を示す図である。
本例では、説明の便宜上、図面を見たときの上下左右を用いて、説明する。
検索結果情報1021は、あるキーワードを用いて検索された結果の情報を表す。
本例では、識別子と、名称と、単位と、日付および数値とが一組になった情報が、左右方向に、複数格納されている。
具体的には、識別子である「2B0000」と、名称である「ファン入口流量」と、単位である「%」と、日付である「2018/8/26 17:00」および数値である「70.1」のように日付と数値とが対応付けられた1以上の上下方向の欄が含まれる一組になった情報などがある。
FIG. 10 is a diagram showing an example of search result information 1021 according to one embodiment of the present invention.
In this example, for convenience of explanation, the top, bottom, left, and right when viewing the drawing will be used for explanation.
The search result information 1021 represents information of results of a search using a certain keyword.
In this example, a plurality of sets of information consisting of an identifier, a name, a unit, a date and a numerical value are stored in the horizontal direction.
Specifically, the identifier "2B0000", the name "fan inlet flow rate", the unit "%", the date "2018/8/26 17:00", and the numerical value "70 .1", which is a set of information including one or more vertical columns in which dates and numerical values are associated with each other.

ここで、本実施形態では、表示装置11においてユーザー51によって指示される内容に応じて、様々な処理が行われてもよい。例えば、表示されたキーワードのうちの一部または全部を消去する処理、表示されるキーワードの数あるいは文字数などを増減する調整を実行する処理、検索結果の情報の一部または全部を新たなキーワードとして検索を実行させる処理、キーワードの一覧が表示される状態と表示されない状態とを切り替える処理などが行われてもよい。 Here, in the present embodiment, various processes may be performed according to the contents of instructions given by the user 51 on the display device 11 . For example, processing to delete some or all of the displayed keywords, processing to adjust the number of displayed keywords or the number of characters, processing to increase or decrease the number of displayed keywords, processing of part or all of the search result information as new keywords A process of executing a search, a process of switching between a state in which a list of keywords is displayed and a state in which it is not displayed, and the like may be performed.

<MRシステムにおいて行われる処理の手順の例>
図11は、本発明の一実施形態に係る制御装置41において行われる処理の手順の例を示す図である。
本フローでは、空間認識および機器配置との対応付けの処理を行う。
<Example of procedure of processing performed in MR system>
FIG. 11 is a diagram showing an example of the procedure of processing performed in the control device 41 according to one embodiment of the present invention.
In this flow, processing for spatial recognition and association with equipment placement is performed.

(ステップS1)
制御装置41は、空間認識部351によって、表示装置11によって取得された周囲の情報に基づいて、表示装置11の周囲の3次元空間を認識する。そして、ステップS2の処理へ移行する。
なお、表示装置11によって撮像された3次元空間の画像の情報が周囲の情報として用いられる場合には、例えば、空間認識部351によって、当該3次元空間を認識することが行われる。
(Step S1)
The control device 41 uses the space recognition section 351 to recognize the three-dimensional space around the display device 11 based on the surrounding information acquired by the display device 11 . Then, the process proceeds to step S2.
When the information of the image of the three-dimensional space captured by the display device 11 is used as the surrounding information, the three-dimensional space is recognized by the space recognition unit 351, for example.

(ステップS2)
制御装置41は、地図情報331に基づいて、機器配置対応付け部353によって、認識された3次元空間と機器の配置とを対応付ける。そして、本フローの処理を終了する。
(Step S2)
Based on the map information 331 , the control device 41 causes the device layout association unit 353 to associate the recognized three-dimensional space with the layout of the devices. Then, the processing of this flow ends.

図12は、本発明の一実施形態に係る制御装置41において行われる処理の手順の例を示す図である。
本フローでは、キーワードを用いた処理を行う。
FIG. 12 is a diagram showing an example of the procedure of processing performed by the control device 41 according to one embodiment of the present invention.
In this flow, processing using keywords is performed.

(ステップS11)
制御装置41は、位置姿勢取得部354によって、表示装置11を装着しているユーザー51の位置と姿勢を取得する。そして、ステップS12の処理へ移行する。
(Step S11)
The control device 41 acquires the position and posture of the user 51 wearing the display device 11 by the position/posture acquisition unit 354 . Then, the process proceeds to step S12.

(ステップS12)
制御装置41は、ユーザー51の位置と姿勢に基づいて、キーワード取得部355によって、キーワードを取得する。そして、ステップS13の処理へ移行する。
ここで、取得されたキーワードは、表示制御部357によって、表示装置11によって表示させてもよい。また、検索部356によって、表示されたキーワードのなかから、ユーザー51によって選択されたキーワードを検索用のキーワードとして受け付けてもよい。
(Step S12)
The control device 41 acquires the keyword by the keyword acquisition section 355 based on the position and posture of the user 51 . Then, the process proceeds to step S13.
Here, the acquired keyword may be displayed on the display device 11 by the display control unit 357 . Moreover, the keyword selected by the user 51 from among the displayed keywords may be accepted as a keyword for search by the search unit 356 .

(ステップS13)
制御装置41は、取得されたキーワードを用いて、検索部356によって、データベース24を検索する。そして、ステップS14の処理へ移行する。
(Step S13)
The control device 41 searches the database 24 using the search unit 356 using the acquired keyword. Then, the process proceeds to step S14.

(ステップS14)
制御装置41は、検索の結果に基づいて、表示制御部357によって、情報を表示する。そして、ステップS15の処理へ移行する。
(Step S14)
The control device 41 causes the display control section 357 to display information based on the search result. Then, the process proceeds to step S15.

(ステップS15)
制御装置41は、表示された情報に関して、所定の処理を実行する。そして、本フローの処理を終了する。
ここで、当該所定の処理は、任意の処理であってもよい。また、当該所定の処理は、例えば、あらかじめ定められた処理であってもよく、あるいは、ユーザー51によって指示された処理であってもよい。
(Step S15)
The control device 41 performs predetermined processing on the displayed information. Then, the processing of this flow ends.
Here, the predetermined processing may be arbitrary processing. Also, the predetermined process may be, for example, a predetermined process or a process instructed by the user 51 .

<第1実施形態について>
以上のように、本実施形態に係るMRシステム1では、例えば、ユーザー51によって装着される表示装置11によってMRの表示が行われる場合に、データ検索のキー(本実施形態では、キーワード)を受け付けることを、当該ユーザー51にとって簡易に、行うことができる。本実施形態に係るMRシステム1では、例えば、広大な領域などにMR技術が適用される場合に、監視用の情報などの検索を簡素化することが可能である。
<Regarding the first embodiment>
As described above, in the MR system 1 according to this embodiment, for example, when MR is displayed by the display device 11 worn by the user 51, a data search key (in this embodiment, a keyword) is accepted. can be easily performed by the user 51 concerned. In the MR system 1 according to this embodiment, for example, when MR technology is applied to a vast area, it is possible to simplify retrieval of information for monitoring.

本実施形態に係るMRシステム1では、制御装置41は、表示装置11によって取得された周囲の情報に基づいて、フロアなどの空間認識を実行しておく。次に、制御装置41は、空間認識で得られたフロアなどに、機器などの配置を対応付ける。そして、制御装置41は、フロアなどの内部の基準点と、空間認識の結果とを照合することで、フロアなどの内部におけるユーザー51の位置を判定する。そして、制御装置41は、このようなユーザー51の位置に基づいて、キーワードの情報を表示装置11によって表示させる。この場合、ユーザー51が特定の機器などに近付くと、制御装置41は、当該機器などに関連するキーワードなどの情報を表示装置11によって表示させる。制御装置41は、ユーザー51によって行われる指示などに基づいて、キーワードを用いて検索を行い、検索の結果の情報を表示装置11によって表示させる。 In the MR system 1 according to the present embodiment, the control device 41 performs spatial recognition of the floor or the like based on the surrounding information acquired by the display device 11 . Next, the control device 41 associates the layout of equipment and the like with the floor and the like obtained by spatial recognition. Then, the control device 41 determines the position of the user 51 inside the floor or the like by matching the reference point inside the floor or the like with the result of the space recognition. Then, the control device 41 causes the display device 11 to display the keyword information based on the position of the user 51 . In this case, when the user 51 approaches a specific device or the like, the control device 41 causes the display device 11 to display information such as keywords related to the device or the like. The control device 41 performs a search using a keyword based on an instruction given by the user 51 or the like, and causes the display device 11 to display the information of the search result.

具体例として、本実施形態に係るMRシステム1では、表示装置11を装着したユーザー51が、中央監視場所などを出発して、所定のフロアに到着し、所定の領域あるいは所定の機器などに近付いていくにしたがって、近傍にある機器などに関連するキーワードが自動的に絞り込まれていく。
また、本実施形態に係るMRシステム1では、表示装置11を装着したユーザー51によって簡易な操作が行われるだけで、自動的なキーワードの絞り込み、および、キーワードを用いた自動的な検索などが可能である。また、本実施形態に係るMRシステム1では、表示装置11を装着したユーザー51によって操作が行われなくても、自動的にキーワードを絞り込んで検索を行うように構成することも可能である。
また、本実施形態に係るMRシステム1では、例えば、機器などのそれぞれごとにARマーカーを設置しなくてもよいため、ARマーカーの数を低減させることができる。
As a specific example, in the MR system 1 according to this embodiment, the user 51 wearing the display device 11 departs from a central monitoring place or the like, arrives at a predetermined floor, and approaches a predetermined area or predetermined equipment. Keywords related to devices in the vicinity are automatically narrowed down as the search progresses.
In addition, in the MR system 1 according to the present embodiment, the user 51 wearing the display device 11 only performs a simple operation, thereby enabling automatic keyword narrowing down and automatic retrieval using the keyword. is. Further, the MR system 1 according to the present embodiment can be configured so that a search is automatically performed by narrowing down the keywords even if the user 51 wearing the display device 11 does not perform an operation.
In addition, in the MR system 1 according to the present embodiment, for example, since it is not necessary to install an AR marker for each device or the like, the number of AR markers can be reduced.

また、本実施形態に係るMRシステム1では、表示装置11を装着したユーザー51によって行われる操作に応じて、表示装置11によって表示されるキーワードなどの情報の一部または全部を所定の機器などのように所定の箇所に貼り付けること、あるいは、所定の箇所に貼り付けられた情報をはがすこと、が可能である。したがって、本実施形態に係るMRシステム1では、例えば、ユーザー51によって所定の作業が行われる場合に、当該作業に関する情報が作業場の関連する所定の機器などに貼り付けられてユーザー51によって視認される状態とすることで、ユーザー51にとって作業をし易くすることが可能である。 Further, in the MR system 1 according to the present embodiment, in accordance with an operation performed by the user 51 wearing the display device 11, a part or all of the information such as the keyword displayed by the display device 11 is transmitted to a predetermined device or the like. It is possible to paste the information on a predetermined place as shown in FIG. Therefore, in the MR system 1 according to the present embodiment, for example, when a predetermined work is performed by the user 51, information related to the work is attached to predetermined equipment or the like in the workplace and is visually recognized by the user 51. By setting the state, it is possible to facilitate the work for the user 51 .

[第2実施形態]
第2実施形態を説明する。
本実施形態では、説明の便宜上、第1実施形態に係る図1に示される符号と同じ符号を用いて説明する。
[Second embodiment]
A second embodiment will be described.
In this embodiment, for convenience of explanation, the same reference numerals as those shown in FIG. 1 according to the first embodiment are used for explanation.

<表示装置>
第1実施形態では、表示装置11と制御装置41とを別体で備え、制御装置41が表示装置11を制御することで、表示装置11においてMRの表示が行われるMRシステム1を示した。
本実施形態では、第1実施形態に係る制御装置41の機能の一部または全部と同様な機能を表示装置11に備えることで、表示装置11が単独でMRの表示を行うことが可能な構成とする。
<Display device>
In the first embodiment, the MR system 1 is provided with the display device 11 and the control device 41 separately, and the control device 41 controls the display device 11 to display MR on the display device 11 .
In the present embodiment, the display device 11 is provided with functions similar to some or all of the functions of the control device 41 according to the first embodiment, so that the display device 11 alone can display MR. and

概略的には、本実施形態に係る表示装置11は、第1実施形態において有していた機能に加えて、第1実施形態に係る制御装置41の制御部315と同様な機能を備える。
また、本実施形態に係る表示装置11では、地図情報331と同様な情報を記憶部112に記憶している。他の例として、地図情報331は、表示装置11以外の場所の記憶部(図示せず)に記憶されてもよく、この場合、表示装置11は、必要に応じて、当該記憶部に記憶された情報を取得する。
ただし、第1実施形態において行われる表示装置11と制御装置41との通信を行う機能は、本実施形態では、表示装置11に備えられなくてよい。
Schematically, the display device 11 according to the present embodiment has functions similar to those of the control unit 315 of the control device 41 according to the first embodiment, in addition to the functions of the first embodiment.
Further, in the display device 11 according to this embodiment, information similar to the map information 331 is stored in the storage unit 112 . As another example, the map information 331 may be stored in a storage unit (not shown) at a location other than the display device 11. In this case, the display device 11 may be stored in the storage unit as necessary. get the information
However, the function of performing communication between the display device 11 and the control device 41 performed in the first embodiment does not have to be provided in the display device 11 in the present embodiment.

以上のように、本実施形態に係る表示装置11では、第1実施形態の場合と同様に、例えば、ユーザー51によって装着される表示装置11によってMRの表示が行われる場合に、データ検索のキー(本実施形態では、キーワード)を受け付けることを、当該ユーザー51にとって簡易に、行うことができる。本実施形態に係る表示装置11では、例えば、広大な領域などにMR技術が適用される場合に、監視用の情報などの検索を簡素化することが可能である。 As described above, in the display device 11 according to the present embodiment, as in the case of the first embodiment, for example, when the display device 11 worn by the user 51 displays MR, the data search key The user 51 can easily accept (in this embodiment, a keyword). In the display device 11 according to this embodiment, for example, when the MR technology is applied to a vast area, it is possible to simplify the retrieval of information for monitoring.

[第3実施形態]
第3実施形態を説明する。
本実施形態では、説明の便宜上、第1実施形態に係る図1に示される符号と同じ符号を用いて説明する。
[Third embodiment]
A third embodiment will be described.
In this embodiment, for convenience of explanation, the same reference numerals as those shown in FIG. 1 according to the first embodiment are used for explanation.

<MRシステム>
本実施形態に係るMRシステム1では、全体としては、第1実施形態に係るMRシステム1と同様な処理が行われる。
本実施形態では、第1実施形態に係る表示装置11、携帯装置12、およびサーバ装置21の制御装置41などのそれぞれに備えられた機能部のそれぞれが、MRシステム1における任意の装置に備えられてもよい。つまり、MRシステム1において、それぞれの機能部が任意のところに備えられていても、全体として、第1実施形態に係るMRシステム1と同様な処理を行うことができればよい。なお、複数の異なる装置に備えられた機能部の間で通信を行うことが必要であれば、これら複数の異なる装置の間で必要な情報を通信する。
<MR system>
In the MR system 1 according to this embodiment, as a whole, processing similar to that of the MR system 1 according to the first embodiment is performed.
In this embodiment, each of the functional units provided in each of the display device 11, the portable device 12, and the control device 41 of the server device 21 according to the first embodiment is provided in an arbitrary device in the MR system 1. may In other words, even if the MR system 1 is provided with each functional unit at an arbitrary location, it is sufficient that the same processing as the MR system 1 according to the first embodiment can be performed as a whole. If it is necessary to communicate between functional units provided in a plurality of different devices, necessary information is communicated between the plurality of different devices.

以上のように、本実施形態に係るMRシステム1では、第1実施形態の場合と同様に、例えば、ユーザー51によって装着される表示装置11によってMRの表示が行われる場合に、データ検索のキー(本実施形態では、キーワード)を受け付けることを、当該ユーザー51にとって簡易に、行うことができる。本実施形態に係るMRシステム1では、例えば、広大な領域などにMR技術が適用される場合に、監視用の情報などの検索を簡素化することが可能である。 As described above, in the MR system 1 according to the present embodiment, as in the case of the first embodiment, for example, when the display device 11 worn by the user 51 displays the MR, the data search key The user 51 can easily accept (in this embodiment, a keyword). In the MR system 1 according to this embodiment, for example, when MR technology is applied to a vast area, it is possible to simplify retrieval of information for monitoring.

<以上の実施形態に関する構成例>
一構成例として、制御装置41は、ユーザー51に装着されて実空間の光を表示部に透過させて仮想的な画像を当該表示部に表示することが可能な表示装置11の周囲の情報を取得する周囲情報取得装置(本実施形態では、検出部114に含まれる周囲情報取得装置)によって取得された情報に基づいて空間を認識する空間認識部351と、空間認識部351によって認識された空間と所定の地図情報331とを対応付ける対応付け部(本実施形態では、機器配置対応付け部353)と、対応付け部による対応付けの結果および表示装置11の状況に基づいてキーワードを取得するキーワード取得部355と、キーワード取得部355によって取得されたキーワードを表示装置11によって表示させる表示制御部357と、を備える。
<Configuration example related to the above embodiment>
As one configuration example, the control device 41 receives information about the surroundings of the display device 11 which is worn by the user 51 and is capable of transmitting light in the real space to the display section and displaying a virtual image on the display section. A space recognition unit 351 that recognizes a space based on information acquired by a surrounding information acquisition device (in this embodiment, a surrounding information acquisition device included in the detection unit 114), and a space recognized by the space recognition unit 351 and predetermined map information 331; and a display control unit 357 that causes the display device 11 to display the keyword acquired by the keyword acquisition unit 355 .

一構成例として、制御装置41では、表示装置11の状況は、表示装置11の位置(本実施形態では、位置姿勢取得部354によって取得される位置)、表示装置11の姿勢(本実施形態では、位置姿勢取得部354によって取得される姿勢)、あるいは、周囲情報取得装置によって取得される情報のうちの1以上を含む。
一構成例として、制御装置41では、キーワードは、表示装置11の状況に応じて、階層的に変化する。
一構成例として、制御装置41では、キーワードを用いて検索を行う検索部356を備え、表示制御部357は、検索部356によって検索された情報を表示装置11によって表示させる。
一構成例として、制御装置41では、表示制御部357は、ユーザー51によって行われる指示に応じて、キーワードまたは検索部356によって検索された情報(図9の例では、選択情報2021)のうちの少なくとも一方を所定の箇所(図9の例では、給水管2011)に貼り付けた表示を行う。
As one configuration example, in the control device 41, the status of the display device 11 is the position of the display device 11 (in this embodiment, the position acquired by the position/orientation acquisition unit 354), the orientation of the display device 11 (in this embodiment, , orientation acquired by the position and orientation acquisition unit 354), or information acquired by the surrounding information acquisition device.
As one configuration example, in the control device 41 , the keyword changes hierarchically according to the status of the display device 11 .
As one configuration example, the control device 41 includes a search section 356 that searches using a keyword, and the display control section 357 causes the display device 11 to display information searched by the search section 356 .
As one configuration example, in the control device 41, the display control unit 357 selects information (selected information 2021 in the example of FIG. 9) searched by the keyword or the search unit 356 in accordance with an instruction given by the user 51. At least one of them is attached to a predetermined location (the water supply pipe 2011 in the example of FIG. 9) for display.

一構成例として、プログラムを提供することが可能である。
すなわち、プログラムは、ユーザー51に装着されて実空間の光を表示部に透過させて仮想的な画像を当該表示部に表示することが可能な表示装置11の周囲の情報を取得する周囲情報取得装置によって取得された情報に基づいて空間を認識する機能と、認識された空間と所定の地図情報331とを対応付ける機能と、対応付けの結果および表示装置11の状況に基づいてキーワードを取得する機能と、取得されたキーワードを表示装置11によって表示させる機能と、をコンピュータに実現させるためのプログラムである。
As one configuration example, it is possible to provide a program.
That is, the program acquires information about the surroundings of the display device 11 which is worn by the user 51 and is capable of transmitting light in the real space to the display unit and displaying a virtual image on the display unit. A function of recognizing a space based on information acquired by the device, a function of associating the recognized space with predetermined map information 331, and a function of acquiring a keyword based on the result of the association and the status of the display device 11. and a function of displaying the acquired keyword on the display device 11, in a computer.

一構成例として、システム(本実施形態では、MRシステム1)は、ユーザー51に装着されて実空間の光を表示部に透過させて仮想的な画像を当該表示部に表示することが可能な表示装置11と、サーバ装置21と、を有する。
当該システムは、表示装置11の周囲の情報を取得する周囲情報取得装置によって取得された情報に基づいて空間を認識する空間認識部(本実施形態では、空間認識部351)と、空間認識部によって認識された空間と所定の地図情報331とを対応付ける対応付け部(本実施形態では、機器配置対応付け部353)と、対応付け部による対応付けの結果および表示装置11の状況に基づいてキーワードを取得するキーワード取得部(本実施形態では、キーワード取得部355)と、キーワード取得部によって取得されたキーワードを表示装置11によって表示させる表示制御部(本実施形態では、表示制御部357)と、を備える。
なお、当該システムに備えられる各機能部は、例えば、表示装置11とサーバ装置21とのいずれに備えられてもよい。例えば、一部の機能部が表示装置11に備えられて、他の機能部がサーバ装置21に備えられてもよい。
As one configuration example, the system (the MR system 1 in this embodiment) is worn by the user 51 and can transmit light in the real space to the display unit to display a virtual image on the display unit. It has a display device 11 and a server device 21 .
The system includes a space recognition unit (in this embodiment, space recognition unit 351) that recognizes a space based on information acquired by an ambient information acquisition device that acquires information around the display device 11, and a space recognition unit. A correlating unit (equipment arrangement correlating unit 353 in this embodiment) that correlates the recognized space with predetermined map information 331, and a keyword based on the result of the correlating by the correlating unit and the status of the display device 11. A keyword acquisition unit (in this embodiment, the keyword acquisition unit 355) that acquires a keyword, and a display control unit (in this embodiment, the display control unit 357) that causes the display device 11 to display the keyword acquired by the keyword acquisition unit. Prepare.
Note that each functional unit provided in the system may be provided in either the display device 11 or the server device 21, for example. For example, some functional units may be provided in the display device 11 and other functional units may be provided in the server device 21 .

<以上の実施形態について>
ここで、以上に示した実施形態に係る各装置(例えば、表示装置11、携帯装置12、サーバ装置21、情報処理装置22、ルータ装置25、制御装置41など)の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録(記憶)して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、オペレーティング・システム(OS:Operating System)あるいは周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
また、コンピュータ読み取り可能な記録媒体は、例えば、非一時的記録媒体である。
<Regarding the above embodiment>
Here, a program for realizing the function of each device (for example, the display device 11, the mobile device 12, the server device 21, the information processing device 22, the router device 25, the control device 41, etc.) according to the above-described embodiments may be recorded (stored) in a computer-readable recording medium, and the program recorded in the recording medium may be loaded into a computer system and executed to perform processing.
The “computer system” referred to here may include an operating system (OS) or hardware such as peripheral devices.
In addition, "computer-readable recording medium" includes a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a writable non-volatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disc), It refers to a storage device such as a hard disk built into a computer system.
Also, the computer-readable recording medium is, for example, a non-transitory recording medium.

さらに、「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークあるいは電話回線等の通信回線を介してプログラムが送信された場合のサーバあるいはクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)あるいは電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Furthermore, "computer-readable recording medium" means a volatile memory (e.g., DRAM ( It also includes those that hold programs for a certain period of time, such as Dynamic Random Access Memory)).
Moreover, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program means a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Also, the above program may be for realizing part of the functions described above. Furthermore, the above program may be a so-called difference file (difference program) that can realize the functions described above in combination with a program already recorded in the computer system.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and design changes and the like are included within the scope of the present invention.

1…MRシステム、11…表示装置、12…携帯装置、21…サーバ装置、22…情報処理装置、23…ディスプレイ装置、24…データベース、25…ルータ装置、31…ネットワーク、51…ユーザー、61…オペレーター、111、213、313…通信部、112、214、314…記憶部、113…表示部、114…検出部、115、216、315…制御部、131、357…表示制御部、132…検出情報送信制御部、211、311…入力部、212、312…出力部、215…位置検出部、231…位置情報送信制御部、331…地図情報、351…空間認識部、352…地図取得部、353…機器配置対応付け部、354…位置姿勢取得部、355…キーワード取得部、356…検索部、411…フロア、421…号機領域、431…1軸、432…2軸、433…3軸、441…1軸領域、442…2軸領域、443…3軸領域、451~455…機器、461~465…機器領域、1011…表示情報、1021…検索結果情報、2011…給水管、2021…選択情報 Reference Signs List 1 MR system 11 display device 12 portable device 21 server device 22 information processing device 23 display device 24 database 25 router device 31 network 51 user 61 Operator 111, 213, 313...Communication unit 112, 214, 314...Storage unit 113...Display unit 114...Detection unit 115, 216, 315...Control unit 131, 357...Display control unit 132...Detection Information transmission control unit 211, 311 input unit 212, 312 output unit 215 position detection unit 231 position information transmission control unit 331 map information 351 space recognition unit 352 map acquisition unit 353...Equipment layout association unit, 354...Position and orientation acquisition unit, 355...Keyword acquisition unit, 356...Search unit, 411...Floor, 421...Unit area, 431...1st axis, 432...2nd axis, 433...3rd axis, 441... 1 axis area, 442... 2 axis area, 443... 3 axis area, 451 to 455... equipment, 461 to 465... equipment area, 1011... display information, 1021... search result information, 2011... water supply pipe, 2021... selection information

Claims (6)

ユーザーに装着されて実空間の光を表示部に透過させて仮想的な画像を前記表示部に表示することが可能な表示装置の周囲の情報を取得する周囲情報取得装置によって取得された前記情報に基づいて空間を認識する空間認識部と、
前記空間認識部によって認識された前記空間と所定の地図情報とを対応付ける対応付け部と、
前記対応付け部による対応付けの結果および前記表示装置の状況に基づいて、前記表示装置の状況に応じて階層的に変化するキーワードを取得するキーワード取得部と、
前記キーワード取得部によって取得された前記キーワードを前記表示装置によって表示させる表示制御部と、
を備える制御装置。
The information acquired by the ambient information acquisition device that acquires information around a display device that is worn by a user and is capable of transmitting light in a real space to a display unit and displaying a virtual image on the display unit. a space recognition unit that recognizes a space based on
an associating unit that associates the space recognized by the space recognition unit with predetermined map information;
a keyword acquiring unit that acquires a keyword that hierarchically changes according to the state of the display device based on the result of the association by the associating unit and the state of the display device ;
a display control unit that causes the display device to display the keyword acquired by the keyword acquisition unit;
A control device comprising:
前記表示装置の状況は、前記表示装置の位置、前記表示装置の姿勢、あるいは、前記周囲情報取得装置によって取得される前記情報のうちの1以上を含む、
請求項1に記載の制御装置。
The status of the display device includes one or more of the position of the display device, the orientation of the display device, or the information acquired by the ambient information acquisition device,
A control device according to claim 1 .
前記キーワードを用いて検索を行う検索部を備え、
前記表示制御部は、前記検索部によって検索された情報を前記表示装置によって表示させる、
請求項1または請求項2に記載の制御装置。
A search unit that performs a search using the keyword,
The display control unit causes the display device to display the information searched by the search unit.
The control device according to claim 1 or 2 .
前記表示制御部は、前記ユーザーによって行われる指示に応じて、前記キーワードまたは前記検索部によって検索された情報のうちの少なくとも一方を所定の箇所に貼り付けた表示を行う、
請求項に記載の制御装置。
The display control unit performs display in which at least one of the keyword and the information searched by the search unit is pasted at a predetermined location in accordance with an instruction given by the user.
4. A control device according to claim 3 .
ユーザーに装着されて実空間の光を表示部に透過させて仮想的な画像を前記表示部に表示することが可能な表示装置の周囲の情報を取得する周囲情報取得装置によって取得された前記情報に基づいて空間を認識する機能と、
認識された前記空間と所定の地図情報とを対応付ける機能と、
前記対応付けの結果および前記表示装置の状況に基づいて、前記表示装置の状況に応じて階層的に変化するキーワードを取得する機能と、
取得された前記キーワードを前記表示装置によって表示させる機能と、
をコンピュータに実現させるためのプログラム。
The information acquired by the ambient information acquisition device that acquires information around a display device that is worn by a user and is capable of transmitting light in a real space to a display unit and displaying a virtual image on the display unit. and the ability to perceive space based on
a function of associating the recognized space with predetermined map information;
A function of acquiring keywords that hierarchically change according to the status of the display device based on the result of the association and the status of the display device ;
a function of displaying the acquired keyword on the display device;
A program for realizing on a computer.
ユーザーに装着されて実空間の光を表示部に透過させて仮想的な画像を前記表示部に表示することが可能な表示装置と、サーバ装置と、を有するシステムであって、
前記表示装置の周囲の情報を取得する周囲情報取得装置によって取得された前記情報に基づいて空間を認識する空間認識部と、
前記空間認識部によって認識された前記空間と所定の地図情報とを対応付ける対応付け部と、
前記対応付け部による対応付けの結果および前記表示装置の状況に基づいて、前記表示装置の状況に応じて階層的に変化するキーワードを取得するキーワード取得部と、
前記キーワード取得部によって取得された前記キーワードを前記表示装置によって表示させる表示制御部と、
を備える、
システム。
A system comprising: a display device worn by a user and capable of transmitting light in a real space to a display unit to display a virtual image on the display unit; and a server device,
a space recognition unit that recognizes a space based on the information acquired by a surrounding information acquisition device that acquires information around the display device;
an associating unit that associates the space recognized by the space recognition unit with predetermined map information;
a keyword acquiring unit that acquires a keyword that hierarchically changes according to the state of the display device based on the result of the association by the associating unit and the state of the display device ;
a display control unit that causes the display device to display the keyword acquired by the keyword acquisition unit;
comprising a
system.
JP2018216239A 2018-11-19 2018-11-19 Controllers, programs and systems Active JP7247532B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018216239A JP7247532B2 (en) 2018-11-19 2018-11-19 Controllers, programs and systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216239A JP7247532B2 (en) 2018-11-19 2018-11-19 Controllers, programs and systems

Publications (2)

Publication Number Publication Date
JP2020086628A JP2020086628A (en) 2020-06-04
JP7247532B2 true JP7247532B2 (en) 2023-03-29

Family

ID=70909949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018216239A Active JP7247532B2 (en) 2018-11-19 2018-11-19 Controllers, programs and systems

Country Status (1)

Country Link
JP (1) JP7247532B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010118019A (en) 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2017027206A (en) 2015-07-17 2017-02-02 キヤノン株式会社 Information processing apparatus, virtual object operation method, computer program, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010118019A (en) 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2017027206A (en) 2015-07-17 2017-02-02 キヤノン株式会社 Information processing apparatus, virtual object operation method, computer program, and storage medium

Also Published As

Publication number Publication date
JP2020086628A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
US11200729B2 (en) Content positioning in extended reality systems
US9978174B2 (en) Remote sensor access and queuing
US20200160607A1 (en) Systems and methods for attaching synchronized information between physical and virtual environments
US10482659B2 (en) System and method for superimposing spatially correlated data over live real-world images
US8225226B2 (en) Virtual control panel
US20170193302A1 (en) Task management system and method using augmented reality devices
US20140225814A1 (en) Method and system for representing and interacting with geo-located markers
JP6231362B2 (en) Plant monitoring server and plant monitoring method
JP5383930B2 (en) Method for providing information on object contained in visual field of terminal device, terminal device and computer-readable recording medium
KR20170041905A (en) Remote expert system
US11947752B2 (en) Customizing user interfaces of binary applications
US8098263B2 (en) Image processing method and image processing apparatus
JP2017068851A (en) Information processing device, information processing system, control method thereof, and program
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP6896364B2 (en) Display management methods and related computer program products and electronic devices
KR101568741B1 (en) Information System based on mobile augmented reality
JP2006252468A (en) Image processing method and image processing system
JP7247532B2 (en) Controllers, programs and systems
JP2017010228A (en) Information processing apparatus, information processing method, and program
US20130234932A1 (en) Information processing system, information processing system control method, information processing apparatus, and storage medium
JP2016122443A (en) Information processing apparatus, control method thereof, program, information processing system, control method thereof, and program
WO2022176450A1 (en) Information processing device, information processing method, and program
JP2020115284A (en) Data creation system and data creation method
WO2021176947A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7247532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150