JPWO2020045254A1 - Display system, server, display method and equipment - Google Patents

Display system, server, display method and equipment Download PDF

Info

Publication number
JPWO2020045254A1
JPWO2020045254A1 JP2020505294A JP2020505294A JPWO2020045254A1 JP WO2020045254 A1 JPWO2020045254 A1 JP WO2020045254A1 JP 2020505294 A JP2020505294 A JP 2020505294A JP 2020505294 A JP2020505294 A JP 2020505294A JP WO2020045254 A1 JPWO2020045254 A1 JP WO2020045254A1
Authority
JP
Japan
Prior art keywords
educational
image
education
equipment
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020505294A
Other languages
Japanese (ja)
Other versions
JP6827193B2 (en
Inventor
慎一 小柴
慎一 小柴
俊輝 熊
俊輝 熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020045254A1 publication Critical patent/JPWO2020045254A1/en
Application granted granted Critical
Publication of JP6827193B2 publication Critical patent/JP6827193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

表示システムは、検知部と、表示部と、操作部とを有する。検知部は、教育対象者の位置情報を検知する。表示部は、仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示する。操作部は、画像に含まれる教育対象オブジェクトを選択する。操作部を操作することにより教育対象オブジェクトが選択された場合、表示部は、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示する。 The display system includes a detection unit, a display unit, and an operation unit. The detection unit detects the position information of the person to be educated. The display unit displays an image viewed from the viewpoint of the educated person corresponding to the position information in the virtual space. The operation unit selects the educational object included in the image. When the educational object is selected by operating the operation unit, the display unit displays the educational content of the equipment associated with the educational object.

Description

本開示は、表示システム、サーバ、表示方法及び装置(特に教育用装置)に関する。 The present disclosure relates to display systems, servers, display methods and devices (particularly educational devices).

作業現場における作業員の安全意識の向上のために、作業員が災害発生時の状況を模擬体験できるシステムが知られている(例えば特許文献1参照)。 In order to improve the safety awareness of workers at work sites, a system is known in which workers can experience a simulated situation at the time of a disaster (see, for example, Patent Document 1).

特開2001−356680号公報Japanese Unexamined Patent Publication No. 2001-356680

本開示の表示システムは、工場の設備に関する教育を行うシステムである。表示システムは、検知部と、表示部と、操作部とを有する。 The display system of the present disclosure is a system for providing education on factory equipment. The display system includes a detection unit, a display unit, and an operation unit.

検知部は、教育対象者の位置情報を検知する。 The detection unit detects the position information of the person to be educated.

表示部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示する。 The display unit displays an image viewed from the viewpoint of the educated person corresponding to the position information in the virtual space of the factory in which the educational object in the shape of the equipment is arranged and associated with the equipment.

操作部は、画像に含まれる教育対象オブジェクトを選択する。 The operation unit selects the educational object included in the image.

操作部を操作することにより教育対象オブジェクトが選択された場合、表示部は、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示する。 When the educational object is selected by operating the operation unit, the display unit displays the educational content of the equipment associated with the educational object.

本開示のサーバは、工場の設備に関する教育を行うための教育用コンテンツを出力するためのサーバである。 The server of the present disclosure is a server for outputting educational contents for conducting education on factory equipment.

サーバは、取得部と、画像出力部と、コンテンツ出力部とを有する。 The server has an acquisition unit, an image output unit, and a content output unit.

取得部は、教育対象者の位置情報を検知部から取得する。 The acquisition unit acquires the position information of the person to be educated from the detection unit.

画像出力部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示部に出力する。 The image output unit outputs an image viewed from the viewpoint of the education target person corresponding to the position information to the display unit in the virtual space of the factory in which the education target object in the shape of the equipment is arranged and associated with the equipment.

コンテンツ出力部は、画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示部に出力する。 When the educational object included in the image is selected, the content output unit outputs the educational content of the equipment associated with the educational object to the display unit.

本開示の表示方法は、工場の設備に関する教育を行うためのコンテンツを表示する表示方法である。 The display method of the present disclosure is a display method for displaying contents for providing education on factory equipment.

表示方法は、
検知部によって検知された教育対象者の位置情報を受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示するための情報を表示装置に出力し、
表示装置に表示された画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示するための情報を表示装置に出力する。
The display method is
Receives the location information of the educated person detected by the detector,
In the virtual space of the factory where the educational object in the shape of the equipment is placed, which is associated with the equipment, the information for displaying the image from the viewpoint of the educational subject corresponding to the location information is output to the display device. ,
When the educational object included in the image displayed on the display device is selected, the information for displaying the educational content of the equipment associated with the educational object is output to the display device.

本開示の装置は、工場の設備に関する教育を行うための装置である。 The device of the present disclosure is a device for providing education on factory equipment.

装置は、プロセッサと、メモリと、を有する。 The device includes a processor and a memory.

メモリには、プロセッサによって実行可能なプログラムが記憶されている。 A program that can be executed by the processor is stored in the memory.

プロセッサは、メモリに記憶されたプログラムを用いて、
教育対象者の位置情報を検知部から受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を生成し、
画像を表示装置に出力し、
操作部を操作することによって画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示装置に出力する。
The processor uses the program stored in the memory
Receives the location information of the educated person from the detector and
In the virtual space of the factory where the educational object in the shape of the equipment is placed, which is associated with the equipment, an image from the viewpoint of the educational subject corresponding to the location information is generated.
Output the image to the display device
When the educational object included in the image is selected by operating the operation unit, the educational content of the equipment associated with the educational object is output to the display device.

図1は、実施の形態に係る表示システムの概要を示す模式図である。FIG. 1 is a schematic diagram showing an outline of a display system according to an embodiment. 図2は、実施の形態に係る表示システムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the display system according to the embodiment. 図3は、実施の形態に係る表示システムの動作を示すシーケンス図である。FIG. 3 is a sequence diagram showing the operation of the display system according to the embodiment. 図4は、実施の形態に係るサーバの動作を示すフローチャートである。FIG. 4 is a flowchart showing the operation of the server according to the embodiment. 図5は、実施の形態に係る仮想空間の様子を示す模式図である。FIG. 5 is a schematic diagram showing a state of the virtual space according to the embodiment. 図6は、実施の形態に係る表示画面例を示す図である。FIG. 6 is a diagram showing an example of a display screen according to the embodiment. 図7は、実施の形態に係る表示画面例を示す図である。FIG. 7 is a diagram showing an example of a display screen according to the embodiment. 図8は、実施の形態に係る表示画面例を示す図である。FIG. 8 is a diagram showing an example of a display screen according to the embodiment. 図9は、実施の形態に係る表示画面例を示す図である。FIG. 9 is a diagram showing an example of a display screen according to the embodiment. 図10は、実施の形態に係る表示画面例を示す図である。FIG. 10 is a diagram showing an example of a display screen according to the embodiment. 図11は、実施の形態に係るサーバの動作の変形例のフローチャートである。FIG. 11 is a flowchart of a modified example of the operation of the server according to the embodiment. 図12は、実施の形態に係る表示画面例を示す図である。FIG. 12 is a diagram showing an example of a display screen according to the embodiment. 図13は、実施の形態に係る教育用コンテンツ出力処理のフローチャートである。FIG. 13 is a flowchart of educational content output processing according to the embodiment. 図14は、実施の形態に係る危険想定訓練時の表示画面例を示す図である。FIG. 14 is a diagram showing an example of a display screen at the time of risk assumption training according to the embodiment. 図15は、実施の形態に係る事故シナリオ体験時の表示画面例を示す図である。FIG. 15 is a diagram showing an example of a display screen during an accident scenario experience according to the embodiment. 図16は、実施の形態に係る事故シナリオ体験時の表示画面例を示す図である。FIG. 16 is a diagram showing an example of a display screen during an accident scenario experience according to the embodiment. 図17は、実施の形態に係る事故シナリオ体験時の表示画面例を示す図である。FIG. 17 is a diagram showing an example of a display screen during an accident scenario experience according to the embodiment. 図18は、実施の形態に係る問いかけ時の表示画面例を示す図である。FIG. 18 is a diagram showing an example of a display screen at the time of asking a question according to the embodiment. 図19は、実施の形態に係るあるべき行動提示時の表示画面例を示す図である。FIG. 19 is a diagram showing an example of a display screen at the time of presenting an ideal action according to the embodiment. 図20は、実施の形態に係るあるべき行動提示時の表示画面例を示す図である。FIG. 20 is a diagram showing an example of a display screen at the time of presenting an ideal action according to the embodiment.

本開示の一態様に係る表示システムは、工場(施設)の設備に関する教育を行うシステムである。表示システムは、検知部と、表示部と、操作部とを有する。 The display system according to one aspect of the present disclosure is a system for providing education on equipment of a factory (facility). The display system includes a detection unit, a display unit, and an operation unit.

検知部は、教育対象者の位置情報を検知する。 The detection unit detects the position information of the person to be educated.

表示部は、教育の対象となる設備に対応付けられ、かつ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を前記教育対象者に表示する。 The display unit is associated with the equipment to be educated, and in the virtual space of the factory where the educational object in the shape of the equipment is arranged, from the viewpoint of the educated person corresponding to the position information. The viewed image is displayed to the educated person.

操作部は、前記教育対象者が、前記画像に含まれる教育対象オブジェクトを選択するために用いられる。 The operation unit is used by the educated person to select an educated object included in the image.

前記表示部は、前記教育対象者が前記操作部を用いて教育対象オブジェクトを選択した場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを、前記教育対象者に表示する。 When the education target person selects the education target object by using the operation unit, the display unit displays the education content of the equipment associated with the education target object to the education target person.

これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われる。これにより、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名のみが記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, the person to be educated performs an operation of searching for an object to be educated in the virtual space. As a result, effective education can be performed as compared with the case where the educated person simply watches the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content, as compared with, for example, selecting an icon in which only the name of the equipment to be educational is described.

例えば、前記表示部は、前記画像に教育対象オブジェクトが含まれる場合、前記教育対象オブジェクト上、又は、前記教育対象オブジェクトの周辺にアイコンを表示してもよい。そして、前記教育対象者が前記操作部により前記アイコンを選択した場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, when the image includes an educational object, the display unit may display an icon on the educational object or around the educational object. Then, when the education target person selects the icon by the operation unit, the display unit may display the education content to the education target person.

これにより、教育対象者が教育対象オブジェクトを見つけやすくなる。よって、教育対象者が教育対象オブジェクトを見つけることができず、過度に時間が経過することによる情報処理量の増加、及び、教育対象者のモチベーションの低下を抑制できる。 This makes it easier for the educated person to find the educated object. Therefore, the educational target cannot find the educational target object, and it is possible to suppress an increase in the amount of information processing due to excessive passage of time and a decrease in the motivation of the educational target.

例えば、前記表示部は、前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示してもよい。そして、前記ポインタにより前記アイコンが指し示された状態において、前記教育対象者が前記操作部により選択操作を行った場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, the display unit may display a pointer pointing to a position on the image based on the operation of the educated person. Then, when the education target person performs a selection operation by the operation unit while the icon is pointed by the pointer, the display unit may display the education content on the education target person. Good.

これによれば、教育対象者は直感的に教育対象オブジェクトを選択できる。そのため、選択間違いを減らすことができる。 According to this, the educated person can intuitively select the educated object. Therefore, it is possible to reduce selection mistakes.

例えば、前記表示部は、前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示してもよい。そして、前記ポインタにより前記教育対象オブジェクトが指し示された状態において、前記教育対象者が前記操作部により選択操作を行った場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, the display unit may display a pointer pointing to a position on the image based on the operation of the educated person. Then, when the education target person performs a selection operation by the operation unit while the education target object is pointed by the pointer, the display unit displays the education content to the education target person. You may.

これによれば、教育対象者は直感的に教育対象オブジェクトを選択できる。そのため、選択間違いを減らすことができる。 According to this, the educated person can intuitively select the educated object. Therefore, it is possible to reduce selection mistakes.

例えば、前記表示部は、前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示してもよい。そして、前記ポインタにより前記教育対象オブジェクトが指し示された場合、前記表示部は、前記教育対象オブジェクト上、又は、当該教育対象オブジェクトの周辺にアイコンを表示してもよい。そして、前記アイコンが表示されている状態において、前記教育対象者が前記操作部により選択操作を行った場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, the display unit may display a pointer pointing to a position on the image based on the operation of the educated person. Then, when the education target object is pointed by the pointer, the display unit may display an icon on the education target object or around the education target object. Then, when the education target person performs a selection operation by the operation unit while the icon is displayed, the display unit may display the education content to the education target person.

これによれば、教育対象者が教育対象オブジェクトを見つけやすくなる。よって、教育対象者が教育対象オブジェクトを見つけることができず、過度に時間が経過することによる情報処理量の増加、及び教育対象者のモチベーションが低下することを抑制できる。また、常にアイコンを表示する場合に比べて、教育対象オブジェクトを見つけにくくなるため、教育対象者の思考が必要となる。これにより、教育の効果を向上できる。 This makes it easier for the educated person to find the educated object. Therefore, it is possible to prevent the education target person from finding the education target object, increasing the amount of information processing due to excessive passage of time, and reducing the motivation of the education target person. In addition, it is more difficult to find the object to be educated than when the icon is always displayed, so that the person to be educated needs to think. As a result, the effect of education can be improved.

例えば、前記教育用コンテンツは、前記仮想空間における仮想体験を含んでもよい。 For example, the educational content may include a virtual experience in the virtual space.

これによれば、臨場感のある体験により教育効果を向上できる。また、仮想空間における仮想体験をさせるための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, the educational effect can be improved by the experience with a sense of presence. In addition, it is not necessary to separately prepare a device for virtual experience in the virtual space, which simplifies the configuration of the device.

例えば、前記仮想体験は、前記教育対象オブジェクトに関する危険体験を含んでもよい。 For example, the virtual experience may include a dangerous experience with respect to the educated object.

これによれば、安全訓練を効果的に行うことができる。また、実際に危険体験をさせるための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, safety training can be effectively performed. In addition, it is not necessary to separately prepare a device for actually experiencing a danger, which simplifies the configuration of the device.

例えば、前記教育用コンテンツは、前記危険体験に関する前記教育対象者への問いかけを含んでもよい。 For example, the educational content may include a question to the educated person regarding the dangerous experience.

これによれば、教育対象者の思考を促すことができるので教育効果を向上できる。また、危険体験に関する問いかけをするための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, it is possible to promote the thinking of the person to be educated, so that the educational effect can be improved. In addition, there is no need to separately prepare a device for asking questions about dangerous experiences, which simplifies the configuration of the device.

例えば、前記教育用コンテンツは、前記危険体験に関連し、前記教育対象者が行うべき行動を示すコンテンツを含んでもよい。 For example, the educational content may include content that is related to the dangerous experience and indicates an action to be taken by the educated person.

これによれば、教育効果を向上できる。また、教育対象者が行うべき行動を示すコンテンツを表示するための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, the educational effect can be improved. In addition, it is not necessary to separately prepare a device for displaying the content indicating the action to be performed by the educated person, and the device configuration is simplified.

例えば、前記教育用コンテンツは、前記教育対象オブジェクトに関連し、危険性がある場所を前記教育対象者に選択させるコンテンツを含んでもよい。 For example, the educational content may include content that is related to the educational object and causes the educational subject to select a dangerous place.

これによれば、教育対象者の思考を促すことができるので教育効果を向上できる。また、危険性がある場所を教育対象者に選択させるコンテンツを表示するための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, it is possible to promote the thinking of the person to be educated, so that the educational effect can be improved. In addition, it is not necessary to separately prepare a device for displaying the content that allows the educated person to select a dangerous place, which simplifies the configuration of the device.

例えば、前記仮想空間は、対象施設を撮影した画像を用いて生成されていてもよい。 For example, the virtual space may be generated using an image of the target facility.

これによれば、実際の対象施設の状態に近い仮想空間を生成できるので、臨場感を向上できる。また、対象施設を撮影した画像を別途準備する必要がなく、装置の構成が簡単になる。 According to this, since it is possible to generate a virtual space close to the state of the actual target facility, it is possible to improve the sense of presence. In addition, it is not necessary to separately prepare an image of the target facility, which simplifies the configuration of the device.

例えば、前記表示システムは、さらに、前記教育用コンテンツの内容に応じて、前記教育対象者に振動を与える振動部を含んでもよい。 For example, the display system may further include a vibrating unit that vibrates the educational subject depending on the content of the educational content.

これによれば、臨場感のある体験により教育効果を向上できる。また、教育対象者に振動を与える機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, the educational effect can be improved by the experience with a sense of presence. In addition, it is not necessary to separately prepare a device that vibrates the trainee, and the device configuration is simplified.

本開示の一態様に係るサーバは、工場の設備に関する教育を行うための教育用コンテンツを出力するためのサーバである。サーバは、取得部と、画像出力部と、コンテンツ出力部とを有する。 The server according to one aspect of the present disclosure is a server for outputting educational contents for providing education on factory equipment. The server has an acquisition unit, an image output unit, and a content output unit.

取得部は、教育対象者の位置情報を検知部から取得する。 The acquisition unit acquires the position information of the person to be educated from the detection unit.

画像出力部は、教育の対象となる設備に対応付けられ、かつ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示部に出力する。 The image output unit is associated with the equipment to be educated, and the viewpoint of the educated person corresponding to the position information in the virtual space of the factory in which the educated object in the shape of the equipment is arranged. The image seen from is output to the display unit.

コンテンツ出力部は、前記教育対象者が、前記画像に含まれる教育対象オブジェクトを選択した場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記表示部に出力する。 When the education target person selects the education target object included in the image, the content output unit outputs the education content of the equipment associated with the education target object to the display unit.

これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名が記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, by performing the operation of searching for the object to be educated in the virtual space by the educated person, more effective education can be performed as compared with the case where the educated person simply views the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content as compared with, for example, selecting an icon on which the name of the equipment to be educational is described.

本開示の一態様に係る表示方法は、工場の設備に関する教育を行うためのコンテンツを表示する表示方法である。 The display method according to one aspect of the present disclosure is a display method for displaying contents for providing education on factory equipment.

本開示の表示方法は、検知部によって検知された教育対象者の位置情報を受信し、教育の対象となる設備に対応付けられ、かつ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を前記教育対象者に表示するための情報を表示装置に出力し、前記教育対象者が、前記表示装置に表示された前記画像に含まれる教育対象オブジェクトを選択した場合、当該教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記教育対象者に表示するための情報を表示装置に出力する。 The display method of the present disclosure receives the position information of the education target person detected by the detection unit, associates it with the equipment to be educated, and arranges the education target object in the shape of the equipment. In the virtual space of the factory, information for displaying the image seen from the viewpoint of the education target person corresponding to the position information to the education target person is output to the display device, and the education target person causes the education target person to display the display device. When the educational target object included in the displayed image is selected, the information for displaying the educational content of the equipment associated with the educational target object to the educational target person is output to the display device.

これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名が記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, by performing the operation of searching for the object to be educated in the virtual space by the educated person, more effective education can be performed as compared with the case where the educated person simply views the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content as compared with, for example, selecting an icon on which the name of the equipment to be educational is described.

本開示の一態様に係る装置は、工場の設備に関する教育を行うための装置である。装置は、プロセッサと、メモリと、を有する。 The device according to one aspect of the present disclosure is a device for providing education on factory equipment. The device includes a processor and a memory.

前記メモリには、前記プロセッサによって実行可能なプログラムが記憶されている。 A program that can be executed by the processor is stored in the memory.

前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、教育対象者の位置情報を検知部から受信し、教育の対象となる設備に対応付けられ、対応付けられている前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を生成し、前記画像を前記教育対象者に対して表示するために表示装置に出力し、前記教育対象者が、操作部によって前記画像に含まれる教育対象オブジェクトを選択した場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記教育対象者に対して表示するために表示装置に出力する。 The processor receives the position information of the person to be educated from the detection unit by using the program stored in the memory, associates it with the equipment to be educated, and determines the shape of the associated equipment. In the virtual space of the factory where the educational target object is arranged, an image seen from the viewpoint of the educational target person corresponding to the position information is generated, and the image is displayed for displaying to the educational target person. When the output is output to the device and the education target person selects the education target object included in the image by the operation unit, the education content of the equipment associated with the education target object is sent to the education target person. Output to the display device for display.

これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名が記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, by performing the operation of searching for the object to be educated in the virtual space by the educated person, more effective education can be performed as compared with the case where the educated person simply views the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content as compared with, for example, selecting an icon on which the name of the equipment to be educational is described.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意の組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, a method, an integrated circuit, a computer program and a recording medium.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示している。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that all of the embodiments described below show a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components.

図1は、本実施の形態に係る表示システム100の概要を示す模式図である。以下では、表示システム100が、工場等の施設において製造作業等を行う作業員に対して安全教育を行うためのシステムである場合の例を説明する。なお、表示システム100の用途はこれに限定されない。例えば、工場等に限らず、学校、病院、及び研究施設等の任意の施設における安全教育に表示システム100を用いることができる。また、安全教育に限らず、装置の使用方法の教育等の他の教育用途に表示システム100を用いることもできる。 FIG. 1 is a schematic diagram showing an outline of the display system 100 according to the present embodiment. In the following, an example will be described in which the display system 100 is a system for providing safety education to workers who perform manufacturing work or the like in a facility such as a factory. The application of the display system 100 is not limited to this. For example, the display system 100 can be used for safety education not only in factories but also in arbitrary facilities such as schools, hospitals, and research facilities. Further, the display system 100 can be used not only for safety education but also for other educational purposes such as education on how to use the device.

表示システム100は、ヘッドセット103と、2つのコントローラ104と、を備える。また、表示システム100は、サーバ102と、2つの位置センサ105とを有していてもよい。表示システム100は、例えば、工場(施設)の設備に関する教育を行うためのシステムである。なお、本実施の形態では、2つのコントローラ104と、2つの位置センサ105を用いている。しかし、コントローラ104は2つに限らず、1つでも、3つ以上でもよい。また、位置センサ105も1つでも、3つ以上でもよい。 The display system 100 includes a headset 103 and two controllers 104. Further, the display system 100 may have a server 102 and two position sensors 105. The display system 100 is, for example, a system for providing education on equipment of a factory (facility). In this embodiment, two controllers 104 and two position sensors 105 are used. However, the number of controllers 104 is not limited to two, and may be one or three or more. Further, the number of position sensors 105 may be one or three or more.

ヘッドセット103は、安全教育を受ける教育対象者101の頭部に装着される。2つのコントローラ104は、教育対象者101の両手に把持される。2つの位置センサ105は、ヘッドセット103及びコントローラ104の位置を検知するために用いられる。 The headset 103 is worn on the head of an educated person 101 who receives safety education. The two controllers 104 are held by both hands of the educated person 101. The two position sensors 105 are used to detect the positions of the headset 103 and the controller 104.

図2は、表示システム100のブロック図である。図2に示すように、サーバ102は、ネットワーク106を介して、ヘッドセット103と接続されている。サーバ102は、ヘッドセット103の位置及び教育対象者101(図1参照)によるコントローラ104の操作内容に基づき、ヘッドセット103で再生する画像及び音声等を生成し、生成した画像及び音声等をヘッドセット103に出力する。サーバ102は、蓄積部121と、取得部122と、画像出力部123と、コンテンツ出力部124と、NW(ネットワーク)通信部125とを備える。 FIG. 2 is a block diagram of the display system 100. As shown in FIG. 2, the server 102 is connected to the headset 103 via the network 106. The server 102 generates images and sounds to be reproduced by the headset 103 based on the position of the headset 103 and the operation contents of the controller 104 by the educated person 101 (see FIG. 1), and heads the generated images and sounds. Output to set 103. The server 102 includes a storage unit 121, an acquisition unit 122, an image output unit 123, a content output unit 124, and an NW (network) communication unit 125.

蓄積部121は、工場等の対象施設の仮想空間を示す三次元情報を格納している。仮想空間には、複数の教育対象オブジェクトが配置されている。また、蓄積部121は、複数の教育対象オブジェクトに対応付けられた複数の教育用コンテンツを格納している。例えば、複数の教育対象オブジェクトはそれぞれ、教育対象となる複数の設備に対応付けられている。各々の教育対象オブジェクトは、対応付けられている設備の形状を有する。また、教育対象オブジェクトの教育用コンテンツは、当該教育用コンテンツに対応付けられている設備の教育用コンテンツである。 The storage unit 121 stores three-dimensional information indicating a virtual space of a target facility such as a factory. A plurality of educational objects are arranged in the virtual space. In addition, the storage unit 121 stores a plurality of educational contents associated with the plurality of educational object objects. For example, each of a plurality of educational object objects is associated with a plurality of educational target facilities. Each educated object has the shape of the associated equipment. Further, the educational content of the educational object is the educational content of the equipment associated with the educational content.

教育用コンテンツは、画像(動画像又は静止画)、音声、及び制御情報等を含む。制御情報は、例えば、コントローラ104の振動を制御するための情報等を含む。 Educational content includes images (moving images or still images), audio, control information, and the like. The control information includes, for example, information for controlling the vibration of the controller 104 and the like.

また、上記の三次元情報は、例えば、対象施設を複数視点から撮影した画像を用いて生成されたポイントクラウドである。なお、三次元情報は、撮影された画像から生成されたものに限らず、コンピュータグラフィクスであってもよい。また、三次元情報は、撮影された画像から生成されたものとコンピュータグラフィクスとの組み合わせであってもよい。また、仮想空間を構成する方法として、対象施設を撮影した360度画像が用いられてもよいし、360度画像と三次元情報(ポイントクラウド等)との組み合わせが用いられてもよい。 Further, the above three-dimensional information is, for example, a point cloud generated by using images of the target facility taken from a plurality of viewpoints. The three-dimensional information is not limited to the one generated from the captured image, and may be computer graphics. Further, the three-dimensional information may be a combination of computer graphics and the one generated from the captured image. Further, as a method of constructing the virtual space, a 360-degree image obtained by photographing the target facility may be used, or a combination of the 360-degree image and three-dimensional information (point cloud or the like) may be used.

取得部122は、ヘッドセット103から、ヘッドセット103の位置情報、コントローラ104の位置情報及び操作内容を取得する。 The acquisition unit 122 acquires the position information of the headset 103, the position information of the controller 104, and the operation contents from the headset 103.

画像出力部123は、ヘッドセット103の位置に基づき、仮想空間において、ヘッドセット103の位置に対応する教育対象者101の視点から見た画像を生成する。なお、本願における位置とは、例えば、三次元座標と、姿勢(傾き)とを含む。なお、位置は、三次元座標と傾きのどちらか一方であってもよいし、三次元座標の代わりに二次元座標(例えば、横方向の座標)が用いられてもよい。 Based on the position of the headset 103, the image output unit 123 generates an image viewed from the viewpoint of the educational subject 101 corresponding to the position of the headset 103 in the virtual space. The position in the present application includes, for example, three-dimensional coordinates and a posture (tilt). The position may be either three-dimensional coordinates or inclination, or two-dimensional coordinates (for example, horizontal coordinates) may be used instead of the three-dimensional coordinates.

また、画像出力部123は、生成した画像に教育対象オブジェクトが含まれる場合には、当該画像上に教育対象オブジェクトのアイコンを重畳し、得られた画像を出力する。 Further, when the generated image includes the education target object, the image output unit 123 superimposes the icon of the education target object on the image and outputs the obtained image.

コンテンツ出力部124は、教育対象者101が、画面に含まれる教育対象オブジェクトを選択した場合に、当該教育対象オブジェクトに対応付けられている教育用コンテンツをヘッドセット103に出力する。 When the education target person 101 selects the education target object included in the screen, the content output unit 124 outputs the education content associated with the education target object to the headset 103.

NW通信部125は、ヘッドセット103の位置情報、コントローラ104の位置情報及び操作内容を、ネットワーク106を介してヘッドセット103から受信する。また、NW通信部125は、画像出力部123で生成された画像、及び教育用コンテンツを、ネットワーク106を介してヘッドセット103に送信する。 The NW communication unit 125 receives the position information of the headset 103, the position information of the controller 104, and the operation contents from the headset 103 via the network 106. Further, the NW communication unit 125 transmits the image generated by the image output unit 123 and the educational content to the headset 103 via the network 106.

ヘッドセット103は、サーバ102から送信された画像及び音声等を再生する。このヘッドセット103は、NW通信部131と、通信部132と、スピーカ133と、表示部134とを備える。NW通信部131は、サーバ102から送信された画像、音声及び制御情報等を受信する。また、NW通信部131は、ヘッドセット103の位置情報、コントローラ104の位置情報及び操作内容を、ネットワーク106を介して、サーバ102に送信する。なお、サーバ102とヘッドセット103との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。 The headset 103 reproduces images, sounds, and the like transmitted from the server 102. The headset 103 includes a NW communication unit 131, a communication unit 132, a speaker 133, and a display unit 134. The NW communication unit 131 receives the image, voice, control information, and the like transmitted from the server 102. Further, the NW communication unit 131 transmits the position information of the headset 103, the position information of the controller 104, and the operation contents to the server 102 via the network 106. The communication method between the server 102 and the headset 103 is not particularly limited, and any method such as wired or wireless may be used.

通信部132は、コントローラ104と通信する。具体的には、通信部132は、サーバ102から送信された制御情報をコントローラ104に送信する。また、通信部132は、コントローラ104から送信されたコントローラ104の位置情報及び操作内容を受信し、受信した情報をNW通信部131に出力する。 The communication unit 132 communicates with the controller 104. Specifically, the communication unit 132 transmits the control information transmitted from the server 102 to the controller 104. Further, the communication unit 132 receives the position information and the operation content of the controller 104 transmitted from the controller 104, and outputs the received information to the NW communication unit 131.

スピーカ133は、サーバ102から送信された音声を出音する。表示部134は、サーバ102から送信された画像を表示する。 The speaker 133 outputs the sound transmitted from the server 102. The display unit 134 displays the image transmitted from the server 102.

ヘッドセット103は、検知部135を有する。検知部135は、ヘッドセット103(教育対象者101)の位置を検知する。具体的には、位置センサ105が備える検知部151は、赤外光レーザをスキャン照射する。検知部135は、複数の受光部を有する。各々の受光部は、2個の位置センサ105から照射された赤外光レーザを受光する。検知部135は、各々の受光部で受信したレーザの検知部151における照射方向と、レーザ照射から受信までの時間とに基づき、ヘッドセット103の位置を検知する。検知されたヘッドセット103の位置情報は、NW通信部131に出力される。 The headset 103 has a detection unit 135. The detection unit 135 detects the position of the headset 103 (education target person 101). Specifically, the detection unit 151 included in the position sensor 105 scans and irradiates the infrared light laser. The detection unit 135 has a plurality of light receiving units. Each light receiving unit receives infrared light lasers emitted from the two position sensors 105. The detection unit 135 detects the position of the headset 103 based on the irradiation direction in the laser detection unit 151 received by each light receiving unit and the time from the laser irradiation to the reception. The detected position information of the headset 103 is output to the NW communication unit 131.

なお、ここでは、位置検知の方式として、赤外光レーザを用いる方式を例示したが、位置検知の方式は、これに限らず、公知の任意の方式が用いられてもよい。例えば、ヘッドセット103には、赤外又は可視光を発光する複数の発光部が設けられ、位置センサ105に設けられた赤外又は可視光カメラで得られた画像に基づきヘッドセット103の位置が検知されてもよい。 Here, as the position detection method, a method using an infrared laser is illustrated, but the position detection method is not limited to this, and any known method may be used. For example, the headset 103 is provided with a plurality of light emitting units that emit infrared or visible light, and the position of the headset 103 is determined based on an image obtained by an infrared or visible light camera provided on the position sensor 105. It may be detected.

また、上記の位置検知方式で得られた情報に加え、ヘッドセット103が備えるジャイロセンサ(図示せず)等で得られた情報に基づき、ヘッドセット103の位置情報が算出されてもよいし、ジャイロセンサ(図示せず)等で得られた情報のみに基づき位置情報が算出されてもよい。 Further, in addition to the information obtained by the above position detection method, the position information of the headset 103 may be calculated based on the information obtained by the gyro sensor (not shown) or the like included in the headset 103. Position information may be calculated based only on the information obtained by a gyro sensor (not shown) or the like.

コントローラ104は、操作部141と、通信部142と、振動部143と、検知部144とを備える。操作部141は、教育対象者101が、画像に含まれる教育対象オブジェクトを選択するための入力インタフェースであり、教育対象者の操作を受け付ける。例えば、操作部141は、1つ又は複数の操作ボタンである。なお、教育対象者の操作を受け付ける方式は、これに限らず、コントローラ104を振る動作又はコントローラ104の姿勢等に基づき操作が受け付けられてもよい。また、音声入力又はその他の入力デバイスを用いた入力方式が用いられてもよいし、複数の入力方式が併用されてもよい。 The controller 104 includes an operation unit 141, a communication unit 142, a vibration unit 143, and a detection unit 144. The operation unit 141 is an input interface for the education target person 101 to select the education target object included in the image, and accepts the operation of the education target person. For example, the operation unit 141 is one or more operation buttons. The method of accepting the operation of the person to be educated is not limited to this, and the operation may be accepted based on the operation of shaking the controller 104, the posture of the controller 104, or the like. Further, an input method using voice input or another input device may be used, or a plurality of input methods may be used in combination.

通信部142は、ヘッドセット103と通信する。具体的には、通信部142は、操作部141に対する操作内容と、コントローラ104の位置情報とをヘッドセット103に送信する。また、通信部142は、ヘッドセット103から送信された制御情報を受信する。この制御情報に基づき振動部143が制御される。振動部143は、教育用コンテンツの内容に応じて、教育対象者101に振動を与える。 The communication unit 142 communicates with the headset 103. Specifically, the communication unit 142 transmits the operation content for the operation unit 141 and the position information of the controller 104 to the headset 103. In addition, the communication unit 142 receives the control information transmitted from the headset 103. The vibrating unit 143 is controlled based on this control information. The vibrating unit 143 vibrates the educational target person 101 according to the content of the educational content.

なお、ここでは、コントローラ104に備えられた振動部143が教育対象者101に振動を与える構成としたが、ヘッドセット103に備えられた振動部が教育対象者101に振動を与えてもよい。さらに、ヘッドセット103、コントローラ104又はそれらに付属する別機器が、教育対象者101に例えば熱、風、水、電気刺激、又は触覚への刺激を与えるためのデバイスを備えていてもよい。 Here, the vibrating unit 143 provided in the controller 104 is configured to give vibration to the educational subject 101, but the vibrating unit provided in the headset 103 may give vibration to the educational subject 101. Further, the headset 103, the controller 104 or another device attached thereto may be provided with a device for giving the educated person 101, for example, heat, wind, water, electrical stimulation, or tactile stimulation.

また、ヘッドセット103とコントローラ104との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。 Further, the communication method between the headset 103 and the controller 104 is not particularly limited, and any method such as wired or wireless may be used.

検知部144は、コントローラ104の位置を検知する。なお、位置検知の方法は、ヘッドセット103の位置を検知する方法と同様である。 The detection unit 144 detects the position of the controller 104. The position detection method is the same as the method for detecting the position of the headset 103.

次に、表示システム100の動作を説明する。図3は、表示システム100における動作の流れを示すシーケンス図である。まず、ヘッドセット103は、教育対象者101の位置(ヘッドセット103の位置)を検知し(S101)、検知した教育対象者の位置情報をサーバ102に送信する(S102)。 Next, the operation of the display system 100 will be described. FIG. 3 is a sequence diagram showing an operation flow in the display system 100. First, the headset 103 detects the position of the education target person 101 (the position of the headset 103) (S101), and transmits the detected position information of the education target person to the server 102 (S102).

サーバ102は、教育対象者の位置に対応する画像を生成し、生成した画像をヘッドセット103に送信する(S103)。なお、ステップS101〜S103の処理は教育対象者101の位置が変化する毎に繰り返し行われる。 The server 102 generates an image corresponding to the position of the person to be educated, and transmits the generated image to the headset 103 (S103). The processes of steps S101 to S103 are repeated every time the position of the educational subject 101 changes.

また、教育対象者101によりコントローラ104が操作されると、コントローラ104は、コントローラ104の位置を検知し(S104)、コントローラ104の位置情報と、操作部141等に対する操作情報とをサーバ102に送信する(S105)。 When the controller 104 is operated by the educated person 101, the controller 104 detects the position of the controller 104 (S104) and transmits the position information of the controller 104 and the operation information for the operation unit 141 and the like to the server 102. (S105).

上記の操作により教育対象コンテンツの教育対象オブジェクトが選択された場合(S106)、サーバ102は、選択された教育対象オブジェクトに対応する教育用コンテンツをヘッドセット103に送信する(S107)。 When the educational target object of the educational target content is selected by the above operation (S106), the server 102 transmits the educational content corresponding to the selected educational target object to the headset 103 (S107).

また、教育対象者101によりコントローラ104が操作されると、コントローラ104は、コントローラ104の位置を検知し(S108)、コントローラ104の位置情報と、操作部141等に対する操作情報とをサーバ102に送信する(S109)。 Further, when the controller 104 is operated by the trainee 101, the controller 104 detects the position of the controller 104 (S108) and transmits the position information of the controller 104 and the operation information for the operation unit 141 and the like to the server 102. (S109).

上記の操作により教育対象コンテンツに対する操作が行われた場合(S110)、サーバ102は、当該操作に応じた結果をヘッドセット103及びコントローラ104に送信する(S111及びS112)。具体的には、ヘッドセット103に表示する画面の更新、及びコントローラ104の振動制御等が行われる。 When the operation for the educational target content is performed by the above operation (S110), the server 102 transmits the result corresponding to the operation to the headset 103 and the controller 104 (S111 and S112). Specifically, the screen displayed on the headset 103 is updated, the vibration of the controller 104 is controlled, and the like.

図4は、サーバ102による処理のフローチャートである。まず、サーバ102は、教育対象者101の位置情報(ヘッドセット103の位置情報)を取得する(S201)。次に、サーバ102は、蓄積部121に格納されている三次元情報に基づき、仮想空間において、取得した位置情報に対応する教育対象者101の視点から見た画像を生成し、生成した画像をヘッドセット103に出力する(S202)。 FIG. 4 is a flowchart of processing by the server 102. First, the server 102 acquires the position information (position information of the headset 103) of the educated person 101 (S201). Next, the server 102 generates an image viewed from the viewpoint of the educated person 101 corresponding to the acquired position information in the virtual space based on the three-dimensional information stored in the storage unit 121, and generates the generated image. Output to the headset 103 (S202).

当該画像に教育対象オブジェクトが含まれない場合(S203でNo)、所定の周期で再度ステップS201以降が行われる。 If the image does not include the object to be educated (No in S203), step S201 and subsequent steps are performed again at a predetermined cycle.

当該画像に教育対象オブジェクトが含まれる場合(S203でYes)、サーバ102は、教育対象オブジェクトのアイコンを出力する(S204)。具体的には、サーバ102は、画像上にアイコンを重畳し、生成された画像をヘッドセット103に出力する。 When the image includes an educational object (Yes in S203), the server 102 outputs an icon of the educational object (S204). Specifically, the server 102 superimposes an icon on the image and outputs the generated image to the headset 103.

この状態において、教育対象者101の操作によりアイコンが選択された場合(S205でYes)、サーバ102は、選択されたアイコンに対応付けられている教育用コンテンツをヘッドセット103に出力する(S206)。一方、教育対象者101の操作によりアイコンが選択されなかった場合(S205でNo)、所定の周期で再度ステップS201以降が行われる。 In this state, when the icon is selected by the operation of the education target person 101 (Yes in S205), the server 102 outputs the educational content associated with the selected icon to the headset 103 (S206). .. On the other hand, when the icon is not selected by the operation of the educated person 101 (No in S205), step S201 and subsequent steps are performed again at a predetermined cycle.

図5は、対象施設の仮想空間161の一例を示す模式図である。図5に示す例では、仮想空間に設備等の4つのオブジェクト162A〜162Dが配置されている。オブジェクト162A、162B、162Dは、教育用コンテンツが対応付けられた教育対象オブジェクト162である。オブジェクト162Cは、教育対象オブジェクトではない通常オブジェクトである。図6〜図8は、それぞれ図5に示す視野(1)〜(3)の表示画面例を示す図である。図6及び図8に示すように、画面内に教育対象オブジェクト162(オブジェクト162A、162B、162D)が含まれる場合には、教育対象オブジェクトに対応付けてアイコン164が表示される。例えば、アイコン164は、教育対象オブジェクトの周辺、又は、教育対象オブジェクト上に重ねて表示される。例えば、アイコン164は、教育対象オブジェクトを強調表示するためのものである。また、アイコン164は、教育対象オブジェクト、又は教育対象オブジェクトに対応付けられている教育用コンテンツを説明する文字情報又は図形等を含んでもよい。 FIG. 5 is a schematic diagram showing an example of the virtual space 161 of the target facility. In the example shown in FIG. 5, four objects 162A to 162D such as equipment are arranged in the virtual space. Objects 162A, 162B, and 162D are educational object objects 162 to which educational contents are associated. Object 162C is a normal object that is not an educational object. 6 to 8 are diagrams showing examples of display screens of the fields of view (1) to (3) shown in FIG. 5, respectively. As shown in FIGS. 6 and 8, when the education target object 162 (objects 162A, 162B, 162D) is included in the screen, the icon 164 is displayed in association with the education target object. For example, the icon 164 is displayed around the educational object or superimposed on the educational object. For example, the icon 164 is for highlighting the educational object. Further, the icon 164 may include an educational object, character information, a figure, or the like explaining the educational content associated with the educational object.

また、図8に示すように通常オブジェクト162Cには、アイコン164は表示されない。また、図7に示すように画像に教育対象オブジェクトが含まれない場合には、アイコン164は表示されない。 Further, as shown in FIG. 8, the icon 164 is not displayed on the normal object 162C. Further, as shown in FIG. 7, when the image does not include the object to be educated, the icon 164 is not displayed.

図9及び図10は、表示画面の詳細な例を示す図である。図9に示すように、画面上にはレーザポインタであるポインタ165が表示される。ポインタ165は、コントローラ104の向きに応じて、画面内の任意の位置を指し示す。 9 and 10 are diagrams showing a detailed example of the display screen. As shown in FIG. 9, a pointer 165, which is a laser pointer, is displayed on the screen. The pointer 165 points to an arbitrary position on the screen according to the orientation of the controller 104.

図9の例では、画面内に教育対象オブジェクトが含まれない。この場合、教育対象者101は、視線方向を変更したり、位置を移動することで、教育対象オブジェクトを探索する。図10の例では、画面内に教育対象オブジェクト162が含まれ、教育対象オブジェクト162に重ねてアイコン164が表示されている。この状態において、教育対象者101は、ポインタ165でアイコン164を指し示し、操作部141による選択操作(例えば、操作ボタンの押下)を行うことで、アイコン164を選択する。 In the example of FIG. 9, the educational object is not included in the screen. In this case, the education target person 101 searches for the education target object by changing the line-of-sight direction or moving the position. In the example of FIG. 10, the education target object 162 is included in the screen, and the icon 164 is displayed on the education target object 162. In this state, the educator 101 selects the icon 164 by pointing to the icon 164 with the pointer 165 and performing a selection operation (for example, pressing an operation button) by the operation unit 141.

以上のように、ポインタ165により教育対象オブジェクト162が指し示された状態において、教育対象者101が操作部141により選択操作を行った場合、教育用コンテンツが表示部134の画面に表示される。アイコン164を表示することで、教育対象者101が教育対象オブジェクト162を見つけやすくすることができる。よって、教育対象者101が教育対象オブジェクト162を見つけることができず、過度に時間が経過すること、及び教育対象者101のモチベーションが低下することを抑制できる。 As described above, when the education target person 101 performs the selection operation by the operation unit 141 in the state where the education target object 162 is pointed by the pointer 165, the education content is displayed on the screen of the display unit 134. By displaying the icon 164, the education target person 101 can easily find the education target object 162. Therefore, it is possible to prevent the educational target person 101 from finding the educational target object 162, excessively elapse of time, and reducing the motivation of the educational target person 101.

なお、ここではアイコン164が常に表示される例を示したが、ポインタ165により教育対象オブジェクト162が指し示された場合にのみアイコン164が表示されてもよい。図11は、この場合のサーバ102の動作のフローチャートである。図11に示す処理は、図4に示す処理に対して、ステップS207が追加されている。具体的には、画像に教育対象オブジェクト162が含まれる場合(S203でYes)において、教育対象オブジェクト162がポインタ165で指し示された場合(S207でYes)、サーバ102はアイコン164を出力する(S204)。また、教育対象オブジェクトがポインタ165で指し示されていない場合(S207でNo)には、サーバ102は、アイコン164を出力しない。 Although the example in which the icon 164 is always displayed is shown here, the icon 164 may be displayed only when the educational object 162 is pointed by the pointer 165. FIG. 11 is a flowchart of the operation of the server 102 in this case. In the process shown in FIG. 11, step S207 is added to the process shown in FIG. Specifically, when the image includes the education target object 162 (Yes in S203) and the education target object 162 is pointed to by the pointer 165 (Yes in S207), the server 102 outputs the icon 164 (Yes). S204). Further, when the object to be educated is not pointed by the pointer 165 (No in S207), the server 102 does not output the icon 164.

図12は、このときの画面例を示す図である。図12の(a)に示すように、画面内に教育対象オブジェクト162が含まれる場合であっても、ポインタ165が教育対象オブジェクト162を指し示していない場合にはアイコン164は表示されない。図12の(b)に示すように、ポインタ165が教育対象オブジェクト162を指し示した場合にはアイコン164が表示される。 FIG. 12 is a diagram showing a screen example at this time. As shown in FIG. 12A, even when the education target object 162 is included in the screen, the icon 164 is not displayed if the pointer 165 does not point to the education target object 162. As shown in FIG. 12B, the icon 164 is displayed when the pointer 165 points to the educational object 162.

このように、ポインタ165により教育対象オブジェクト162が指し示された場合、アイコン164が表示される。アイコン164が表示されている状態において、教育対象者101が操作部141により選択操作(例えば、操作ボタンの押下)を行った場合、教育用コンテンツが表示部134の画面に表示される。 In this way, when the educational object 162 is pointed to by the pointer 165, the icon 164 is displayed. When the educational subject 101 performs a selection operation (for example, pressing an operation button) by the operation unit 141 while the icon 164 is displayed, the educational content is displayed on the screen of the display unit 134.

これにより、常にアイコンを表示する場合に比べて、教育対象オブジェクトを見つけにくくなるため、教育対象者の思考が必要となる。これにより、教育の効果を向上できる。また、ポインタ165で指し示した際には、アイコン164が表示されるので、まったくアイコン164を表示しない場合に比べて、教育対象者101が教育対象オブジェクト162を見つけやすくすることができる。 This makes it more difficult to find the object to be educated than when the icon is always displayed, so that the person to be educated needs to think. As a result, the effect of education can be improved. Further, since the icon 164 is displayed when the pointer 165 points to the object, the education target object 101 can easily find the education target object 162 as compared with the case where the icon 164 is not displayed at all.

なお、ポインタ165が教育対象オブジェクト162を指し示した場合にもアイコン164が表示されなくてもよい。これにより、教育対象オブジェクトをより見つけにくくできる。つまり、ポインタ165により教育対象オブジェクト162が指し示された状態において、教育対象者101が操作部141により選択操作(例えば操作ボタンの押下)を行った場合、教育用コンテンツが表示部134の画面に表示されてもよい。 The icon 164 may not be displayed even when the pointer 165 points to the educational object 162. This makes it harder to find the object to be educated. That is, when the education target person 101 performs a selection operation (for example, pressing an operation button) by the operation unit 141 while the education target object 162 is pointed by the pointer 165, the education content is displayed on the screen of the display unit 134. It may be displayed.

また、教育対象オブジェクト162と通常オブジェクトとの両方にアイコン164が表示されてもよい。この場合においても、教育対象オブジェクト162が選択された場合には、教育用コンテンツが再生され、通常オブジェクトが選択された場合には教育用コンテンツは再生されない。これにより、選択可能な候補を教育対象者101に提示できるので、教育対象オブジェクトを見つけやすくできる。一方で、教育対象オブジェクト162のみにアイコン164を表示する場合に比べて、教育対象オブジェクト162を選択しにくくできる。 Further, the icon 164 may be displayed on both the educational object 162 and the normal object. Even in this case, when the educational object 162 is selected, the educational content is played, and when the normal object is selected, the educational content is not played. As a result, selectable candidates can be presented to the education target person 101, so that the education target object can be easily found. On the other hand, it is possible to make it difficult to select the education target object 162 as compared with the case where the icon 164 is displayed only on the education target object 162.

なお、上記の複数の手法を設定可能としてもよい。また、所定の条件に応じて使用する手法が切り替えられてもよい。例えば、所定時間、教育対象オブジェクト162が選択されない場合、つまり、教育対象者101が教育対象オブジェクト162を見つけられない場合に、より選択しやすい方式に、使用する方式が切り替えられてもよい。 It should be noted that the above-mentioned plurality of methods may be set. Further, the method to be used may be switched according to a predetermined condition. For example, when the education target object 162 is not selected for a predetermined time, that is, when the education target object 101 cannot find the education target object 162, the method to be used may be switched to a method that is easier to select.

以上により、教育対象者101は、仮想空間において教育対象オブジェクト162を選択するという能動的な動作を行う。これにより、教育対象者101に対する教育の効果を向上できる可能性がある。また、教育対象者101により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者101が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。 As described above, the education target person 101 performs an active operation of selecting the education target object 162 in the virtual space. This may improve the effect of education on the educated person 101. Further, by performing the operation of searching for the object to be educated in the virtual space by the educated person 101, more effective education can be performed as compared with the case where the educated person 101 simply views the educational content. ..

なお、仮想空間の実現手法として、教育対象者101(ヘッドセット103)の座標及び姿勢の両方が用いられてもよいし、座標は固定として姿勢に基づき画面が変更されてもよい。また、座標の移動は、教育対象者101の移動ではなく、教育対象者101によるコントローラ104等を介した操作により行われてもよい。また、水平方向のみ、又は垂直方向のみといったように二次元又は一次元の移動のみが反映されてもよい。同様に、特定の方向の姿勢の変更のみが反映されてもよい。 As a method for realizing the virtual space, both the coordinates and the posture of the educated person 101 (headset 103) may be used, or the coordinates may be fixed and the screen may be changed based on the posture. Further, the movement of the coordinates may be performed not by the movement of the education target person 101 but by the operation of the education target person 101 via the controller 104 or the like. Further, only two-dimensional or one-dimensional movement may be reflected, such as only in the horizontal direction or only in the vertical direction. Similarly, only changes in attitude in a particular direction may be reflected.

また、視差を有する異なる画像が左右の目に表示される立体表示が用いられてもよいし、左右の目に同一の画像が表示される方式が用いられてもよい。 Further, a stereoscopic display in which different images having parallax are displayed in the left and right eyes may be used, or a method in which the same image is displayed in the left and right eyes may be used.

なお、これらの仮想空間の実現手法については、後述する教育用コンテンツに含まれる仮想体験についても同様である。 The method for realizing these virtual spaces is the same for the virtual experience included in the educational content described later.

次に、教育用コンテンツの詳細について説明する。教育用コンテンツは、例えば、仮想空間における仮想体験を含む。また、仮想体験は、例えば、教育対象オブジェクト162に関する危険体験を含む。 Next, the details of the educational content will be described. Educational content includes, for example, virtual experiences in virtual space. The virtual experience also includes, for example, a dangerous experience with respect to the educational object 162.

図13は、教育用コンテンツの再生処理(図4のS206)のフローチャートである。まず、ヘッドセット103に、危険想定訓練の画面が表示される(S221)。危険想定訓練は、例えば、教育対象オブジェクト162に関連し、危険性がある場所を教育対象者101に選択させるコンテンツである。 FIG. 13 is a flowchart of the educational content reproduction process (S206 of FIG. 4). First, the headset 103 displays a screen for risk assumption training (S221). The danger assumption training is, for example, content related to the educational object 162 and causing the educational subject 101 to select a place at risk.

図14は、危険想定訓練時の表示画面例を示す図である。図14に示すように、危険想定訓練画面166が表示される。危険想定訓練画面166は、教育対象オブジェクトの写真が示され、複数の箇所が危険候補167としてマーキングされている。教育対象者101は、ポインタ165で危険候補167を選択し、操作部141(操作ボタン)を押下することで選択マーク168を付与する。教育対象者101は、選択マーク168を付与した後、判定ボタン169を選択する。これにより、選択結果に応じた正解又は不正解の結果が表示される(S222)。 FIG. 14 is a diagram showing an example of a display screen during the risk assumption training. As shown in FIG. 14, the danger assumption training screen 166 is displayed. The danger assumption training screen 166 shows a photograph of the object to be educated, and a plurality of places are marked as danger candidates 167. The educated person 101 selects the danger candidate 167 with the pointer 165 and gives the selection mark 168 by pressing the operation unit 141 (operation button). The educated person 101 selects the determination button 169 after giving the selection mark 168. As a result, the result of the correct answer or the incorrect answer according to the selection result is displayed (S222).

なお、ここでは、複数の危険候補167が表示されているが、任意の位置をマークする方式であってもよい。また、選択する箇所は複数でなくてもよい。また、危険箇所を選択する内容に限らず、教育対象オブジェクト162の危険想定訓練に関連する任意の質問であってもよい。 Although a plurality of danger candidates 167 are displayed here, a method of marking an arbitrary position may be used. Further, the selection location does not have to be multiple. Further, the content is not limited to the content of selecting the danger portion, and may be any question related to the danger assumption training of the educational object 162.

また、ここでは、二次元画像が表示される例を示すが、仮想空間内で危険箇所を選択する方式であってもよい。 Further, although an example in which a two-dimensional image is displayed is shown here, a method of selecting a dangerous place in the virtual space may be used.

次に、事故又は危険状態等の危険体験を仮想的に体験する事故シナリオが開始される(S223)。図15〜図17は、事故シナリオの画面例を示す図である。ここでは、図15に示すように、メンテナンス作業員の作業を仮想体験する例を説明する。図16に示すように、コントローラ104により仮想空間内の手171が操作される。例えば、操作部141(操作ボタン)を操作することで、手171を握る動作が行われる。また、この例は、装置が故障した場合の体験である。図17に示すように、例えばチューブ172a(図16参照)を抜いた際に残圧により駆動部172が飛び出し、駆動部172が作業員に衝突する事故が再現される。例えば、衝突の際にはコントローラ104が振動するように制御される。また、事故シナリオにおいては、環境音及び効果音等の音声が映像にあわせて再生される。なお、振動部143はコントローラ104に内蔵されず、別途、教育対象者101に装着されてもよい。 Next, an accident scenario in which a dangerous experience such as an accident or a dangerous state is virtually experienced is started (S223). 15 to 17 are diagrams showing screen examples of accident scenarios. Here, as shown in FIG. 15, an example of virtually experiencing the work of a maintenance worker will be described. As shown in FIG. 16, the controller 104 operates the hand 171 in the virtual space. For example, by operating the operation unit 141 (operation button), the operation of holding the hand 171 is performed. Also, this example is an experience when the device breaks down. As shown in FIG. 17, for example, when the tube 172a (see FIG. 16) is pulled out, the drive unit 172 pops out due to the residual pressure, and the accident in which the drive unit 172 collides with the worker is reproduced. For example, the controller 104 is controlled to vibrate in the event of a collision. Further, in the accident scenario, sounds such as environmental sounds and sound effects are reproduced in accordance with the video. The vibrating unit 143 is not built in the controller 104, and may be separately attached to the trainee 101.

次に、事故シナリオに関連する教育対象者101への問いかけが表示される(S224)。図18は問いかけ画面173の一例を示す図である。図18に示すように、例えば、事故の発生原因、及び改善点等を教育対象者101へ問いかける内容が表示される。なお、ここでは、画像が表示される例を示しているが、音声等により問いかけが行われてもよい。また、仮想空間においてキャラクター等により教育対象者101に問いかけが行われてもよい。 Next, a question to the educated person 101 related to the accident scenario is displayed (S224). FIG. 18 is a diagram showing an example of the question screen 173. As shown in FIG. 18, for example, the content of asking the educated person 101 about the cause of the accident, the improvement point, and the like is displayed. Although an example in which an image is displayed is shown here, a question may be asked by voice or the like. Further, in the virtual space, a character or the like may ask the educated person 101 a question.

次に、事故シナリオに関連し、当該事故を防止するために行うべき行動、又は、事故が発生してしまった場合に行うべき正しい行動を示すあるべき行動が提示される(S225)。図19及び図20は、あるべき行動提示時の画面例を示す図である。例えば、図19及び図20それぞれに示すように、事故の発生原因を解説する画像174と、事故が発生してしまった場合に行うべき行動を示す画像175等が表示される。なお、これらの提示は、静止画及び動画像のいずれを用いて行ってもよい。また、仮想空間内で行われてもよい。また、音声による説明が用いられてもよい。 Next, in relation to the accident scenario, the action to be taken to prevent the accident or the action to be taken to indicate the correct action to be taken in the event of an accident is presented (S225). 19 and 20 are diagrams showing an example of a screen at the time of presenting an ideal action. For example, as shown in FIGS. 19 and 20, an image 174 explaining the cause of the accident and an image 175 showing the action to be taken when the accident has occurred are displayed. In addition, these presentations may be performed using either a still image or a moving image. It may also be done in virtual space. In addition, audio explanation may be used.

以上により、本実施の形態に係る表示システム100によれば、仮想空間を用いた臨場感のある体験により教育効果を向上できるとともに、安全訓練を効果的に行うことができる。また、教育対象者101による能動的な動作が行われることで教育効果を向上できる。 As described above, according to the display system 100 according to the present embodiment, the educational effect can be improved by the realistic experience using the virtual space, and the safety training can be effectively performed. In addition, the educational effect can be improved by performing an active action by the educational subject 101.

以上、実施の形態に係る表示システムについて説明したが、本開示は、この実施の形態に限定されるものではない。例えば、本開示の表示システム100は、工場に限らず、学校、病院、及び研究施設等の施設における安全教育に用いることができる。 Although the display system according to the embodiment has been described above, the present disclosure is not limited to this embodiment. For example, the display system 100 of the present disclosure can be used for safety education not only in factories but also in facilities such as schools, hospitals, and research facilities.

すなわち、本開示の表示システムは、施設の設備に関する教育を行うシステムである。表示システムは、検知部と、表示部と、操作部とを有する。 That is, the display system of the present disclosure is a system for providing education on the equipment of the facility. The display system includes a detection unit, a display unit, and an operation unit.

検知部は、教育対象者の位置情報を検知する。 The detection unit detects the position information of the person to be educated.

表示部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示する。 The display unit displays an image viewed from the viewpoint of the educated person corresponding to the position information in the virtual space of the facility in which the educational object in the shape of the equipment is arranged and associated with the equipment.

操作部は、画像に含まれる教育対象オブジェクトを選択する。 The operation unit selects the educational object included in the image.

操作部を操作することにより教育対象オブジェクトが選択された場合、表示部は、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示する。 When the educational object is selected by operating the operation unit, the display unit displays the educational content of the equipment associated with the educational object.

本開示のサーバは、施設の設備に関する教育を行うための教育用コンテンツを出力するためのサーバである。 The server of the present disclosure is a server for outputting educational contents for conducting education on the equipment of the facility.

サーバは、取得部と、画像出力部と、コンテンツ出力部とを有する。 The server has an acquisition unit, an image output unit, and a content output unit.

取得部は、教育対象者の位置情報を検知部から取得する。 The acquisition unit acquires the position information of the person to be educated from the detection unit.

画像出力部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示部に出力する。 The image output unit outputs an image viewed from the viewpoint of the education target person corresponding to the position information to the display unit in the virtual space of the facility in which the education target object in the shape of the equipment is arranged and associated with the equipment.

コンテンツ出力部は、画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示部に出力する。 When the educational object included in the image is selected, the content output unit outputs the educational content of the equipment associated with the educational object to the display unit.

本開示の表示方法は、施設の設備に関する教育を行うためのコンテンツを表示する表示方法である。 The display method of the present disclosure is a display method for displaying contents for providing education on facilities of facilities.

表示方法は、
検知部によって検知された教育対象者の位置情報を受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示するための情報を表示装置に出力し、
表示装置に表示された画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示するための情報を表示装置に出力する。
The display method is
Receives the location information of the educated person detected by the detector,
In the virtual space of the facility where the educational object in the shape of the equipment is placed, which is associated with the equipment, the information for displaying the image from the viewpoint of the educational subject corresponding to the location information is output to the display device. ,
When the educational object included in the image displayed on the display device is selected, the information for displaying the educational content of the equipment associated with the educational object is output to the display device.

本開示の装置は、施設の設備に関する教育を行うための装置である。 The device of the present disclosure is a device for providing education on the equipment of the facility.

装置は、プロセッサと、メモリと、を有する。 The device includes a processor and a memory.

メモリには、プロセッサによって実行可能なプログラムが記憶されている。 A program that can be executed by the processor is stored in the memory.

プロセッサは、メモリに記憶されたプログラムを用いて、
教育対象者の位置情報を検知部から受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を生成し、
画像を表示装置に出力し、
操作部を操作することによって画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示装置に出力する。
The processor uses the program stored in the memory
Receives the location information of the educated person from the detector and
In the virtual space of the facility where the educational object in the shape of the equipment is placed, which is associated with the equipment, an image from the viewpoint of the educational subject corresponding to the location information is generated.
Output the image to the display device
When the educational object included in the image is selected by operating the operation unit, the educational content of the equipment associated with the educational object is output to the display device.

例えば、図2に示す表示システム100の構成は一例であり、ある装置で実行される処理が他の装置で実行されてもよいし、一つの装置で実行される複数の処理を複数の装置で分割して処理してもよいし、複数の装置で実行される複数の処理を単一の装置で実行してもよい。例えば、サーバ102の機能の一部又は全てがヘッドセット103に含まれてもよい。 For example, the configuration of the display system 100 shown in FIG. 2 is an example, and a process executed by one device may be executed by another device, or a plurality of processes executed by one device may be executed by a plurality of devices. It may be divided and processed, or a plurality of processes executed by a plurality of devices may be executed by a single device. For example, some or all of the functions of the server 102 may be included in the headset 103.

また、上記実施の形態に係る表示システムに含まれるそれぞれの装置に含まれる処理部の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Further, a part or all of the processing units included in each device included in the display system according to the above embodiment is typically realized as an LSI (Large Scale Integration) which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.

また、上記実施の形態において、それぞれの構成要素は、専用のハードウェアで構成されるか、それぞれの構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。それぞれの構成要素は、CPU(Central Processing Unit)またはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiment, each component may be realized by being composed of dedicated hardware or by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

また、本開示は、表示システムに含まれる各装置として実現されてもよい。また、本開示は、表示システムに含まれる1以上の装置により実行される教育用コンテンツ表示方法、又は教育方法等の方法として実現されてもよい。 Further, the present disclosure may be realized as each device included in the display system. Further, the present disclosure may be realized as an educational content display method, an educational method, or the like executed by one or more devices included in the display system.

また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェアが処理してもよいし、ソフトウェアが並列又は時分割に処理してもよい。 Further, the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware, or may be processed by software in parallel or in a time division manner.

また、フローチャートにおけるそれぞれのステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Further, the order in which each step in the flowchart is executed is for exemplifying for the purpose of specifically explaining the present disclosure, and may be an order other than the above. Further, a part of the above steps may be executed at the same time (parallel) as other steps.

以上、一つまたは複数の態様に係る表示システムについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 Although the display system according to one or more aspects has been described above based on the embodiment, the present invention is not limited to this embodiment. As long as the gist of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments is also within the scope of one or more embodiments. May be included within.

以上のように、本開示は、効果的な教育を行える表示システム、サーバ、表示方法又は装置を提供できる。 As described above, the present disclosure can provide a display system, server, display method or device capable of effective education.

本開示は、表示システムに適用でき、例えば、工場等の施設における安全教育を行うシステムにて適用できる。 The present disclosure can be applied to a display system, for example, a system for providing safety education in a facility such as a factory.

100 表示システム
101 教育対象者
102 サーバ
103 ヘッドセット
104 コントローラ
105 位置センサ
106 ネットワーク
121 蓄積部
122 取得部
123 画像出力部
124 コンテンツ出力部
125、131 NW通信部
132、142 通信部
133 スピーカ
134 表示部
135、144、151 検知部
141 操作部
143 振動部
161 仮想空間
162、162A、162B、162D 教育対象オブジェクト
162C 通常オブジェクト
164 アイコン
165 ポインタ
166 危険想定訓練画面
167 危険候補
168 選択マーク
169 判定ボタン
171 手
172 駆動部
172a チューブ
173 問いかけ画面
174、175 画像
100 Display system 101 Educated person 102 Server 103 Headset 104 Controller 105 Position sensor 106 Network 121 Storage unit 122 Acquisition unit 123 Image output unit 124 Content output unit 125, 131 NW communication unit 132, 142 Communication unit 133 Speaker 134 Display unit 135 144, 151 Detection unit 141 Operation unit 143 Vibration unit 161 Virtual space 162, 162A, 162B, 162D Educational object 162C Normal object 164 Icon 165 Pointer 166 Danger assumption training screen 167 Danger candidate 168 Selection mark 169 Judgment button 171 Hand 172 Drive Part 172a Tube 173 Question screen 174,175 Image

Claims (15)

工場の設備に関する教育を行うための表示システムであって、
教育対象者の位置情報を検知する検知部と、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示する表示部と、
前記画像に含まれる前記教育対象オブジェクトを選択するための操作部と、
を備え、
前記操作部を操作することにより前記教育対象オブジェクトが選択された場合、前記表示部は、前記教育対象オブジェクトに対応付けられている前記設備の教育用コンテンツを表示する
表示システム。
A display system for providing education on factory equipment.
A detector that detects the location information of the person to be educated,
A display unit that displays an image viewed from the viewpoint of the education target person corresponding to the position information in the virtual space of the factory in which the education target object in the shape of the equipment is arranged in association with the equipment.
An operation unit for selecting the educational object included in the image, and
With
When the education target object is selected by operating the operation unit, the display unit is a display system that displays educational contents of the equipment associated with the education target object.
前記表示部は、
前記画像に前記教育対象オブジェクトが含まれる場合、前記教育対象オブジェクト上、又は、前記教育対象オブジェクトの周辺にアイコンを表示し、
前記操作部により前記アイコンが選択された場合、前記教育用コンテンツを表示する
請求項1記載の表示システム。
The display unit
When the image includes the educational object, an icon is displayed on the educational object or around the educational object.
The display system according to claim 1, wherein when the icon is selected by the operation unit, the educational content is displayed.
前記表示部は、
前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示し、
前記ポインタにより前記アイコンが指し示された状態において、前記操作部を操作することにより、前記教育用コンテンツを表示する
請求項2記載の表示システム。
The display unit
A pointer pointing to the position on the image is displayed based on the operation of the educated person.
The display system according to claim 2, wherein the educational content is displayed by operating the operation unit in a state where the icon is pointed by the pointer.
前記表示部は、
前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示し、
前記ポインタにより前記教育対象オブジェクトが指し示された状態において、前記操作部を操作することにより、前記教育用コンテンツを表示する
請求項1記載の表示システム。
The display unit
A pointer pointing to the position on the image is displayed based on the operation of the educated person.
The display system according to claim 1, wherein the educational content is displayed by operating the operation unit in a state where the educational object is pointed by the pointer.
前記表示部は、
前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示し、
前記ポインタにより前記教育対象オブジェクトが指し示された場合、前記教育対象オブジェクト上、又は、前記教育対象オブジェクトの周辺にアイコンを表示し、
前記アイコンが表示されている状態において、前記操作部を操作することにより、前記教育用コンテンツを表示する
請求項1記載の表示システム。
The display unit
A pointer pointing to the position on the image is displayed based on the operation of the educated person.
When the education target object is pointed by the pointer, an icon is displayed on the education target object or around the education target object.
The display system according to claim 1, wherein the educational content is displayed by operating the operation unit while the icon is displayed.
前記教育用コンテンツは、前記仮想空間における仮想体験を含む
請求項1〜5のいずれか1項に記載の表示システム。
The display system according to any one of claims 1 to 5, wherein the educational content includes a virtual experience in the virtual space.
前記仮想体験は、前記教育対象オブジェクトに関する危険体験を含む
請求項6記載の表示システム。
The display system according to claim 6, wherein the virtual experience includes a dangerous experience related to the educational object.
前記教育用コンテンツは、前記危険体験に関する前記教育対象者への問いかけを含む
請求項7記載の表示システム。
The display system according to claim 7, wherein the educational content includes a question to the educated person regarding the dangerous experience.
前記教育用コンテンツは、前記危険体験に関連し、前記教育対象者が行うべき行動を示すコンテンツを含む
請求項7又は8記載の表示システム。
The display system according to claim 7 or 8, wherein the educational content includes content indicating an action to be taken by the educated person in relation to the dangerous experience.
前記教育用コンテンツは、前記教育対象オブジェクトに関連し、危険性がある場所を前記教育対象者に選択させるコンテンツを含む
請求項1〜9のいずれか1項に記載の表示システム。
The display system according to any one of claims 1 to 9, wherein the educational content includes content related to the educational object and causing the educational subject to select a dangerous place.
前記仮想空間は、前記工場を撮影した画像を用いて生成されている
請求項1〜10のいずれか1項に記載の表示システム。
The display system according to any one of claims 1 to 10, wherein the virtual space is generated by using an image of the factory.
前記教育用コンテンツの内容に応じて、前記教育対象者に振動を与える振動部を、
さらに備える
請求項1〜11のいずれか1項に記載の表示システム。
A vibrating part that vibrates the educational subject according to the content of the educational content,
The display system according to any one of claims 1 to 11, further comprising.
工場の設備に関する教育を行うための教育用コンテンツを出力するためのサーバであって、
教育対象者の位置情報を検知部から取得する取得部と、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示部に出力する画像出力部と、
前記画像に含まれる前記教育対象オブジェクトが選択された場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記表示部に出力するコンテンツ出力部とを備える
サーバ。
It is a server for outputting educational contents for conducting education on factory equipment.
The acquisition unit that acquires the location information of the educated person from the detection unit,
An image that outputs an image seen from the viewpoint of the education target person corresponding to the position information to the display unit in the virtual space of the factory in which the education target object in the shape of the equipment is arranged in association with the equipment. Output section and
A server including a content output unit that outputs educational content of equipment associated with the educational object to the display unit when the educational object included in the image is selected.
工場の設備に関する教育を行うためのコンテンツを表示する表示方法であって、
検知部によって検知された教育対象者の位置情報を受信し、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示するための情報を表示装置に出力し、
前記表示装置に表示された前記画像に含まれる前記教育対象オブジェクトが選択された場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示するための情報を表示装置に出力する、
表示方法。
It is a display method that displays content for education on factory equipment.
Receives the location information of the educated person detected by the detector,
Information for displaying an image viewed from the viewpoint of the education target person corresponding to the position information in the virtual space of the factory in which the education target object in the shape of the equipment is arranged in association with the equipment. Output to the display device
When the educational object included in the image displayed on the display device is selected, information for displaying the educational content of the equipment associated with the educational object is output to the display device.
Display method.
工場の設備に関する教育を行うための装置であって、
プロセッサと、
前記プロセッサによって実行可能なプログラムが記憶されたメモリと、
を備え、
前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、
教育対象者の位置情報を検知部から受信し、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を生成し、
前記画像を表示装置に出力し、
操作部を操作することによって前記画像に含まれる前記教育対象オブジェクトが選択された場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記表示装置に出力する、
装置。
It is a device for providing education on factory equipment.
With the processor
A memory in which a program that can be executed by the processor is stored, and
With
The processor uses the program stored in the memory.
Receives the location information of the educated person from the detector and
In the virtual space of the factory where the educational object in the shape of the equipment is arranged in association with the equipment, an image seen from the viewpoint of the educational subject corresponding to the position information is generated.
The image is output to the display device and
When the educational object included in the image is selected by operating the operation unit, the educational content of the equipment associated with the educational object is output to the display device.
apparatus.
JP2020505294A 2018-08-29 2019-08-23 Display system, server, display method and equipment Active JP6827193B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018160498 2018-08-29
JP2018160498 2018-08-29
JP2019109900 2019-06-12
JP2019109900 2019-06-12
PCT/JP2019/032936 WO2020045254A1 (en) 2018-08-29 2019-08-23 Display system, server, display method, and device

Publications (2)

Publication Number Publication Date
JPWO2020045254A1 true JPWO2020045254A1 (en) 2020-09-03
JP6827193B2 JP6827193B2 (en) 2021-02-10

Family

ID=69644359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505294A Active JP6827193B2 (en) 2018-08-29 2019-08-23 Display system, server, display method and equipment

Country Status (4)

Country Link
US (1) US20210256865A1 (en)
JP (1) JP6827193B2 (en)
CN (1) CN112400198A (en)
WO (1) WO2020045254A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240077984A1 (en) * 2022-09-01 2024-03-07 Lei Zhang Recording following behaviors between virtual objects and user avatars in ar experiences

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130189656A1 (en) * 2010-04-08 2013-07-25 Vrsim, Inc. Simulator for skill-oriented training
JP2015075732A (en) * 2013-10-11 2015-04-20 三菱重工業株式会社 Plant operation training apparatus, control method, program, and plant operation training system
JP2017120612A (en) * 2015-12-28 2017-07-06 株式会社タッグ Three-dimensional image generation server, electronic catalog display device, three-dimensional image display system, three-dimensional image display method, and three-dimensional image display program
EP3349104A1 (en) * 2017-01-12 2018-07-18 Virva VR Oy Virtual reality arcade

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100721713B1 (en) * 2005-08-25 2007-05-25 명지대학교 산학협력단 Immersive training system for live-line workers
JP2012069065A (en) * 2010-09-27 2012-04-05 Nintendo Co Ltd Information processing program, and information processing device and method
US10388176B2 (en) * 2012-11-28 2019-08-20 Vrsim, Inc. Simulator for skill-oriented training
CN104464428A (en) * 2014-11-12 2015-03-25 国家电网公司 Virtuality and reality combined switch cabinet overhaul and training system and method
CA2979217C (en) * 2015-03-09 2023-12-12 Alchemy Systems, L.P. Augmented reality
US20170148214A1 (en) * 2015-07-17 2017-05-25 Ivd Mining Virtual reality training
US9766713B2 (en) * 2015-09-08 2017-09-19 Unity IPR ApS System and method for providing user interface tools
EP3200044A1 (en) * 2016-01-29 2017-08-02 Tata Consultancy Services Limited Virtual reality based interactive learning
JP6646565B2 (en) * 2016-12-12 2020-02-14 株式会社コロプラ Information processing method and apparatus, and program for causing computer to execute the information processing method
US10810899B1 (en) * 2016-12-05 2020-10-20 Google Llc Virtual instruction tool
US10825350B2 (en) * 2017-03-28 2020-11-03 Wichita State University Virtual reality driver training and assessment system
CN206863984U (en) * 2017-05-04 2018-01-09 河北科技大学 A kind of chemical industry safe teaching simulation system
US11410564B2 (en) * 2017-11-07 2022-08-09 The Board Of Trustees Of The University Of Illinois System and method for creating immersive interactive application
US10684676B2 (en) * 2017-11-10 2020-06-16 Honeywell International Inc. Simulating and evaluating safe behaviors using virtual reality and augmented reality
WO2019150321A1 (en) * 2018-02-01 2019-08-08 Isg Central Services Limited Improved augmented reality system
CN112119396A (en) * 2018-05-03 2020-12-22 3M创新有限公司 Personal protective equipment system with augmented reality for security event detection and visualization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130189656A1 (en) * 2010-04-08 2013-07-25 Vrsim, Inc. Simulator for skill-oriented training
JP2015075732A (en) * 2013-10-11 2015-04-20 三菱重工業株式会社 Plant operation training apparatus, control method, program, and plant operation training system
JP2017120612A (en) * 2015-12-28 2017-07-06 株式会社タッグ Three-dimensional image generation server, electronic catalog display device, three-dimensional image display system, three-dimensional image display method, and three-dimensional image display program
EP3349104A1 (en) * 2017-01-12 2018-07-18 Virva VR Oy Virtual reality arcade

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"[CEDEC2016]Oculusが語る「手でやろうとしたことが全てできるVR」が面白くなるコツ", MOGULIVE[ONLINE], JPN6020014886, 30 August 2016 (2016-08-30), ISSN: 0004332911 *
"ゲームだけじゃないVR 製造も営業も変える第3の波 PART2 業務プロセスも革新", 日経ビジネス 第1850号, JPN6020014885, 18 July 2016 (2016-07-18), pages 036 - 039, ISSN: 0004332913 *
"三菱マテリアル、安全教育にVR危険体感装置を導入", 日本経済新聞[ONLINE], JPN6020014887, 30 May 2018 (2018-05-30), ISSN: 0004332912 *

Also Published As

Publication number Publication date
CN112400198A (en) 2021-02-23
WO2020045254A1 (en) 2020-03-05
JP6827193B2 (en) 2021-02-10
US20210256865A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
CN105934227B (en) Audio navigation auxiliary
JP2023018097A (en) Augmented reality adjustment of interaction between human and robot
US10777005B2 (en) Smart tools and workspaces for do-it-yourself tasks
CN103635891A (en) Massive simultaneous remote digital presence world
JP2016522463A5 (en)
KR101949261B1 (en) method for generating VR video, method for processing VR video, and system for processing VR video
JP6736298B2 (en) Information processing apparatus, information processing method, and program
JP2018524684A (en) Intermediary reality
JP2021077255A (en) Image processing device, image processing method, and image processing system
US20130176302A1 (en) Virtual space moving apparatus and method
JP6827193B2 (en) Display system, server, display method and equipment
US10582190B2 (en) Virtual training system
JP2018092416A (en) Information processing method, device, and program for causing computers to execute the information processing method
JP2018032131A (en) Method and device for supporting input in virtual space and program causing computer to execute the method
KR20180088005A (en) authoring tool for generating VR video and apparatus for generating VR video
EP3287868B1 (en) Content discovery
TWI550256B (en) Bim-based indoor navigation method, indoor navigation information generation method, computer readable recording medium, and indoor navigation apparatus
KR101980297B1 (en) apparatus, method and program for processing 3D VR video
JP2019164216A (en) Instruction position transmission system and instruction position transmission method
Figueiredo et al. Fishtank everywhere: Improving viewing experience over 3D content
JP6784429B1 (en) Information processing equipment, information processing methods and information processing programs
JP6764142B1 (en) Information processing equipment, information processing methods and information processing programs
US11455035B2 (en) Inputs to virtual reality devices from touch surface devices
Mitsuhara et al. Why Don't You Evacuate Speedily? Augmented Reality-based Evacuee Visualisation in ICT-based Evacuation Drill
JP2006338146A (en) Information presentation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200130

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6827193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151