JPWO2020045254A1 - Display system, server, display method and equipment - Google Patents
Display system, server, display method and equipment Download PDFInfo
- Publication number
- JPWO2020045254A1 JPWO2020045254A1 JP2020505294A JP2020505294A JPWO2020045254A1 JP WO2020045254 A1 JPWO2020045254 A1 JP WO2020045254A1 JP 2020505294 A JP2020505294 A JP 2020505294A JP 2020505294 A JP2020505294 A JP 2020505294A JP WO2020045254 A1 JPWO2020045254 A1 JP WO2020045254A1
- Authority
- JP
- Japan
- Prior art keywords
- educational
- image
- education
- equipment
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 230000009471 action Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 29
- 238000004891 communication Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 11
- 238000012549 training Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008450 motivation Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Entrepreneurship & Innovation (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
表示システムは、検知部と、表示部と、操作部とを有する。検知部は、教育対象者の位置情報を検知する。表示部は、仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示する。操作部は、画像に含まれる教育対象オブジェクトを選択する。操作部を操作することにより教育対象オブジェクトが選択された場合、表示部は、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示する。 The display system includes a detection unit, a display unit, and an operation unit. The detection unit detects the position information of the person to be educated. The display unit displays an image viewed from the viewpoint of the educated person corresponding to the position information in the virtual space. The operation unit selects the educational object included in the image. When the educational object is selected by operating the operation unit, the display unit displays the educational content of the equipment associated with the educational object.
Description
本開示は、表示システム、サーバ、表示方法及び装置(特に教育用装置)に関する。 The present disclosure relates to display systems, servers, display methods and devices (particularly educational devices).
作業現場における作業員の安全意識の向上のために、作業員が災害発生時の状況を模擬体験できるシステムが知られている(例えば特許文献1参照)。 In order to improve the safety awareness of workers at work sites, a system is known in which workers can experience a simulated situation at the time of a disaster (see, for example, Patent Document 1).
本開示の表示システムは、工場の設備に関する教育を行うシステムである。表示システムは、検知部と、表示部と、操作部とを有する。 The display system of the present disclosure is a system for providing education on factory equipment. The display system includes a detection unit, a display unit, and an operation unit.
検知部は、教育対象者の位置情報を検知する。 The detection unit detects the position information of the person to be educated.
表示部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示する。 The display unit displays an image viewed from the viewpoint of the educated person corresponding to the position information in the virtual space of the factory in which the educational object in the shape of the equipment is arranged and associated with the equipment.
操作部は、画像に含まれる教育対象オブジェクトを選択する。 The operation unit selects the educational object included in the image.
操作部を操作することにより教育対象オブジェクトが選択された場合、表示部は、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示する。 When the educational object is selected by operating the operation unit, the display unit displays the educational content of the equipment associated with the educational object.
本開示のサーバは、工場の設備に関する教育を行うための教育用コンテンツを出力するためのサーバである。 The server of the present disclosure is a server for outputting educational contents for conducting education on factory equipment.
サーバは、取得部と、画像出力部と、コンテンツ出力部とを有する。 The server has an acquisition unit, an image output unit, and a content output unit.
取得部は、教育対象者の位置情報を検知部から取得する。 The acquisition unit acquires the position information of the person to be educated from the detection unit.
画像出力部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示部に出力する。 The image output unit outputs an image viewed from the viewpoint of the education target person corresponding to the position information to the display unit in the virtual space of the factory in which the education target object in the shape of the equipment is arranged and associated with the equipment.
コンテンツ出力部は、画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示部に出力する。 When the educational object included in the image is selected, the content output unit outputs the educational content of the equipment associated with the educational object to the display unit.
本開示の表示方法は、工場の設備に関する教育を行うためのコンテンツを表示する表示方法である。 The display method of the present disclosure is a display method for displaying contents for providing education on factory equipment.
表示方法は、
検知部によって検知された教育対象者の位置情報を受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示するための情報を表示装置に出力し、
表示装置に表示された画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示するための情報を表示装置に出力する。The display method is
Receives the location information of the educated person detected by the detector,
In the virtual space of the factory where the educational object in the shape of the equipment is placed, which is associated with the equipment, the information for displaying the image from the viewpoint of the educational subject corresponding to the location information is output to the display device. ,
When the educational object included in the image displayed on the display device is selected, the information for displaying the educational content of the equipment associated with the educational object is output to the display device.
本開示の装置は、工場の設備に関する教育を行うための装置である。 The device of the present disclosure is a device for providing education on factory equipment.
装置は、プロセッサと、メモリと、を有する。 The device includes a processor and a memory.
メモリには、プロセッサによって実行可能なプログラムが記憶されている。 A program that can be executed by the processor is stored in the memory.
プロセッサは、メモリに記憶されたプログラムを用いて、
教育対象者の位置情報を検知部から受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された工場の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を生成し、
画像を表示装置に出力し、
操作部を操作することによって画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示装置に出力する。The processor uses the program stored in the memory
Receives the location information of the educated person from the detector and
In the virtual space of the factory where the educational object in the shape of the equipment is placed, which is associated with the equipment, an image from the viewpoint of the educational subject corresponding to the location information is generated.
Output the image to the display device
When the educational object included in the image is selected by operating the operation unit, the educational content of the equipment associated with the educational object is output to the display device.
本開示の一態様に係る表示システムは、工場(施設)の設備に関する教育を行うシステムである。表示システムは、検知部と、表示部と、操作部とを有する。 The display system according to one aspect of the present disclosure is a system for providing education on equipment of a factory (facility). The display system includes a detection unit, a display unit, and an operation unit.
検知部は、教育対象者の位置情報を検知する。 The detection unit detects the position information of the person to be educated.
表示部は、教育の対象となる設備に対応付けられ、かつ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を前記教育対象者に表示する。 The display unit is associated with the equipment to be educated, and in the virtual space of the factory where the educational object in the shape of the equipment is arranged, from the viewpoint of the educated person corresponding to the position information. The viewed image is displayed to the educated person.
操作部は、前記教育対象者が、前記画像に含まれる教育対象オブジェクトを選択するために用いられる。 The operation unit is used by the educated person to select an educated object included in the image.
前記表示部は、前記教育対象者が前記操作部を用いて教育対象オブジェクトを選択した場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを、前記教育対象者に表示する。 When the education target person selects the education target object by using the operation unit, the display unit displays the education content of the equipment associated with the education target object to the education target person.
これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われる。これにより、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名のみが記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, the person to be educated performs an operation of searching for an object to be educated in the virtual space. As a result, effective education can be performed as compared with the case where the educated person simply watches the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content, as compared with, for example, selecting an icon in which only the name of the equipment to be educational is described.
例えば、前記表示部は、前記画像に教育対象オブジェクトが含まれる場合、前記教育対象オブジェクト上、又は、前記教育対象オブジェクトの周辺にアイコンを表示してもよい。そして、前記教育対象者が前記操作部により前記アイコンを選択した場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, when the image includes an educational object, the display unit may display an icon on the educational object or around the educational object. Then, when the education target person selects the icon by the operation unit, the display unit may display the education content to the education target person.
これにより、教育対象者が教育対象オブジェクトを見つけやすくなる。よって、教育対象者が教育対象オブジェクトを見つけることができず、過度に時間が経過することによる情報処理量の増加、及び、教育対象者のモチベーションの低下を抑制できる。 This makes it easier for the educated person to find the educated object. Therefore, the educational target cannot find the educational target object, and it is possible to suppress an increase in the amount of information processing due to excessive passage of time and a decrease in the motivation of the educational target.
例えば、前記表示部は、前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示してもよい。そして、前記ポインタにより前記アイコンが指し示された状態において、前記教育対象者が前記操作部により選択操作を行った場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, the display unit may display a pointer pointing to a position on the image based on the operation of the educated person. Then, when the education target person performs a selection operation by the operation unit while the icon is pointed by the pointer, the display unit may display the education content on the education target person. Good.
これによれば、教育対象者は直感的に教育対象オブジェクトを選択できる。そのため、選択間違いを減らすことができる。 According to this, the educated person can intuitively select the educated object. Therefore, it is possible to reduce selection mistakes.
例えば、前記表示部は、前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示してもよい。そして、前記ポインタにより前記教育対象オブジェクトが指し示された状態において、前記教育対象者が前記操作部により選択操作を行った場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, the display unit may display a pointer pointing to a position on the image based on the operation of the educated person. Then, when the education target person performs a selection operation by the operation unit while the education target object is pointed by the pointer, the display unit displays the education content to the education target person. You may.
これによれば、教育対象者は直感的に教育対象オブジェクトを選択できる。そのため、選択間違いを減らすことができる。 According to this, the educated person can intuitively select the educated object. Therefore, it is possible to reduce selection mistakes.
例えば、前記表示部は、前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示してもよい。そして、前記ポインタにより前記教育対象オブジェクトが指し示された場合、前記表示部は、前記教育対象オブジェクト上、又は、当該教育対象オブジェクトの周辺にアイコンを表示してもよい。そして、前記アイコンが表示されている状態において、前記教育対象者が前記操作部により選択操作を行った場合、前記表示部は、前記教育用コンテンツを前記教育対象者に表示してもよい。 For example, the display unit may display a pointer pointing to a position on the image based on the operation of the educated person. Then, when the education target object is pointed by the pointer, the display unit may display an icon on the education target object or around the education target object. Then, when the education target person performs a selection operation by the operation unit while the icon is displayed, the display unit may display the education content to the education target person.
これによれば、教育対象者が教育対象オブジェクトを見つけやすくなる。よって、教育対象者が教育対象オブジェクトを見つけることができず、過度に時間が経過することによる情報処理量の増加、及び教育対象者のモチベーションが低下することを抑制できる。また、常にアイコンを表示する場合に比べて、教育対象オブジェクトを見つけにくくなるため、教育対象者の思考が必要となる。これにより、教育の効果を向上できる。 This makes it easier for the educated person to find the educated object. Therefore, it is possible to prevent the education target person from finding the education target object, increasing the amount of information processing due to excessive passage of time, and reducing the motivation of the education target person. In addition, it is more difficult to find the object to be educated than when the icon is always displayed, so that the person to be educated needs to think. As a result, the effect of education can be improved.
例えば、前記教育用コンテンツは、前記仮想空間における仮想体験を含んでもよい。 For example, the educational content may include a virtual experience in the virtual space.
これによれば、臨場感のある体験により教育効果を向上できる。また、仮想空間における仮想体験をさせるための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, the educational effect can be improved by the experience with a sense of presence. In addition, it is not necessary to separately prepare a device for virtual experience in the virtual space, which simplifies the configuration of the device.
例えば、前記仮想体験は、前記教育対象オブジェクトに関する危険体験を含んでもよい。 For example, the virtual experience may include a dangerous experience with respect to the educated object.
これによれば、安全訓練を効果的に行うことができる。また、実際に危険体験をさせるための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, safety training can be effectively performed. In addition, it is not necessary to separately prepare a device for actually experiencing a danger, which simplifies the configuration of the device.
例えば、前記教育用コンテンツは、前記危険体験に関する前記教育対象者への問いかけを含んでもよい。 For example, the educational content may include a question to the educated person regarding the dangerous experience.
これによれば、教育対象者の思考を促すことができるので教育効果を向上できる。また、危険体験に関する問いかけをするための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, it is possible to promote the thinking of the person to be educated, so that the educational effect can be improved. In addition, there is no need to separately prepare a device for asking questions about dangerous experiences, which simplifies the configuration of the device.
例えば、前記教育用コンテンツは、前記危険体験に関連し、前記教育対象者が行うべき行動を示すコンテンツを含んでもよい。 For example, the educational content may include content that is related to the dangerous experience and indicates an action to be taken by the educated person.
これによれば、教育効果を向上できる。また、教育対象者が行うべき行動を示すコンテンツを表示するための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, the educational effect can be improved. In addition, it is not necessary to separately prepare a device for displaying the content indicating the action to be performed by the educated person, and the device configuration is simplified.
例えば、前記教育用コンテンツは、前記教育対象オブジェクトに関連し、危険性がある場所を前記教育対象者に選択させるコンテンツを含んでもよい。 For example, the educational content may include content that is related to the educational object and causes the educational subject to select a dangerous place.
これによれば、教育対象者の思考を促すことができるので教育効果を向上できる。また、危険性がある場所を教育対象者に選択させるコンテンツを表示するための機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, it is possible to promote the thinking of the person to be educated, so that the educational effect can be improved. In addition, it is not necessary to separately prepare a device for displaying the content that allows the educated person to select a dangerous place, which simplifies the configuration of the device.
例えば、前記仮想空間は、対象施設を撮影した画像を用いて生成されていてもよい。 For example, the virtual space may be generated using an image of the target facility.
これによれば、実際の対象施設の状態に近い仮想空間を生成できるので、臨場感を向上できる。また、対象施設を撮影した画像を別途準備する必要がなく、装置の構成が簡単になる。 According to this, since it is possible to generate a virtual space close to the state of the actual target facility, it is possible to improve the sense of presence. In addition, it is not necessary to separately prepare an image of the target facility, which simplifies the configuration of the device.
例えば、前記表示システムは、さらに、前記教育用コンテンツの内容に応じて、前記教育対象者に振動を与える振動部を含んでもよい。 For example, the display system may further include a vibrating unit that vibrates the educational subject depending on the content of the educational content.
これによれば、臨場感のある体験により教育効果を向上できる。また、教育対象者に振動を与える機器を別途準備する必要がなく、装置の構成が簡単になる。 According to this, the educational effect can be improved by the experience with a sense of presence. In addition, it is not necessary to separately prepare a device that vibrates the trainee, and the device configuration is simplified.
本開示の一態様に係るサーバは、工場の設備に関する教育を行うための教育用コンテンツを出力するためのサーバである。サーバは、取得部と、画像出力部と、コンテンツ出力部とを有する。 The server according to one aspect of the present disclosure is a server for outputting educational contents for providing education on factory equipment. The server has an acquisition unit, an image output unit, and a content output unit.
取得部は、教育対象者の位置情報を検知部から取得する。 The acquisition unit acquires the position information of the person to be educated from the detection unit.
画像出力部は、教育の対象となる設備に対応付けられ、かつ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示部に出力する。 The image output unit is associated with the equipment to be educated, and the viewpoint of the educated person corresponding to the position information in the virtual space of the factory in which the educated object in the shape of the equipment is arranged. The image seen from is output to the display unit.
コンテンツ出力部は、前記教育対象者が、前記画像に含まれる教育対象オブジェクトを選択した場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記表示部に出力する。 When the education target person selects the education target object included in the image, the content output unit outputs the education content of the equipment associated with the education target object to the display unit.
これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名が記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, by performing the operation of searching for the object to be educated in the virtual space by the educated person, more effective education can be performed as compared with the case where the educated person simply views the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content as compared with, for example, selecting an icon on which the name of the equipment to be educational is described.
本開示の一態様に係る表示方法は、工場の設備に関する教育を行うためのコンテンツを表示する表示方法である。 The display method according to one aspect of the present disclosure is a display method for displaying contents for providing education on factory equipment.
本開示の表示方法は、検知部によって検知された教育対象者の位置情報を受信し、教育の対象となる設備に対応付けられ、かつ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を前記教育対象者に表示するための情報を表示装置に出力し、前記教育対象者が、前記表示装置に表示された前記画像に含まれる教育対象オブジェクトを選択した場合、当該教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記教育対象者に表示するための情報を表示装置に出力する。 The display method of the present disclosure receives the position information of the education target person detected by the detection unit, associates it with the equipment to be educated, and arranges the education target object in the shape of the equipment. In the virtual space of the factory, information for displaying the image seen from the viewpoint of the education target person corresponding to the position information to the education target person is output to the display device, and the education target person causes the education target person to display the display device. When the educational target object included in the displayed image is selected, the information for displaying the educational content of the equipment associated with the educational target object to the educational target person is output to the display device.
これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名が記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, by performing the operation of searching for the object to be educated in the virtual space by the educated person, more effective education can be performed as compared with the case where the educated person simply views the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content as compared with, for example, selecting an icon on which the name of the equipment to be educational is described.
本開示の一態様に係る装置は、工場の設備に関する教育を行うための装置である。装置は、プロセッサと、メモリと、を有する。 The device according to one aspect of the present disclosure is a device for providing education on factory equipment. The device includes a processor and a memory.
前記メモリには、前記プロセッサによって実行可能なプログラムが記憶されている。 A program that can be executed by the processor is stored in the memory.
前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、教育対象者の位置情報を検知部から受信し、教育の対象となる設備に対応付けられ、対応付けられている前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を生成し、前記画像を前記教育対象者に対して表示するために表示装置に出力し、前記教育対象者が、操作部によって前記画像に含まれる教育対象オブジェクトを選択した場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記教育対象者に対して表示するために表示装置に出力する。 The processor receives the position information of the person to be educated from the detection unit by using the program stored in the memory, associates it with the equipment to be educated, and determines the shape of the associated equipment. In the virtual space of the factory where the educational target object is arranged, an image seen from the viewpoint of the educational target person corresponding to the position information is generated, and the image is displayed for displaying to the educational target person. When the output is output to the device and the education target person selects the education target object included in the image by the operation unit, the education content of the equipment associated with the education target object is sent to the education target person. Output to the display device for display.
これによれば、教育対象者は、仮想空間において教育対象オブジェクトを選択するという能動的な動作を行う。これにより、教育対象者に対する教育の効果を向上できる可能性がある。また、教育対象者により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。また、教育対象者は、教育対象の形状をした設備を選択する。これにより、たとえば教育対象の設備名が記載されたアイコンを選択する場合と比べて、教育用コンテンツの選択間違いを減らすことができる。 According to this, the educated person performs an active action of selecting an educated object in the virtual space. This may improve the effectiveness of education for educated people. In addition, by performing the operation of searching for the object to be educated in the virtual space by the educated person, more effective education can be performed as compared with the case where the educated person simply views the educational content. In addition, the person to be educated selects equipment having the shape of the object to be educated. As a result, it is possible to reduce mistakes in selecting educational content as compared with, for example, selecting an icon on which the name of the equipment to be educational is described.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意の組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, a method, an integrated circuit, a computer program and a recording medium.
以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示している。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that all of the embodiments described below show a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components.
図1は、本実施の形態に係る表示システム100の概要を示す模式図である。以下では、表示システム100が、工場等の施設において製造作業等を行う作業員に対して安全教育を行うためのシステムである場合の例を説明する。なお、表示システム100の用途はこれに限定されない。例えば、工場等に限らず、学校、病院、及び研究施設等の任意の施設における安全教育に表示システム100を用いることができる。また、安全教育に限らず、装置の使用方法の教育等の他の教育用途に表示システム100を用いることもできる。
FIG. 1 is a schematic diagram showing an outline of the
表示システム100は、ヘッドセット103と、2つのコントローラ104と、を備える。また、表示システム100は、サーバ102と、2つの位置センサ105とを有していてもよい。表示システム100は、例えば、工場(施設)の設備に関する教育を行うためのシステムである。なお、本実施の形態では、2つのコントローラ104と、2つの位置センサ105を用いている。しかし、コントローラ104は2つに限らず、1つでも、3つ以上でもよい。また、位置センサ105も1つでも、3つ以上でもよい。
The
ヘッドセット103は、安全教育を受ける教育対象者101の頭部に装着される。2つのコントローラ104は、教育対象者101の両手に把持される。2つの位置センサ105は、ヘッドセット103及びコントローラ104の位置を検知するために用いられる。
The
図2は、表示システム100のブロック図である。図2に示すように、サーバ102は、ネットワーク106を介して、ヘッドセット103と接続されている。サーバ102は、ヘッドセット103の位置及び教育対象者101(図1参照)によるコントローラ104の操作内容に基づき、ヘッドセット103で再生する画像及び音声等を生成し、生成した画像及び音声等をヘッドセット103に出力する。サーバ102は、蓄積部121と、取得部122と、画像出力部123と、コンテンツ出力部124と、NW(ネットワーク)通信部125とを備える。
FIG. 2 is a block diagram of the
蓄積部121は、工場等の対象施設の仮想空間を示す三次元情報を格納している。仮想空間には、複数の教育対象オブジェクトが配置されている。また、蓄積部121は、複数の教育対象オブジェクトに対応付けられた複数の教育用コンテンツを格納している。例えば、複数の教育対象オブジェクトはそれぞれ、教育対象となる複数の設備に対応付けられている。各々の教育対象オブジェクトは、対応付けられている設備の形状を有する。また、教育対象オブジェクトの教育用コンテンツは、当該教育用コンテンツに対応付けられている設備の教育用コンテンツである。
The
教育用コンテンツは、画像(動画像又は静止画)、音声、及び制御情報等を含む。制御情報は、例えば、コントローラ104の振動を制御するための情報等を含む。
Educational content includes images (moving images or still images), audio, control information, and the like. The control information includes, for example, information for controlling the vibration of the
また、上記の三次元情報は、例えば、対象施設を複数視点から撮影した画像を用いて生成されたポイントクラウドである。なお、三次元情報は、撮影された画像から生成されたものに限らず、コンピュータグラフィクスであってもよい。また、三次元情報は、撮影された画像から生成されたものとコンピュータグラフィクスとの組み合わせであってもよい。また、仮想空間を構成する方法として、対象施設を撮影した360度画像が用いられてもよいし、360度画像と三次元情報(ポイントクラウド等)との組み合わせが用いられてもよい。 Further, the above three-dimensional information is, for example, a point cloud generated by using images of the target facility taken from a plurality of viewpoints. The three-dimensional information is not limited to the one generated from the captured image, and may be computer graphics. Further, the three-dimensional information may be a combination of computer graphics and the one generated from the captured image. Further, as a method of constructing the virtual space, a 360-degree image obtained by photographing the target facility may be used, or a combination of the 360-degree image and three-dimensional information (point cloud or the like) may be used.
取得部122は、ヘッドセット103から、ヘッドセット103の位置情報、コントローラ104の位置情報及び操作内容を取得する。
The
画像出力部123は、ヘッドセット103の位置に基づき、仮想空間において、ヘッドセット103の位置に対応する教育対象者101の視点から見た画像を生成する。なお、本願における位置とは、例えば、三次元座標と、姿勢(傾き)とを含む。なお、位置は、三次元座標と傾きのどちらか一方であってもよいし、三次元座標の代わりに二次元座標(例えば、横方向の座標)が用いられてもよい。
Based on the position of the
また、画像出力部123は、生成した画像に教育対象オブジェクトが含まれる場合には、当該画像上に教育対象オブジェクトのアイコンを重畳し、得られた画像を出力する。 Further, when the generated image includes the education target object, the image output unit 123 superimposes the icon of the education target object on the image and outputs the obtained image.
コンテンツ出力部124は、教育対象者101が、画面に含まれる教育対象オブジェクトを選択した場合に、当該教育対象オブジェクトに対応付けられている教育用コンテンツをヘッドセット103に出力する。
When the
NW通信部125は、ヘッドセット103の位置情報、コントローラ104の位置情報及び操作内容を、ネットワーク106を介してヘッドセット103から受信する。また、NW通信部125は、画像出力部123で生成された画像、及び教育用コンテンツを、ネットワーク106を介してヘッドセット103に送信する。
The NW communication unit 125 receives the position information of the
ヘッドセット103は、サーバ102から送信された画像及び音声等を再生する。このヘッドセット103は、NW通信部131と、通信部132と、スピーカ133と、表示部134とを備える。NW通信部131は、サーバ102から送信された画像、音声及び制御情報等を受信する。また、NW通信部131は、ヘッドセット103の位置情報、コントローラ104の位置情報及び操作内容を、ネットワーク106を介して、サーバ102に送信する。なお、サーバ102とヘッドセット103との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。
The
通信部132は、コントローラ104と通信する。具体的には、通信部132は、サーバ102から送信された制御情報をコントローラ104に送信する。また、通信部132は、コントローラ104から送信されたコントローラ104の位置情報及び操作内容を受信し、受信した情報をNW通信部131に出力する。
The
スピーカ133は、サーバ102から送信された音声を出音する。表示部134は、サーバ102から送信された画像を表示する。
The
ヘッドセット103は、検知部135を有する。検知部135は、ヘッドセット103(教育対象者101)の位置を検知する。具体的には、位置センサ105が備える検知部151は、赤外光レーザをスキャン照射する。検知部135は、複数の受光部を有する。各々の受光部は、2個の位置センサ105から照射された赤外光レーザを受光する。検知部135は、各々の受光部で受信したレーザの検知部151における照射方向と、レーザ照射から受信までの時間とに基づき、ヘッドセット103の位置を検知する。検知されたヘッドセット103の位置情報は、NW通信部131に出力される。
The
なお、ここでは、位置検知の方式として、赤外光レーザを用いる方式を例示したが、位置検知の方式は、これに限らず、公知の任意の方式が用いられてもよい。例えば、ヘッドセット103には、赤外又は可視光を発光する複数の発光部が設けられ、位置センサ105に設けられた赤外又は可視光カメラで得られた画像に基づきヘッドセット103の位置が検知されてもよい。
Here, as the position detection method, a method using an infrared laser is illustrated, but the position detection method is not limited to this, and any known method may be used. For example, the
また、上記の位置検知方式で得られた情報に加え、ヘッドセット103が備えるジャイロセンサ(図示せず)等で得られた情報に基づき、ヘッドセット103の位置情報が算出されてもよいし、ジャイロセンサ(図示せず)等で得られた情報のみに基づき位置情報が算出されてもよい。
Further, in addition to the information obtained by the above position detection method, the position information of the
コントローラ104は、操作部141と、通信部142と、振動部143と、検知部144とを備える。操作部141は、教育対象者101が、画像に含まれる教育対象オブジェクトを選択するための入力インタフェースであり、教育対象者の操作を受け付ける。例えば、操作部141は、1つ又は複数の操作ボタンである。なお、教育対象者の操作を受け付ける方式は、これに限らず、コントローラ104を振る動作又はコントローラ104の姿勢等に基づき操作が受け付けられてもよい。また、音声入力又はその他の入力デバイスを用いた入力方式が用いられてもよいし、複数の入力方式が併用されてもよい。
The
通信部142は、ヘッドセット103と通信する。具体的には、通信部142は、操作部141に対する操作内容と、コントローラ104の位置情報とをヘッドセット103に送信する。また、通信部142は、ヘッドセット103から送信された制御情報を受信する。この制御情報に基づき振動部143が制御される。振動部143は、教育用コンテンツの内容に応じて、教育対象者101に振動を与える。
The
なお、ここでは、コントローラ104に備えられた振動部143が教育対象者101に振動を与える構成としたが、ヘッドセット103に備えられた振動部が教育対象者101に振動を与えてもよい。さらに、ヘッドセット103、コントローラ104又はそれらに付属する別機器が、教育対象者101に例えば熱、風、水、電気刺激、又は触覚への刺激を与えるためのデバイスを備えていてもよい。
Here, the vibrating
また、ヘッドセット103とコントローラ104との通信方法は特に限定されず、有線又は無線等の任意の方式が用いられてよい。
Further, the communication method between the
検知部144は、コントローラ104の位置を検知する。なお、位置検知の方法は、ヘッドセット103の位置を検知する方法と同様である。
The
次に、表示システム100の動作を説明する。図3は、表示システム100における動作の流れを示すシーケンス図である。まず、ヘッドセット103は、教育対象者101の位置(ヘッドセット103の位置)を検知し(S101)、検知した教育対象者の位置情報をサーバ102に送信する(S102)。
Next, the operation of the
サーバ102は、教育対象者の位置に対応する画像を生成し、生成した画像をヘッドセット103に送信する(S103)。なお、ステップS101〜S103の処理は教育対象者101の位置が変化する毎に繰り返し行われる。
The
また、教育対象者101によりコントローラ104が操作されると、コントローラ104は、コントローラ104の位置を検知し(S104)、コントローラ104の位置情報と、操作部141等に対する操作情報とをサーバ102に送信する(S105)。
When the
上記の操作により教育対象コンテンツの教育対象オブジェクトが選択された場合(S106)、サーバ102は、選択された教育対象オブジェクトに対応する教育用コンテンツをヘッドセット103に送信する(S107)。
When the educational target object of the educational target content is selected by the above operation (S106), the
また、教育対象者101によりコントローラ104が操作されると、コントローラ104は、コントローラ104の位置を検知し(S108)、コントローラ104の位置情報と、操作部141等に対する操作情報とをサーバ102に送信する(S109)。
Further, when the
上記の操作により教育対象コンテンツに対する操作が行われた場合(S110)、サーバ102は、当該操作に応じた結果をヘッドセット103及びコントローラ104に送信する(S111及びS112)。具体的には、ヘッドセット103に表示する画面の更新、及びコントローラ104の振動制御等が行われる。
When the operation for the educational target content is performed by the above operation (S110), the
図4は、サーバ102による処理のフローチャートである。まず、サーバ102は、教育対象者101の位置情報(ヘッドセット103の位置情報)を取得する(S201)。次に、サーバ102は、蓄積部121に格納されている三次元情報に基づき、仮想空間において、取得した位置情報に対応する教育対象者101の視点から見た画像を生成し、生成した画像をヘッドセット103に出力する(S202)。
FIG. 4 is a flowchart of processing by the
当該画像に教育対象オブジェクトが含まれない場合(S203でNo)、所定の周期で再度ステップS201以降が行われる。 If the image does not include the object to be educated (No in S203), step S201 and subsequent steps are performed again at a predetermined cycle.
当該画像に教育対象オブジェクトが含まれる場合(S203でYes)、サーバ102は、教育対象オブジェクトのアイコンを出力する(S204)。具体的には、サーバ102は、画像上にアイコンを重畳し、生成された画像をヘッドセット103に出力する。
When the image includes an educational object (Yes in S203), the
この状態において、教育対象者101の操作によりアイコンが選択された場合(S205でYes)、サーバ102は、選択されたアイコンに対応付けられている教育用コンテンツをヘッドセット103に出力する(S206)。一方、教育対象者101の操作によりアイコンが選択されなかった場合(S205でNo)、所定の周期で再度ステップS201以降が行われる。
In this state, when the icon is selected by the operation of the education target person 101 (Yes in S205), the
図5は、対象施設の仮想空間161の一例を示す模式図である。図5に示す例では、仮想空間に設備等の4つのオブジェクト162A〜162Dが配置されている。オブジェクト162A、162B、162Dは、教育用コンテンツが対応付けられた教育対象オブジェクト162である。オブジェクト162Cは、教育対象オブジェクトではない通常オブジェクトである。図6〜図8は、それぞれ図5に示す視野(1)〜(3)の表示画面例を示す図である。図6及び図8に示すように、画面内に教育対象オブジェクト162(オブジェクト162A、162B、162D)が含まれる場合には、教育対象オブジェクトに対応付けてアイコン164が表示される。例えば、アイコン164は、教育対象オブジェクトの周辺、又は、教育対象オブジェクト上に重ねて表示される。例えば、アイコン164は、教育対象オブジェクトを強調表示するためのものである。また、アイコン164は、教育対象オブジェクト、又は教育対象オブジェクトに対応付けられている教育用コンテンツを説明する文字情報又は図形等を含んでもよい。
FIG. 5 is a schematic diagram showing an example of the
また、図8に示すように通常オブジェクト162Cには、アイコン164は表示されない。また、図7に示すように画像に教育対象オブジェクトが含まれない場合には、アイコン164は表示されない。
Further, as shown in FIG. 8, the
図9及び図10は、表示画面の詳細な例を示す図である。図9に示すように、画面上にはレーザポインタであるポインタ165が表示される。ポインタ165は、コントローラ104の向きに応じて、画面内の任意の位置を指し示す。
9 and 10 are diagrams showing a detailed example of the display screen. As shown in FIG. 9, a
図9の例では、画面内に教育対象オブジェクトが含まれない。この場合、教育対象者101は、視線方向を変更したり、位置を移動することで、教育対象オブジェクトを探索する。図10の例では、画面内に教育対象オブジェクト162が含まれ、教育対象オブジェクト162に重ねてアイコン164が表示されている。この状態において、教育対象者101は、ポインタ165でアイコン164を指し示し、操作部141による選択操作(例えば、操作ボタンの押下)を行うことで、アイコン164を選択する。
In the example of FIG. 9, the educational object is not included in the screen. In this case, the
以上のように、ポインタ165により教育対象オブジェクト162が指し示された状態において、教育対象者101が操作部141により選択操作を行った場合、教育用コンテンツが表示部134の画面に表示される。アイコン164を表示することで、教育対象者101が教育対象オブジェクト162を見つけやすくすることができる。よって、教育対象者101が教育対象オブジェクト162を見つけることができず、過度に時間が経過すること、及び教育対象者101のモチベーションが低下することを抑制できる。
As described above, when the
なお、ここではアイコン164が常に表示される例を示したが、ポインタ165により教育対象オブジェクト162が指し示された場合にのみアイコン164が表示されてもよい。図11は、この場合のサーバ102の動作のフローチャートである。図11に示す処理は、図4に示す処理に対して、ステップS207が追加されている。具体的には、画像に教育対象オブジェクト162が含まれる場合(S203でYes)において、教育対象オブジェクト162がポインタ165で指し示された場合(S207でYes)、サーバ102はアイコン164を出力する(S204)。また、教育対象オブジェクトがポインタ165で指し示されていない場合(S207でNo)には、サーバ102は、アイコン164を出力しない。
Although the example in which the
図12は、このときの画面例を示す図である。図12の(a)に示すように、画面内に教育対象オブジェクト162が含まれる場合であっても、ポインタ165が教育対象オブジェクト162を指し示していない場合にはアイコン164は表示されない。図12の(b)に示すように、ポインタ165が教育対象オブジェクト162を指し示した場合にはアイコン164が表示される。
FIG. 12 is a diagram showing a screen example at this time. As shown in FIG. 12A, even when the
このように、ポインタ165により教育対象オブジェクト162が指し示された場合、アイコン164が表示される。アイコン164が表示されている状態において、教育対象者101が操作部141により選択操作(例えば、操作ボタンの押下)を行った場合、教育用コンテンツが表示部134の画面に表示される。
In this way, when the
これにより、常にアイコンを表示する場合に比べて、教育対象オブジェクトを見つけにくくなるため、教育対象者の思考が必要となる。これにより、教育の効果を向上できる。また、ポインタ165で指し示した際には、アイコン164が表示されるので、まったくアイコン164を表示しない場合に比べて、教育対象者101が教育対象オブジェクト162を見つけやすくすることができる。
This makes it more difficult to find the object to be educated than when the icon is always displayed, so that the person to be educated needs to think. As a result, the effect of education can be improved. Further, since the
なお、ポインタ165が教育対象オブジェクト162を指し示した場合にもアイコン164が表示されなくてもよい。これにより、教育対象オブジェクトをより見つけにくくできる。つまり、ポインタ165により教育対象オブジェクト162が指し示された状態において、教育対象者101が操作部141により選択操作(例えば操作ボタンの押下)を行った場合、教育用コンテンツが表示部134の画面に表示されてもよい。
The
また、教育対象オブジェクト162と通常オブジェクトとの両方にアイコン164が表示されてもよい。この場合においても、教育対象オブジェクト162が選択された場合には、教育用コンテンツが再生され、通常オブジェクトが選択された場合には教育用コンテンツは再生されない。これにより、選択可能な候補を教育対象者101に提示できるので、教育対象オブジェクトを見つけやすくできる。一方で、教育対象オブジェクト162のみにアイコン164を表示する場合に比べて、教育対象オブジェクト162を選択しにくくできる。
Further, the
なお、上記の複数の手法を設定可能としてもよい。また、所定の条件に応じて使用する手法が切り替えられてもよい。例えば、所定時間、教育対象オブジェクト162が選択されない場合、つまり、教育対象者101が教育対象オブジェクト162を見つけられない場合に、より選択しやすい方式に、使用する方式が切り替えられてもよい。
It should be noted that the above-mentioned plurality of methods may be set. Further, the method to be used may be switched according to a predetermined condition. For example, when the
以上により、教育対象者101は、仮想空間において教育対象オブジェクト162を選択するという能動的な動作を行う。これにより、教育対象者101に対する教育の効果を向上できる可能性がある。また、教育対象者101により、仮想空間において教育の対象となるオブジェクトを探すという動作が行われることで、単に教育対象者101が教育用コンテンツを視聴する場合に比べて、効果的な教育を行える。
As described above, the
なお、仮想空間の実現手法として、教育対象者101(ヘッドセット103)の座標及び姿勢の両方が用いられてもよいし、座標は固定として姿勢に基づき画面が変更されてもよい。また、座標の移動は、教育対象者101の移動ではなく、教育対象者101によるコントローラ104等を介した操作により行われてもよい。また、水平方向のみ、又は垂直方向のみといったように二次元又は一次元の移動のみが反映されてもよい。同様に、特定の方向の姿勢の変更のみが反映されてもよい。
As a method for realizing the virtual space, both the coordinates and the posture of the educated person 101 (headset 103) may be used, or the coordinates may be fixed and the screen may be changed based on the posture. Further, the movement of the coordinates may be performed not by the movement of the
また、視差を有する異なる画像が左右の目に表示される立体表示が用いられてもよいし、左右の目に同一の画像が表示される方式が用いられてもよい。 Further, a stereoscopic display in which different images having parallax are displayed in the left and right eyes may be used, or a method in which the same image is displayed in the left and right eyes may be used.
なお、これらの仮想空間の実現手法については、後述する教育用コンテンツに含まれる仮想体験についても同様である。 The method for realizing these virtual spaces is the same for the virtual experience included in the educational content described later.
次に、教育用コンテンツの詳細について説明する。教育用コンテンツは、例えば、仮想空間における仮想体験を含む。また、仮想体験は、例えば、教育対象オブジェクト162に関する危険体験を含む。
Next, the details of the educational content will be described. Educational content includes, for example, virtual experiences in virtual space. The virtual experience also includes, for example, a dangerous experience with respect to the
図13は、教育用コンテンツの再生処理(図4のS206)のフローチャートである。まず、ヘッドセット103に、危険想定訓練の画面が表示される(S221)。危険想定訓練は、例えば、教育対象オブジェクト162に関連し、危険性がある場所を教育対象者101に選択させるコンテンツである。
FIG. 13 is a flowchart of the educational content reproduction process (S206 of FIG. 4). First, the
図14は、危険想定訓練時の表示画面例を示す図である。図14に示すように、危険想定訓練画面166が表示される。危険想定訓練画面166は、教育対象オブジェクトの写真が示され、複数の箇所が危険候補167としてマーキングされている。教育対象者101は、ポインタ165で危険候補167を選択し、操作部141(操作ボタン)を押下することで選択マーク168を付与する。教育対象者101は、選択マーク168を付与した後、判定ボタン169を選択する。これにより、選択結果に応じた正解又は不正解の結果が表示される(S222)。
FIG. 14 is a diagram showing an example of a display screen during the risk assumption training. As shown in FIG. 14, the danger
なお、ここでは、複数の危険候補167が表示されているが、任意の位置をマークする方式であってもよい。また、選択する箇所は複数でなくてもよい。また、危険箇所を選択する内容に限らず、教育対象オブジェクト162の危険想定訓練に関連する任意の質問であってもよい。
Although a plurality of
また、ここでは、二次元画像が表示される例を示すが、仮想空間内で危険箇所を選択する方式であってもよい。 Further, although an example in which a two-dimensional image is displayed is shown here, a method of selecting a dangerous place in the virtual space may be used.
次に、事故又は危険状態等の危険体験を仮想的に体験する事故シナリオが開始される(S223)。図15〜図17は、事故シナリオの画面例を示す図である。ここでは、図15に示すように、メンテナンス作業員の作業を仮想体験する例を説明する。図16に示すように、コントローラ104により仮想空間内の手171が操作される。例えば、操作部141(操作ボタン)を操作することで、手171を握る動作が行われる。また、この例は、装置が故障した場合の体験である。図17に示すように、例えばチューブ172a(図16参照)を抜いた際に残圧により駆動部172が飛び出し、駆動部172が作業員に衝突する事故が再現される。例えば、衝突の際にはコントローラ104が振動するように制御される。また、事故シナリオにおいては、環境音及び効果音等の音声が映像にあわせて再生される。なお、振動部143はコントローラ104に内蔵されず、別途、教育対象者101に装着されてもよい。
Next, an accident scenario in which a dangerous experience such as an accident or a dangerous state is virtually experienced is started (S223). 15 to 17 are diagrams showing screen examples of accident scenarios. Here, as shown in FIG. 15, an example of virtually experiencing the work of a maintenance worker will be described. As shown in FIG. 16, the
次に、事故シナリオに関連する教育対象者101への問いかけが表示される(S224)。図18は問いかけ画面173の一例を示す図である。図18に示すように、例えば、事故の発生原因、及び改善点等を教育対象者101へ問いかける内容が表示される。なお、ここでは、画像が表示される例を示しているが、音声等により問いかけが行われてもよい。また、仮想空間においてキャラクター等により教育対象者101に問いかけが行われてもよい。
Next, a question to the
次に、事故シナリオに関連し、当該事故を防止するために行うべき行動、又は、事故が発生してしまった場合に行うべき正しい行動を示すあるべき行動が提示される(S225)。図19及び図20は、あるべき行動提示時の画面例を示す図である。例えば、図19及び図20それぞれに示すように、事故の発生原因を解説する画像174と、事故が発生してしまった場合に行うべき行動を示す画像175等が表示される。なお、これらの提示は、静止画及び動画像のいずれを用いて行ってもよい。また、仮想空間内で行われてもよい。また、音声による説明が用いられてもよい。
Next, in relation to the accident scenario, the action to be taken to prevent the accident or the action to be taken to indicate the correct action to be taken in the event of an accident is presented (S225). 19 and 20 are diagrams showing an example of a screen at the time of presenting an ideal action. For example, as shown in FIGS. 19 and 20, an
以上により、本実施の形態に係る表示システム100によれば、仮想空間を用いた臨場感のある体験により教育効果を向上できるとともに、安全訓練を効果的に行うことができる。また、教育対象者101による能動的な動作が行われることで教育効果を向上できる。
As described above, according to the
以上、実施の形態に係る表示システムについて説明したが、本開示は、この実施の形態に限定されるものではない。例えば、本開示の表示システム100は、工場に限らず、学校、病院、及び研究施設等の施設における安全教育に用いることができる。
Although the display system according to the embodiment has been described above, the present disclosure is not limited to this embodiment. For example, the
すなわち、本開示の表示システムは、施設の設備に関する教育を行うシステムである。表示システムは、検知部と、表示部と、操作部とを有する。 That is, the display system of the present disclosure is a system for providing education on the equipment of the facility. The display system includes a detection unit, a display unit, and an operation unit.
検知部は、教育対象者の位置情報を検知する。 The detection unit detects the position information of the person to be educated.
表示部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示する。 The display unit displays an image viewed from the viewpoint of the educated person corresponding to the position information in the virtual space of the facility in which the educational object in the shape of the equipment is arranged and associated with the equipment.
操作部は、画像に含まれる教育対象オブジェクトを選択する。 The operation unit selects the educational object included in the image.
操作部を操作することにより教育対象オブジェクトが選択された場合、表示部は、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示する。 When the educational object is selected by operating the operation unit, the display unit displays the educational content of the equipment associated with the educational object.
本開示のサーバは、施設の設備に関する教育を行うための教育用コンテンツを出力するためのサーバである。 The server of the present disclosure is a server for outputting educational contents for conducting education on the equipment of the facility.
サーバは、取得部と、画像出力部と、コンテンツ出力部とを有する。 The server has an acquisition unit, an image output unit, and a content output unit.
取得部は、教育対象者の位置情報を検知部から取得する。 The acquisition unit acquires the position information of the person to be educated from the detection unit.
画像出力部は、設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示部に出力する。 The image output unit outputs an image viewed from the viewpoint of the education target person corresponding to the position information to the display unit in the virtual space of the facility in which the education target object in the shape of the equipment is arranged and associated with the equipment.
コンテンツ出力部は、画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示部に出力する。 When the educational object included in the image is selected, the content output unit outputs the educational content of the equipment associated with the educational object to the display unit.
本開示の表示方法は、施設の設備に関する教育を行うためのコンテンツを表示する表示方法である。 The display method of the present disclosure is a display method for displaying contents for providing education on facilities of facilities.
表示方法は、
検知部によって検知された教育対象者の位置情報を受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を表示するための情報を表示装置に出力し、
表示装置に表示された画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示するための情報を表示装置に出力する。The display method is
Receives the location information of the educated person detected by the detector,
In the virtual space of the facility where the educational object in the shape of the equipment is placed, which is associated with the equipment, the information for displaying the image from the viewpoint of the educational subject corresponding to the location information is output to the display device. ,
When the educational object included in the image displayed on the display device is selected, the information for displaying the educational content of the equipment associated with the educational object is output to the display device.
本開示の装置は、施設の設備に関する教育を行うための装置である。 The device of the present disclosure is a device for providing education on the equipment of the facility.
装置は、プロセッサと、メモリと、を有する。 The device includes a processor and a memory.
メモリには、プロセッサによって実行可能なプログラムが記憶されている。 A program that can be executed by the processor is stored in the memory.
プロセッサは、メモリに記憶されたプログラムを用いて、
教育対象者の位置情報を検知部から受信し、
設備に対応付けられ、設備の形状をした教育対象オブジェクトが配置された施設の仮想空間において、位置情報に対応する教育対象者の視点から見た画像を生成し、
画像を表示装置に出力し、
操作部を操作することによって画像に含まれる教育対象オブジェクトが選択された場合、教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示装置に出力する。The processor uses the program stored in the memory
Receives the location information of the educated person from the detector and
In the virtual space of the facility where the educational object in the shape of the equipment is placed, which is associated with the equipment, an image from the viewpoint of the educational subject corresponding to the location information is generated.
Output the image to the display device
When the educational object included in the image is selected by operating the operation unit, the educational content of the equipment associated with the educational object is output to the display device.
例えば、図2に示す表示システム100の構成は一例であり、ある装置で実行される処理が他の装置で実行されてもよいし、一つの装置で実行される複数の処理を複数の装置で分割して処理してもよいし、複数の装置で実行される複数の処理を単一の装置で実行してもよい。例えば、サーバ102の機能の一部又は全てがヘッドセット103に含まれてもよい。
For example, the configuration of the
また、上記実施の形態に係る表示システムに含まれるそれぞれの装置に含まれる処理部の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。 Further, a part or all of the processing units included in each device included in the display system according to the above embodiment is typically realized as an LSI (Large Scale Integration) which is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of them.
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.
また、上記実施の形態において、それぞれの構成要素は、専用のハードウェアで構成されるか、それぞれの構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。それぞれの構成要素は、CPU(Central Processing Unit)またはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above-described embodiment, each component may be realized by being composed of dedicated hardware or by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
また、本開示は、表示システムに含まれる各装置として実現されてもよい。また、本開示は、表示システムに含まれる1以上の装置により実行される教育用コンテンツ表示方法、又は教育方法等の方法として実現されてもよい。 Further, the present disclosure may be realized as each device included in the display system. Further, the present disclosure may be realized as an educational content display method, an educational method, or the like executed by one or more devices included in the display system.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェアが処理してもよいし、ソフトウェアが並列又は時分割に処理してもよい。 Further, the division of the functional block in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, one functional block can be divided into a plurality of functional blocks, and some functions can be transferred to other functional blocks. You may. Further, the functions of a plurality of functional blocks having similar functions may be processed by a single hardware, or may be processed by software in parallel or in a time division manner.
また、フローチャートにおけるそれぞれのステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Further, the order in which each step in the flowchart is executed is for exemplifying for the purpose of specifically explaining the present disclosure, and may be an order other than the above. Further, a part of the above steps may be executed at the same time (parallel) as other steps.
以上、一つまたは複数の態様に係る表示システムについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 Although the display system according to one or more aspects has been described above based on the embodiment, the present invention is not limited to this embodiment. As long as the gist of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments is also within the scope of one or more embodiments. May be included within.
以上のように、本開示は、効果的な教育を行える表示システム、サーバ、表示方法又は装置を提供できる。 As described above, the present disclosure can provide a display system, server, display method or device capable of effective education.
本開示は、表示システムに適用でき、例えば、工場等の施設における安全教育を行うシステムにて適用できる。 The present disclosure can be applied to a display system, for example, a system for providing safety education in a facility such as a factory.
100 表示システム
101 教育対象者
102 サーバ
103 ヘッドセット
104 コントローラ
105 位置センサ
106 ネットワーク
121 蓄積部
122 取得部
123 画像出力部
124 コンテンツ出力部
125、131 NW通信部
132、142 通信部
133 スピーカ
134 表示部
135、144、151 検知部
141 操作部
143 振動部
161 仮想空間
162、162A、162B、162D 教育対象オブジェクト
162C 通常オブジェクト
164 アイコン
165 ポインタ
166 危険想定訓練画面
167 危険候補
168 選択マーク
169 判定ボタン
171 手
172 駆動部
172a チューブ
173 問いかけ画面
174、175 画像100
Claims (15)
教育対象者の位置情報を検知する検知部と、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示する表示部と、
前記画像に含まれる前記教育対象オブジェクトを選択するための操作部と、
を備え、
前記操作部を操作することにより前記教育対象オブジェクトが選択された場合、前記表示部は、前記教育対象オブジェクトに対応付けられている前記設備の教育用コンテンツを表示する
表示システム。A display system for providing education on factory equipment.
A detector that detects the location information of the person to be educated,
A display unit that displays an image viewed from the viewpoint of the education target person corresponding to the position information in the virtual space of the factory in which the education target object in the shape of the equipment is arranged in association with the equipment.
An operation unit for selecting the educational object included in the image, and
With
When the education target object is selected by operating the operation unit, the display unit is a display system that displays educational contents of the equipment associated with the education target object.
前記画像に前記教育対象オブジェクトが含まれる場合、前記教育対象オブジェクト上、又は、前記教育対象オブジェクトの周辺にアイコンを表示し、
前記操作部により前記アイコンが選択された場合、前記教育用コンテンツを表示する
請求項1記載の表示システム。The display unit
When the image includes the educational object, an icon is displayed on the educational object or around the educational object.
The display system according to claim 1, wherein when the icon is selected by the operation unit, the educational content is displayed.
前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示し、
前記ポインタにより前記アイコンが指し示された状態において、前記操作部を操作することにより、前記教育用コンテンツを表示する
請求項2記載の表示システム。The display unit
A pointer pointing to the position on the image is displayed based on the operation of the educated person.
The display system according to claim 2, wherein the educational content is displayed by operating the operation unit in a state where the icon is pointed by the pointer.
前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示し、
前記ポインタにより前記教育対象オブジェクトが指し示された状態において、前記操作部を操作することにより、前記教育用コンテンツを表示する
請求項1記載の表示システム。The display unit
A pointer pointing to the position on the image is displayed based on the operation of the educated person.
The display system according to claim 1, wherein the educational content is displayed by operating the operation unit in a state where the educational object is pointed by the pointer.
前記教育対象者の操作に基づき前記画像上の位置を指し示すポインタを表示し、
前記ポインタにより前記教育対象オブジェクトが指し示された場合、前記教育対象オブジェクト上、又は、前記教育対象オブジェクトの周辺にアイコンを表示し、
前記アイコンが表示されている状態において、前記操作部を操作することにより、前記教育用コンテンツを表示する
請求項1記載の表示システム。The display unit
A pointer pointing to the position on the image is displayed based on the operation of the educated person.
When the education target object is pointed by the pointer, an icon is displayed on the education target object or around the education target object.
The display system according to claim 1, wherein the educational content is displayed by operating the operation unit while the icon is displayed.
請求項1〜5のいずれか1項に記載の表示システム。The display system according to any one of claims 1 to 5, wherein the educational content includes a virtual experience in the virtual space.
請求項6記載の表示システム。The display system according to claim 6, wherein the virtual experience includes a dangerous experience related to the educational object.
請求項7記載の表示システム。The display system according to claim 7, wherein the educational content includes a question to the educated person regarding the dangerous experience.
請求項7又は8記載の表示システム。The display system according to claim 7 or 8, wherein the educational content includes content indicating an action to be taken by the educated person in relation to the dangerous experience.
請求項1〜9のいずれか1項に記載の表示システム。The display system according to any one of claims 1 to 9, wherein the educational content includes content related to the educational object and causing the educational subject to select a dangerous place.
請求項1〜10のいずれか1項に記載の表示システム。The display system according to any one of claims 1 to 10, wherein the virtual space is generated by using an image of the factory.
さらに備える
請求項1〜11のいずれか1項に記載の表示システム。A vibrating part that vibrates the educational subject according to the content of the educational content,
The display system according to any one of claims 1 to 11, further comprising.
教育対象者の位置情報を検知部から取得する取得部と、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示部に出力する画像出力部と、
前記画像に含まれる前記教育対象オブジェクトが選択された場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記表示部に出力するコンテンツ出力部とを備える
サーバ。It is a server for outputting educational contents for conducting education on factory equipment.
The acquisition unit that acquires the location information of the educated person from the detection unit,
An image that outputs an image seen from the viewpoint of the education target person corresponding to the position information to the display unit in the virtual space of the factory in which the education target object in the shape of the equipment is arranged in association with the equipment. Output section and
A server including a content output unit that outputs educational content of equipment associated with the educational object to the display unit when the educational object included in the image is selected.
検知部によって検知された教育対象者の位置情報を受信し、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を表示するための情報を表示装置に出力し、
前記表示装置に表示された前記画像に含まれる前記教育対象オブジェクトが選択された場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを表示するための情報を表示装置に出力する、
表示方法。It is a display method that displays content for education on factory equipment.
Receives the location information of the educated person detected by the detector,
Information for displaying an image viewed from the viewpoint of the education target person corresponding to the position information in the virtual space of the factory in which the education target object in the shape of the equipment is arranged in association with the equipment. Output to the display device
When the educational object included in the image displayed on the display device is selected, information for displaying the educational content of the equipment associated with the educational object is output to the display device.
Display method.
プロセッサと、
前記プロセッサによって実行可能なプログラムが記憶されたメモリと、
を備え、
前記プロセッサは、前記メモリに記憶された前記プログラムを用いて、
教育対象者の位置情報を検知部から受信し、
前記設備に対応付けられ、前記設備の形状をした教育対象オブジェクトが配置された前記工場の仮想空間において、前記位置情報に対応する前記教育対象者の視点から見た画像を生成し、
前記画像を表示装置に出力し、
操作部を操作することによって前記画像に含まれる前記教育対象オブジェクトが選択された場合、前記教育対象オブジェクトに対応付けられている設備の教育用コンテンツを前記表示装置に出力する、
装置。It is a device for providing education on factory equipment.
With the processor
A memory in which a program that can be executed by the processor is stored, and
With
The processor uses the program stored in the memory.
Receives the location information of the educated person from the detector and
In the virtual space of the factory where the educational object in the shape of the equipment is arranged in association with the equipment, an image seen from the viewpoint of the educational subject corresponding to the position information is generated.
The image is output to the display device and
When the educational object included in the image is selected by operating the operation unit, the educational content of the equipment associated with the educational object is output to the display device.
apparatus.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018160498 | 2018-08-29 | ||
JP2018160498 | 2018-08-29 | ||
JP2019109900 | 2019-06-12 | ||
JP2019109900 | 2019-06-12 | ||
PCT/JP2019/032936 WO2020045254A1 (en) | 2018-08-29 | 2019-08-23 | Display system, server, display method, and device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020045254A1 true JPWO2020045254A1 (en) | 2020-09-03 |
JP6827193B2 JP6827193B2 (en) | 2021-02-10 |
Family
ID=69644359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505294A Active JP6827193B2 (en) | 2018-08-29 | 2019-08-23 | Display system, server, display method and equipment |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210256865A1 (en) |
JP (1) | JP6827193B2 (en) |
CN (1) | CN112400198A (en) |
WO (1) | WO2020045254A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240077984A1 (en) * | 2022-09-01 | 2024-03-07 | Lei Zhang | Recording following behaviors between virtual objects and user avatars in ar experiences |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130189656A1 (en) * | 2010-04-08 | 2013-07-25 | Vrsim, Inc. | Simulator for skill-oriented training |
JP2015075732A (en) * | 2013-10-11 | 2015-04-20 | 三菱重工業株式会社 | Plant operation training apparatus, control method, program, and plant operation training system |
JP2017120612A (en) * | 2015-12-28 | 2017-07-06 | 株式会社タッグ | Three-dimensional image generation server, electronic catalog display device, three-dimensional image display system, three-dimensional image display method, and three-dimensional image display program |
EP3349104A1 (en) * | 2017-01-12 | 2018-07-18 | Virva VR Oy | Virtual reality arcade |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100721713B1 (en) * | 2005-08-25 | 2007-05-25 | 명지대학교 산학협력단 | Immersive training system for live-line workers |
JP2012069065A (en) * | 2010-09-27 | 2012-04-05 | Nintendo Co Ltd | Information processing program, and information processing device and method |
US10388176B2 (en) * | 2012-11-28 | 2019-08-20 | Vrsim, Inc. | Simulator for skill-oriented training |
CN104464428A (en) * | 2014-11-12 | 2015-03-25 | 国家电网公司 | Virtuality and reality combined switch cabinet overhaul and training system and method |
CA2979217C (en) * | 2015-03-09 | 2023-12-12 | Alchemy Systems, L.P. | Augmented reality |
US20170148214A1 (en) * | 2015-07-17 | 2017-05-25 | Ivd Mining | Virtual reality training |
US9766713B2 (en) * | 2015-09-08 | 2017-09-19 | Unity IPR ApS | System and method for providing user interface tools |
EP3200044A1 (en) * | 2016-01-29 | 2017-08-02 | Tata Consultancy Services Limited | Virtual reality based interactive learning |
JP6646565B2 (en) * | 2016-12-12 | 2020-02-14 | 株式会社コロプラ | Information processing method and apparatus, and program for causing computer to execute the information processing method |
US10810899B1 (en) * | 2016-12-05 | 2020-10-20 | Google Llc | Virtual instruction tool |
US10825350B2 (en) * | 2017-03-28 | 2020-11-03 | Wichita State University | Virtual reality driver training and assessment system |
CN206863984U (en) * | 2017-05-04 | 2018-01-09 | 河北科技大学 | A kind of chemical industry safe teaching simulation system |
US11410564B2 (en) * | 2017-11-07 | 2022-08-09 | The Board Of Trustees Of The University Of Illinois | System and method for creating immersive interactive application |
US10684676B2 (en) * | 2017-11-10 | 2020-06-16 | Honeywell International Inc. | Simulating and evaluating safe behaviors using virtual reality and augmented reality |
WO2019150321A1 (en) * | 2018-02-01 | 2019-08-08 | Isg Central Services Limited | Improved augmented reality system |
CN112119396A (en) * | 2018-05-03 | 2020-12-22 | 3M创新有限公司 | Personal protective equipment system with augmented reality for security event detection and visualization |
-
2019
- 2019-08-23 JP JP2020505294A patent/JP6827193B2/en active Active
- 2019-08-23 WO PCT/JP2019/032936 patent/WO2020045254A1/en active Application Filing
- 2019-08-23 CN CN201980046593.6A patent/CN112400198A/en active Pending
- 2019-08-23 US US17/251,947 patent/US20210256865A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130189656A1 (en) * | 2010-04-08 | 2013-07-25 | Vrsim, Inc. | Simulator for skill-oriented training |
JP2015075732A (en) * | 2013-10-11 | 2015-04-20 | 三菱重工業株式会社 | Plant operation training apparatus, control method, program, and plant operation training system |
JP2017120612A (en) * | 2015-12-28 | 2017-07-06 | 株式会社タッグ | Three-dimensional image generation server, electronic catalog display device, three-dimensional image display system, three-dimensional image display method, and three-dimensional image display program |
EP3349104A1 (en) * | 2017-01-12 | 2018-07-18 | Virva VR Oy | Virtual reality arcade |
Non-Patent Citations (3)
Title |
---|
"[CEDEC2016]Oculusが語る「手でやろうとしたことが全てできるVR」が面白くなるコツ", MOGULIVE[ONLINE], JPN6020014886, 30 August 2016 (2016-08-30), ISSN: 0004332911 * |
"ゲームだけじゃないVR 製造も営業も変える第3の波 PART2 業務プロセスも革新", 日経ビジネス 第1850号, JPN6020014885, 18 July 2016 (2016-07-18), pages 036 - 039, ISSN: 0004332913 * |
"三菱マテリアル、安全教育にVR危険体感装置を導入", 日本経済新聞[ONLINE], JPN6020014887, 30 May 2018 (2018-05-30), ISSN: 0004332912 * |
Also Published As
Publication number | Publication date |
---|---|
CN112400198A (en) | 2021-02-23 |
WO2020045254A1 (en) | 2020-03-05 |
JP6827193B2 (en) | 2021-02-10 |
US20210256865A1 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105934227B (en) | Audio navigation auxiliary | |
JP2023018097A (en) | Augmented reality adjustment of interaction between human and robot | |
US10777005B2 (en) | Smart tools and workspaces for do-it-yourself tasks | |
CN103635891A (en) | Massive simultaneous remote digital presence world | |
JP2016522463A5 (en) | ||
KR101949261B1 (en) | method for generating VR video, method for processing VR video, and system for processing VR video | |
JP6736298B2 (en) | Information processing apparatus, information processing method, and program | |
JP2018524684A (en) | Intermediary reality | |
JP2021077255A (en) | Image processing device, image processing method, and image processing system | |
US20130176302A1 (en) | Virtual space moving apparatus and method | |
JP6827193B2 (en) | Display system, server, display method and equipment | |
US10582190B2 (en) | Virtual training system | |
JP2018092416A (en) | Information processing method, device, and program for causing computers to execute the information processing method | |
JP2018032131A (en) | Method and device for supporting input in virtual space and program causing computer to execute the method | |
KR20180088005A (en) | authoring tool for generating VR video and apparatus for generating VR video | |
EP3287868B1 (en) | Content discovery | |
TWI550256B (en) | Bim-based indoor navigation method, indoor navigation information generation method, computer readable recording medium, and indoor navigation apparatus | |
KR101980297B1 (en) | apparatus, method and program for processing 3D VR video | |
JP2019164216A (en) | Instruction position transmission system and instruction position transmission method | |
Figueiredo et al. | Fishtank everywhere: Improving viewing experience over 3D content | |
JP6784429B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6764142B1 (en) | Information processing equipment, information processing methods and information processing programs | |
US11455035B2 (en) | Inputs to virtual reality devices from touch surface devices | |
Mitsuhara et al. | Why Don't You Evacuate Speedily? Augmented Reality-based Evacuee Visualisation in ICT-based Evacuation Drill | |
JP2006338146A (en) | Information presentation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200130 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200130 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6827193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |