JP2018010612A - Virtual reality system - Google Patents

Virtual reality system Download PDF

Info

Publication number
JP2018010612A
JP2018010612A JP2017021288A JP2017021288A JP2018010612A JP 2018010612 A JP2018010612 A JP 2018010612A JP 2017021288 A JP2017021288 A JP 2017021288A JP 2017021288 A JP2017021288 A JP 2017021288A JP 2018010612 A JP2018010612 A JP 2018010612A
Authority
JP
Japan
Prior art keywords
biometric data
user
unit
data acquisition
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017021288A
Other languages
Japanese (ja)
Other versions
JP6719776B2 (en
Inventor
浩史 澁川
Hiroshi Shibukawa
浩史 澁川
雅史 田中
Masafumi Tanaka
雅史 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brainy Inc
Original Assignee
Brainy Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brainy Inc filed Critical Brainy Inc
Priority to JP2017021288A priority Critical patent/JP6719776B2/en
Publication of JP2018010612A publication Critical patent/JP2018010612A/en
Application granted granted Critical
Publication of JP6719776B2 publication Critical patent/JP6719776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To facilitate settlement for a user who uses a VR headset and ensure security of the settlement.SOLUTION: A virtual reality system includes an information processing apparatus, a virtual reality headset, a biometric data acquisition apparatus, and a sensor. The information processing apparatus generates a virtual reality content. The virtual reality headset is worn on a user, to display a virtual reality content received biometric data acquisition apparatus acquires biometric data of the user. The sensor generates location information indicating a position of the biometric data acquisition apparatus and direction information indicating a direction of the biometric data acquisition apparatus, and transmits the location information and the direction information to the information processing apparatus. On receipt of a settlement instruction, the information processing apparatus adds an image to notify the user wearing the virtual reality headset about the location and direction of the biometric data acquisition apparatus, on the basis of the location information and direction information received from the sensor.SELECTED DRAWING: Figure 1

Description

本発明は、仮想現実システムに関する。   The present invention relates to a virtual reality system.

近年、仮想現実(Virtual reality:以下、VRとする)に関するシステムの開発が盛んに行われている。一般的には、ユーザがVRのコンテンツを体験する際、ユーザは頭部にゴーグル形状の装置(以下、VRヘッドセットとする)を装着する。VRヘッドセットには、左右それぞれの眼に対応した2つのディスプレイが備えられ、それぞれのディスプレイには、映像を見たユーザが奥行き感(又は飛び出し感)を得るための視差のある映像が表示される。   In recent years, systems related to virtual reality (hereinafter referred to as VR) have been actively developed. Generally, when a user experiences VR content, the user wears a goggle-shaped device (hereinafter referred to as a VR headset) on the head. The VR headset is provided with two displays corresponding to the left and right eyes, and each display displays an image with parallax for a user who has viewed the image to obtain a sense of depth (or a feeling of popping out). The

また、VRヘッドセットは位置センサ、加速度センサ、ジャイロセンサなどを搭載し、ユーザの頭の位置又は向きが変化する毎に、あたかもユーザの頭の位置又は向きが変化した方向にユーザの視界が移動したかのように、2つのディスプレイに表示する映像を変化させる。これにより、ユーザは、VRにおいて実際に自分の頭を動かしているような感覚を得ることができる。   In addition, the VR headset is equipped with a position sensor, acceleration sensor, gyro sensor, etc., and whenever the position or orientation of the user's head changes, the user's field of view moves in the direction in which the position or orientation of the user's head changes. As shown, the images displayed on the two displays are changed. Thereby, the user can obtain a feeling that the user is actually moving his / her head in the VR.

特開2016−506530号公報JP, 2006-506530, A 特開2015−118556号公報JP2015-118556A 特開2015−230236号公報Japanese Patent Laid-Open No. 2015-230236

通常、VRヘッドセットを用いてVRを体験するユーザは、例えばVR中で提供される有料コンテンツの購入等のために決済処理が必要になると、VRヘッドセットを外し、決済のための操作をする必要がある。決済のための操作は、例えばクレジットカードなどのカード番号の入力、暗証番号の入力、個人情報の入力などである。しかしながら、決済の度にVRヘッドセットを頭部から取り外し、決済後に再度頭部へ装着することはユーザにとって煩わしく、さらにVRヘッドセットの取り外しによりVRを体験するユーザの没入感が損なわれる。   Usually, a user who experiences VR using a VR headset removes the VR headset and performs an operation for settlement when payment processing is required for purchase of paid content provided in the VR, for example. There is a need. The operation for settlement is, for example, input of a card number such as a credit card, input of a personal identification number, input of personal information, and the like. However, it is troublesome for the user to remove the VR headset from the head each time a payment is made, and to attach the VR headset to the head again after the payment. Further, removal of the VR headset impairs the immersive feeling of the user experiencing VR.

また、VRヘッドセットが利用されるゲームなどでは、1つのVRヘッドセット及びVRマシンが例えば家族などの複数人によって共用されることが考えられ、この場合に決済の安全性が確保されることが望まれる。   Further, in a game where a VR headset is used, it is conceivable that one VR headset and a VR machine are shared by a plurality of people such as family members, and in this case, the security of payment can be ensured. desired.

本発明は上記事情を考慮してなされたものであり、VRヘッドセットを用いるユーザに対して決済を容易にするとともに、決済の安全性を確保するVRシステムを提供する。   The present invention has been made in consideration of the above circumstances, and provides a VR system that facilitates settlement for a user who uses a VR headset and ensures the security of the settlement.

本発明の一態様に係る仮想現実システムは、仮想現実コンテンツを生成する情報処理装置と、ユーザに装着され、前記情報処理装置から受信した前記仮想現実コンテンツを前記ユーザに表示する仮想現実ヘッドセットと、前記ユーザの生体データを取得する生体データ取得装置と、前記生体データ取得装置の位置を示す位置情報と、前記生体データ取得装置の方向を示す方向情報とを生成し、前記位置情報と前記方向情報とを前記情報処理装置へ送信するセンサと、を具備する。前記情報処理装置は、決済指示を受信した場合に、前記センサから受信した前記位置情報及び前記方向情報に基づいて、前記生体データ取得装置の前記位置及び前記方向を前記仮想現実ヘッドセットを装着している前記ユーザに認識させる第1の画像を、前記仮想現実コンテンツに付加するコンテンツ生成部を具備する。   A virtual reality system according to an aspect of the present invention includes an information processing device that generates virtual reality content, and a virtual reality headset that is attached to a user and displays the virtual reality content received from the information processing device to the user. Generating biometric data acquisition device for acquiring biometric data of the user, position information indicating the position of the biometric data acquisition device, and direction information indicating the direction of the biometric data acquisition device, and generating the position information and the direction And a sensor that transmits information to the information processing apparatus. When the information processing apparatus receives a settlement instruction, the information processing apparatus attaches the virtual reality headset to the position and the direction of the biometric data acquisition apparatus based on the position information and the direction information received from the sensor. A content generation unit that adds the first image to be recognized by the user to the virtual reality content.

本発明によれば、VRヘッドセットを用いるユーザに対して決済を容易にするとともに決済の安全性を確保することができる。   According to the present invention, it is possible to facilitate settlement for a user who uses a VR headset and to ensure the safety of settlement.

図1は、第1の実施形態に係るVRシステムの構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of a VR system according to the first embodiment. 図2は、第1の実施形態に係るVR処理装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of the VR processing apparatus according to the first embodiment. 図3は、第1の実施形態に係るVRヘッドセットの構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of the configuration of the VR headset according to the first embodiment. 図4は、第1の実施形態に係るコントローラの構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of the configuration of the controller according to the first embodiment. 図5は、第1の実施形態に係るセンサ装置の構成の一例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of the configuration of the sensor device according to the first embodiment. 図6は、第1の実施形態に係るサーバ装置の構成の一例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of the configuration of the server device according to the first embodiment. 図7は、第1の実施形態に係る携帯端末の構成の一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of the configuration of the mobile terminal according to the first embodiment. 図8は、第1の実施形態に係るVRシステムを用いた決済処理を例示するフローチャートである。FIG. 8 is a flowchart illustrating an example of payment processing using the VR system according to the first embodiment. 図9は、第1の実施形態に係る生体データ照合処理を例示するフローチャートである。FIG. 9 is a flowchart illustrating the biometric data matching process according to the first embodiment. 図10は、第1の実施形態に係る生体データ登録処理を例示するフローチャートである。FIG. 10 is a flowchart illustrating a biometric data registration process according to the first embodiment. 図11は、第1の実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。FIG. 11 is a diagram illustrating a first example of a VR screen display at the time of biometric data registration or biometric data acquisition according to the first embodiment. 図12は、第1の実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。FIG. 12 is a diagram illustrating a second example of the VR screen display at the time of biometric data registration or biometric data acquisition according to the first embodiment. 図13は、第1の実施形態に係る生体データ選択時のVR画面表示を例示する図である。FIG. 13 is a diagram illustrating a VR screen display when biometric data is selected according to the first embodiment. 図14は、第1の実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。FIG. 14 is a diagram illustrating a VR screen display during content sharing according to the first embodiment. 図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。FIG. 15 is a diagram illustrating a VR screen display during character display according to the second embodiment. 図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。FIG. 16 is a flowchart illustrating an attribute determination process according to the second embodiment. 図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。FIG. 17 is a block diagram illustrating the configuration of an automatic diagnosis system according to the third embodiment. 図18は、第3の実施形態に係る自動診断システムの処理を例示するフローチャートである。FIG. 18 is a flowchart illustrating the process of the automatic diagnosis system according to the third embodiment. 図19は、第3の実施形態に係る自動診断システムにおける画面表示の第1の例を示す図である。FIG. 19 is a diagram illustrating a first example of a screen display in the automatic diagnosis system according to the third embodiment. 図20は、第3の実施形態に係る自動診断システムにおける画面表示の第2の例を示す図である。FIG. 20 is a diagram illustrating a second example of screen display in the automatic diagnosis system according to the third embodiment.

以下、本発明の実施形態を、図面を参照して説明する。なお、以下の説明において、略又は実質的に同一の機能及び構成要素については、同一符号を付し、必要な場合にのみ説明を行う。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, substantially or substantially the same functions and components are denoted by the same reference numerals, and description will be made only when necessary.

[第1の実施形態]
本実施形態においては、VRシステムに含まれる生体データ取得装置の位置及び方向を検出し、決済時に、VRヘッドセットを装着しているユーザが生体データ取得装置の位置及び方向を認識可能な画像をVRヘッドセットのディスプレイに表示し、これによりユーザがVRヘッドセットを装着したままで生体データを入力可能とするVRシステムについて説明する。
[First embodiment]
In the present embodiment, the position and direction of the biometric data acquisition device included in the VR system is detected, and an image that allows the user wearing the VR headset to recognize the position and direction of the biometric data acquisition device at the time of settlement is obtained. A VR system that is displayed on the display of the VR headset and allows the user to input biometric data while wearing the VR headset will be described.

本実施形態において、生体データ取得装置の方向とは、生体データ取得装置が高感度・高精度に生体データを取得可能な方向、換言すれば生体データ取得装置がセンシングをする方向としてもよい。   In this embodiment, the direction of the biometric data acquisition device may be a direction in which the biometric data acquisition device can acquire biometric data with high sensitivity and high accuracy, in other words, a direction in which the biometric data acquisition device performs sensing.

本実施形態において、識別情報はIDと称する。   In the present embodiment, the identification information is referred to as ID.

本実施形態において、生体データは、例えば指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、顔データ、血管データ、音声データ、声紋データ、耳型データ、又は、その他のデータであってもよい。   In this embodiment, the biometric data is, for example, fingerprint data, vein data, artery data, palm data, retinal data, iris data, face data, blood vessel data, voice data, voiceprint data, ear data, or other data. It may be.

本実施形態において、生体データ取得装置は、上記の生体データを取得するための例えば、生体センサ、カメラ、マイクなどとしてもよい。   In the present embodiment, the biological data acquisition device may be, for example, a biological sensor, a camera, a microphone, or the like for acquiring the biological data.

本実施形態においては、ユーザが行う決済はカード決済である場合について説明する。カードの種類は、例えばクレジットカード、デビットカード、プリペイドカード、電子マネーカード、ポイントカード、キャッシュカード、又は、その他の電子決済を行うためのカードであってもよい。しかしながら、本実施形態は、決済に用いられる媒体又はプロダクトがカードでない場合にも同様に適用可能である。本実施形態における決済は、仮想通貨による決済としてもよい。   In this embodiment, the case where the payment performed by the user is a card payment will be described. The card type may be, for example, a credit card, a debit card, a prepaid card, an electronic money card, a point card, a cash card, or another card for performing electronic payment. However, the present embodiment can be similarly applied when the medium or product used for settlement is not a card. The settlement in the present embodiment may be a settlement using virtual currency.

本実施形態において、コンテンツとは、例えば、画像データ、映像データ、プログラムとデータとのうちの少なくとも一方を含むソフトウェア、音データなどを含む。コンテンツは、例えば、ゲームプログラムなどでもよい。   In the present embodiment, the content includes, for example, image data, video data, software including at least one of a program and data, sound data, and the like. The content may be a game program, for example.

図1は、本実施形態に係るVRシステム1の構成の一例を示すブロック図である。   FIG. 1 is a block diagram showing an example of the configuration of the VR system 1 according to the present embodiment.

VRシステム1は、VR処理装置2、人体装着用装置HD、センサ装置5、サーバ装置6,12を含む。人体装着用装置HDは、VRヘッドセット3とコントローラ4とを含む。VRヘッドセット3、及び、コントローラ4は、ユーザUが装着又は直接持って操作する装置である。VRヘッドセット3、及び、コントローラ4により、VRシステム1を制御可能である。また、VRシステム1は、ユーザUの携帯端末7を含んでいてもよく、ユーザUではない他のユーザVの携帯端末8を含んでいてもよい。携帯端末7,8とVR処理装置2とは、例えばネットワークN経由で通信可能としてもよく、ネットワークNを経由することなく通信可能としてもよい。より具体的には、携帯端末7,8とVR処理装置2とは、例えば、電話回線又はインターネット経由で通信可能でもよい。携帯端末7,8とVR処理装置2とは、例えば、無線LAN通信により通信可能でもよく、近距離無線通信により通信可能でもよく、赤外線通信により通信可能でもよい。   The VR system 1 includes a VR processing device 2, a human body wearing device HD, a sensor device 5, and server devices 6 and 12. The human body wearing device HD includes a VR headset 3 and a controller 4. The VR headset 3 and the controller 4 are devices that the user U wears or directly holds and operates. The VR system 1 can be controlled by the VR headset 3 and the controller 4. The VR system 1 may include the mobile terminal 7 of the user U, or may include the mobile terminal 8 of another user V who is not the user U. The mobile terminals 7 and 8 and the VR processing device 2 may be communicable via the network N, for example, or may be communicable without going through the network N. More specifically, the mobile terminals 7 and 8 and the VR processing device 2 may be communicable via a telephone line or the Internet, for example. For example, the portable terminals 7 and 8 and the VR processing device 2 may be communicable by wireless LAN communication, may be communicable by short-range wireless communication, or may be communicable by infrared communication.

VRヘッドセット3は、ユーザUが頭部に装着する装置である。VRヘッドセット3はディスプレイを備えており、ディスプレイはVR処理装置2により生成されたVRコンテンツを表示する。ユーザUは、当該ディスプレイに表示されたVRコンテンツを視認することにより、VRを体験可能である。   The VR headset 3 is a device that the user U wears on the head. The VR headset 3 includes a display, and the display displays the VR content generated by the VR processing device 2. The user U can experience VR by visually recognizing the VR content displayed on the display.

VRヘッドセット3は、例えば、生体データ取得装置33とセンサ部32とを含む。   The VR headset 3 includes, for example, a biometric data acquisition device 33 and a sensor unit 32.

生体データ取得装置33は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置33は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、又は、声紋データに対応する生体センサを含む。   The biometric data acquisition device 33 acquires the biometric data of the user U, for example, in contact with the user U or without contact. More specifically, the biological data acquisition device 33 includes, for example, a biological sensor corresponding to fingerprint data, vein data, artery data, palm data, retinal data, iris data, or voiceprint data.

センサ部32は、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成し、VRヘッドセット3の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部32は、生体データ取得装置33に対応しており、生体データ取得装置33の位置を示す位置情報と、生体データ取得装置33の方向を示す方向情報とを生成し、生体データ取得装置33の位置情報と方向情報とをVR処理装置2へ送信するとしてもよい。   The sensor unit 32 generates position information indicating the position of the VR headset 3 and direction information indicating the direction of the VR headset 3, and transmits the position information and direction information of the VR headset 3 to the VR processing device 2. . In addition, the sensor unit 32 corresponds to the biometric data acquisition device 33, generates position information indicating the position of the biometric data acquisition device 33 and direction information indicating the direction of the biometric data acquisition device 33, and generates biometric data. The position information and direction information of the acquisition device 33 may be transmitted to the VR processing device 2.

コントローラ4は、ユーザUがVRシステム1を操作するための装置であり、ユーザUからの指示を受け付ける。コントローラ4は、ユーザUの左右それぞれの手に持って操作されてもよく、左右それぞれの足、又はその他の体の部位のいずれかに装着されてもよい。以下では、VRシステム1に含まれるコントローラ4は2台とし、それぞれのコントローラ4は、ユーザUの左右それぞれの手に持って操作されるとする。   The controller 4 is a device for the user U to operate the VR system 1 and receives an instruction from the user U. The controller 4 may be operated by being held in each of the left and right hands of the user U, or may be worn on either the left or right foot or other body part. In the following, it is assumed that the VR system 1 includes two controllers 4 and each controller 4 is operated by being held in the left and right hands of the user U.

コントローラ4は、生体データ取得装置43とセンサ部42とを含む。   The controller 4 includes a biometric data acquisition device 43 and a sensor unit 42.

生体データ取得装置43は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。   The biometric data acquisition device 43 acquires the biometric data of the user U, for example, in contact with the user U or without contact. More specifically, the biometric data acquisition device 43 includes, for example, a biometric sensor corresponding to fingerprint data, vein data, artery data, palm data, or voiceprint data.

センサ部42は、コントローラ4の位置を示す位置情報と、コントローラ4の方向を示す方向情報を生成し、コントローラ4の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部42は、生体データ取得装置43に対応しており、生体データ取得装置43の位置を示す位置情報と、生体データ取得装置43の方向を示す方向情報とを生成し、生体データ取得装置43の位置情報と方向情報とをVR処理装置2へ送信する。   The sensor unit 42 generates position information indicating the position of the controller 4 and direction information indicating the direction of the controller 4, and transmits the position information and direction information of the controller 4 to the VR processing device 2. In addition, the sensor unit 42 corresponds to the biometric data acquisition device 43, generates position information indicating the position of the biometric data acquisition device 43 and direction information indicating the direction of the biometric data acquisition device 43, and generates biometric data. The position information and direction information of the acquisition device 43 are transmitted to the VR processing device 2.

センサ装置5は、ユーザUが体験するVRの構築を補助する装置である。具体的には、例えばセンサ装置5がVR処理装置2に複数台接続されている場合に、VR処理装置2はVRヘッドセット3の備えるディスプレイ上にセンサ装置5の位置を表示することにより、ユーザUがVRヘッドセット3を装着して移動可能な範囲を示してもよい。また、例えばVR処理装置2は、複数台のセンサ装置5に備えられるセンサを用いて、ユーザUの動き、姿勢、体の特定の部位の位置などを測定してもよい。また、例えばセンサ装置5は、ユーザUが近づいた時に音を発することで、ユーザUに臨場感を与えてもよい。以下では、VRシステム1に含まれるセンサ装置5は4台とする。   The sensor device 5 is a device that assists the construction of the VR experienced by the user U. Specifically, for example, when a plurality of sensor devices 5 are connected to the VR processing device 2, the VR processing device 2 displays the position of the sensor device 5 on the display included in the VR headset 3, thereby U may indicate the range in which the VR headset 3 can be mounted and moved. Further, for example, the VR processing device 2 may measure the movement, posture, position of a specific part of the body, and the like using the sensors provided in the plurality of sensor devices 5. Further, for example, the sensor device 5 may give the user U a sense of reality by making a sound when the user U approaches. In the following, it is assumed that there are four sensor devices 5 included in the VR system 1.

センサ装置5は、生体データ取得装置53とセンサ部52とを含む。   The sensor device 5 includes a biological data acquisition device 53 and a sensor unit 52.

生体データ取得装置53は、例えば、ユーザUと非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置53は、例えば、声紋データに対応する生体センサ、カメラを含む。   The biometric data acquisition device 53 acquires the biometric data of the user U without contacting the user U, for example. More specifically, the biometric data acquisition device 53 includes, for example, a biometric sensor and a camera corresponding to voiceprint data.

センサ部52は、センサ装置5の位置を示す位置情報と、センサ装置5の方向を示す方向情報を生成し、センサ装置5の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部52は、生体データ取得装置53に対応しており、生体データ取得装置53の位置を示す位置情報と、生体データ取得装置53の方向を示す方向情報とを生成し、生体データ取得装置53の位置情報と方向情報とをVR処理装置2へ送信する。   The sensor unit 52 generates position information indicating the position of the sensor device 5 and direction information indicating the direction of the sensor device 5, and transmits the position information and direction information of the sensor device 5 to the VR processing device 2. In addition, the sensor unit 52 corresponds to the biometric data acquisition device 53, generates position information indicating the position of the biometric data acquisition device 53 and direction information indicating the direction of the biometric data acquisition device 53, and generates biometric data. The position information and direction information of the acquisition device 53 are transmitted to the VR processing device 2.

携帯端末7は、VR処理装置2と通信可能である。携帯端末7は、例えば、スマートフォンなどのような携帯電話、タブレット端末などであってもよい。   The mobile terminal 7 can communicate with the VR processing device 2. The mobile terminal 7 may be, for example, a mobile phone such as a smartphone, a tablet terminal, or the like.

携帯端末7は、コントローラ4の代わりに用いられてもよい。すなわち、ユーザUは携帯端末7を用いてVRシステム1を操作可能であるとしてもよい。携帯端末7は、例えば、生体データ取得装置73とセンサ部72とを含み、センサ装置5と同様に、ユーザUの生体データを入力するために利用されてもよい。   The mobile terminal 7 may be used instead of the controller 4. That is, the user U may be able to operate the VR system 1 using the mobile terminal 7. The mobile terminal 7 includes, for example, a biometric data acquisition device 73 and a sensor unit 72, and may be used to input the biometric data of the user U similarly to the sensor device 5.

生体データ取得装置73は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。   The biometric data acquisition device 73 acquires the biometric data of the user U, for example, in contact with the user U or without contact. More specifically, the biometric data acquisition device 43 includes, for example, a biometric sensor corresponding to fingerprint data, vein data, artery data, palm data, or voiceprint data.

センサ部72は、携帯端末7の位置を示す位置情報と、携帯端末7の方向を示す方向情報を生成し、携帯端末7の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部72は、生体データ取得装置73に対応しており、生体データ取得装置73の位置を示す位置情報と、生体データ取得装置73の方向を示す方向情報とを生成し、生体データ取得装置73の位置情報と方向情報とをVR処理装置2へ送信する。   The sensor unit 72 generates position information indicating the position of the mobile terminal 7 and direction information indicating the direction of the mobile terminal 7, and transmits the position information and direction information of the mobile terminal 7 to the VR processing device 2. In addition, the sensor unit 72 corresponds to the biometric data acquisition device 73, generates position information indicating the position of the biometric data acquisition device 73 and direction information indicating the direction of the biometric data acquisition device 73, and generates biometric data. The position information and direction information of the acquisition device 73 are transmitted to the VR processing device 2.

VR処理装置2は、VRシステム1全体の制御、又は、制御に必要な演算を行う。VR処理装置2は、VRヘッドセット3、少なくとも1台以上のコントローラ4、少なくとも1台以上のセンサ装置5と有線又は無線で通信可能である。   The VR processing device 2 controls the entire VR system 1 or performs calculations necessary for the control. The VR processing device 2 can communicate with the VR headset 3, at least one controller 4, and at least one sensor device 5 in a wired or wireless manner.

VR処理装置2は、コントローラ4から受信した指示に応じて、VRコンテンツを生成する。VR処理装置2は、例えば、生体データ取得装置25、センサ部26、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225を含む。   The VR processing device 2 generates VR content in response to the instruction received from the controller 4. The VR processing device 2 includes, for example, a biometric data acquisition device 25, a sensor unit 26, a content generation unit 222, a content transmission unit 223, a biometric data transmission unit 224, and a content sharing unit 225.

生体データ取得装置25は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置25は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。   The biometric data acquisition device 25 acquires the biometric data of the user U, for example, in contact with the user U or without contact. More specifically, the biometric data acquisition device 25 includes, for example, a biometric sensor corresponding to fingerprint data, vein data, arterial data, palm shape data, or voiceprint data.

センサ部26は、生体データ取得装置25に対応しており、生体データ取得装置25の位置を示す位置情報と、生体データ取得装置25の方向を示す方向情報とを生成する。加えて、センサ部26は、例えばVRヘッドセット3に装着されているライトの光を検出するなどにより、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成するとしてもよい。   The sensor unit 26 corresponds to the biometric data acquisition device 25 and generates position information indicating the position of the biometric data acquisition device 25 and direction information indicating the direction of the biometric data acquisition device 25. In addition, the sensor unit 26 detects position information indicating the position of the VR headset 3 and direction information indicating the direction of the VR headset 3 by detecting light of a light mounted on the VR headset 3, for example. It may be generated.

コンテンツ生成部222は、コントローラ4から決済指示を受信した場合に、センサ部26,32,42,52,72から受信した生体データ取得装置25,33,43,53,73の位置情報及び方向情報と、センサ部26,32,52から受信したユーザUの位置情報及び方向情報とに基づいて、生体データ取得装置25,33,43,53,73の位置及び方向をVRヘッドセット3を装着しているユーザUに認識させるとともに、生体データ取得装置25,33,43,53,73による生体データ入力をVRヘッドセット3を装着しているユーザUに促す画像を、VRコンテンツに付加する。   When the content generation unit 222 receives a settlement instruction from the controller 4, the position information and direction information of the biometric data acquisition devices 25, 33, 43, 53, 73 received from the sensor units 26, 32, 42, 52, 72 are received. The VR headset 3 is attached to the positions and directions of the biometric data acquisition devices 25, 33, 43, 53, 73 based on the position information and direction information of the user U received from the sensor units 26, 32, 52. The user U who recognizes the biometric data acquisition device 25, 33, 43, 53, 73, an image that prompts the user U wearing the VR headset 3 to add biometric data to the VR content.

コンテンツ送信部223は、VRコンテンツをVRヘッドセット3へ送信する。   The content transmission unit 223 transmits the VR content to the VR headset 3.

生体データ送信部224は、生体データ入力をユーザUに促す画像を含むVRコンテンツがVRヘッドセット3によって表示された後に、生体データ取得装置25,33,43,53,73のいずれかからユーザUの生体データD1を受信し、生体データD1をサーバ装置6へ送信する。   After the VR content including the image prompting the user U to input biometric data is displayed by the VR headset 3, the biometric data transmission unit 224 receives the user U from any of the biometric data acquisition devices 25, 33, 43, 53, and 73. The biometric data D1 is received, and the biometric data D1 is transmitted to the server device 6.

コンテンツ共有部225は、VRヘッドセットの表示部37に表示されているVRコンテンツを、ユーザUではない他のユーザVによって操作される携帯端末8にも表示可能とする。すなわち、コンテンツ共有部225は、VR処理装置2と通信可能な携帯端末8の認証を行い、携帯端末8に対する認証が成功した場合に、VR処理装置2と携帯端末8との通信を許可し、VRコンテンツを携帯端末8に対応するコンテンツに変換し、変換したコンテンツを携帯端末8へ送信する。例えば、ユーザVは、ユーザUの友人又は家族などである。例えば、携帯端末8へ送信されるコンテンツは、VRコンテンツをVRに対応しないコンテンツへ変換したコンテンツでもよく、VRコンテンツを携帯端末8のブラウザに適合したコンテンツへ変換したコンテンツでもよい。   The content sharing unit 225 can display the VR content displayed on the display unit 37 of the VR headset also on the mobile terminal 8 operated by another user V who is not the user U. That is, the content sharing unit 225 authenticates the mobile terminal 8 that can communicate with the VR processing device 2, and when the authentication with respect to the mobile terminal 8 is successful, permits the communication between the VR processing device 2 and the mobile terminal 8, The VR content is converted into content corresponding to the mobile terminal 8, and the converted content is transmitted to the mobile terminal 8. For example, the user V is a friend or family member of the user U. For example, the content transmitted to the mobile terminal 8 may be content obtained by converting VR content into content not corresponding to VR, or content obtained by converting VR content into content suitable for the browser of the mobile terminal 8.

携帯端末8は、表示部75を備えており、コンテンツ共有部225から受信したコンテンツを表示する。   The mobile terminal 8 includes a display unit 75 and displays content received from the content sharing unit 225.

サーバ装置6は、VR処理装置2とネットワークN経由で通信可能に接続されている。サーバ装置6は、データベースDBを参照可能である。データベースDBは、ユーザUの登録済みの生体データD2を記憶する。   The server device 6 is communicably connected to the VR processing device 2 via the network N. The server device 6 can refer to the database DB. The database DB stores biometric data D2 registered by the user U.

サーバ装置6は、生体認証部62を含む。生体認証部62は、VR処理装置2からネットワークN経由で受信した生体データD1とデータベースDBに記憶されている登録済み生体データD2とを照合する。サーバ装置6は、照合成功の場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨を示す決済許可通知を送信する。   The server device 6 includes a biometric authentication unit 62. The biometric authentication unit 62 collates the biometric data D1 received from the VR processing device 2 via the network N with the registered biometric data D2 stored in the database DB. When the collation is successful, the server device 6 transmits a settlement permission notification indicating that the settlement is permitted to the server device 12 via the network N.

サーバ装置12は、VR処理装置2及びサーバ装置6とネットワーク経由で通信可能に接続されている。このサーバ装置12は、サーバ装置6と一体であってもよい。サーバ装置12は、決済処理部121を含む。決済処理部121は、サーバ装置6からネットワークN経由で決済許可通知を受信した場合に、VR処理装置2からネットワークN経由で受信した決済指示に応じてユーザUに対する決済処理を実行する。   The server device 12 is communicably connected to the VR processing device 2 and the server device 6 via a network. The server device 12 may be integrated with the server device 6. The server device 12 includes a settlement processing unit 121. When the payment processing unit 121 receives a payment permission notification from the server device 6 via the network N, the payment processing unit 121 executes payment processing for the user U according to the payment instruction received from the VR processing device 2 via the network N.

本実施形態において、サーバ装置12は、例えば、アクワイアラ(カード決済会社)のサーバ装置、イシュア(カード発行会社)、又は、カードブランドのサーバ装置である。   In the present embodiment, the server device 12 is, for example, an acquirer (card payment company) server device, an issuer (card issuing company), or a card brand server device.

なお、本実施形態において、コンテンツ生成部222は、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、コンテンツが共有されていることを示す画像又は文字をVRコンテンツに付加する。コンテンツ送信部223は、コンテンツを共有していることを示す画像又は文字を含むVRコンテンツをVRヘッドセット3へ送信する。これにより、VRヘッドセット3を装着しているユーザUは、ユーザVがコンテンツを共有していることを認識することができる。   In the present embodiment, the content generation unit 222 adds an image or a character indicating that the content is shared to the VR content when the content sharing unit 225 transmits the content to the mobile terminal 8. The content transmission unit 223 transmits VR content including images or characters indicating that the content is shared to the VR headset 3. Thereby, the user U wearing the VR headset 3 can recognize that the user V is sharing the content.

また、コンテンツ生成部222は、いずれかの生体データ取得装置の位置情報とVRヘッドセット3の位置情報との差分と、いずれかの生体データ取得装置の方向情報とVRヘッドセット3の方向情報との差分とに基づいて、ユーザUをいずれかの生体データ取得装置まで誘導する画像をVRコンテンツに付加してもよい。   In addition, the content generation unit 222 determines the difference between the position information of one of the biometric data acquisition devices and the position information of the VR headset 3, the direction information of any one of the biometric data acquisition devices, and the direction information of the VR headset 3. An image that guides the user U to any one of the biometric data acquisition devices may be added to the VR content based on the difference between the VR content and the VR content.

さらに、コンテンツ生成部222は、いずれかの生体データ取得装置によって取得された生体データD1に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。コンテンツ生成部222は、データベースDBに記憶されている生体データD2をサーバ装置6及びネットワークN経由で受信し、受信した生体データD2に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。   Further, the content generation unit 222 may determine the attribute of the character corresponding to the user U based on the biometric data D1 acquired by any of the biometric data acquisition devices, and generate VR content according to the attribute. . The content generation unit 222 receives the biological data D2 stored in the database DB via the server device 6 and the network N, determines the attribute of the character corresponding to the user U based on the received biological data D2, VR content may be generated according to the above.

図2は、本実施形態に係るVR処理装置2の構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of the configuration of the VR processing device 2 according to the present embodiment.

VR処理装置2は、接続部21、プロセッサ22、記憶部23、通信部24、生体データ取得装置25、センサ部26を含む。VR処理装置2は、生体データ取得装置25を含まなくてもよい。上述の各処理部は、内部バスIBにより相互に通信可能である。   The VR processing device 2 includes a connection unit 21, a processor 22, a storage unit 23, a communication unit 24, a biological data acquisition device 25, and a sensor unit 26. The VR processing device 2 may not include the biometric data acquisition device 25. The above-described processing units can communicate with each other via an internal bus IB.

なお、図1で説明済の処理部についての説明は省略する。   A description of the processing unit already described with reference to FIG. 1 is omitted.

接続部21は、VR処理装置2と、VRヘッドセット3、コントローラ4、センサ装置5とを接続する。   The connection unit 21 connects the VR processing device 2 to the VR headset 3, the controller 4, and the sensor device 5.

プロセッサ22は、VRシステム1の演算処理を行う。プロセッサ22は、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225、を含む。   The processor 22 performs arithmetic processing of the VR system 1. The processor 22 includes a control unit 221, a content generation unit 222, a content transmission unit 223, a biometric data transmission unit 224, and a content sharing unit 225.

プロセッサ22は、例えば、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又は、DSP(Digital Signal Processor)などであってもよい。   The processor 22 may be, for example, a central processing unit (CPU), a micro-processing unit (MPU), or a digital signal processor (DSP).

制御部221はVRシステム1全体の制御を行う。制御部221は、接続部21を経由して、VRヘッドセット3、コントローラ4、及びセンサ装置5との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。   The control unit 221 controls the entire VR system 1. The control unit 221 transmits and receives commands, addresses, data, information, instructions, signals, and the like to and from the VR headset 3, the controller 4, and the sensor device 5 via the connection unit 21.

コンテンツ生成部222は、VRヘッドセット3の備えるディスプレイに表示するVRコンテンツを生成する。コンテンツ生成部222により生成されたVRコンテンツは、コンテンツ送信部223により、接続部21を経由してVRヘッドセット3に送信される。また、VRコンテンツは、通信部24を経由して、例えば携帯端末7,8などの外部装置に送信されてもよい。   The content generation unit 222 generates VR content to be displayed on the display included in the VR headset 3. The VR content generated by the content generation unit 222 is transmitted to the VR headset 3 by the content transmission unit 223 via the connection unit 21. The VR content may be transmitted to an external device such as the mobile terminals 7 and 8 via the communication unit 24.

記憶部23は、例えば、主記憶装置として用いられてもよい。記憶部23は、プロセッサ22からの制御に従う。記憶部23には、プロセッサ22の制御に基づいて、プロセッサ22により処理されるデータなどが一時的に格納される。   The storage unit 23 may be used as a main storage device, for example. The storage unit 23 follows the control from the processor 22. Data to be processed by the processor 22 is temporarily stored in the storage unit 23 based on the control of the processor 22.

記憶部23は、例えば、不揮発性記憶領域に、プログラム231を格納する。プロセッサ22は、プログラム231を実行することにより、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225としての機能を実現するとしてもよい。   For example, the storage unit 23 stores the program 231 in a nonvolatile storage area. The processor 22 may implement functions as the control unit 221, the content generation unit 222, the content transmission unit 223, the biometric data transmission unit 224, and the content sharing unit 225 by executing the program 231.

記憶部23は、生体データD1を格納する。生体データD1は、生体データ取得装置25,33,43,53,73のいずれかを用いて取得したユーザUの生体データである。   The storage unit 23 stores biometric data D1. The biometric data D1 is biometric data of the user U acquired using any of the biometric data acquisition devices 25, 33, 43, 53, and 73.

通信部24は、ネットワークNを経由して、例えばVR処理装置2とサーバ装置6,12及び携帯端末7,8との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。なお、通信部24は、サーバ装置6,12及び携帯端末7,8ではない他の装置とネットワークNを経由して通信を行ってもよい。   The communication unit 24 transmits and receives commands, addresses, data, information, instructions, signals, and the like between the VR processing device 2 and the server devices 6 and 12 and the mobile terminals 7 and 8 via the network N, for example. The communication unit 24 may communicate with other devices that are not the server devices 6 and 12 and the mobile terminals 7 and 8 via the network N.

なお、VR処理装置2は例えば汎用的なPC(パーソナルコンピュータ)であってもよく、又はVRシステム1専用のハードウェアであってもよい。   The VR processing device 2 may be a general-purpose PC (personal computer), for example, or may be hardware dedicated to the VR system 1.

図3は、本実施形態に係るVRヘッドセット3の構成の一例を示すブロック図である。   FIG. 3 is a block diagram showing an example of the configuration of the VR headset 3 according to the present embodiment.

VRヘッドセット3は、接続部31、センサ部32、生体データ取得装置33、制御部34、マイク35、スピーカ36、表示部37を含む。   The VR headset 3 includes a connection unit 31, a sensor unit 32, a biological data acquisition device 33, a control unit 34, a microphone 35, a speaker 36, and a display unit 37.

なお、図1で説明済の処理部についての説明は省略する。   A description of the processing unit already described with reference to FIG. 1 is omitted.

接続部31は、VRヘッドセット3とVR処理装置2とを接続する。   The connection unit 31 connects the VR headset 3 and the VR processing device 2.

センサ部32は、角速度センサ(ジャイロセンサ)S1を含む。センサ部32は、生体データ取得装置33に内蔵されていてもよく、生体データ取得装置33の近傍に設置されていてもよい。   The sensor unit 32 includes an angular velocity sensor (gyro sensor) S1. The sensor unit 32 may be built in the biometric data acquisition device 33 or may be installed in the vicinity of the biometric data acquisition device 33.

角速度センサS1は、センサを備える物体の回転角度、及び、向きの変化を検知できるセンサである。すなわち、角速度センサS1により、VRヘッドセットの位置の変化及び向きが検出可能である。   The angular velocity sensor S1 is a sensor that can detect a change in the rotation angle and orientation of an object including the sensor. In other words, the change in the position and the direction of the VR headset can be detected by the angular velocity sensor S1.

なお、センサ部32に含まれるセンサは、上述のものに限られず、例えば、近接センサ、加速度センサ、位置センサ、磁気センサ、輝度センサなどが含まれていてもよい。   Note that the sensors included in the sensor unit 32 are not limited to those described above, and may include, for example, a proximity sensor, an acceleration sensor, a position sensor, a magnetic sensor, and a luminance sensor.

制御部34は、VRヘッドセット3に含まれる各処理部の制御を行う。制御部34は、接続部31を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部34は、センサ部32が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置33が取得した生体データ、マイク35に入力された音声データを、接続部31を経由してVR処理装置2へ送信する。また、例えば、制御部34は、接続部31を経由してVR処理装置2より音声データを受信してスピーカ36へ出力し、VRコンテンツを受信して表示部37へ出力する。   The control unit 34 controls each processing unit included in the VR headset 3. The control unit 34 transmits / receives commands, addresses, data, information, instructions, signals, and the like to / from the VR processing device 2 via the connection unit 31. More specifically, for example, the control unit 34 receives sensor data such as position information and direction information acquired by the sensor unit 32, biological data acquired by the biological data acquisition device 33, and audio data input to the microphone 35. The data is transmitted to the VR processing device 2 via the connection unit 31. For example, the control unit 34 receives audio data from the VR processing device 2 via the connection unit 31 and outputs the audio data to the speaker 36, and receives VR content and outputs it to the display unit 37.

マイク35は、ユーザUの音声をVRシステム1に入力する。なお、VRヘッドセット3が声紋の生体データを取得可能な場合は、マイク35は、生体データ取得装置33を兼ねてもよい。   The microphone 35 inputs the voice of the user U to the VR system 1. When the VR headset 3 can acquire voiceprint biometric data, the microphone 35 may also serve as the biometric data acquisition device 33.

スピーカ36は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。スピーカ36は、例えばヘッドフォンであってもよい。   The speaker 36 outputs the sound generated by the VR processing device 2 or the sound generated by the control unit 34. The speaker 36 may be a headphone, for example.

表示部37は、VR処理装置2のコンテンツ生成部222により生成されたVRコンテンツを表示する。表示部37は、ユーザUの両眼に対応した2つのディスプレイを備える。以下では、VRコンテンツが表示されている状態の表示部37を、VR画面とする。   The display unit 37 displays the VR content generated by the content generation unit 222 of the VR processing device 2. The display unit 37 includes two displays corresponding to the eyes of the user U. Hereinafter, the display unit 37 in a state where VR content is displayed is referred to as a VR screen.

図4は、本実施形態に係るコントローラ4の構成の一例を示すブロック図である。   FIG. 4 is a block diagram illustrating an example of the configuration of the controller 4 according to the present embodiment.

コントローラ4は、接続部41、センサ部42、生体データ取得装置43、制御部44、入力部45を含む。   The controller 4 includes a connection unit 41, a sensor unit 42, a biological data acquisition device 43, a control unit 44, and an input unit 45.

なお、図1で説明済の処理部についての説明は省略する。   A description of the processing unit already described with reference to FIG. 1 is omitted.

接続部41は、コントローラ4とVR処理装置2とを接続する。   The connection unit 41 connects the controller 4 and the VR processing device 2.

センサ部42の構成は、センサ部32と同等である。   The configuration of the sensor unit 42 is the same as that of the sensor unit 32.

制御部44は、コントローラ4に含まれる各処理部の制御を行う。制御部44は、接続部41を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部44は、センサ部42が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置43が取得した生体データ、入力部45に入力されたデータを、接続部41を経由してVR処理装置2へ送信する。   The control unit 44 controls each processing unit included in the controller 4. The control unit 44 transmits and receives commands, addresses, data, information, instructions, signals, and the like to and from the VR processing device 2 via the connection unit 41. More specifically, for example, the control unit 44 receives sensor data such as position information and direction information acquired by the sensor unit 42, biometric data acquired by the biometric data acquisition device 43, and data input to the input unit 45. The data is transmitted to the VR processing device 2 via the connection unit 41.

入力部45は、ユーザUの操作を受け付ける。入力部45は、例えば、ボタン、アナログスティック、ロータリエンコーダ、タッチパネル、各種のセンサなどでもよい。   The input unit 45 receives an operation of the user U. The input unit 45 may be, for example, a button, an analog stick, a rotary encoder, a touch panel, or various sensors.

図5は、本実施形態に係るセンサ装置5の構成の一例を示すブロック図である。   FIG. 5 is a block diagram illustrating an example of the configuration of the sensor device 5 according to the present embodiment.

センサ装置5は、接続部51、センサ部52、生体データ取得装置53、制御部54、マイク55、スピーカ56を含む。また、センサ装置5は、カメラ57を含むとしてもよい。   The sensor device 5 includes a connection unit 51, a sensor unit 52, a biological data acquisition device 53, a control unit 54, a microphone 55, and a speaker 56. Further, the sensor device 5 may include a camera 57.

なお、図1で説明済の処理部についての説明は省略する。   A description of the processing unit already described with reference to FIG. 1 is omitted.

接続部51は、センサ装置5とVR処理装置2とを接続する。   The connection unit 51 connects the sensor device 5 and the VR processing device 2.

センサ部52の構成は、センサ部32と同様である。   The configuration of the sensor unit 52 is the same as that of the sensor unit 32.

制御部54は、センサ装置5に含まれる各処理部の制御を行う。制御部54は、接続部51を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部54の動作は、制御部34,44の動作と同等である。   The control unit 54 controls each processing unit included in the sensor device 5. The control unit 54 transmits and receives commands, addresses, data, information, instructions, signals, and the like to and from the VR processing device 2 via the connection unit 51. The operation of the control unit 54 is equivalent to the operation of the control units 34 and 44.

マイク55は、ユーザUの音声をVRシステム1に入力する。なお、センサ装置5が声紋の生体データを取得可能な場合は、マイク55は、生体データ取得装置53を兼ねてもよい。   The microphone 55 inputs the voice of the user U to the VR system 1. Note that when the sensor device 5 can acquire voiceprint biometric data, the microphone 55 may also serve as the biometric data acquisition device 53.

スピーカ56は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。   The speaker 56 outputs the sound generated by the VR processing device 2 or the sound generated by the control unit 34.

カメラ57は、静止画又は動画を撮影する。カメラ57は、2次元画像を撮影できるものでもよく、又は、例えばステレオカメラ、赤外線カメラなどの奥行き情報を取得できるものでもよい。制御部54は、カメラ57により撮影された静止画又は動画に対して画像処理を行うことにより、例えばセンサ部52では認識することができないユーザUのジェスチャ、又は、ユーザUの足、腕、関節などの特定の部位の動き、又は、ユーザUが移動可能な空間に存在する物体などを認識可能であってもよい。   The camera 57 captures a still image or a moving image. The camera 57 may be capable of capturing a two-dimensional image, or may be capable of acquiring depth information such as a stereo camera or an infrared camera. The control unit 54 performs image processing on a still image or a moving image captured by the camera 57, for example, a gesture of the user U that cannot be recognized by the sensor unit 52, or a leg, arm, or joint of the user U It may be possible to recognize the movement of a specific part such as an object or an object existing in a space where the user U can move.

図6は、本実施形態に係るサーバ装置6の構成の一例を示すブロック図である。   FIG. 6 is a block diagram illustrating an example of the configuration of the server device 6 according to the present embodiment.

サーバ装置6は、通信部61、生体認証部62、制御部63を含む。   The server device 6 includes a communication unit 61, a biometric authentication unit 62, and a control unit 63.

なお、図1で説明済の処理部についての説明は省略する。   A description of the processing unit already described with reference to FIG. 1 is omitted.

通信部61は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部61は、データベースDBと通信可能である。   The communication unit 61 can be connected to the network N and communicates with the VR processing device 2 via the network N. The communication unit 61 can communicate with the database DB.

なお、データベースDBは、ネットワークNに接続されていてもよく、ネットワークNを経由してサーバ装置6と通信可能であってもよい。   The database DB may be connected to the network N, and may be communicable with the server device 6 via the network N.

制御部63は、サーバ装置6に含まれる各処理部の制御を行う。制御部63は、通信部61を経由して、VR処理装置2及びデータベースDBとの間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。例えば、制御部63は、生体認証部62で実行された生体認証が成功した場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨の決済許可通知を送信する。   The control unit 63 controls each processing unit included in the server device 6. The control unit 63 transmits / receives commands, addresses, data, information, instructions, signals, and the like between the VR processing device 2 and the database DB via the communication unit 61. For example, when the biometric authentication performed by the biometric authentication unit 62 is successful, the control unit 63 transmits a settlement permission notification to the effect that the settlement is permitted to the server device 12 via the network N.

図7は、本実施形態に係る携帯端末7,8の構成の一例を示すブロック図である。   FIG. 7 is a block diagram illustrating an example of the configuration of the mobile terminals 7 and 8 according to the present embodiment.

携帯端末7は、通信部71、センサ部72、生体データ取得装置73、プロセッサ74、表示部75を含む。   The portable terminal 7 includes a communication unit 71, a sensor unit 72, a biological data acquisition device 73, a processor 74, and a display unit 75.

携帯端末8は、通信部71、センサ部72、プロセッサ74、表示部75、コンテンツ共有部76を含む。なお、携帯端末8は、生体データ取得装置73を備えていてもよい。   The portable terminal 8 includes a communication unit 71, a sensor unit 72, a processor 74, a display unit 75, and a content sharing unit 76. Note that the mobile terminal 8 may include a biometric data acquisition device 73.

なお、図1で説明済の処理部についての説明は省略する。   A description of the processing unit already described with reference to FIG. 1 is omitted.

通信部71は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部71は、ネットワークNを経由せずに、直接VR処理装置2の通信部24と有線又は無線により通信可能としてもよい。   The communication unit 71 is connectable to the network N and communicates with the VR processing device 2 via the network N. The communication unit 71 may be capable of directly communicating with the communication unit 24 of the VR processing device 2 by wire or wireless without going through the network N.

センサ部72は、センサ部32と同様である。   The sensor unit 72 is the same as the sensor unit 32.

プロセッサ74は、携帯端末7の演算処理を行う。プロセッサ74は、制御部741を含む。   The processor 74 performs calculation processing of the mobile terminal 7. The processor 74 includes a control unit 741.

制御部741は、携帯端末7に含まれる各処理部の制御を行う。制御部741は、通信部71を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部741の動作は、制御部34,44,54の動作と同等である。   The control unit 741 controls each processing unit included in the mobile terminal 7. The control unit 741 transmits and receives commands, addresses, data, information, instructions, signals, and the like to and from the VR processing device 2 via the communication unit 71. The operation of the control unit 741 is equivalent to the operation of the control units 34, 44 and 54.

表示部75は、例えば、一般的な携帯端末のディスプレイである。   The display unit 75 is, for example, a general mobile terminal display.

また、上述のように、コンテンツ共有部225により携帯端末8の表示部75にVRコンテンツが表示される場合、携帯端末8は、VRシステム1に認証(ログイン)されることが望ましい。VRシステム1へのログインには、例えば、ログインID及びパスワードが用いられてもよい。より具体的には、例えば、VR処理装置2は、携帯端末8からVR処理装置2へアクセスがあった場合に、表示部75又はVRヘッドセット3の表示部37にログイン画面を表示する。ユーザUは、ログイン画面の指示に従い、ログインID及びパスワードを入力する。   Further, as described above, when the VR content is displayed on the display unit 75 of the mobile terminal 8 by the content sharing unit 225, the mobile terminal 8 is preferably authenticated (logged in) to the VR system 1. For login to the VR system 1, for example, a login ID and a password may be used. More specifically, for example, the VR processing device 2 displays a login screen on the display unit 75 or the display unit 37 of the VR headset 3 when the mobile terminal 8 accesses the VR processing device 2. The user U inputs a login ID and a password according to the instruction on the login screen.

なお、携帯端末8が生体データ取得装置73を備える場合は、VRシステム1へのログインに生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9を用いて後述する)と同等である。   When the mobile terminal 8 includes the biometric data acquisition device 73, biometric authentication may be used for logging in to the VR system 1. In this case, the biometric authentication procedure is the same as the biometric authentication procedure (described later with reference to FIG. 9) performed during the settlement process.

図8は、本実施形態に係るVRシステム1を用いた決済処理を例示するフローチャートである。   FIG. 8 is a flowchart illustrating an example of payment processing using the VR system 1 according to this embodiment.

ステップS801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。   In step S801, the VR processing device 2 is activated. The VR headset 3, the controller 4, and the sensor device 5 connected to the VR processing device 2 are also turned on, and can be operated by the user U.

ステップS802において、VR処理装置2のコンテンツ生成部222が生成したVRコンテンツが、接続部21を経由してVRヘッドセット3へ送信される。VRヘッドセット3の表示部37は、VR処理装置2より受信したVRコンテンツを表示する。さらに、コンテンツ生成部222は、ユーザUの選択により、又は、自動的に、ユーザUが商品を選択し購入可能なVRコンテンツを生成する。   In step S <b> 802, the VR content generated by the content generation unit 222 of the VR processing device 2 is transmitted to the VR headset 3 via the connection unit 21. The display unit 37 of the VR headset 3 displays the VR content received from the VR processing device 2. Further, the content generation unit 222 generates VR content that the user U can select and purchase a product according to the selection of the user U or automatically.

ステップS803において、表示部37に表示された商品選択画面において、ユーザUが購入する商品が選択される。商品は、例えば、ユーザUがコントローラ4を操作することにより選択されてもよい。さらに、選択された商品の購入が承諾されると、VR処理装置2は、決済処理を開始する。商品の購入の承諾は、例えば、VRコンテンツ内に表示された購入ボタンがユーザUによって選択されることにより行われてもよい。   In step S <b> 803, a product to be purchased by the user U is selected on the product selection screen displayed on the display unit 37. The product may be selected, for example, by the user U operating the controller 4. Further, when the purchase of the selected product is approved, the VR processing device 2 starts a settlement process. The consent to purchase the product may be performed, for example, by the user U selecting a purchase button displayed in the VR content.

ステップS804において、VR処理装置2は、生体データの照合処理を開始する。生体データ照合処理の詳細については、図9で後述する。   In step S804, the VR processing device 2 starts biometric data collation processing. Details of the biometric data collating process will be described later with reference to FIG.

ステップS805において、VR処理装置2は、ステップS804の処理により得られた生体データ照合処理結果を確認する。   In step S805, the VR processing device 2 confirms the biometric data matching processing result obtained by the processing in step S804.

生体データ照合処理結果が成功である場合は、VR処理装置2又はサーバ装置6は、サーバ装置12に対して決済許可通知を送信する。この場合、ステップS806において、サーバ装置12は、VR処理装置2より決済許可通知を受信し、決済処理部121は、決済処理を行う。決済処理が完了した場合、サーバ装置6は、通信部61を経由して決済完了通知をVR処理装置2へ送信する。さらに、ステップS807において、VR処理装置2は、決済完了通知を受信し、コンテンツ生成部222は、決済完了した旨の表示を含んだVRコンテンツを生成する。   When the biometric data matching process result is successful, the VR processing device 2 or the server device 6 transmits a settlement permission notification to the server device 12. In this case, in step S806, the server device 12 receives a settlement permission notification from the VR processing device 2, and the settlement processing unit 121 performs a settlement process. When the payment process is completed, the server device 6 transmits a payment completion notification to the VR processing device 2 via the communication unit 61. In step S807, the VR processing device 2 receives the payment completion notification, and the content generation unit 222 generates VR content including a display indicating that the payment is completed.

また、生体データ照合処理結果が失敗である場合は、VR処理装置2は、決済処理を中止する。この場合、ステップS808において、VR処理装置2のコンテンツ生成部222は、決済失敗した旨の表示を含んだVRコンテンツを生成する。   If the biometric data matching process result is unsuccessful, the VR processing device 2 stops the settlement process. In this case, in step S808, the content generation unit 222 of the VR processing device 2 generates VR content including a display indicating that payment has failed.

なお、決済完了又は決済失敗した旨の表示は、例えば、メッセージ、アイコン、ダイアログボックスなどによる表示であってもよい。   In addition, the display of the completion of payment or the payment failure may be, for example, a display using a message, an icon, a dialog box, or the like.

本実施形態において、VR処理装置2は、ステップS801における起動時に、ユーザUの認証(ログイン)を行うとしてもよい。VRシステム1へのログインには、生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9参照)と同等である。   In the present embodiment, the VR processing device 2 may perform authentication (login) of the user U at the time of activation in step S801. Biometric authentication may be used to log in to the VR system 1. In this case, the biometric authentication procedure is the same as the biometric authentication procedure (see FIG. 9) performed during the settlement process.

図9は、本実施形態に係る生体データ照合処理を例示するフローチャートである。   FIG. 9 is a flowchart illustrating a biometric data matching process according to this embodiment.

ステップS901において、VR処理装置2は、VRシステム1内で利用可能な生体データ取得装置が複数存在する場合に、どの生体データ取得装置を用いて生体データを取得するかをユーザに選択させる。ユーザUが生体データ取得装置を選択した場合は、ステップS902へ進む。   In step S <b> 901, the VR processing device 2 causes the user to select which biometric data acquisition device to use to acquire biometric data when there are a plurality of biometric data acquisition devices that can be used in the VR system 1. When the user U selects the biometric data acquisition device, the process proceeds to step S902.

利用可能な生体データ取得装置がVRシステム1内に1つのみである場合、又は、VR処理装置2がユーザに生体データ取得装置を選択させない場合は、ステップS905に進む。   When there is only one biometric data acquisition device in the VR system 1 or when the VR processing device 2 does not allow the user to select a biometric data acquisition device, the process proceeds to step S905.

ステップS902において、VR処理装置2は、ステップS901においてユーザUが指定した生体データ取得装置の位置情報及び方向情報を検出する。具体的には、生体データ取得装置33が指定された場合は、VR処理装置2は、VRヘッドセット3の制御部34より、センサ部32が検出したVRヘッドセット3及び生体データ取得装置33の位置情報及び方向情報を受信する。同様に、生体データ取得装置43が指定された場合は、VR処理装置2は、制御部44より、センサ部42が検出したコントローラ4及び生体データ取得装置43の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置53が指定された場合は、VR処理装置2は、制御部54より、センサ部52が検出したセンサ装置5及び生体データ取得装置53の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置73が指定された場合は、VR処理装置2は、制御部741より、携帯端末7及び生体データ取得装置73の位置情報及び方向情報を受信する。VR処理装置2は、受信した位置情報及び方向情報を、記憶部23に一時的に格納する。   In step S902, the VR processing device 2 detects the position information and direction information of the biometric data acquisition device designated by the user U in step S901. Specifically, when the biometric data acquisition device 33 is designated, the VR processing device 2 uses the VR headset 3 and the biometric data acquisition device 33 detected by the sensor unit 32 from the control unit 34 of the VR headset 3. Position information and direction information are received. Similarly, when the biometric data acquisition device 43 is designated, the VR processing device 2 receives the position information and direction information of the controller 4 and the biometric data acquisition device 43 detected by the sensor unit 42 from the control unit 44. Or similarly, when the biometric data acquisition device 53 is designated, the VR processing device 2 receives the position information and direction information of the sensor device 5 and the biometric data acquisition device 53 detected by the sensor unit 52 from the control unit 54. Receive. Or similarly, when the biometric data acquisition device 73 is designated, the VR processing device 2 receives position information and direction information of the mobile terminal 7 and the biometric data acquisition device 73 from the control unit 741. The VR processing device 2 temporarily stores the received position information and direction information in the storage unit 23.

ステップS903において、VR処理装置2は、ステップS902において検出した各装置の位置情報及び方向情報を、VR画面内に表示する。具体的には、VR処理装置2のコンテンツ生成部222は、記憶部23よりステップS902で格納した各装置の位置情報及び方向情報を読み出す。コンテンツ生成部222は、読み出したそれぞれの装置の位置情報及び方向情報に基づいた各装置の画像を、もとのVRコンテンツに重畳し、新たなVRコンテンツを生成する。上述の処理により生成されるVRコンテンツの例は、図11で後述する。   In step S903, the VR processing device 2 displays the position information and direction information of each device detected in step S902 in the VR screen. Specifically, the content generation unit 222 of the VR processing device 2 reads the position information and direction information of each device stored in step S902 from the storage unit 23. The content generation unit 222 generates new VR content by superimposing the image of each device based on the read position information and direction information of each device on the original VR content. An example of VR content generated by the above-described processing will be described later with reference to FIG.

ステップS904において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。   In step S904, the VR processing device 2 causes the user U to input biometric data to the designated biometric data acquisition device.

ステップS905において、VR処理装置2は、利用可能な生体データ取得装置を検索する。具体的には、VR処理装置2は、VRヘッドセット3、コントローラ4、センサ装置5、携帯端末7へ、各装置に備えられた生体データ取得装置33,43,53,73が利用可能であるか否かを問い合わせる。   In step S905, the VR processing device 2 searches for available biometric data acquisition devices. Specifically, the VR processing device 2 can use the biological data acquisition devices 33, 43, 53, and 73 included in each device to the VR headset 3, the controller 4, the sensor device 5, and the mobile terminal 7. Inquire whether or not.

制御部34,44,54,74は、生体データ取得装置33,43,53,73の状態を確認し、各生体データ取得装置が利用可能であるか否かをそれぞれVR処理装置2へ送信する。   The control units 34, 44, 54, 74 confirm the states of the biometric data acquisition devices 33, 43, 53, 73 and transmit to the VR processing device 2 whether or not each biometric data acquisition device is available. .

ステップS906において、VR処理装置2は、ステップS905で得られた利用可能な生体データ取得装置の位置、向き、及び種類を表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS902及びステップS903で述べた方法と同等である。   In step S906, the VR processing device 2 displays the position, orientation, and type of the available biometric data acquisition device obtained in step S905. The detection method and display method of the position and orientation of the biological data acquisition apparatus are the same as those described in step S902 and step S903.

ステップS907において、VR処理装置2は、ユーザUへステップS906で表示したいずれかの生体データ取得装置へ生体データを入力させる。この場合、例えば、各生体データ処理装置は、ユーザUより生体データの入力が完了した場合に、生体データD1をVR処理装置2へ送信する。VR処理装置2は、生体データD1を受信し、生体データD1を記憶部23に格納する。   In step S907, the VR processing device 2 causes the user U to input biometric data to any of the biometric data acquisition devices displayed in step S906. In this case, for example, each biometric data processing device transmits biometric data D1 to the VR processing device 2 when biometric data input from the user U is completed. The VR processing device 2 receives the biometric data D1 and stores the biometric data D1 in the storage unit 23.

なお、VR処理装置2は、複数の生体データ取得装置から生体データを受信した場合は、受信した複数の生体データを記憶部23に格納してもよく、最初又は最後に受信した生体データを有効なデータとして記憶部23へ格納してもよい。   The VR processing device 2 may store the received plurality of biometric data in the storage unit 23 when the biometric data is received from a plurality of biometric data acquisition devices, and the first or last received biometric data is valid. You may store in the memory | storage part 23 as simple data.

ステップS908において、VR処理装置2は、サーバ装置6へ生体データ照合命令を送信する。具体的には、生体データ送信部224は、記憶部23より生体データD1を読み出し、生体データ照合命令と生体データD1をサーバ装置6へ送信する。   In step S <b> 908, the VR processing device 2 transmits a biometric data collation command to the server device 6. Specifically, the biometric data transmission unit 224 reads the biometric data D1 from the storage unit 23, and transmits the biometric data collation command and the biometric data D1 to the server device 6.

ステップS909において、サーバ装置6の生体認証部62は、ユーザUの生体データD1と、生体データ照合命令を受信する。サーバ装置6は、受信した生体データD1がデータベースDBに登録されているか否かを確認する。ユーザUの生体データが登録されている場合は、ステップS911へ進む。ユーザUの生体データが登録されていない場合は、サーバ装置6は、VR処理装置2へ生体データが未登録である旨の通知を行う。VR処理装置2は、生体データが未登録である旨の通知を受信し、ステップS910において、生体データ登録処理を行う。   In step S909, the biometric authentication unit 62 of the server device 6 receives the biometric data D1 of the user U and a biometric data collation command. The server device 6 confirms whether or not the received biometric data D1 is registered in the database DB. If the biometric data of the user U is registered, the process proceeds to step S911. When the biometric data of the user U is not registered, the server device 6 notifies the VR processing device 2 that the biometric data is not registered. The VR processing device 2 receives the notification that the biometric data is not registered, and performs biometric data registration processing in step S910.

なお、生体データ登録処理は、決済処理と独立して行われてもよい。例えば、生体データ登録処理は、VRシステム1の初回起動時などに行われてもよい。生体データ登録処理の詳細については、図10で後述する。   The biometric data registration process may be performed independently of the payment process. For example, the biometric data registration process may be performed when the VR system 1 is activated for the first time. Details of the biometric data registration process will be described later with reference to FIG.

ステップS911において、サーバ装置6の生体認証部62は、生体データ照合処理を行う。具体的には、生体認証部62は、データベースDBに登録されているユーザUの登録済生体データD2を読み出し、VR処理装置2より受信した生体データD1と照合する。生体認証部62は、照合結果が成功又は失敗した旨をVR処理装置2へ送信する。   In step S911, the biometric authentication unit 62 of the server device 6 performs a biometric data matching process. Specifically, the biometric authentication unit 62 reads the registered biometric data D2 of the user U registered in the database DB and compares it with the biometric data D1 received from the VR processing device 2. The biometric authentication unit 62 transmits to the VR processing device 2 that the verification result has succeeded or failed.

図10は、本実施形態に係る生体データ登録処理を例示するフローチャートである。   FIG. 10 is a flowchart illustrating a biometric data registration process according to this embodiment.

ステップS1001において、VR処理装置2は、登録可能な生体データ取得装置の種類を表示する。登録可能な生体データ取得装置の検索処理は、ステップS905の処理と同様である。   In step S1001, the VR processing device 2 displays the types of biometric data acquisition devices that can be registered. The search process of the biometric data acquisition device that can be registered is the same as the process in step S905.

ステップS1002において、VR処理装置2は、ステップS1001で得られた登録可能な生体データ取得装置の位置、向き、及び種類をVR画面に表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS906で述べた方法と同等である。   In step S1002, the VR processing device 2 displays the position, orientation, and type of the biometric data acquisition device that can be registered obtained in step S1001 on the VR screen. The detection method and display method of the position and orientation of the biological data acquisition apparatus are the same as those described in step S906.

ステップS1003において、VR処理装置2は、ステップS1002でVR画面に表示された生体データ取得装置のうち1つの生体データ取得装置を、ユーザUに選択させる。   In step S1003, the VR processing device 2 causes the user U to select one of the biological data acquisition devices displayed on the VR screen in step S1002.

なお、ステップS901で生体データ取得装置を指定された場合は、自動的にステップS901で指定された生体データ取得装置と同じものが指定されてもよい。この場合、ステップS1001及びステップS1002において、ステップS901で指定された生体データ取得装置がVR画面に表示され、ステップS1003の処理はなくてもよい。   When the biometric data acquisition device is specified in step S901, the same biometric data acquisition device specified in step S901 may be automatically specified. In this case, in step S1001 and step S1002, the biometric data acquisition device specified in step S901 is displayed on the VR screen, and the process in step S1003 may not be performed.

ステップS1004において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。入力された生体データは、VR処理装置2へ送信される。   In step S1004, the VR processing device 2 causes the user U to input biometric data to the designated biometric data acquisition device. The input biometric data is transmitted to the VR processing device 2.

ステップS1005において、VR処理装置2は、ステップS1004で生体データ取得装置に入力された生体データを受信する。VR処理装置2の生体データ送信部224は、サーバ装置6へ、当該生体データと、生体データ登録指示を送信する。   In step S1005, the VR processing device 2 receives the biometric data input to the biometric data acquisition device in step S1004. The biometric data transmission unit 224 of the VR processing device 2 transmits the biometric data and a biometric data registration instruction to the server device 6.

ステップS1006において、サーバ装置6は、データベースDBに受信した生体データを登録する。   In step S1006, the server device 6 registers the received biometric data in the database DB.

図11は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。より具体的には、図11は、図9のS906、及び、図10のS1002において、表示部37に表示されるVR画面V1を示す。   FIG. 11 is a diagram showing a first example of VR screen display at the time of biometric data registration or biometric data acquisition according to the present embodiment. More specifically, FIG. 11 shows the VR screen V1 displayed on the display unit 37 in S906 of FIG. 9 and S1002 of FIG.

VR画面V1は、利用可能(又は登録可能)な生体センサを示す生体センサ選択画面W1を表示する。図11では、生体センサ選択画面W1はVR画面V1に重畳的に表示されているが、表示方法はこれに限られない。例えば、VR画面V1が切り替わり、生体センサ選択画面W1が全画面に表示されてもよい。   The VR screen V1 displays a biosensor selection screen W1 showing biosensors that can be used (or registered). In FIG. 11, the biosensor selection screen W1 is displayed in a superimposed manner on the VR screen V1, but the display method is not limited to this. For example, the VR screen V1 may be switched, and the biosensor selection screen W1 may be displayed on the entire screen.

生体センサ選択画面W1には、利用可能な生体データ取得装置と、利用可能な生体データ取得装置が含まれる装置が表示される。図11の例では、生体センサ選択画面W1には、VRヘッドセット103と、VRヘッドセット103に含まれる虹彩センサ103A、声紋センサ103B、静脈センサ103C、及び、コントローラ104と、コントローラ104に含まれる静脈センサ104A、指紋センサ104B、及び、コントローラ105と、コントローラ105に含まれる静脈センサ105A、指紋センサ105B、及び、センサ装置106と、センサ装置106に含まれる声紋センサ106Aが表示される。   The biometric sensor selection screen W1 displays an available biometric data acquisition device and a device including the available biometric data acquisition device. In the example of FIG. 11, the biosensor selection screen W <b> 1 is included in the VR headset 103, the iris sensor 103 </ b> A, the voice print sensor 103 </ b> B, the vein sensor 103 </ b> C, the controller 104, and the controller 104 included in the VR headset 103. The vein sensor 104A, the fingerprint sensor 104B, and the controller 105, the vein sensor 105A included in the controller 105, the fingerprint sensor 105B, the sensor device 106, and the voiceprint sensor 106A included in the sensor device 106 are displayed.

なお、生体センサ選択画面W1に表示される各装置及び生体センサの画像の向きは、各装置を操作するユーザUの動きに合わせて、リアルタイムに変化することが望ましい。また、生体センサが二種以上含まれる場合は、ユーザUが同種の生体センサと異種の生体センサとを、例えば色又は形などで容易に判別できるよう表示されることが望ましい。   In addition, as for the direction of the image of each apparatus and biosensor displayed on the biosensor selection screen W1, it is desirable to change in real time according to the movement of the user U who operates each apparatus. In addition, when two or more types of biosensors are included, it is desirable that the display is such that the user U can easily distinguish between the same type of biosensors and different types of biosensors, for example, by color or shape.

生体センサ選択画面W2は、生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより静脈センサ104Aが選択された状態を示す。   The biosensor selection screen W2 shows a state in which the vein sensor 104A is selected by the user U among the biosensors displayed on the biosensor selection screen W1.

生体センサの選択は、例えば、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体センサの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。   The selection of the biometric sensor may be performed, for example, by the user U operating the input unit 45 of the controller 4. In addition, the selection of the biometric sensor may be performed, for example, when the user U gives an instruction by voice through the microphone 35 of the VR headset 3.

選択された静脈センサ104Aの周囲には、センシング可能領域Aが表示される。センシング可能領域は、ユーザUの体の一部を生体センサに近接させて生体データを取得することができる範囲を示す。   A sensing possible area A is displayed around the selected vein sensor 104A. The sensing possible region indicates a range in which biological data can be acquired by bringing a part of the body of the user U close to the biological sensor.

ユーザUは、表示された静脈センサ104Aのセンシング可能領域Aの範囲内に、例えば指を近づけることで、静脈データを入力する。   The user U inputs vein data, for example, by bringing his / her finger close to the range of the detectable area A of the displayed vein sensor 104A.

また、例えばユーザUがコントローラ4の位置及び向きを変化させることにより、生体センサ選択画面W2に表示されるコントローラ104の表示が変化する場合、センシング可能領域Aの表示もコントローラ104の位置及び向きに合わせて変化する。   For example, when the display of the controller 104 displayed on the biosensor selection screen W <b> 2 changes due to the user U changing the position and orientation of the controller 4, the display of the sensing area A also changes to the position and orientation of the controller 104. It changes together.

なお、他の生体センサが選択された場合も、上述と同様に、選択された生体センサに対応したセンシング可能領域が表示される。   Note that, when another biological sensor is selected, a sensing possible region corresponding to the selected biological sensor is displayed as described above.

なお、センシング可能領域の表示態様は、領域を表示するものであれば、図11中に示されている態様に限られない。   Note that the display mode of the sensing area is not limited to the mode shown in FIG. 11 as long as the area is displayed.

図12は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。   FIG. 12 is a view showing a second example of the VR screen display at the time of biometric data registration or biometric data acquisition according to the present embodiment.

VR画面V2は、図11の生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより声紋センサ106Aが選択された状態を示す。   The VR screen V2 shows a state in which the voiceprint sensor 106A is selected by the user U among the biosensors displayed on the biosensor selection screen W1 in FIG.

声紋センサ106Aを含むセンサ装置106は、現在のユーザUの位置から離れた場所に存在するため、VR処理装置2は、ユーザUを声紋センサ106Aが反応する位置まで誘導する。   Since the sensor device 106 including the voiceprint sensor 106A exists at a location away from the current position of the user U, the VR processing device 2 guides the user U to a position where the voiceprint sensor 106A reacts.

まず、制御部221は、ユーザUの位置を取得する。センサ装置5のカメラ57がユーザUを撮影することにより、制御部54又は制御部221がユーザUのVRシステム1内における位置及び向きを計算してもよい。又は、ユーザUに装着されたVRヘッドセット3のセンサ部が検出した位置及び向きを、ユーザUの位置及び向きとしてもよい。   First, the control unit 221 acquires the position of the user U. When the camera 57 of the sensor device 5 captures the user U, the control unit 54 or the control unit 221 may calculate the position and orientation of the user U in the VR system 1. Alternatively, the position and orientation detected by the sensor unit of the VR headset 3 attached to the user U may be set as the position and orientation of the user U.

次に、制御部221は、取得したユーザUの位置及び向きと声紋センサ106Aの位置及び向きとに基づいて、ユーザUを誘導する方向を決定する。ユーザUを誘導する方向は、VRシステム1内の位置及び向きを示すデータに変換され、コンテンツ生成部222に入力される。   Next, the control unit 221 determines a direction for guiding the user U based on the acquired position and orientation of the user U and the position and orientation of the voiceprint sensor 106A. The direction in which the user U is guided is converted into data indicating the position and orientation in the VR system 1 and input to the content generation unit 222.

コンテンツ生成部222は、制御部221より受信したデータに基づき、VRコンテンツ内にユーザUを誘導する方向を示す矢印201を描画する。   Based on the data received from the control unit 221, the content generation unit 222 draws an arrow 201 indicating the direction in which the user U is guided in the VR content.

なお、ユーザUを誘導する方法は、上述の方法に限られない。例えば、コンテンツ生成部222により、VR画面V2上で声紋センサ106Aの位置が強調表示されてもよい。   Note that the method of guiding the user U is not limited to the above-described method. For example, the position of the voiceprint sensor 106A may be highlighted on the VR screen V2 by the content generation unit 222.

VR画面V3は、ユーザUの位置が、声紋センサ106Aが反応する位置まで近づいた状態を示す。   The VR screen V3 shows a state where the position of the user U has approached the position where the voiceprint sensor 106A reacts.

制御部221は、ユーザUと声紋センサ106Aとの距離が一定以下になった場合に、声紋センサ106Aが利用可能になった旨をユーザUに通知する。例えば、コンテンツ生成部222は、制御部221よりユーザUと声紋センサ106Aとの距離が一定以下になった旨の通知を受信すると、VRコンテンツの声紋センサ106Aに印E1を描画してもよい。ユーザUは、VRコンテンツ内の印E1を視認することにより、声紋センサ106Aに対し、声紋データを入力する。   The control unit 221 notifies the user U that the voiceprint sensor 106A can be used when the distance between the user U and the voiceprint sensor 106A is less than a certain value. For example, when the content generation unit 222 receives a notification from the control unit 221 that the distance between the user U and the voiceprint sensor 106A has become a certain value or less, the content generation unit 222 may draw the mark E1 on the voiceprint sensor 106A of the VR content. The user U inputs voiceprint data to the voiceprint sensor 106A by visually recognizing the mark E1 in the VR content.

なお、印E1の形状及び表示方法は、図12中に表示されるものに限られない。また、声紋センサ106Aが利用可能になった旨をユーザUに通知する方法は、上述のものに限られない。例えば、VRヘッドセット3のスピーカ36を通じて音声によりユーザUに通知してもよい。   The shape and display method of the mark E1 are not limited to those displayed in FIG. The method for notifying the user U that the voiceprint sensor 106A is available is not limited to the above. For example, the user U may be notified by voice through the speaker 36 of the VR headset 3.

図13は、本実施形態に係る生体データ選択時のVR画面表示を例示する図である。より具体的には、図13は、図9のS901において、表示部37に表示されるVR画面V4を示す。   FIG. 13 is a diagram illustrating a VR screen display when biometric data is selected according to the present embodiment. More specifically, FIG. 13 shows the VR screen V4 displayed on the display unit 37 in S901 of FIG.

VR画面V4は、生体データ選択画面W3を表示する。図13では、生体データ選択画面W3はVR画面V4に重畳的に表示されているが、生体センサ選択画面W1と同様に、表示方法はこれに限られない。   The VR screen V4 displays a biometric data selection screen W3. In FIG. 13, the biometric data selection screen W3 is displayed in a superimposed manner on the VR screen V4, but the display method is not limited to this as with the biometric sensor selection screen W1.

生体データ選択画面W3には、取得する生体データの種類が表示される。図13の例では、生体データ選択画面W3には、指紋データB1、顔データB2、虹彩データB3、静脈データB4、声紋データB5が選択可能な項目として表示される。   The type of biometric data to be acquired is displayed on the biometric data selection screen W3. In the example of FIG. 13, the biometric data selection screen W3 displays fingerprint data B1, face data B2, iris data B3, vein data B4, and voiceprint data B5 as selectable items.

ユーザUにより上述の項目のうち1つが選択された場合、VR画面V4上には、項目が選択された旨が表示される。例えば、VR画面V4上には、選択された項目の周囲に印E2が表示されてもよい。   When one of the above items is selected by the user U, the fact that the item has been selected is displayed on the VR screen V4. For example, a mark E2 may be displayed around the selected item on the VR screen V4.

なお、生体データの選択は、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体データの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。   The biometric data may be selected by the user U operating the input unit 45 of the controller 4. The biometric data may be selected, for example, when the user U gives an instruction by voice through the microphone 35 of the VR headset 3.

なお、印E2の形状及び表示方法は、図13中に例示されるものに限られない。   Note that the shape and display method of the mark E2 are not limited to those illustrated in FIG.

図14は、本実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。より具体的には、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、表示部37に表示されるVR画面V5を示す。   FIG. 14 is a diagram illustrating a VR screen display during content sharing according to the present embodiment. More specifically, the VR screen V5 displayed on the display unit 37 when the content sharing unit 225 transmits content to the mobile terminal 8 is shown.

VR画面V5は、画面表示W4を含む。画面表示W4は、コンテンツが携帯端末8と共有されていることを示す画像又は文字である。   The VR screen V5 includes a screen display W4. The screen display W <b> 4 is an image or a character indicating that the content is shared with the mobile terminal 8.

なお、画面表示W4は、ユーザが認識することができるVR画面V5上の任意の位置に表示可能である。また、画面表示W4は、自動的に又はユーザUの操作により、移動又は消去されてもよい。   The screen display W4 can be displayed at any position on the VR screen V5 that can be recognized by the user. Further, the screen display W4 may be moved or deleted automatically or by an operation of the user U.

以上説明した本実施形態においては、VRシステム1は、VR画面上に生体センサの位置及び向きを表示可能である。これにより、ユーザUは、VR画面内で商品購入し、決済のための生体データの取得が必要な場合であっても、VRヘッドセット3を外すことなく、生体データを入力することができる。   In the present embodiment described above, the VR system 1 can display the position and orientation of the biosensor on the VR screen. Thereby, the user U can input biometric data without removing the VR headset 3 even when purchasing a product within the VR screen and obtaining biometric data for settlement.

本実施形態においては、決済に生体データが用いられるため、決済の安全性が確保される。   In this embodiment, since biometric data is used for payment, the security of payment is ensured.

本実施形態においては、ユーザUの所有する携帯端末7を、例えばコントローラ4の代わりとしてVRシステム1に追加可能である。これにより、通常の仮想実現システムと携帯電話とでシステムを構築でき、コスト削減が可能である。   In the present embodiment, the mobile terminal 7 owned by the user U can be added to the VR system 1 instead of the controller 4, for example. Thereby, a system can be constructed with a normal virtual realization system and a mobile phone, and the cost can be reduced.

本実施形態においては、生体データ取得装置とユーザUの位置が離れている場合であっても、VRシステム1は、ユーザUが生体データを入力可能な位置までユーザUを誘導する。これにより、さらに生体データを入力するユーザUの利便性が高まる。   In the present embodiment, the VR system 1 guides the user U to a position where the user U can input biometric data even when the biometric data acquisition apparatus and the user U are separated from each other. Thereby, the convenience of the user U who inputs biometric data further increases.

本実施形態においては、VRヘッドセット3の表示部37に表示されるVRコンテンツを、VRシステム1に認証された携帯端末8の表示部75にも出力可能とする。これにより、家族でVRシステム1を共有する場合、例えば、VRヘッドセット3を装着した子供がどんなゲームをしているかを、親が自分の携帯端末8を用いて把握することができ、子供を有害コンテンツから守ることができる。また、VRコンテンツを、VRヘッドセット3を装着していない者にも共有することができ、アミューズメント性を高めることができる。   In the present embodiment, VR content displayed on the display unit 37 of the VR headset 3 can be output to the display unit 75 of the mobile terminal 8 authenticated by the VR system 1. Thereby, when sharing the VR system 1 with a family, for example, the parent can grasp what kind of game the child wearing the VR headset 3 is playing using his / her mobile terminal 8, Protect from harmful content. In addition, VR content can be shared with those who do not wear the VR headset 3, and amusement can be improved.

[第2の実施形態]
本実施形態においては、VRシステムのユーザより取得した生体データを用いて、VR画面内に登場させるキャラクター(アバター)の属性を決定するVRシステムについて説明する。
[Second Embodiment]
In the present embodiment, a VR system that determines an attribute of a character (avatar) to appear in a VR screen using biometric data acquired from a user of the VR system will be described.

本実施形態で使用するVRシステムは、第1の実施形態におけるVRシステム1と同様である。   The VR system used in the present embodiment is the same as the VR system 1 in the first embodiment.

図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。   FIG. 15 is a diagram illustrating a VR screen display during character display according to the second embodiment.

VR画面V6は、ユーザUに対応するキャラクターC、キャラクターCの属性Xを表示する。属性Xは、常にVR画面V6に表示されている必要はなく、ユーザUにより属性Xの表示指示を受けた場合にのみ表示してもよい。   The VR screen V6 displays the character C corresponding to the user U and the attribute X of the character C. The attribute X need not always be displayed on the VR screen V6, and may be displayed only when the user U receives an instruction to display the attribute X.

属性Xは、キャラクターCの属性を含む。例えば、属性Xは、名前P1、性別P2、年齢P3、体力P4、性格P5を含む。キャラクターCの属性は、これら以外の項目を含んでいてもよい。   The attribute X includes the attribute of the character C. For example, the attribute X includes name P1, gender P2, age P3, physical strength P4, and personality P5. The attribute of the character C may include items other than these.

キャラクターCの画像は、属性Xの項目の内容によって、外見や状態が変化するとしてもよい。例えば、性別P2、又は、年齢P3に合致するようにキャラクターCの外見が変化してもよく、体力P4によってキャラクターCの姿勢が変化してもよく、性格P5によってキャラクターCの表情が変化してもよい。   The appearance and state of the character C image may change depending on the content of the attribute X item. For example, the appearance of the character C may be changed to match the sex P2 or the age P3, the posture of the character C may be changed by the physical strength P4, and the expression of the character C may be changed by the personality P5. Also good.

属性Xの各項目は、ユーザUが生体認証を行う毎に、ユーザUの生体データがVRシステム1によって解析された結果に基づいて更新されてもよい。   Each item of the attribute X may be updated based on the result of analyzing the biometric data of the user U by the VR system 1 every time the user U performs biometric authentication.

図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。   FIG. 16 is a flowchart illustrating an attribute determination process according to the second embodiment.

ステップS1601において、ユーザUの生体データが、VRシステム1内の任意の生体データ取得装置に入力される。ユーザUの生体データが入力されるタイミングは、図9のステップS904又はステップS907、又は、図10のステップS1004であってもよく、これら以外のタイミングで入力されてもよい。生体データ取得装置により取得された生体データは、VR処理装置2へ送信される。   In step S <b> 1601, the biometric data of the user U is input to an arbitrary biometric data acquisition device in the VR system 1. The timing at which the biometric data of the user U is input may be step S904 or step S907 in FIG. 9 or step S1004 in FIG. 10, or may be input at a timing other than these. The biometric data acquired by the biometric data acquisition device is transmitted to the VR processing device 2.

ステップS1602において、VR処理装置2の制御部221は、ユーザUが入力した生体データを受信し、解析処理を行う。制御部221は、例えば、生体データが声紋データである場合、声の高さ及び質より、ユーザUの年齢及び性別を判定する。制御部221は、例えば、生体データが顔データである場合、表情を読み取ることにより、ユーザUの性格を判定する。なお、制御部221が行う解析処理は上述のものに限られない。   In step S1602, the control unit 221 of the VR processing device 2 receives the biometric data input by the user U and performs analysis processing. For example, when the biometric data is voiceprint data, the control unit 221 determines the age and sex of the user U based on the pitch and quality of the voice. For example, when the biometric data is face data, the control unit 221 determines the personality of the user U by reading a facial expression. Note that the analysis processing performed by the control unit 221 is not limited to the above.

ステップS1603において、制御部221は、ステップS1602で得られた生体データの解析結果に基づき、キャラクターCの属性の決定を行う。属性の種類(項目)は、あらかじめユーザUにより決められていてもよく、又は、制御部221が解析結果に基づいて自動的に生成されてもよい。   In step S1603, the control unit 221 determines the attribute of the character C based on the analysis result of the biometric data obtained in step S1602. The type (item) of the attribute may be determined in advance by the user U, or may be automatically generated by the control unit 221 based on the analysis result.

ステップS1604において、制御部221は、ステップS1603で得られた属性に基づいて、キャラクターCの生成処理又は更新処理を行う。なお、キャラクターCの初回生成時は、キャラクターCの基本状態となる画像はあらかじめユーザUによって選択されてもよい。又は、制御部221は、属性に基づいて、キャラクターCを自動生成してもよい。   In step S1604, the control unit 221 performs character C generation processing or update processing based on the attribute obtained in step S1603. When the character C is generated for the first time, the image that is the basic state of the character C may be selected in advance by the user U. Alternatively, the control unit 221 may automatically generate the character C based on the attribute.

ステップS1605において、制御部221は、キャラクター情報及び属性情報を、をコンテンツ生成部222へ入力する。コンテンツ生成部222は、入力されたキャラクター情報及び属性情報に基づき、キャラクターC及び属性Xの表示を含むVRコンテンツを生成する。当該VRコンテンツは、コンテンツ送信部223によりVRヘッドセット3へ送信され、表示部37に表示される。   In step S <b> 1605, the control unit 221 inputs character information and attribute information to the content generation unit 222. The content generation unit 222 generates VR content including display of the character C and the attribute X based on the input character information and attribute information. The VR content is transmitted to the VR headset 3 by the content transmission unit 223 and displayed on the display unit 37.

以上説明した本実施形態においては、ユーザUより取得した生体データを用いて、自動的に生体データに含まれる属性Xが反映されたキャラクターCをVR画面内に表示することができる。これにより、ユーザUの個性を反映したキャラクターの生成が可能となり、VRを通じたネットワーク上での個人の識別が容易になる。また、ユーザUの個性をキャラクターに反映させることにより、アミューズメント性を高めることができる。   In the present embodiment described above, the character C in which the attribute X included in the biological data is automatically reflected can be displayed on the VR screen using the biological data acquired from the user U. Thereby, it is possible to generate a character reflecting the personality of the user U, and it becomes easy to identify an individual on the network through the VR. In addition, amusement can be enhanced by reflecting the personality of the user U in the character.

[第3の実施形態]
近年、人工知能(AI:Artificial Intelligence)を用い、入力された検診データなどに基づいて病気の自動診断を行うシステムが開発されている。しかしながら、このような診断システムを利用するためには検診データの収集は、ユーザにとって負担であるため、ユーザの利便性を高める技術が望まれている。
[Third embodiment]
In recent years, a system for automatically diagnosing a disease based on input examination data using artificial intelligence (AI) has been developed. However, in order to use such a diagnostic system, collection of medical examination data is a burden on the user, and thus a technique for improving user convenience is desired.

本実施形態においては、VRシステムのユーザが日常的にVRシステムに入力する生体データを蓄積し、蓄積した生体データを診断システムに入力して結果を受信することで、ユーザが診断システムの利用に必要なデータの収集を意識することなく、簡易的な病気の診断結果が取得可能な診断システムを提案する。また、診断結果よりユーザが利用可能な病院と診療科を提案することにより、さらにユーザの利便性を高めることができる。   In the present embodiment, biological data that a user of the VR system routinely inputs to the VR system is accumulated, the accumulated biological data is input to the diagnostic system, and the result is received, so that the user can use the diagnostic system. We propose a diagnostic system that can obtain simple diagnosis results of diseases without being conscious of collecting necessary data. In addition, user convenience can be further enhanced by proposing hospitals and departments that can be used by the user based on the diagnosis result.

図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。   FIG. 17 is a block diagram illustrating the configuration of an automatic diagnosis system according to the third embodiment.

自動診断システム11は、VRシステム1Aと、診断用サーバ装置9と、予約システム10とを含む。   The automatic diagnosis system 11 includes a VR system 1A, a diagnosis server device 9, and a reservation system 10.

VRシステム1Aに含まれるVR処理装置2は、記憶部23を含む。記憶部23は、生体データD1と、位置情報233を含む。   The VR processing device 2 included in the VR system 1 </ b> A includes a storage unit 23. The storage unit 23 includes biological data D1 and position information 233.

生体データD1は、ユーザUが生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを格納する。   The biometric data D1 stores the biometric data input by the user U to any of the biometric data acquisition devices 25, 33, 43, 53, and 73.

位置情報233は、例えば、診断用サーバ装置9がユーザUの受診可能な病院を抽出するために用いられる。   The position information 233 is used, for example, for the diagnosis server device 9 to extract a hospital where the user U can consult.

位置情報233は、例えば、ユーザUがVRシステム1に予め登録した住所であってもよく、VR処理装置2又は携帯端末7がGPS(Global Positioning System)を備える場合は、後述の画面表示T1を表示する際に当該GPSが示す位置であってもよい。位置情報233の取得方法は、上述のものに限られない。   The location information 233 may be, for example, an address registered in advance in the VR system 1 by the user U. When the VR processing device 2 or the mobile terminal 7 includes a GPS (Global Positioning System), a screen display T1 described later is displayed. It may be a position indicated by the GPS when displaying. The method for acquiring the position information 233 is not limited to the above.

なお、本実施形態に係るVRシステム1Aのその他の構成は、第1の実施形態におけるVRシステム1の構成と同様である。   The remaining configuration of the VR system 1A according to the present embodiment is the same as the configuration of the VR system 1 according to the first embodiment.

診断用サーバ装置9は、記憶部91と、制御部92と、通信部93とを含む。   The diagnostic server device 9 includes a storage unit 91, a control unit 92, and a communication unit 93.

記憶部91は、病院情報911を含む。   The storage unit 91 includes hospital information 911.

病院情報911は、例えば、病名と、病名に対応可能な病院及び診療科と、病院の位置とを関連付ける情報である。   The hospital information 911 is information that associates, for example, a disease name, a hospital and a department that can handle the disease name, and the position of the hospital.

制御部92は、診断用サーバ装置9全体の制御を行う。制御部92は、例えば、ユーザUの生体データに基づいて診断処理を実行し、診断結果として病名を得る。さらに、制御部92は、病院情報911と、診断結果と、VR処理装置2より受信した位置情報233とに基づいて、病名に対応可能な病院及び診療科の一覧を生成し、当該一覧をVR処理装置へ送信する。   The control unit 92 controls the entire diagnostic server device 9. For example, the control unit 92 executes a diagnosis process based on the biometric data of the user U, and obtains a disease name as a diagnosis result. Further, the control unit 92 generates a list of hospitals and departments that can handle disease names based on the hospital information 911, the diagnosis result, and the position information 233 received from the VR processing device 2, and the list is displayed as VR. Send to processing device.

通信部93は、ネットワークNを経由して、例えばVR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。   The communication unit 93 transmits / receives commands, addresses, data, information, instructions, signals, and the like to / from the VR processing device 2 via the network N, for example.

予約システム10は、患者などからの診療日時の予約を受け付け可能な、一般的な病院の予約システムである。予約システム10は、例えば病院が備えるサーバ装置上で動作するプログラムなどにより実現される。   The reservation system 10 is a general hospital reservation system capable of accepting reservations for medical treatment dates and times from patients and the like. The reservation system 10 is realized by, for example, a program that operates on a server device provided in a hospital.

図18は、本実施形態に係る自動診断システム11の処理を例示するフローチャートである。   FIG. 18 is a flowchart illustrating the process of the automatic diagnosis system 11 according to this embodiment.

ステップS1801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。   In step S1801, the VR processing device 2 is activated. The VR headset 3, the controller 4, and the sensor device 5 connected to the VR processing device 2 are also turned on, and can be operated by the user U.

ステップS1802において、VR処理装置2は、VRシステム1Aにログインする際に生体データの入力を要する場合に、ログイン時に用いた生体データの収集を行う。具体的には、VR処理装置2は、ユーザUがログインの際に生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを、これらの生体データ取得装置を含むVRヘッドセット3、コントローラ4、センサ装置5、携帯端末7のいずれかより受信し、記憶部23に格納する。   In step S <b> 1802, the VR processing device 2 collects biometric data used at the time of login when biometric data input is required when logging in to the VR system 1 </ b> A. Specifically, the VR processing device 2 includes the biological data acquisition device that receives the biological data input to any of the biological data acquisition devices 25, 33, 43, 53, and 73 when the user U logs in. It is received from any of the headset 3, the controller 4, the sensor device 5, and the mobile terminal 7 and stored in the storage unit 23.

なお、VRシステム1Aへのログインは、ユーザUがVR処理装置2に対して行ってもよく、又は、ユーザUが携帯端末7に対して行ってもよい。   Note that the user U may log in to the VR system 1 </ b> A with respect to the VR processing device 2, or the user U may perform with respect to the mobile terminal 7.

ステップS1803において、VR処理装置2は、VRシステム1Aにおいて決済処理が行われる毎に、決済時に用いた生体データの収集を行う。生体データの収集方法は、ステップS1802と同様である。   In step S1803, the VR processing device 2 collects biometric data used at the time of payment every time payment processing is performed in the VR system 1A. The biometric data collection method is the same as that in step S1802.

ステップS1804において、VR処理装置2は、記憶部23に格納されている生体データD1の量及び種類が、診断用サーバ装置9に入力可能な程度に十分であるか否かを確認する。VR処理装置2は、生体データD1の量及び種類が十分でないと判断した場合は、ステップS1802に戻り、生体データの収集を続ける。また、VR処理装置2は、生体データD1の量及び質が十分であると判断した場合は、ステップS1805に進む。   In step S <b> 1804, the VR processing device 2 confirms whether the amount and type of the biological data D <b> 1 stored in the storage unit 23 are sufficient to be input to the diagnostic server device 9. When the VR processing device 2 determines that the amount and type of the biological data D1 are not sufficient, the VR processing device 2 returns to step S1802 and continues collecting the biological data. If the VR processing apparatus 2 determines that the amount and quality of the biometric data D1 are sufficient, the process proceeds to step S1805.

ステップS1805において、VR処理装置2は、VR処理装置の位置情報233を取得し、記憶部23に格納する。そして、VR処理装置2は、生体データD1及び位置情報233を診断用サーバ装置9へ送信する。   In step S <b> 1805, the VR processing device 2 acquires the position information 233 of the VR processing device and stores it in the storage unit 23. Then, the VR processing device 2 transmits the biological data D1 and the position information 233 to the diagnostic server device 9.

ステップS1806において、診断用サーバ装置9は、VR処理装置2より受信した生体データD1に基づいて、診断処理を実行し、診断結果を得る。診断結果は、例えば病名などでもよい。診断処理は、AI(Artificial Intelligence)を用いて行われてもよく、又は、その他任意のアルゴリズムを用いて行われてもよい。   In step S1806, the diagnostic server device 9 executes a diagnostic process based on the biological data D1 received from the VR processing device 2 and obtains a diagnostic result. The diagnosis result may be a disease name, for example. The diagnosis process may be performed using AI (Artificial Intelligence), or may be performed using any other algorithm.

ステップS1807において、診断用サーバ装置9は、VR処理装置2より受信した位置情報233に基づき、ユーザUが利用可能な範囲の病院を検索し、抽出する。さらに、診断用サーバ装置9は、診断結果及び抽出した病院と、病院情報911とに基づいて、ユーザUが受診可能な病院及び診療科を決定する。   In step S <b> 1807, the diagnostic server device 9 searches and extracts hospitals in a range that can be used by the user U based on the position information 233 received from the VR processing device 2. Further, the diagnosis server device 9 determines hospitals and departments that the user U can receive based on the diagnosis result, the extracted hospital, and the hospital information 911.

ステップS1808において、診断用サーバ装置9は、ステップS1806及びステップS1807において得られた診断結果及びユーザUが受診可能な病院及び診療科を含むデータを、VR処理装置2へ送信する。   In step S1808, the diagnostic server device 9 transmits the diagnosis result obtained in steps S1806 and S1807, and data including the hospital and department that the user U can consult to the VR processing device 2.

ステップS1809において、VR処理装置2は、診断用サーバ装置9より受信したデータに基づき、診断結果、病院、診療科などの情報をVRヘッドセット3の表示部37又は携帯端末7の表示部75に表示する。表示部37,75に表示される画面の詳細については、図19で後述する。   In step S <b> 1809, the VR processing device 2 stores information such as a diagnosis result, a hospital, and a department on the display unit 37 of the VR headset 3 or the display unit 75 of the mobile terminal 7 based on the data received from the diagnostic server device 9. indicate. Details of the screens displayed on the display units 37 and 75 will be described later with reference to FIG.

ステップS1810において、VR処理装置2は、ユーザUに、表示部37,75に表示された病院及び診療科を指定させる。ユーザUにより指定された病院及び診療科を示すデータは、予約システム10へ送信される。   In step S <b> 1810, the VR processing device 2 causes the user U to specify the hospital and the medical department displayed on the display units 37 and 75. Data indicating the hospital and department designated by the user U is transmitted to the reservation system 10.

ステップS1811において、予約システム10は、ステップS1810において指定した病院及び診療科の予約可能日時を検索し、VR処理装置2へ送信する。   In step S <b> 1811, the reservation system 10 searches for the reservation possible date and time of the hospital and the department designated in step S <b> 1810 and transmits them to the VR processing device 2.

ステップS1812において、VR処理装置2は、予約システム10より受信した予約可能日時を表示部37,75に表示し、ユーザUに予約日時を指定させる。ユーザUにより指定された予約日時は、予約システム10へ送信される。   In step S1812, the VR processing device 2 displays the reservation available date and time received from the reservation system 10 on the display units 37 and 75, and causes the user U to specify the reservation date and time. The reservation date and time designated by the user U is transmitted to the reservation system 10.

ステップS1813において、予約システム10は、予約結果をVR処理装置2へ送信し、予約を完了する。   In step S1813, the reservation system 10 transmits the reservation result to the VR processing device 2 and completes the reservation.

ステップS1814において、VR処理装置2は、予約完了した旨をユーザに通知する。具体的には、例えば、表示部37,75に予約完了メッセージを表示する。   In step S1814, the VR processing device 2 notifies the user that the reservation has been completed. Specifically, for example, a reservation completion message is displayed on the display units 37 and 75.

なお、VR処理装置2は、例えば、予約完了後に診断結果を予約済の病院へ送信してもよい。   Note that the VR processing device 2 may transmit the diagnosis result to the reserved hospital after completion of the reservation, for example.

図19は、本実施形態に係る自動診断システム11における画面表示の第1の例を示す図である。具体的には、図19は、図18のステップS1809において、表示部37,75に表示される診断結果及びユーザUが受診可能な病院及び診療科の一覧を示す。   FIG. 19 is a diagram showing a first example of screen display in the automatic diagnosis system 11 according to the present embodiment. Specifically, FIG. 19 shows a list of diagnosis results displayed on the display units 37 and 75 in step S1809 of FIG.

画面表示T1は、病名Q1、病院Q2、診療科Q3、アドレスQ4を含む。   The screen display T1 includes a disease name Q1, a hospital Q2, a medical department Q3, and an address Q4.

病名Q1は、受信した診断結果に基づく病名を示す。   The disease name Q1 indicates a disease name based on the received diagnosis result.

病院Q2は、病名Q1に関する診断が受けられる病院名を示す。   Hospital Q2 indicates the name of a hospital where a diagnosis relating to disease name Q1 can be received.

診療科Q3は、病院Q2の中でユーザが病名Q1に関して受信可能な診療科を示す。診療科Q3に含まれる各診療科の表示は、ユーザUにより選択可能であることが望ましい。制御部221又は制御部741は、ユーザUにより選択した診療科について、予約画面を表示する。選択された診療科は、例えば表示E3のように強調される。   The medical department Q3 indicates a medical department that the user can receive regarding the disease name Q1 in the hospital Q2. It is desirable that the display of each medical department included in the medical department Q3 can be selected by the user U. The control unit 221 or the control unit 741 displays a reservation screen for the medical department selected by the user U. The selected medical department is highlighted as shown by display E3, for example.

アドレスQ4は、病院Q2及び診療科Q3の情報の所在を示すアドレスである。アドレスは、例えばURL(Uniform Resource Locator)などであってもよい。   The address Q4 is an address indicating the location of information of the hospital Q2 and the medical department Q3. The address may be a URL (Uniform Resource Locator), for example.

なお、画面表示T1が含む項目は、上述のものに限られない。また、画面表示T1は表形式以外の形式で表示されてもよい。アドレスQ4に含まれる各アドレスの表示は、ユーザUにより選択可能であってもよい。この場合、制御部221又は制御部741は、ユーザUにより選択されたアドレスQ4に関連付けられたウェブページなどを表示してもよい。   The items included in the screen display T1 are not limited to those described above. The screen display T1 may be displayed in a format other than the table format. The display of each address included in the address Q4 may be selectable by the user U. In this case, the control unit 221 or the control unit 741 may display a web page or the like associated with the address Q4 selected by the user U.

図20は、本実施形態に係る自動診断システム11における画面表示の第2の例を示す図である。具体的には、図20は、図18のステップS1812において、表示部37,75に表示される予約画面を示す。図20は、図19の画面表示T1において、「A病院の耳鼻科」が選択された場合(表示E3参照)に表示される画面を示す。   FIG. 20 is a diagram illustrating a second example of screen display in the automatic diagnosis system 11 according to the present embodiment. Specifically, FIG. 20 shows a reservation screen displayed on the display units 37 and 75 in step S1812 of FIG. FIG. 20 shows a screen displayed when “Otolaryngology at Hospital A” is selected in the screen display T1 of FIG. 19 (see display E3).

画面表示T2は、日付選択表示E4を含む。日付選択表示E4は、例えばカレンダー表示であってもよく、リスト表示であってもよい。   The screen display T2 includes a date selection display E4. The date selection display E4 may be, for example, a calendar display or a list display.

日付選択表示E4は、予約可能な日付と、予約不可である日付が明示されていることが望ましい。制御部221又は制御部741は、ユーザUにより予約可能な日付が選択されると、時間帯選択表示E5をさらに表示してもよい。ユーザUは、さらに予約可能な時間帯を選択することにより、予約日時の指定を完了させる。なお、時間帯選択表示E5は、例えば、ポップアップ表示、リスト表示、又はその他の表示形式であってもよい。   In the date selection display E4, it is desirable that a date that can be reserved and a date that cannot be reserved are clearly indicated. When a date that can be reserved is selected by the user U, the control unit 221 or the control unit 741 may further display a time zone selection display E5. The user U further completes the designation of the reservation date and time by selecting a time slot that can be reserved. The time zone selection display E5 may be, for example, a pop-up display, a list display, or other display formats.

本実施形態において、画面表示T1,T2は、VR処理装置2又は携帯端末7にインストールされたアプリケーションにより表示されてもよい。この場合、病院Q2及び診療科Q3を検索して表示する処理及び画面表示処理は、当該アプリケーションがプロセッサ22、プロセッサ74を使用して行われてもよい。   In the present embodiment, the screen displays T1 and T2 may be displayed by an application installed in the VR processing device 2 or the mobile terminal 7. In this case, the process of searching for and displaying the hospital Q2 and the medical department Q3 and the screen display process may be performed by the application using the processor 22 and the processor 74.

以上説明した本実施形態においては、自動診断システム11は、ユーザUがVRシステム1Aにログインする際又は決済を行う際にVRシステム1Aに入力する生体データを収集し、診断用サーバ装置9へ送信する。これにより、ユーザUは診断用サーバ装置9へ入力するデータの収集を意識的に行うことなく診断結果を取得可能となり、ユーザの利便性が高まる。また、自動診断システム11は、診断結果に基づいて最適な病院及び診療科を選択し、来院予約を行うとともに、診断用サーバ装置9より得られた診断結果を送信する。これによりさらにユーザの利便性が高まるだけでなく、医療ミスの防止及び診療時間の短縮にも貢献できる。   In the present embodiment described above, the automatic diagnosis system 11 collects biometric data input to the VR system 1A when the user U logs in to the VR system 1A or makes a payment, and transmits the collected biometric data to the diagnosis server device 9. To do. As a result, the user U can acquire the diagnosis result without intentionally collecting data to be input to the diagnostic server device 9, and the convenience for the user is enhanced. The automatic diagnosis system 11 selects an optimal hospital and department based on the diagnosis result, makes a visit reservation, and transmits the diagnosis result obtained from the diagnosis server device 9. This not only increases the convenience for the user, but also contributes to the prevention of medical errors and the reduction of medical hours.

なお、本実施形態において、自動診断システム11は、ユーザUの病名の診断に限らず、あらゆる種類の診断に適用可能である。例えば、自動診断システム11を健康診断に適用する場合、自動診断システム11は、画面表示T1の内容のうち、病名Q1及び診療科Q3に代えて、検査項目及び詳細検査機関を関連付け、ユーザUに提示するとしてもよい。   In the present embodiment, the automatic diagnosis system 11 is applicable not only to diagnosis of the user U's disease name but also to all types of diagnosis. For example, when the automatic diagnosis system 11 is applied to a health check, the automatic diagnosis system 11 associates a test item and a detailed inspection organization in the contents of the screen display T1 instead of the disease name Q1 and the clinical department Q3, and It may be presented.

また、本実施形態において、自動診断システム11には、VRシステム1に代えて、生体データD1の取得及び位置情報233の取得又は格納が可能な他の情報処理装置又はシステムが含まれるとしてもよい。   In the present embodiment, the automatic diagnosis system 11 may include another information processing apparatus or system capable of acquiring the biological data D1 and acquiring or storing the position information 233, instead of the VR system 1. .

上記の実施形態は、例示であり、発明の範囲を限定することは意図していない。上記の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。上記の実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   The above embodiments are illustrative and are not intended to limit the scope of the invention. The above embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. The above-described embodiments and modifications thereof are included in the invention described in the scope of claims and the equivalents thereof, as long as they are included in the scope and spirit of the invention.

1…VRシステム、2…VR処理装置、3…VRヘッドセット、4…コントローラ、5…センサ装置、6,12…サーバ装置、7,8…携帯端末、25,33,43,53,73…生体データ取得装置、26,32,42,52,72…センサ部、62…生体認証部、75…表示部、121…決済処理部、222…コンテンツ生成部、223…コンテンツ送信部、224…生体データ送信部、225…コンテンツ共有部、D1,D2…生体データ、DB…データベース、HD…人体装着用装置、N…ネットワーク、U,V…ユーザ。   DESCRIPTION OF SYMBOLS 1 ... VR system, 2 ... VR processing device, 3 ... VR headset, 4 ... Controller, 5 ... Sensor device, 6, 12 ... Server device, 7, 8 ... Portable terminal, 25, 33, 43, 53, 73 ... Biometric data acquisition device, 26, 32, 42, 52, 72 ... sensor unit, 62 ... biometric authentication unit, 75 ... display unit, 121 ... settlement processing unit, 222 ... content generation unit, 223 ... content transmission unit, 224 ... biometrics Data transmission unit, 225 ... content sharing unit, D1, D2 ... biological data, DB ... database, HD ... human body wearing device, N ... network, U, V ... user.

Claims (3)

仮想現実コンテンツを生成する情報処理装置と、
ユーザに装着され、前記情報処理装置から受信した前記仮想現実コンテンツを前記ユーザに表示する仮想現実ヘッドセットと、
前記ユーザの生体データを取得する生体データ取得装置と、
前記生体データ取得装置の位置を示す位置情報と、前記生体データ取得装置の方向を示す方向情報とを生成し、前記位置情報と前記方向情報とを前記情報処理装置へ送信するセンサと、
を具備し、
前記情報処理装置は、
決済指示を受信した場合に、前記センサから受信した前記位置情報及び前記方向情報に基づいて、前記生体データ取得装置の前記位置及び前記方向を前記仮想現実ヘッドセットを装着している前記ユーザに認識させる第1の画像を、前記仮想現実コンテンツに付加するコンテンツ生成部
を具備する、
仮想現実システム。
An information processing device for generating virtual reality content;
A virtual reality headset that is worn by a user and displays the virtual reality content received from the information processing device to the user;
A biometric data acquisition device for acquiring biometric data of the user;
A sensor that generates position information indicating a position of the biometric data acquisition apparatus and direction information indicating a direction of the biometric data acquisition apparatus, and transmits the position information and the direction information to the information processing apparatus;
Comprising
The information processing apparatus includes:
When the payment instruction is received, the position and the direction of the biometric data acquisition device are recognized by the user wearing the virtual reality headset based on the position information and the direction information received from the sensor. A content generation unit that adds the first image to be added to the virtual reality content;
Virtual reality system.
前記生体データ取得装置は、カメラであり、前記生体データは、指紋データであることを特徴とする、
請求項1の仮想現実システム。
The biometric data acquisition device is a camera, and the biometric data is fingerprint data,
The virtual reality system of claim 1.
前記コンテンツ生成部は、前記生体データ取得装置による生体データ入力を前記仮想現実ヘッドセットを装着している前記ユーザに促す第2の画像を、前記仮想現実コンテンツに付加する、
請求項1又は請求項2の仮想現実システム。
The content generation unit adds, to the virtual reality content, a second image that prompts the user wearing the virtual reality headset to input biometric data by the biometric data acquisition device.
The virtual reality system according to claim 1 or 2.
JP2017021288A 2017-02-08 2017-02-08 Virtual reality system Active JP6719776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017021288A JP6719776B2 (en) 2017-02-08 2017-02-08 Virtual reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017021288A JP6719776B2 (en) 2017-02-08 2017-02-08 Virtual reality system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016567869A Division JP6095191B1 (en) 2016-07-15 2016-07-15 Virtual reality system and information processing system

Publications (2)

Publication Number Publication Date
JP2018010612A true JP2018010612A (en) 2018-01-18
JP6719776B2 JP6719776B2 (en) 2020-07-08

Family

ID=60995599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017021288A Active JP6719776B2 (en) 2017-02-08 2017-02-08 Virtual reality system

Country Status (1)

Country Link
JP (1) JP6719776B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110333873A (en) * 2018-03-30 2019-10-15 深圳市掌网科技股份有限公司 High concurrent VR system and implementation method
WO2021095371A1 (en) * 2019-11-11 2021-05-20 株式会社ソニー・インタラクティブエンタテインメント Information processing system and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235161A (en) * 2013-05-31 2014-12-15 ヒョンデ エムエヌソフト インコーポーレイティッドHYUNDAI MNSOFT,Inc. Route guide device, server, and route guide method
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
JP2015176516A (en) * 2014-03-18 2015-10-05 富士通株式会社 Display device, display control program, and display control method
JP2015230236A (en) * 2014-06-05 2015-12-21 株式会社ecbeing Merchandise guidance device, terminal equipment, merchandise guidance method, and program
JP2016506530A (en) * 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display and method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016506530A (en) * 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display and method for controlling the same
JP2014235161A (en) * 2013-05-31 2014-12-15 ヒョンデ エムエヌソフト インコーポーレイティッドHYUNDAI MNSOFT,Inc. Route guide device, server, and route guide method
JP2015118556A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Augmented reality overlay for control devices
JP2015176516A (en) * 2014-03-18 2015-10-05 富士通株式会社 Display device, display control program, and display control method
JP2015230236A (en) * 2014-06-05 2015-12-21 株式会社ecbeing Merchandise guidance device, terminal equipment, merchandise guidance method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110333873A (en) * 2018-03-30 2019-10-15 深圳市掌网科技股份有限公司 High concurrent VR system and implementation method
CN110333873B (en) * 2018-03-30 2022-12-23 深圳市掌网科技股份有限公司 High-concurrency VR system and implementation method
WO2021095371A1 (en) * 2019-11-11 2021-05-20 株式会社ソニー・インタラクティブエンタテインメント Information processing system and program

Also Published As

Publication number Publication date
JP6719776B2 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
JP6095191B1 (en) Virtual reality system and information processing system
US10318958B2 (en) Smart watch and operating method using the same
KR102190056B1 (en) Apparatus and method for providing customized medication information to patednts based on big data
US7584158B2 (en) User support apparatus
US9614840B2 (en) Network authentication method and system based on eye tracking procedure
CN108702408A (en) Wearable individual digital equipment for promoting mobile device for paying and personal use
CA2932528A1 (en) Service-provision management system
US11257087B2 (en) Methods and systems for detecting suspicious or non-suspicious activities involving a mobile device use
KR20120087492A (en) Smart Mental Health Care System
JP2021007000A (en) Information processing method, information processing apparatus, and program
JP6719776B2 (en) Virtual reality system
JP2017041199A (en) Authenticity guarantee device, and authenticity guarantee system
TWM583581U (en) Virtual reality auxiliary transaction system
TWI801718B (en) Intelligent interactive display device, intelligent interactive display system and interactive display method thereof
US20170316482A1 (en) Person and machine matching device, matching system, person and machine matching method, and person and machine matching program
JP2020052505A (en) Health condition determination system, health condition determination device, server, health condition determination method and program
US20230161411A1 (en) Control device and control method
JP2014235658A (en) Human-machine matching apparatus, human-machine matching method, human-machine matching program, data structure of machine type classification table, and data structure of operator type classification table
US20150107377A1 (en) Medical Screening Device
JP2020160539A (en) Information processor and information processing program
US20190108318A1 (en) Safety Center and Associated Equipment
US20170270251A1 (en) Social Media for ID Verification
US20230143234A1 (en) Control device and control method
JP2017182530A (en) Search system, search method, server and program
CN115035994A (en) Medical service guiding method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200610

R150 Certificate of patent or registration of utility model

Ref document number: 6719776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250