JP2018010612A - Virtual reality system - Google Patents
Virtual reality system Download PDFInfo
- Publication number
- JP2018010612A JP2018010612A JP2017021288A JP2017021288A JP2018010612A JP 2018010612 A JP2018010612 A JP 2018010612A JP 2017021288 A JP2017021288 A JP 2017021288A JP 2017021288 A JP2017021288 A JP 2017021288A JP 2018010612 A JP2018010612 A JP 2018010612A
- Authority
- JP
- Japan
- Prior art keywords
- biometric data
- user
- unit
- data acquisition
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、仮想現実システムに関する。 The present invention relates to a virtual reality system.
近年、仮想現実(Virtual reality:以下、VRとする)に関するシステムの開発が盛んに行われている。一般的には、ユーザがVRのコンテンツを体験する際、ユーザは頭部にゴーグル形状の装置(以下、VRヘッドセットとする)を装着する。VRヘッドセットには、左右それぞれの眼に対応した2つのディスプレイが備えられ、それぞれのディスプレイには、映像を見たユーザが奥行き感(又は飛び出し感)を得るための視差のある映像が表示される。 In recent years, systems related to virtual reality (hereinafter referred to as VR) have been actively developed. Generally, when a user experiences VR content, the user wears a goggle-shaped device (hereinafter referred to as a VR headset) on the head. The VR headset is provided with two displays corresponding to the left and right eyes, and each display displays an image with parallax for a user who has viewed the image to obtain a sense of depth (or a feeling of popping out). The
また、VRヘッドセットは位置センサ、加速度センサ、ジャイロセンサなどを搭載し、ユーザの頭の位置又は向きが変化する毎に、あたかもユーザの頭の位置又は向きが変化した方向にユーザの視界が移動したかのように、2つのディスプレイに表示する映像を変化させる。これにより、ユーザは、VRにおいて実際に自分の頭を動かしているような感覚を得ることができる。 In addition, the VR headset is equipped with a position sensor, acceleration sensor, gyro sensor, etc., and whenever the position or orientation of the user's head changes, the user's field of view moves in the direction in which the position or orientation of the user's head changes. As shown, the images displayed on the two displays are changed. Thereby, the user can obtain a feeling that the user is actually moving his / her head in the VR.
通常、VRヘッドセットを用いてVRを体験するユーザは、例えばVR中で提供される有料コンテンツの購入等のために決済処理が必要になると、VRヘッドセットを外し、決済のための操作をする必要がある。決済のための操作は、例えばクレジットカードなどのカード番号の入力、暗証番号の入力、個人情報の入力などである。しかしながら、決済の度にVRヘッドセットを頭部から取り外し、決済後に再度頭部へ装着することはユーザにとって煩わしく、さらにVRヘッドセットの取り外しによりVRを体験するユーザの没入感が損なわれる。 Usually, a user who experiences VR using a VR headset removes the VR headset and performs an operation for settlement when payment processing is required for purchase of paid content provided in the VR, for example. There is a need. The operation for settlement is, for example, input of a card number such as a credit card, input of a personal identification number, input of personal information, and the like. However, it is troublesome for the user to remove the VR headset from the head each time a payment is made, and to attach the VR headset to the head again after the payment. Further, removal of the VR headset impairs the immersive feeling of the user experiencing VR.
また、VRヘッドセットが利用されるゲームなどでは、1つのVRヘッドセット及びVRマシンが例えば家族などの複数人によって共用されることが考えられ、この場合に決済の安全性が確保されることが望まれる。 Further, in a game where a VR headset is used, it is conceivable that one VR headset and a VR machine are shared by a plurality of people such as family members, and in this case, the security of payment can be ensured. desired.
本発明は上記事情を考慮してなされたものであり、VRヘッドセットを用いるユーザに対して決済を容易にするとともに、決済の安全性を確保するVRシステムを提供する。 The present invention has been made in consideration of the above circumstances, and provides a VR system that facilitates settlement for a user who uses a VR headset and ensures the security of the settlement.
本発明の一態様に係る仮想現実システムは、仮想現実コンテンツを生成する情報処理装置と、ユーザに装着され、前記情報処理装置から受信した前記仮想現実コンテンツを前記ユーザに表示する仮想現実ヘッドセットと、前記ユーザの生体データを取得する生体データ取得装置と、前記生体データ取得装置の位置を示す位置情報と、前記生体データ取得装置の方向を示す方向情報とを生成し、前記位置情報と前記方向情報とを前記情報処理装置へ送信するセンサと、を具備する。前記情報処理装置は、決済指示を受信した場合に、前記センサから受信した前記位置情報及び前記方向情報に基づいて、前記生体データ取得装置の前記位置及び前記方向を前記仮想現実ヘッドセットを装着している前記ユーザに認識させる第1の画像を、前記仮想現実コンテンツに付加するコンテンツ生成部を具備する。 A virtual reality system according to an aspect of the present invention includes an information processing device that generates virtual reality content, and a virtual reality headset that is attached to a user and displays the virtual reality content received from the information processing device to the user. Generating biometric data acquisition device for acquiring biometric data of the user, position information indicating the position of the biometric data acquisition device, and direction information indicating the direction of the biometric data acquisition device, and generating the position information and the direction And a sensor that transmits information to the information processing apparatus. When the information processing apparatus receives a settlement instruction, the information processing apparatus attaches the virtual reality headset to the position and the direction of the biometric data acquisition apparatus based on the position information and the direction information received from the sensor. A content generation unit that adds the first image to be recognized by the user to the virtual reality content.
本発明によれば、VRヘッドセットを用いるユーザに対して決済を容易にするとともに決済の安全性を確保することができる。 According to the present invention, it is possible to facilitate settlement for a user who uses a VR headset and to ensure the safety of settlement.
以下、本発明の実施形態を、図面を参照して説明する。なお、以下の説明において、略又は実質的に同一の機能及び構成要素については、同一符号を付し、必要な場合にのみ説明を行う。 Embodiments of the present invention will be described below with reference to the drawings. In the following description, substantially or substantially the same functions and components are denoted by the same reference numerals, and description will be made only when necessary.
[第1の実施形態]
本実施形態においては、VRシステムに含まれる生体データ取得装置の位置及び方向を検出し、決済時に、VRヘッドセットを装着しているユーザが生体データ取得装置の位置及び方向を認識可能な画像をVRヘッドセットのディスプレイに表示し、これによりユーザがVRヘッドセットを装着したままで生体データを入力可能とするVRシステムについて説明する。
[First embodiment]
In the present embodiment, the position and direction of the biometric data acquisition device included in the VR system is detected, and an image that allows the user wearing the VR headset to recognize the position and direction of the biometric data acquisition device at the time of settlement is obtained. A VR system that is displayed on the display of the VR headset and allows the user to input biometric data while wearing the VR headset will be described.
本実施形態において、生体データ取得装置の方向とは、生体データ取得装置が高感度・高精度に生体データを取得可能な方向、換言すれば生体データ取得装置がセンシングをする方向としてもよい。 In this embodiment, the direction of the biometric data acquisition device may be a direction in which the biometric data acquisition device can acquire biometric data with high sensitivity and high accuracy, in other words, a direction in which the biometric data acquisition device performs sensing.
本実施形態において、識別情報はIDと称する。 In the present embodiment, the identification information is referred to as ID.
本実施形態において、生体データは、例えば指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、顔データ、血管データ、音声データ、声紋データ、耳型データ、又は、その他のデータであってもよい。 In this embodiment, the biometric data is, for example, fingerprint data, vein data, artery data, palm data, retinal data, iris data, face data, blood vessel data, voice data, voiceprint data, ear data, or other data. It may be.
本実施形態において、生体データ取得装置は、上記の生体データを取得するための例えば、生体センサ、カメラ、マイクなどとしてもよい。 In the present embodiment, the biological data acquisition device may be, for example, a biological sensor, a camera, a microphone, or the like for acquiring the biological data.
本実施形態においては、ユーザが行う決済はカード決済である場合について説明する。カードの種類は、例えばクレジットカード、デビットカード、プリペイドカード、電子マネーカード、ポイントカード、キャッシュカード、又は、その他の電子決済を行うためのカードであってもよい。しかしながら、本実施形態は、決済に用いられる媒体又はプロダクトがカードでない場合にも同様に適用可能である。本実施形態における決済は、仮想通貨による決済としてもよい。 In this embodiment, the case where the payment performed by the user is a card payment will be described. The card type may be, for example, a credit card, a debit card, a prepaid card, an electronic money card, a point card, a cash card, or another card for performing electronic payment. However, the present embodiment can be similarly applied when the medium or product used for settlement is not a card. The settlement in the present embodiment may be a settlement using virtual currency.
本実施形態において、コンテンツとは、例えば、画像データ、映像データ、プログラムとデータとのうちの少なくとも一方を含むソフトウェア、音データなどを含む。コンテンツは、例えば、ゲームプログラムなどでもよい。 In the present embodiment, the content includes, for example, image data, video data, software including at least one of a program and data, sound data, and the like. The content may be a game program, for example.
図1は、本実施形態に係るVRシステム1の構成の一例を示すブロック図である。
FIG. 1 is a block diagram showing an example of the configuration of the
VRシステム1は、VR処理装置2、人体装着用装置HD、センサ装置5、サーバ装置6,12を含む。人体装着用装置HDは、VRヘッドセット3とコントローラ4とを含む。VRヘッドセット3、及び、コントローラ4は、ユーザUが装着又は直接持って操作する装置である。VRヘッドセット3、及び、コントローラ4により、VRシステム1を制御可能である。また、VRシステム1は、ユーザUの携帯端末7を含んでいてもよく、ユーザUではない他のユーザVの携帯端末8を含んでいてもよい。携帯端末7,8とVR処理装置2とは、例えばネットワークN経由で通信可能としてもよく、ネットワークNを経由することなく通信可能としてもよい。より具体的には、携帯端末7,8とVR処理装置2とは、例えば、電話回線又はインターネット経由で通信可能でもよい。携帯端末7,8とVR処理装置2とは、例えば、無線LAN通信により通信可能でもよく、近距離無線通信により通信可能でもよく、赤外線通信により通信可能でもよい。
The
VRヘッドセット3は、ユーザUが頭部に装着する装置である。VRヘッドセット3はディスプレイを備えており、ディスプレイはVR処理装置2により生成されたVRコンテンツを表示する。ユーザUは、当該ディスプレイに表示されたVRコンテンツを視認することにより、VRを体験可能である。
The
VRヘッドセット3は、例えば、生体データ取得装置33とセンサ部32とを含む。
The
生体データ取得装置33は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置33は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、又は、声紋データに対応する生体センサを含む。
The biometric
センサ部32は、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成し、VRヘッドセット3の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部32は、生体データ取得装置33に対応しており、生体データ取得装置33の位置を示す位置情報と、生体データ取得装置33の方向を示す方向情報とを生成し、生体データ取得装置33の位置情報と方向情報とをVR処理装置2へ送信するとしてもよい。
The
コントローラ4は、ユーザUがVRシステム1を操作するための装置であり、ユーザUからの指示を受け付ける。コントローラ4は、ユーザUの左右それぞれの手に持って操作されてもよく、左右それぞれの足、又はその他の体の部位のいずれかに装着されてもよい。以下では、VRシステム1に含まれるコントローラ4は2台とし、それぞれのコントローラ4は、ユーザUの左右それぞれの手に持って操作されるとする。
The
コントローラ4は、生体データ取得装置43とセンサ部42とを含む。
The
生体データ取得装置43は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
The biometric
センサ部42は、コントローラ4の位置を示す位置情報と、コントローラ4の方向を示す方向情報を生成し、コントローラ4の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部42は、生体データ取得装置43に対応しており、生体データ取得装置43の位置を示す位置情報と、生体データ取得装置43の方向を示す方向情報とを生成し、生体データ取得装置43の位置情報と方向情報とをVR処理装置2へ送信する。
The
センサ装置5は、ユーザUが体験するVRの構築を補助する装置である。具体的には、例えばセンサ装置5がVR処理装置2に複数台接続されている場合に、VR処理装置2はVRヘッドセット3の備えるディスプレイ上にセンサ装置5の位置を表示することにより、ユーザUがVRヘッドセット3を装着して移動可能な範囲を示してもよい。また、例えばVR処理装置2は、複数台のセンサ装置5に備えられるセンサを用いて、ユーザUの動き、姿勢、体の特定の部位の位置などを測定してもよい。また、例えばセンサ装置5は、ユーザUが近づいた時に音を発することで、ユーザUに臨場感を与えてもよい。以下では、VRシステム1に含まれるセンサ装置5は4台とする。
The
センサ装置5は、生体データ取得装置53とセンサ部52とを含む。
The
生体データ取得装置53は、例えば、ユーザUと非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置53は、例えば、声紋データに対応する生体センサ、カメラを含む。
The biometric
センサ部52は、センサ装置5の位置を示す位置情報と、センサ装置5の方向を示す方向情報を生成し、センサ装置5の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部52は、生体データ取得装置53に対応しており、生体データ取得装置53の位置を示す位置情報と、生体データ取得装置53の方向を示す方向情報とを生成し、生体データ取得装置53の位置情報と方向情報とをVR処理装置2へ送信する。
The
携帯端末7は、VR処理装置2と通信可能である。携帯端末7は、例えば、スマートフォンなどのような携帯電話、タブレット端末などであってもよい。
The
携帯端末7は、コントローラ4の代わりに用いられてもよい。すなわち、ユーザUは携帯端末7を用いてVRシステム1を操作可能であるとしてもよい。携帯端末7は、例えば、生体データ取得装置73とセンサ部72とを含み、センサ装置5と同様に、ユーザUの生体データを入力するために利用されてもよい。
The
生体データ取得装置73は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
The biometric
センサ部72は、携帯端末7の位置を示す位置情報と、携帯端末7の方向を示す方向情報を生成し、携帯端末7の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部72は、生体データ取得装置73に対応しており、生体データ取得装置73の位置を示す位置情報と、生体データ取得装置73の方向を示す方向情報とを生成し、生体データ取得装置73の位置情報と方向情報とをVR処理装置2へ送信する。
The
VR処理装置2は、VRシステム1全体の制御、又は、制御に必要な演算を行う。VR処理装置2は、VRヘッドセット3、少なくとも1台以上のコントローラ4、少なくとも1台以上のセンサ装置5と有線又は無線で通信可能である。
The
VR処理装置2は、コントローラ4から受信した指示に応じて、VRコンテンツを生成する。VR処理装置2は、例えば、生体データ取得装置25、センサ部26、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225を含む。
The
生体データ取得装置25は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置25は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
The biometric
センサ部26は、生体データ取得装置25に対応しており、生体データ取得装置25の位置を示す位置情報と、生体データ取得装置25の方向を示す方向情報とを生成する。加えて、センサ部26は、例えばVRヘッドセット3に装着されているライトの光を検出するなどにより、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成するとしてもよい。
The
コンテンツ生成部222は、コントローラ4から決済指示を受信した場合に、センサ部26,32,42,52,72から受信した生体データ取得装置25,33,43,53,73の位置情報及び方向情報と、センサ部26,32,52から受信したユーザUの位置情報及び方向情報とに基づいて、生体データ取得装置25,33,43,53,73の位置及び方向をVRヘッドセット3を装着しているユーザUに認識させるとともに、生体データ取得装置25,33,43,53,73による生体データ入力をVRヘッドセット3を装着しているユーザUに促す画像を、VRコンテンツに付加する。
When the
コンテンツ送信部223は、VRコンテンツをVRヘッドセット3へ送信する。
The
生体データ送信部224は、生体データ入力をユーザUに促す画像を含むVRコンテンツがVRヘッドセット3によって表示された後に、生体データ取得装置25,33,43,53,73のいずれかからユーザUの生体データD1を受信し、生体データD1をサーバ装置6へ送信する。
After the VR content including the image prompting the user U to input biometric data is displayed by the
コンテンツ共有部225は、VRヘッドセットの表示部37に表示されているVRコンテンツを、ユーザUではない他のユーザVによって操作される携帯端末8にも表示可能とする。すなわち、コンテンツ共有部225は、VR処理装置2と通信可能な携帯端末8の認証を行い、携帯端末8に対する認証が成功した場合に、VR処理装置2と携帯端末8との通信を許可し、VRコンテンツを携帯端末8に対応するコンテンツに変換し、変換したコンテンツを携帯端末8へ送信する。例えば、ユーザVは、ユーザUの友人又は家族などである。例えば、携帯端末8へ送信されるコンテンツは、VRコンテンツをVRに対応しないコンテンツへ変換したコンテンツでもよく、VRコンテンツを携帯端末8のブラウザに適合したコンテンツへ変換したコンテンツでもよい。
The
携帯端末8は、表示部75を備えており、コンテンツ共有部225から受信したコンテンツを表示する。
The
サーバ装置6は、VR処理装置2とネットワークN経由で通信可能に接続されている。サーバ装置6は、データベースDBを参照可能である。データベースDBは、ユーザUの登録済みの生体データD2を記憶する。
The
サーバ装置6は、生体認証部62を含む。生体認証部62は、VR処理装置2からネットワークN経由で受信した生体データD1とデータベースDBに記憶されている登録済み生体データD2とを照合する。サーバ装置6は、照合成功の場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨を示す決済許可通知を送信する。
The
サーバ装置12は、VR処理装置2及びサーバ装置6とネットワーク経由で通信可能に接続されている。このサーバ装置12は、サーバ装置6と一体であってもよい。サーバ装置12は、決済処理部121を含む。決済処理部121は、サーバ装置6からネットワークN経由で決済許可通知を受信した場合に、VR処理装置2からネットワークN経由で受信した決済指示に応じてユーザUに対する決済処理を実行する。
The
本実施形態において、サーバ装置12は、例えば、アクワイアラ(カード決済会社)のサーバ装置、イシュア(カード発行会社)、又は、カードブランドのサーバ装置である。
In the present embodiment, the
なお、本実施形態において、コンテンツ生成部222は、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、コンテンツが共有されていることを示す画像又は文字をVRコンテンツに付加する。コンテンツ送信部223は、コンテンツを共有していることを示す画像又は文字を含むVRコンテンツをVRヘッドセット3へ送信する。これにより、VRヘッドセット3を装着しているユーザUは、ユーザVがコンテンツを共有していることを認識することができる。
In the present embodiment, the
また、コンテンツ生成部222は、いずれかの生体データ取得装置の位置情報とVRヘッドセット3の位置情報との差分と、いずれかの生体データ取得装置の方向情報とVRヘッドセット3の方向情報との差分とに基づいて、ユーザUをいずれかの生体データ取得装置まで誘導する画像をVRコンテンツに付加してもよい。
In addition, the
さらに、コンテンツ生成部222は、いずれかの生体データ取得装置によって取得された生体データD1に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。コンテンツ生成部222は、データベースDBに記憶されている生体データD2をサーバ装置6及びネットワークN経由で受信し、受信した生体データD2に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。
Further, the
図2は、本実施形態に係るVR処理装置2の構成の一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of the configuration of the
VR処理装置2は、接続部21、プロセッサ22、記憶部23、通信部24、生体データ取得装置25、センサ部26を含む。VR処理装置2は、生体データ取得装置25を含まなくてもよい。上述の各処理部は、内部バスIBにより相互に通信可能である。
The
なお、図1で説明済の処理部についての説明は省略する。 A description of the processing unit already described with reference to FIG. 1 is omitted.
接続部21は、VR処理装置2と、VRヘッドセット3、コントローラ4、センサ装置5とを接続する。
The
プロセッサ22は、VRシステム1の演算処理を行う。プロセッサ22は、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225、を含む。
The
プロセッサ22は、例えば、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又は、DSP(Digital Signal Processor)などであってもよい。
The
制御部221はVRシステム1全体の制御を行う。制御部221は、接続部21を経由して、VRヘッドセット3、コントローラ4、及びセンサ装置5との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。
The
コンテンツ生成部222は、VRヘッドセット3の備えるディスプレイに表示するVRコンテンツを生成する。コンテンツ生成部222により生成されたVRコンテンツは、コンテンツ送信部223により、接続部21を経由してVRヘッドセット3に送信される。また、VRコンテンツは、通信部24を経由して、例えば携帯端末7,8などの外部装置に送信されてもよい。
The
記憶部23は、例えば、主記憶装置として用いられてもよい。記憶部23は、プロセッサ22からの制御に従う。記憶部23には、プロセッサ22の制御に基づいて、プロセッサ22により処理されるデータなどが一時的に格納される。
The
記憶部23は、例えば、不揮発性記憶領域に、プログラム231を格納する。プロセッサ22は、プログラム231を実行することにより、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225としての機能を実現するとしてもよい。
For example, the
記憶部23は、生体データD1を格納する。生体データD1は、生体データ取得装置25,33,43,53,73のいずれかを用いて取得したユーザUの生体データである。
The
通信部24は、ネットワークNを経由して、例えばVR処理装置2とサーバ装置6,12及び携帯端末7,8との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。なお、通信部24は、サーバ装置6,12及び携帯端末7,8ではない他の装置とネットワークNを経由して通信を行ってもよい。
The
なお、VR処理装置2は例えば汎用的なPC(パーソナルコンピュータ)であってもよく、又はVRシステム1専用のハードウェアであってもよい。
The
図3は、本実施形態に係るVRヘッドセット3の構成の一例を示すブロック図である。
FIG. 3 is a block diagram showing an example of the configuration of the
VRヘッドセット3は、接続部31、センサ部32、生体データ取得装置33、制御部34、マイク35、スピーカ36、表示部37を含む。
The
なお、図1で説明済の処理部についての説明は省略する。 A description of the processing unit already described with reference to FIG. 1 is omitted.
接続部31は、VRヘッドセット3とVR処理装置2とを接続する。
The
センサ部32は、角速度センサ(ジャイロセンサ)S1を含む。センサ部32は、生体データ取得装置33に内蔵されていてもよく、生体データ取得装置33の近傍に設置されていてもよい。
The
角速度センサS1は、センサを備える物体の回転角度、及び、向きの変化を検知できるセンサである。すなわち、角速度センサS1により、VRヘッドセットの位置の変化及び向きが検出可能である。 The angular velocity sensor S1 is a sensor that can detect a change in the rotation angle and orientation of an object including the sensor. In other words, the change in the position and the direction of the VR headset can be detected by the angular velocity sensor S1.
なお、センサ部32に含まれるセンサは、上述のものに限られず、例えば、近接センサ、加速度センサ、位置センサ、磁気センサ、輝度センサなどが含まれていてもよい。
Note that the sensors included in the
制御部34は、VRヘッドセット3に含まれる各処理部の制御を行う。制御部34は、接続部31を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部34は、センサ部32が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置33が取得した生体データ、マイク35に入力された音声データを、接続部31を経由してVR処理装置2へ送信する。また、例えば、制御部34は、接続部31を経由してVR処理装置2より音声データを受信してスピーカ36へ出力し、VRコンテンツを受信して表示部37へ出力する。
The
マイク35は、ユーザUの音声をVRシステム1に入力する。なお、VRヘッドセット3が声紋の生体データを取得可能な場合は、マイク35は、生体データ取得装置33を兼ねてもよい。
The
スピーカ36は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。スピーカ36は、例えばヘッドフォンであってもよい。
The
表示部37は、VR処理装置2のコンテンツ生成部222により生成されたVRコンテンツを表示する。表示部37は、ユーザUの両眼に対応した2つのディスプレイを備える。以下では、VRコンテンツが表示されている状態の表示部37を、VR画面とする。
The
図4は、本実施形態に係るコントローラ4の構成の一例を示すブロック図である。
FIG. 4 is a block diagram illustrating an example of the configuration of the
コントローラ4は、接続部41、センサ部42、生体データ取得装置43、制御部44、入力部45を含む。
The
なお、図1で説明済の処理部についての説明は省略する。 A description of the processing unit already described with reference to FIG. 1 is omitted.
接続部41は、コントローラ4とVR処理装置2とを接続する。
The
センサ部42の構成は、センサ部32と同等である。
The configuration of the
制御部44は、コントローラ4に含まれる各処理部の制御を行う。制御部44は、接続部41を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部44は、センサ部42が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置43が取得した生体データ、入力部45に入力されたデータを、接続部41を経由してVR処理装置2へ送信する。
The
入力部45は、ユーザUの操作を受け付ける。入力部45は、例えば、ボタン、アナログスティック、ロータリエンコーダ、タッチパネル、各種のセンサなどでもよい。
The
図5は、本実施形態に係るセンサ装置5の構成の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of the configuration of the
センサ装置5は、接続部51、センサ部52、生体データ取得装置53、制御部54、マイク55、スピーカ56を含む。また、センサ装置5は、カメラ57を含むとしてもよい。
The
なお、図1で説明済の処理部についての説明は省略する。 A description of the processing unit already described with reference to FIG. 1 is omitted.
接続部51は、センサ装置5とVR処理装置2とを接続する。
The
センサ部52の構成は、センサ部32と同様である。
The configuration of the
制御部54は、センサ装置5に含まれる各処理部の制御を行う。制御部54は、接続部51を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部54の動作は、制御部34,44の動作と同等である。
The
マイク55は、ユーザUの音声をVRシステム1に入力する。なお、センサ装置5が声紋の生体データを取得可能な場合は、マイク55は、生体データ取得装置53を兼ねてもよい。
The
スピーカ56は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。
The
カメラ57は、静止画又は動画を撮影する。カメラ57は、2次元画像を撮影できるものでもよく、又は、例えばステレオカメラ、赤外線カメラなどの奥行き情報を取得できるものでもよい。制御部54は、カメラ57により撮影された静止画又は動画に対して画像処理を行うことにより、例えばセンサ部52では認識することができないユーザUのジェスチャ、又は、ユーザUの足、腕、関節などの特定の部位の動き、又は、ユーザUが移動可能な空間に存在する物体などを認識可能であってもよい。
The
図6は、本実施形態に係るサーバ装置6の構成の一例を示すブロック図である。
FIG. 6 is a block diagram illustrating an example of the configuration of the
サーバ装置6は、通信部61、生体認証部62、制御部63を含む。
The
なお、図1で説明済の処理部についての説明は省略する。 A description of the processing unit already described with reference to FIG. 1 is omitted.
通信部61は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部61は、データベースDBと通信可能である。
The
なお、データベースDBは、ネットワークNに接続されていてもよく、ネットワークNを経由してサーバ装置6と通信可能であってもよい。
The database DB may be connected to the network N, and may be communicable with the
制御部63は、サーバ装置6に含まれる各処理部の制御を行う。制御部63は、通信部61を経由して、VR処理装置2及びデータベースDBとの間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。例えば、制御部63は、生体認証部62で実行された生体認証が成功した場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨の決済許可通知を送信する。
The
図7は、本実施形態に係る携帯端末7,8の構成の一例を示すブロック図である。
FIG. 7 is a block diagram illustrating an example of the configuration of the
携帯端末7は、通信部71、センサ部72、生体データ取得装置73、プロセッサ74、表示部75を含む。
The
携帯端末8は、通信部71、センサ部72、プロセッサ74、表示部75、コンテンツ共有部76を含む。なお、携帯端末8は、生体データ取得装置73を備えていてもよい。
The
なお、図1で説明済の処理部についての説明は省略する。 A description of the processing unit already described with reference to FIG. 1 is omitted.
通信部71は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部71は、ネットワークNを経由せずに、直接VR処理装置2の通信部24と有線又は無線により通信可能としてもよい。
The
センサ部72は、センサ部32と同様である。
The
プロセッサ74は、携帯端末7の演算処理を行う。プロセッサ74は、制御部741を含む。
The
制御部741は、携帯端末7に含まれる各処理部の制御を行う。制御部741は、通信部71を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部741の動作は、制御部34,44,54の動作と同等である。
The
表示部75は、例えば、一般的な携帯端末のディスプレイである。
The
また、上述のように、コンテンツ共有部225により携帯端末8の表示部75にVRコンテンツが表示される場合、携帯端末8は、VRシステム1に認証(ログイン)されることが望ましい。VRシステム1へのログインには、例えば、ログインID及びパスワードが用いられてもよい。より具体的には、例えば、VR処理装置2は、携帯端末8からVR処理装置2へアクセスがあった場合に、表示部75又はVRヘッドセット3の表示部37にログイン画面を表示する。ユーザUは、ログイン画面の指示に従い、ログインID及びパスワードを入力する。
Further, as described above, when the VR content is displayed on the
なお、携帯端末8が生体データ取得装置73を備える場合は、VRシステム1へのログインに生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9を用いて後述する)と同等である。
When the
図8は、本実施形態に係るVRシステム1を用いた決済処理を例示するフローチャートである。
FIG. 8 is a flowchart illustrating an example of payment processing using the
ステップS801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。
In step S801, the
ステップS802において、VR処理装置2のコンテンツ生成部222が生成したVRコンテンツが、接続部21を経由してVRヘッドセット3へ送信される。VRヘッドセット3の表示部37は、VR処理装置2より受信したVRコンテンツを表示する。さらに、コンテンツ生成部222は、ユーザUの選択により、又は、自動的に、ユーザUが商品を選択し購入可能なVRコンテンツを生成する。
In step S <b> 802, the VR content generated by the
ステップS803において、表示部37に表示された商品選択画面において、ユーザUが購入する商品が選択される。商品は、例えば、ユーザUがコントローラ4を操作することにより選択されてもよい。さらに、選択された商品の購入が承諾されると、VR処理装置2は、決済処理を開始する。商品の購入の承諾は、例えば、VRコンテンツ内に表示された購入ボタンがユーザUによって選択されることにより行われてもよい。
In step S <b> 803, a product to be purchased by the user U is selected on the product selection screen displayed on the
ステップS804において、VR処理装置2は、生体データの照合処理を開始する。生体データ照合処理の詳細については、図9で後述する。
In step S804, the
ステップS805において、VR処理装置2は、ステップS804の処理により得られた生体データ照合処理結果を確認する。
In step S805, the
生体データ照合処理結果が成功である場合は、VR処理装置2又はサーバ装置6は、サーバ装置12に対して決済許可通知を送信する。この場合、ステップS806において、サーバ装置12は、VR処理装置2より決済許可通知を受信し、決済処理部121は、決済処理を行う。決済処理が完了した場合、サーバ装置6は、通信部61を経由して決済完了通知をVR処理装置2へ送信する。さらに、ステップS807において、VR処理装置2は、決済完了通知を受信し、コンテンツ生成部222は、決済完了した旨の表示を含んだVRコンテンツを生成する。
When the biometric data matching process result is successful, the
また、生体データ照合処理結果が失敗である場合は、VR処理装置2は、決済処理を中止する。この場合、ステップS808において、VR処理装置2のコンテンツ生成部222は、決済失敗した旨の表示を含んだVRコンテンツを生成する。
If the biometric data matching process result is unsuccessful, the
なお、決済完了又は決済失敗した旨の表示は、例えば、メッセージ、アイコン、ダイアログボックスなどによる表示であってもよい。 In addition, the display of the completion of payment or the payment failure may be, for example, a display using a message, an icon, a dialog box, or the like.
本実施形態において、VR処理装置2は、ステップS801における起動時に、ユーザUの認証(ログイン)を行うとしてもよい。VRシステム1へのログインには、生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9参照)と同等である。
In the present embodiment, the
図9は、本実施形態に係る生体データ照合処理を例示するフローチャートである。 FIG. 9 is a flowchart illustrating a biometric data matching process according to this embodiment.
ステップS901において、VR処理装置2は、VRシステム1内で利用可能な生体データ取得装置が複数存在する場合に、どの生体データ取得装置を用いて生体データを取得するかをユーザに選択させる。ユーザUが生体データ取得装置を選択した場合は、ステップS902へ進む。
In step S <b> 901, the
利用可能な生体データ取得装置がVRシステム1内に1つのみである場合、又は、VR処理装置2がユーザに生体データ取得装置を選択させない場合は、ステップS905に進む。
When there is only one biometric data acquisition device in the
ステップS902において、VR処理装置2は、ステップS901においてユーザUが指定した生体データ取得装置の位置情報及び方向情報を検出する。具体的には、生体データ取得装置33が指定された場合は、VR処理装置2は、VRヘッドセット3の制御部34より、センサ部32が検出したVRヘッドセット3及び生体データ取得装置33の位置情報及び方向情報を受信する。同様に、生体データ取得装置43が指定された場合は、VR処理装置2は、制御部44より、センサ部42が検出したコントローラ4及び生体データ取得装置43の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置53が指定された場合は、VR処理装置2は、制御部54より、センサ部52が検出したセンサ装置5及び生体データ取得装置53の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置73が指定された場合は、VR処理装置2は、制御部741より、携帯端末7及び生体データ取得装置73の位置情報及び方向情報を受信する。VR処理装置2は、受信した位置情報及び方向情報を、記憶部23に一時的に格納する。
In step S902, the
ステップS903において、VR処理装置2は、ステップS902において検出した各装置の位置情報及び方向情報を、VR画面内に表示する。具体的には、VR処理装置2のコンテンツ生成部222は、記憶部23よりステップS902で格納した各装置の位置情報及び方向情報を読み出す。コンテンツ生成部222は、読み出したそれぞれの装置の位置情報及び方向情報に基づいた各装置の画像を、もとのVRコンテンツに重畳し、新たなVRコンテンツを生成する。上述の処理により生成されるVRコンテンツの例は、図11で後述する。
In step S903, the
ステップS904において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。
In step S904, the
ステップS905において、VR処理装置2は、利用可能な生体データ取得装置を検索する。具体的には、VR処理装置2は、VRヘッドセット3、コントローラ4、センサ装置5、携帯端末7へ、各装置に備えられた生体データ取得装置33,43,53,73が利用可能であるか否かを問い合わせる。
In step S905, the
制御部34,44,54,74は、生体データ取得装置33,43,53,73の状態を確認し、各生体データ取得装置が利用可能であるか否かをそれぞれVR処理装置2へ送信する。
The
ステップS906において、VR処理装置2は、ステップS905で得られた利用可能な生体データ取得装置の位置、向き、及び種類を表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS902及びステップS903で述べた方法と同等である。
In step S906, the
ステップS907において、VR処理装置2は、ユーザUへステップS906で表示したいずれかの生体データ取得装置へ生体データを入力させる。この場合、例えば、各生体データ処理装置は、ユーザUより生体データの入力が完了した場合に、生体データD1をVR処理装置2へ送信する。VR処理装置2は、生体データD1を受信し、生体データD1を記憶部23に格納する。
In step S907, the
なお、VR処理装置2は、複数の生体データ取得装置から生体データを受信した場合は、受信した複数の生体データを記憶部23に格納してもよく、最初又は最後に受信した生体データを有効なデータとして記憶部23へ格納してもよい。
The
ステップS908において、VR処理装置2は、サーバ装置6へ生体データ照合命令を送信する。具体的には、生体データ送信部224は、記憶部23より生体データD1を読み出し、生体データ照合命令と生体データD1をサーバ装置6へ送信する。
In step S <b> 908, the
ステップS909において、サーバ装置6の生体認証部62は、ユーザUの生体データD1と、生体データ照合命令を受信する。サーバ装置6は、受信した生体データD1がデータベースDBに登録されているか否かを確認する。ユーザUの生体データが登録されている場合は、ステップS911へ進む。ユーザUの生体データが登録されていない場合は、サーバ装置6は、VR処理装置2へ生体データが未登録である旨の通知を行う。VR処理装置2は、生体データが未登録である旨の通知を受信し、ステップS910において、生体データ登録処理を行う。
In step S909, the
なお、生体データ登録処理は、決済処理と独立して行われてもよい。例えば、生体データ登録処理は、VRシステム1の初回起動時などに行われてもよい。生体データ登録処理の詳細については、図10で後述する。
The biometric data registration process may be performed independently of the payment process. For example, the biometric data registration process may be performed when the
ステップS911において、サーバ装置6の生体認証部62は、生体データ照合処理を行う。具体的には、生体認証部62は、データベースDBに登録されているユーザUの登録済生体データD2を読み出し、VR処理装置2より受信した生体データD1と照合する。生体認証部62は、照合結果が成功又は失敗した旨をVR処理装置2へ送信する。
In step S911, the
図10は、本実施形態に係る生体データ登録処理を例示するフローチャートである。 FIG. 10 is a flowchart illustrating a biometric data registration process according to this embodiment.
ステップS1001において、VR処理装置2は、登録可能な生体データ取得装置の種類を表示する。登録可能な生体データ取得装置の検索処理は、ステップS905の処理と同様である。
In step S1001, the
ステップS1002において、VR処理装置2は、ステップS1001で得られた登録可能な生体データ取得装置の位置、向き、及び種類をVR画面に表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS906で述べた方法と同等である。
In step S1002, the
ステップS1003において、VR処理装置2は、ステップS1002でVR画面に表示された生体データ取得装置のうち1つの生体データ取得装置を、ユーザUに選択させる。
In step S1003, the
なお、ステップS901で生体データ取得装置を指定された場合は、自動的にステップS901で指定された生体データ取得装置と同じものが指定されてもよい。この場合、ステップS1001及びステップS1002において、ステップS901で指定された生体データ取得装置がVR画面に表示され、ステップS1003の処理はなくてもよい。 When the biometric data acquisition device is specified in step S901, the same biometric data acquisition device specified in step S901 may be automatically specified. In this case, in step S1001 and step S1002, the biometric data acquisition device specified in step S901 is displayed on the VR screen, and the process in step S1003 may not be performed.
ステップS1004において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。入力された生体データは、VR処理装置2へ送信される。
In step S1004, the
ステップS1005において、VR処理装置2は、ステップS1004で生体データ取得装置に入力された生体データを受信する。VR処理装置2の生体データ送信部224は、サーバ装置6へ、当該生体データと、生体データ登録指示を送信する。
In step S1005, the
ステップS1006において、サーバ装置6は、データベースDBに受信した生体データを登録する。
In step S1006, the
図11は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。より具体的には、図11は、図9のS906、及び、図10のS1002において、表示部37に表示されるVR画面V1を示す。
FIG. 11 is a diagram showing a first example of VR screen display at the time of biometric data registration or biometric data acquisition according to the present embodiment. More specifically, FIG. 11 shows the VR screen V1 displayed on the
VR画面V1は、利用可能(又は登録可能)な生体センサを示す生体センサ選択画面W1を表示する。図11では、生体センサ選択画面W1はVR画面V1に重畳的に表示されているが、表示方法はこれに限られない。例えば、VR画面V1が切り替わり、生体センサ選択画面W1が全画面に表示されてもよい。 The VR screen V1 displays a biosensor selection screen W1 showing biosensors that can be used (or registered). In FIG. 11, the biosensor selection screen W1 is displayed in a superimposed manner on the VR screen V1, but the display method is not limited to this. For example, the VR screen V1 may be switched, and the biosensor selection screen W1 may be displayed on the entire screen.
生体センサ選択画面W1には、利用可能な生体データ取得装置と、利用可能な生体データ取得装置が含まれる装置が表示される。図11の例では、生体センサ選択画面W1には、VRヘッドセット103と、VRヘッドセット103に含まれる虹彩センサ103A、声紋センサ103B、静脈センサ103C、及び、コントローラ104と、コントローラ104に含まれる静脈センサ104A、指紋センサ104B、及び、コントローラ105と、コントローラ105に含まれる静脈センサ105A、指紋センサ105B、及び、センサ装置106と、センサ装置106に含まれる声紋センサ106Aが表示される。
The biometric sensor selection screen W1 displays an available biometric data acquisition device and a device including the available biometric data acquisition device. In the example of FIG. 11, the biosensor selection screen W <b> 1 is included in the
なお、生体センサ選択画面W1に表示される各装置及び生体センサの画像の向きは、各装置を操作するユーザUの動きに合わせて、リアルタイムに変化することが望ましい。また、生体センサが二種以上含まれる場合は、ユーザUが同種の生体センサと異種の生体センサとを、例えば色又は形などで容易に判別できるよう表示されることが望ましい。 In addition, as for the direction of the image of each apparatus and biosensor displayed on the biosensor selection screen W1, it is desirable to change in real time according to the movement of the user U who operates each apparatus. In addition, when two or more types of biosensors are included, it is desirable that the display is such that the user U can easily distinguish between the same type of biosensors and different types of biosensors, for example, by color or shape.
生体センサ選択画面W2は、生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより静脈センサ104Aが選択された状態を示す。
The biosensor selection screen W2 shows a state in which the
生体センサの選択は、例えば、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体センサの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。
The selection of the biometric sensor may be performed, for example, by the user U operating the
選択された静脈センサ104Aの周囲には、センシング可能領域Aが表示される。センシング可能領域は、ユーザUの体の一部を生体センサに近接させて生体データを取得することができる範囲を示す。
A sensing possible area A is displayed around the selected
ユーザUは、表示された静脈センサ104Aのセンシング可能領域Aの範囲内に、例えば指を近づけることで、静脈データを入力する。
The user U inputs vein data, for example, by bringing his / her finger close to the range of the detectable area A of the displayed
また、例えばユーザUがコントローラ4の位置及び向きを変化させることにより、生体センサ選択画面W2に表示されるコントローラ104の表示が変化する場合、センシング可能領域Aの表示もコントローラ104の位置及び向きに合わせて変化する。
For example, when the display of the
なお、他の生体センサが選択された場合も、上述と同様に、選択された生体センサに対応したセンシング可能領域が表示される。 Note that, when another biological sensor is selected, a sensing possible region corresponding to the selected biological sensor is displayed as described above.
なお、センシング可能領域の表示態様は、領域を表示するものであれば、図11中に示されている態様に限られない。 Note that the display mode of the sensing area is not limited to the mode shown in FIG. 11 as long as the area is displayed.
図12は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。 FIG. 12 is a view showing a second example of the VR screen display at the time of biometric data registration or biometric data acquisition according to the present embodiment.
VR画面V2は、図11の生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより声紋センサ106Aが選択された状態を示す。
The VR screen V2 shows a state in which the
声紋センサ106Aを含むセンサ装置106は、現在のユーザUの位置から離れた場所に存在するため、VR処理装置2は、ユーザUを声紋センサ106Aが反応する位置まで誘導する。
Since the
まず、制御部221は、ユーザUの位置を取得する。センサ装置5のカメラ57がユーザUを撮影することにより、制御部54又は制御部221がユーザUのVRシステム1内における位置及び向きを計算してもよい。又は、ユーザUに装着されたVRヘッドセット3のセンサ部が検出した位置及び向きを、ユーザUの位置及び向きとしてもよい。
First, the
次に、制御部221は、取得したユーザUの位置及び向きと声紋センサ106Aの位置及び向きとに基づいて、ユーザUを誘導する方向を決定する。ユーザUを誘導する方向は、VRシステム1内の位置及び向きを示すデータに変換され、コンテンツ生成部222に入力される。
Next, the
コンテンツ生成部222は、制御部221より受信したデータに基づき、VRコンテンツ内にユーザUを誘導する方向を示す矢印201を描画する。
Based on the data received from the
なお、ユーザUを誘導する方法は、上述の方法に限られない。例えば、コンテンツ生成部222により、VR画面V2上で声紋センサ106Aの位置が強調表示されてもよい。
Note that the method of guiding the user U is not limited to the above-described method. For example, the position of the
VR画面V3は、ユーザUの位置が、声紋センサ106Aが反応する位置まで近づいた状態を示す。
The VR screen V3 shows a state where the position of the user U has approached the position where the
制御部221は、ユーザUと声紋センサ106Aとの距離が一定以下になった場合に、声紋センサ106Aが利用可能になった旨をユーザUに通知する。例えば、コンテンツ生成部222は、制御部221よりユーザUと声紋センサ106Aとの距離が一定以下になった旨の通知を受信すると、VRコンテンツの声紋センサ106Aに印E1を描画してもよい。ユーザUは、VRコンテンツ内の印E1を視認することにより、声紋センサ106Aに対し、声紋データを入力する。
The
なお、印E1の形状及び表示方法は、図12中に表示されるものに限られない。また、声紋センサ106Aが利用可能になった旨をユーザUに通知する方法は、上述のものに限られない。例えば、VRヘッドセット3のスピーカ36を通じて音声によりユーザUに通知してもよい。
The shape and display method of the mark E1 are not limited to those displayed in FIG. The method for notifying the user U that the
図13は、本実施形態に係る生体データ選択時のVR画面表示を例示する図である。より具体的には、図13は、図9のS901において、表示部37に表示されるVR画面V4を示す。
FIG. 13 is a diagram illustrating a VR screen display when biometric data is selected according to the present embodiment. More specifically, FIG. 13 shows the VR screen V4 displayed on the
VR画面V4は、生体データ選択画面W3を表示する。図13では、生体データ選択画面W3はVR画面V4に重畳的に表示されているが、生体センサ選択画面W1と同様に、表示方法はこれに限られない。 The VR screen V4 displays a biometric data selection screen W3. In FIG. 13, the biometric data selection screen W3 is displayed in a superimposed manner on the VR screen V4, but the display method is not limited to this as with the biometric sensor selection screen W1.
生体データ選択画面W3には、取得する生体データの種類が表示される。図13の例では、生体データ選択画面W3には、指紋データB1、顔データB2、虹彩データB3、静脈データB4、声紋データB5が選択可能な項目として表示される。 The type of biometric data to be acquired is displayed on the biometric data selection screen W3. In the example of FIG. 13, the biometric data selection screen W3 displays fingerprint data B1, face data B2, iris data B3, vein data B4, and voiceprint data B5 as selectable items.
ユーザUにより上述の項目のうち1つが選択された場合、VR画面V4上には、項目が選択された旨が表示される。例えば、VR画面V4上には、選択された項目の周囲に印E2が表示されてもよい。 When one of the above items is selected by the user U, the fact that the item has been selected is displayed on the VR screen V4. For example, a mark E2 may be displayed around the selected item on the VR screen V4.
なお、生体データの選択は、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体データの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。
The biometric data may be selected by the user U operating the
なお、印E2の形状及び表示方法は、図13中に例示されるものに限られない。 Note that the shape and display method of the mark E2 are not limited to those illustrated in FIG.
図14は、本実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。より具体的には、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、表示部37に表示されるVR画面V5を示す。
FIG. 14 is a diagram illustrating a VR screen display during content sharing according to the present embodiment. More specifically, the VR screen V5 displayed on the
VR画面V5は、画面表示W4を含む。画面表示W4は、コンテンツが携帯端末8と共有されていることを示す画像又は文字である。
The VR screen V5 includes a screen display W4. The screen display W <b> 4 is an image or a character indicating that the content is shared with the
なお、画面表示W4は、ユーザが認識することができるVR画面V5上の任意の位置に表示可能である。また、画面表示W4は、自動的に又はユーザUの操作により、移動又は消去されてもよい。 The screen display W4 can be displayed at any position on the VR screen V5 that can be recognized by the user. Further, the screen display W4 may be moved or deleted automatically or by an operation of the user U.
以上説明した本実施形態においては、VRシステム1は、VR画面上に生体センサの位置及び向きを表示可能である。これにより、ユーザUは、VR画面内で商品購入し、決済のための生体データの取得が必要な場合であっても、VRヘッドセット3を外すことなく、生体データを入力することができる。
In the present embodiment described above, the
本実施形態においては、決済に生体データが用いられるため、決済の安全性が確保される。 In this embodiment, since biometric data is used for payment, the security of payment is ensured.
本実施形態においては、ユーザUの所有する携帯端末7を、例えばコントローラ4の代わりとしてVRシステム1に追加可能である。これにより、通常の仮想実現システムと携帯電話とでシステムを構築でき、コスト削減が可能である。
In the present embodiment, the
本実施形態においては、生体データ取得装置とユーザUの位置が離れている場合であっても、VRシステム1は、ユーザUが生体データを入力可能な位置までユーザUを誘導する。これにより、さらに生体データを入力するユーザUの利便性が高まる。
In the present embodiment, the
本実施形態においては、VRヘッドセット3の表示部37に表示されるVRコンテンツを、VRシステム1に認証された携帯端末8の表示部75にも出力可能とする。これにより、家族でVRシステム1を共有する場合、例えば、VRヘッドセット3を装着した子供がどんなゲームをしているかを、親が自分の携帯端末8を用いて把握することができ、子供を有害コンテンツから守ることができる。また、VRコンテンツを、VRヘッドセット3を装着していない者にも共有することができ、アミューズメント性を高めることができる。
In the present embodiment, VR content displayed on the
[第2の実施形態]
本実施形態においては、VRシステムのユーザより取得した生体データを用いて、VR画面内に登場させるキャラクター(アバター)の属性を決定するVRシステムについて説明する。
[Second Embodiment]
In the present embodiment, a VR system that determines an attribute of a character (avatar) to appear in a VR screen using biometric data acquired from a user of the VR system will be described.
本実施形態で使用するVRシステムは、第1の実施形態におけるVRシステム1と同様である。
The VR system used in the present embodiment is the same as the
図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。 FIG. 15 is a diagram illustrating a VR screen display during character display according to the second embodiment.
VR画面V6は、ユーザUに対応するキャラクターC、キャラクターCの属性Xを表示する。属性Xは、常にVR画面V6に表示されている必要はなく、ユーザUにより属性Xの表示指示を受けた場合にのみ表示してもよい。 The VR screen V6 displays the character C corresponding to the user U and the attribute X of the character C. The attribute X need not always be displayed on the VR screen V6, and may be displayed only when the user U receives an instruction to display the attribute X.
属性Xは、キャラクターCの属性を含む。例えば、属性Xは、名前P1、性別P2、年齢P3、体力P4、性格P5を含む。キャラクターCの属性は、これら以外の項目を含んでいてもよい。 The attribute X includes the attribute of the character C. For example, the attribute X includes name P1, gender P2, age P3, physical strength P4, and personality P5. The attribute of the character C may include items other than these.
キャラクターCの画像は、属性Xの項目の内容によって、外見や状態が変化するとしてもよい。例えば、性別P2、又は、年齢P3に合致するようにキャラクターCの外見が変化してもよく、体力P4によってキャラクターCの姿勢が変化してもよく、性格P5によってキャラクターCの表情が変化してもよい。 The appearance and state of the character C image may change depending on the content of the attribute X item. For example, the appearance of the character C may be changed to match the sex P2 or the age P3, the posture of the character C may be changed by the physical strength P4, and the expression of the character C may be changed by the personality P5. Also good.
属性Xの各項目は、ユーザUが生体認証を行う毎に、ユーザUの生体データがVRシステム1によって解析された結果に基づいて更新されてもよい。
Each item of the attribute X may be updated based on the result of analyzing the biometric data of the user U by the
図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。 FIG. 16 is a flowchart illustrating an attribute determination process according to the second embodiment.
ステップS1601において、ユーザUの生体データが、VRシステム1内の任意の生体データ取得装置に入力される。ユーザUの生体データが入力されるタイミングは、図9のステップS904又はステップS907、又は、図10のステップS1004であってもよく、これら以外のタイミングで入力されてもよい。生体データ取得装置により取得された生体データは、VR処理装置2へ送信される。
In step S <b> 1601, the biometric data of the user U is input to an arbitrary biometric data acquisition device in the
ステップS1602において、VR処理装置2の制御部221は、ユーザUが入力した生体データを受信し、解析処理を行う。制御部221は、例えば、生体データが声紋データである場合、声の高さ及び質より、ユーザUの年齢及び性別を判定する。制御部221は、例えば、生体データが顔データである場合、表情を読み取ることにより、ユーザUの性格を判定する。なお、制御部221が行う解析処理は上述のものに限られない。
In step S1602, the
ステップS1603において、制御部221は、ステップS1602で得られた生体データの解析結果に基づき、キャラクターCの属性の決定を行う。属性の種類(項目)は、あらかじめユーザUにより決められていてもよく、又は、制御部221が解析結果に基づいて自動的に生成されてもよい。
In step S1603, the
ステップS1604において、制御部221は、ステップS1603で得られた属性に基づいて、キャラクターCの生成処理又は更新処理を行う。なお、キャラクターCの初回生成時は、キャラクターCの基本状態となる画像はあらかじめユーザUによって選択されてもよい。又は、制御部221は、属性に基づいて、キャラクターCを自動生成してもよい。
In step S1604, the
ステップS1605において、制御部221は、キャラクター情報及び属性情報を、をコンテンツ生成部222へ入力する。コンテンツ生成部222は、入力されたキャラクター情報及び属性情報に基づき、キャラクターC及び属性Xの表示を含むVRコンテンツを生成する。当該VRコンテンツは、コンテンツ送信部223によりVRヘッドセット3へ送信され、表示部37に表示される。
In step S <b> 1605, the
以上説明した本実施形態においては、ユーザUより取得した生体データを用いて、自動的に生体データに含まれる属性Xが反映されたキャラクターCをVR画面内に表示することができる。これにより、ユーザUの個性を反映したキャラクターの生成が可能となり、VRを通じたネットワーク上での個人の識別が容易になる。また、ユーザUの個性をキャラクターに反映させることにより、アミューズメント性を高めることができる。 In the present embodiment described above, the character C in which the attribute X included in the biological data is automatically reflected can be displayed on the VR screen using the biological data acquired from the user U. Thereby, it is possible to generate a character reflecting the personality of the user U, and it becomes easy to identify an individual on the network through the VR. In addition, amusement can be enhanced by reflecting the personality of the user U in the character.
[第3の実施形態]
近年、人工知能(AI:Artificial Intelligence)を用い、入力された検診データなどに基づいて病気の自動診断を行うシステムが開発されている。しかしながら、このような診断システムを利用するためには検診データの収集は、ユーザにとって負担であるため、ユーザの利便性を高める技術が望まれている。
[Third embodiment]
In recent years, a system for automatically diagnosing a disease based on input examination data using artificial intelligence (AI) has been developed. However, in order to use such a diagnostic system, collection of medical examination data is a burden on the user, and thus a technique for improving user convenience is desired.
本実施形態においては、VRシステムのユーザが日常的にVRシステムに入力する生体データを蓄積し、蓄積した生体データを診断システムに入力して結果を受信することで、ユーザが診断システムの利用に必要なデータの収集を意識することなく、簡易的な病気の診断結果が取得可能な診断システムを提案する。また、診断結果よりユーザが利用可能な病院と診療科を提案することにより、さらにユーザの利便性を高めることができる。 In the present embodiment, biological data that a user of the VR system routinely inputs to the VR system is accumulated, the accumulated biological data is input to the diagnostic system, and the result is received, so that the user can use the diagnostic system. We propose a diagnostic system that can obtain simple diagnosis results of diseases without being conscious of collecting necessary data. In addition, user convenience can be further enhanced by proposing hospitals and departments that can be used by the user based on the diagnosis result.
図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。 FIG. 17 is a block diagram illustrating the configuration of an automatic diagnosis system according to the third embodiment.
自動診断システム11は、VRシステム1Aと、診断用サーバ装置9と、予約システム10とを含む。
The
VRシステム1Aに含まれるVR処理装置2は、記憶部23を含む。記憶部23は、生体データD1と、位置情報233を含む。
The
生体データD1は、ユーザUが生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを格納する。
The biometric data D1 stores the biometric data input by the user U to any of the biometric
位置情報233は、例えば、診断用サーバ装置9がユーザUの受診可能な病院を抽出するために用いられる。
The
位置情報233は、例えば、ユーザUがVRシステム1に予め登録した住所であってもよく、VR処理装置2又は携帯端末7がGPS(Global Positioning System)を備える場合は、後述の画面表示T1を表示する際に当該GPSが示す位置であってもよい。位置情報233の取得方法は、上述のものに限られない。
The
なお、本実施形態に係るVRシステム1Aのその他の構成は、第1の実施形態におけるVRシステム1の構成と同様である。
The remaining configuration of the
診断用サーバ装置9は、記憶部91と、制御部92と、通信部93とを含む。
The
記憶部91は、病院情報911を含む。
The
病院情報911は、例えば、病名と、病名に対応可能な病院及び診療科と、病院の位置とを関連付ける情報である。
The
制御部92は、診断用サーバ装置9全体の制御を行う。制御部92は、例えば、ユーザUの生体データに基づいて診断処理を実行し、診断結果として病名を得る。さらに、制御部92は、病院情報911と、診断結果と、VR処理装置2より受信した位置情報233とに基づいて、病名に対応可能な病院及び診療科の一覧を生成し、当該一覧をVR処理装置へ送信する。
The
通信部93は、ネットワークNを経由して、例えばVR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。
The
予約システム10は、患者などからの診療日時の予約を受け付け可能な、一般的な病院の予約システムである。予約システム10は、例えば病院が備えるサーバ装置上で動作するプログラムなどにより実現される。
The
図18は、本実施形態に係る自動診断システム11の処理を例示するフローチャートである。
FIG. 18 is a flowchart illustrating the process of the
ステップS1801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。
In step S1801, the
ステップS1802において、VR処理装置2は、VRシステム1Aにログインする際に生体データの入力を要する場合に、ログイン時に用いた生体データの収集を行う。具体的には、VR処理装置2は、ユーザUがログインの際に生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを、これらの生体データ取得装置を含むVRヘッドセット3、コントローラ4、センサ装置5、携帯端末7のいずれかより受信し、記憶部23に格納する。
In step S <b> 1802, the
なお、VRシステム1Aへのログインは、ユーザUがVR処理装置2に対して行ってもよく、又は、ユーザUが携帯端末7に対して行ってもよい。
Note that the user U may log in to the
ステップS1803において、VR処理装置2は、VRシステム1Aにおいて決済処理が行われる毎に、決済時に用いた生体データの収集を行う。生体データの収集方法は、ステップS1802と同様である。
In step S1803, the
ステップS1804において、VR処理装置2は、記憶部23に格納されている生体データD1の量及び種類が、診断用サーバ装置9に入力可能な程度に十分であるか否かを確認する。VR処理装置2は、生体データD1の量及び種類が十分でないと判断した場合は、ステップS1802に戻り、生体データの収集を続ける。また、VR処理装置2は、生体データD1の量及び質が十分であると判断した場合は、ステップS1805に進む。
In step S <b> 1804, the
ステップS1805において、VR処理装置2は、VR処理装置の位置情報233を取得し、記憶部23に格納する。そして、VR処理装置2は、生体データD1及び位置情報233を診断用サーバ装置9へ送信する。
In step S <b> 1805, the
ステップS1806において、診断用サーバ装置9は、VR処理装置2より受信した生体データD1に基づいて、診断処理を実行し、診断結果を得る。診断結果は、例えば病名などでもよい。診断処理は、AI(Artificial Intelligence)を用いて行われてもよく、又は、その他任意のアルゴリズムを用いて行われてもよい。
In step S1806, the
ステップS1807において、診断用サーバ装置9は、VR処理装置2より受信した位置情報233に基づき、ユーザUが利用可能な範囲の病院を検索し、抽出する。さらに、診断用サーバ装置9は、診断結果及び抽出した病院と、病院情報911とに基づいて、ユーザUが受診可能な病院及び診療科を決定する。
In step S <b> 1807, the
ステップS1808において、診断用サーバ装置9は、ステップS1806及びステップS1807において得られた診断結果及びユーザUが受診可能な病院及び診療科を含むデータを、VR処理装置2へ送信する。
In step S1808, the
ステップS1809において、VR処理装置2は、診断用サーバ装置9より受信したデータに基づき、診断結果、病院、診療科などの情報をVRヘッドセット3の表示部37又は携帯端末7の表示部75に表示する。表示部37,75に表示される画面の詳細については、図19で後述する。
In step S <b> 1809, the
ステップS1810において、VR処理装置2は、ユーザUに、表示部37,75に表示された病院及び診療科を指定させる。ユーザUにより指定された病院及び診療科を示すデータは、予約システム10へ送信される。
In step S <b> 1810, the
ステップS1811において、予約システム10は、ステップS1810において指定した病院及び診療科の予約可能日時を検索し、VR処理装置2へ送信する。
In step S <b> 1811, the
ステップS1812において、VR処理装置2は、予約システム10より受信した予約可能日時を表示部37,75に表示し、ユーザUに予約日時を指定させる。ユーザUにより指定された予約日時は、予約システム10へ送信される。
In step S1812, the
ステップS1813において、予約システム10は、予約結果をVR処理装置2へ送信し、予約を完了する。
In step S1813, the
ステップS1814において、VR処理装置2は、予約完了した旨をユーザに通知する。具体的には、例えば、表示部37,75に予約完了メッセージを表示する。
In step S1814, the
なお、VR処理装置2は、例えば、予約完了後に診断結果を予約済の病院へ送信してもよい。
Note that the
図19は、本実施形態に係る自動診断システム11における画面表示の第1の例を示す図である。具体的には、図19は、図18のステップS1809において、表示部37,75に表示される診断結果及びユーザUが受診可能な病院及び診療科の一覧を示す。
FIG. 19 is a diagram showing a first example of screen display in the
画面表示T1は、病名Q1、病院Q2、診療科Q3、アドレスQ4を含む。 The screen display T1 includes a disease name Q1, a hospital Q2, a medical department Q3, and an address Q4.
病名Q1は、受信した診断結果に基づく病名を示す。 The disease name Q1 indicates a disease name based on the received diagnosis result.
病院Q2は、病名Q1に関する診断が受けられる病院名を示す。 Hospital Q2 indicates the name of a hospital where a diagnosis relating to disease name Q1 can be received.
診療科Q3は、病院Q2の中でユーザが病名Q1に関して受信可能な診療科を示す。診療科Q3に含まれる各診療科の表示は、ユーザUにより選択可能であることが望ましい。制御部221又は制御部741は、ユーザUにより選択した診療科について、予約画面を表示する。選択された診療科は、例えば表示E3のように強調される。
The medical department Q3 indicates a medical department that the user can receive regarding the disease name Q1 in the hospital Q2. It is desirable that the display of each medical department included in the medical department Q3 can be selected by the user U. The
アドレスQ4は、病院Q2及び診療科Q3の情報の所在を示すアドレスである。アドレスは、例えばURL(Uniform Resource Locator)などであってもよい。 The address Q4 is an address indicating the location of information of the hospital Q2 and the medical department Q3. The address may be a URL (Uniform Resource Locator), for example.
なお、画面表示T1が含む項目は、上述のものに限られない。また、画面表示T1は表形式以外の形式で表示されてもよい。アドレスQ4に含まれる各アドレスの表示は、ユーザUにより選択可能であってもよい。この場合、制御部221又は制御部741は、ユーザUにより選択されたアドレスQ4に関連付けられたウェブページなどを表示してもよい。
The items included in the screen display T1 are not limited to those described above. The screen display T1 may be displayed in a format other than the table format. The display of each address included in the address Q4 may be selectable by the user U. In this case, the
図20は、本実施形態に係る自動診断システム11における画面表示の第2の例を示す図である。具体的には、図20は、図18のステップS1812において、表示部37,75に表示される予約画面を示す。図20は、図19の画面表示T1において、「A病院の耳鼻科」が選択された場合(表示E3参照)に表示される画面を示す。
FIG. 20 is a diagram illustrating a second example of screen display in the
画面表示T2は、日付選択表示E4を含む。日付選択表示E4は、例えばカレンダー表示であってもよく、リスト表示であってもよい。 The screen display T2 includes a date selection display E4. The date selection display E4 may be, for example, a calendar display or a list display.
日付選択表示E4は、予約可能な日付と、予約不可である日付が明示されていることが望ましい。制御部221又は制御部741は、ユーザUにより予約可能な日付が選択されると、時間帯選択表示E5をさらに表示してもよい。ユーザUは、さらに予約可能な時間帯を選択することにより、予約日時の指定を完了させる。なお、時間帯選択表示E5は、例えば、ポップアップ表示、リスト表示、又はその他の表示形式であってもよい。
In the date selection display E4, it is desirable that a date that can be reserved and a date that cannot be reserved are clearly indicated. When a date that can be reserved is selected by the user U, the
本実施形態において、画面表示T1,T2は、VR処理装置2又は携帯端末7にインストールされたアプリケーションにより表示されてもよい。この場合、病院Q2及び診療科Q3を検索して表示する処理及び画面表示処理は、当該アプリケーションがプロセッサ22、プロセッサ74を使用して行われてもよい。
In the present embodiment, the screen displays T1 and T2 may be displayed by an application installed in the
以上説明した本実施形態においては、自動診断システム11は、ユーザUがVRシステム1Aにログインする際又は決済を行う際にVRシステム1Aに入力する生体データを収集し、診断用サーバ装置9へ送信する。これにより、ユーザUは診断用サーバ装置9へ入力するデータの収集を意識的に行うことなく診断結果を取得可能となり、ユーザの利便性が高まる。また、自動診断システム11は、診断結果に基づいて最適な病院及び診療科を選択し、来院予約を行うとともに、診断用サーバ装置9より得られた診断結果を送信する。これによりさらにユーザの利便性が高まるだけでなく、医療ミスの防止及び診療時間の短縮にも貢献できる。
In the present embodiment described above, the
なお、本実施形態において、自動診断システム11は、ユーザUの病名の診断に限らず、あらゆる種類の診断に適用可能である。例えば、自動診断システム11を健康診断に適用する場合、自動診断システム11は、画面表示T1の内容のうち、病名Q1及び診療科Q3に代えて、検査項目及び詳細検査機関を関連付け、ユーザUに提示するとしてもよい。
In the present embodiment, the
また、本実施形態において、自動診断システム11には、VRシステム1に代えて、生体データD1の取得及び位置情報233の取得又は格納が可能な他の情報処理装置又はシステムが含まれるとしてもよい。
In the present embodiment, the
上記の実施形態は、例示であり、発明の範囲を限定することは意図していない。上記の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。上記の実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above embodiments are illustrative and are not intended to limit the scope of the invention. The above embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. The above-described embodiments and modifications thereof are included in the invention described in the scope of claims and the equivalents thereof, as long as they are included in the scope and spirit of the invention.
1…VRシステム、2…VR処理装置、3…VRヘッドセット、4…コントローラ、5…センサ装置、6,12…サーバ装置、7,8…携帯端末、25,33,43,53,73…生体データ取得装置、26,32,42,52,72…センサ部、62…生体認証部、75…表示部、121…決済処理部、222…コンテンツ生成部、223…コンテンツ送信部、224…生体データ送信部、225…コンテンツ共有部、D1,D2…生体データ、DB…データベース、HD…人体装着用装置、N…ネットワーク、U,V…ユーザ。
DESCRIPTION OF
Claims (3)
ユーザに装着され、前記情報処理装置から受信した前記仮想現実コンテンツを前記ユーザに表示する仮想現実ヘッドセットと、
前記ユーザの生体データを取得する生体データ取得装置と、
前記生体データ取得装置の位置を示す位置情報と、前記生体データ取得装置の方向を示す方向情報とを生成し、前記位置情報と前記方向情報とを前記情報処理装置へ送信するセンサと、
を具備し、
前記情報処理装置は、
決済指示を受信した場合に、前記センサから受信した前記位置情報及び前記方向情報に基づいて、前記生体データ取得装置の前記位置及び前記方向を前記仮想現実ヘッドセットを装着している前記ユーザに認識させる第1の画像を、前記仮想現実コンテンツに付加するコンテンツ生成部
を具備する、
仮想現実システム。 An information processing device for generating virtual reality content;
A virtual reality headset that is worn by a user and displays the virtual reality content received from the information processing device to the user;
A biometric data acquisition device for acquiring biometric data of the user;
A sensor that generates position information indicating a position of the biometric data acquisition apparatus and direction information indicating a direction of the biometric data acquisition apparatus, and transmits the position information and the direction information to the information processing apparatus;
Comprising
The information processing apparatus includes:
When the payment instruction is received, the position and the direction of the biometric data acquisition device are recognized by the user wearing the virtual reality headset based on the position information and the direction information received from the sensor. A content generation unit that adds the first image to be added to the virtual reality content;
Virtual reality system.
請求項1の仮想現実システム。 The biometric data acquisition device is a camera, and the biometric data is fingerprint data,
The virtual reality system of claim 1.
請求項1又は請求項2の仮想現実システム。 The content generation unit adds, to the virtual reality content, a second image that prompts the user wearing the virtual reality headset to input biometric data by the biometric data acquisition device.
The virtual reality system according to claim 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017021288A JP6719776B2 (en) | 2017-02-08 | 2017-02-08 | Virtual reality system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017021288A JP6719776B2 (en) | 2017-02-08 | 2017-02-08 | Virtual reality system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016567869A Division JP6095191B1 (en) | 2016-07-15 | 2016-07-15 | Virtual reality system and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018010612A true JP2018010612A (en) | 2018-01-18 |
JP6719776B2 JP6719776B2 (en) | 2020-07-08 |
Family
ID=60995599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017021288A Active JP6719776B2 (en) | 2017-02-08 | 2017-02-08 | Virtual reality system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6719776B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110333873A (en) * | 2018-03-30 | 2019-10-15 | 深圳市掌网科技股份有限公司 | High concurrent VR system and implementation method |
WO2021095371A1 (en) * | 2019-11-11 | 2021-05-20 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing system and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014235161A (en) * | 2013-05-31 | 2014-12-15 | ヒョンデ エムエヌソフト インコーポーレイティッドHYUNDAI MNSOFT,Inc. | Route guide device, server, and route guide method |
JP2015118556A (en) * | 2013-12-18 | 2015-06-25 | マイクロソフト コーポレーション | Augmented reality overlay for control devices |
JP2015176516A (en) * | 2014-03-18 | 2015-10-05 | 富士通株式会社 | Display device, display control program, and display control method |
JP2015230236A (en) * | 2014-06-05 | 2015-12-21 | 株式会社ecbeing | Merchandise guidance device, terminal equipment, merchandise guidance method, and program |
JP2016506530A (en) * | 2012-11-20 | 2016-03-03 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Head mounted display and method for controlling the same |
-
2017
- 2017-02-08 JP JP2017021288A patent/JP6719776B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016506530A (en) * | 2012-11-20 | 2016-03-03 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Head mounted display and method for controlling the same |
JP2014235161A (en) * | 2013-05-31 | 2014-12-15 | ヒョンデ エムエヌソフト インコーポーレイティッドHYUNDAI MNSOFT,Inc. | Route guide device, server, and route guide method |
JP2015118556A (en) * | 2013-12-18 | 2015-06-25 | マイクロソフト コーポレーション | Augmented reality overlay for control devices |
JP2015176516A (en) * | 2014-03-18 | 2015-10-05 | 富士通株式会社 | Display device, display control program, and display control method |
JP2015230236A (en) * | 2014-06-05 | 2015-12-21 | 株式会社ecbeing | Merchandise guidance device, terminal equipment, merchandise guidance method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110333873A (en) * | 2018-03-30 | 2019-10-15 | 深圳市掌网科技股份有限公司 | High concurrent VR system and implementation method |
CN110333873B (en) * | 2018-03-30 | 2022-12-23 | 深圳市掌网科技股份有限公司 | High-concurrency VR system and implementation method |
WO2021095371A1 (en) * | 2019-11-11 | 2021-05-20 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing system and program |
Also Published As
Publication number | Publication date |
---|---|
JP6719776B2 (en) | 2020-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6095191B1 (en) | Virtual reality system and information processing system | |
US10318958B2 (en) | Smart watch and operating method using the same | |
KR102190056B1 (en) | Apparatus and method for providing customized medication information to patednts based on big data | |
US7584158B2 (en) | User support apparatus | |
US9614840B2 (en) | Network authentication method and system based on eye tracking procedure | |
CN108702408A (en) | Wearable individual digital equipment for promoting mobile device for paying and personal use | |
CA2932528A1 (en) | Service-provision management system | |
US11257087B2 (en) | Methods and systems for detecting suspicious or non-suspicious activities involving a mobile device use | |
KR20120087492A (en) | Smart Mental Health Care System | |
JP2021007000A (en) | Information processing method, information processing apparatus, and program | |
JP6719776B2 (en) | Virtual reality system | |
JP2017041199A (en) | Authenticity guarantee device, and authenticity guarantee system | |
TWM583581U (en) | Virtual reality auxiliary transaction system | |
TWI801718B (en) | Intelligent interactive display device, intelligent interactive display system and interactive display method thereof | |
US20170316482A1 (en) | Person and machine matching device, matching system, person and machine matching method, and person and machine matching program | |
JP2020052505A (en) | Health condition determination system, health condition determination device, server, health condition determination method and program | |
US20230161411A1 (en) | Control device and control method | |
JP2014235658A (en) | Human-machine matching apparatus, human-machine matching method, human-machine matching program, data structure of machine type classification table, and data structure of operator type classification table | |
US20150107377A1 (en) | Medical Screening Device | |
JP2020160539A (en) | Information processor and information processing program | |
US20190108318A1 (en) | Safety Center and Associated Equipment | |
US20170270251A1 (en) | Social Media for ID Verification | |
US20230143234A1 (en) | Control device and control method | |
JP2017182530A (en) | Search system, search method, server and program | |
CN115035994A (en) | Medical service guiding method, device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6719776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |