以下、本発明の実施形態を、図面を参照して説明する。なお、以下の説明において、略又は実質的に同一の機能及び構成要素については、同一符号を付し、必要な場合にのみ説明を行う。
[第1の実施形態]
本実施形態においては、VRシステムに含まれる生体データ取得装置の位置及び方向を検出し、決済時に、VRヘッドセットを装着しているユーザが生体データ取得装置の位置及び方向を認識可能な画像をVRヘッドセットのディスプレイに表示し、これによりユーザがVRヘッドセットを装着したままで生体データを入力可能とするVRシステムについて説明する。
本実施形態において、生体データ取得装置の方向とは、生体データ取得装置が高感度・高精度に生体データを取得可能な方向、換言すれば生体データ取得装置がセンシングをする方向としてもよい。
本実施形態において、識別情報はIDと称する。
本実施形態において、生体データは、例えば指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、顔データ、血管データ、音声データ、声紋データ、耳型データ、又は、その他のデータであってもよい。
本実施形態において、生体データ取得装置は、上記の生体データを取得するための例えば、生体センサ、カメラ、マイクなどとしてもよい。
本実施形態においては、ユーザが行う決済はカード決済である場合について説明する。カードの種類は、例えばクレジットカード、デビットカード、プリペイドカード、電子マネーカード、ポイントカード、キャッシュカード、又は、その他の電子決済を行うためのカードであってもよい。しかしながら、本実施形態は、決済に用いられる媒体又はプロダクトがカードでない場合にも同様に適用可能である。本実施形態における決済は、仮想通貨による決済としてもよい。
本実施形態において、コンテンツとは、例えば、画像データ、映像データ、プログラムとデータとのうちの少なくとも一方を含むソフトウェア、音データなどを含む。コンテンツは、例えば、ゲームプログラムなどでもよい。
図1は、本実施形態に係るVRシステム1の構成の一例を示すブロック図である。
VRシステム1は、VR処理装置2、人体装着用装置HD、センサ装置5、サーバ装置6,12を含む。人体装着用装置HDは、VRヘッドセット3とコントローラ4とを含む。VRヘッドセット3、及び、コントローラ4は、ユーザUが装着又は直接持って操作する装置である。VRヘッドセット3、及び、コントローラ4により、VRシステム1を制御可能である。また、VRシステム1は、ユーザUの携帯端末7を含んでいてもよく、ユーザUではない他のユーザVの携帯端末8を含んでいてもよい。携帯端末7,8とVR処理装置2とは、例えばネットワークN経由で通信可能としてもよく、ネットワークNを経由することなく通信可能としてもよい。より具体的には、携帯端末7,8とVR処理装置2とは、例えば、電話回線又はインターネット経由で通信可能でもよい。携帯端末7,8とVR処理装置2とは、例えば、無線LAN通信により通信可能でもよく、近距離無線通信により通信可能でもよく、赤外線通信により通信可能でもよい。
VRヘッドセット3は、ユーザUが頭部に装着する装置である。VRヘッドセット3はディスプレイを備えており、ディスプレイはVR処理装置2により生成されたVRコンテンツを表示する。ユーザUは、当該ディスプレイに表示されたVRコンテンツを視認することにより、VRを体験可能である。
VRヘッドセット3は、例えば、生体データ取得装置33とセンサ部32とを含む。
生体データ取得装置33は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置33は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、又は、声紋データに対応する生体センサを含む。
センサ部32は、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成し、VRヘッドセット3の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部32は、生体データ取得装置33に対応しており、生体データ取得装置33の位置を示す位置情報と、生体データ取得装置33の方向を示す方向情報とを生成し、生体データ取得装置33の位置情報と方向情報とをVR処理装置2へ送信するとしてもよい。
コントローラ4は、ユーザUがVRシステム1を操作するための装置であり、ユーザUからの指示を受け付ける。コントローラ4は、ユーザUの左右それぞれの手に持って操作されてもよく、左右それぞれの足、又はその他の体の部位のいずれかに装着されてもよい。以下では、VRシステム1に含まれるコントローラ4は2台とし、それぞれのコントローラ4は、ユーザUの左右それぞれの手に持って操作されるとする。
コントローラ4は、生体データ取得装置43とセンサ部42とを含む。
生体データ取得装置43は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
センサ部42は、コントローラ4の位置を示す位置情報と、コントローラ4の方向を示す方向情報を生成し、コントローラ4の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部42は、生体データ取得装置43に対応しており、生体データ取得装置43の位置を示す位置情報と、生体データ取得装置43の方向を示す方向情報とを生成し、生体データ取得装置43の位置情報と方向情報とをVR処理装置2へ送信する。
センサ装置5は、ユーザUが体験するVRの構築を補助する装置である。具体的には、例えばセンサ装置5がVR処理装置2に複数台接続されている場合に、VR処理装置2はVRヘッドセット3の備えるディスプレイ上にセンサ装置5の位置を表示することにより、ユーザUがVRヘッドセット3を装着して移動可能な範囲を示してもよい。また、例えばVR処理装置2は、複数台のセンサ装置5に備えられるセンサを用いて、ユーザUの動き、姿勢、体の特定の部位の位置などを測定してもよい。また、例えばセンサ装置5は、ユーザUが近づいた時に音を発することで、ユーザUに臨場感を与えてもよい。以下では、VRシステム1に含まれるセンサ装置5は4台とする。
センサ装置5は、生体データ取得装置53とセンサ部52とを含む。
生体データ取得装置53は、例えば、ユーザUと非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置53は、例えば、声紋データに対応する生体センサ、カメラを含む。
センサ部52は、センサ装置5の位置を示す位置情報と、センサ装置5の方向を示す方向情報を生成し、センサ装置5の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部52は、生体データ取得装置53に対応しており、生体データ取得装置53の位置を示す位置情報と、生体データ取得装置53の方向を示す方向情報とを生成し、生体データ取得装置53の位置情報と方向情報とをVR処理装置2へ送信する。
携帯端末7は、VR処理装置2と通信可能である。携帯端末7は、例えば、スマートフォンなどのような携帯電話、タブレット端末などであってもよい。
携帯端末7は、コントローラ4の代わりに用いられてもよい。すなわち、ユーザUは携帯端末7を用いてVRシステム1を操作可能であるとしてもよい。携帯端末7は、例えば、生体データ取得装置73とセンサ部72とを含み、センサ装置5と同様に、ユーザUの生体データを入力するために利用されてもよい。
生体データ取得装置73は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
センサ部72は、携帯端末7の位置を示す位置情報と、携帯端末7の方向を示す方向情報を生成し、携帯端末7の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部72は、生体データ取得装置73に対応しており、生体データ取得装置73の位置を示す位置情報と、生体データ取得装置73の方向を示す方向情報とを生成し、生体データ取得装置73の位置情報と方向情報とをVR処理装置2へ送信する。
VR処理装置2は、VRシステム1全体の制御、又は、制御に必要な演算を行う。VR処理装置2は、VRヘッドセット3、少なくとも1台以上のコントローラ4、少なくとも1台以上のセンサ装置5と有線又は無線で通信可能である。
VR処理装置2は、コントローラ4から受信した指示に応じて、VRコンテンツを生成する。VR処理装置2は、例えば、生体データ取得装置25、センサ部26、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225を含む。
生体データ取得装置25は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置25は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
センサ部26は、生体データ取得装置25に対応しており、生体データ取得装置25の位置を示す位置情報と、生体データ取得装置25の方向を示す方向情報とを生成する。加えて、センサ部26は、例えばVRヘッドセット3に装着されているライトの光を検出するなどにより、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成するとしてもよい。
コンテンツ生成部222は、コントローラ4から決済指示を受信した場合に、センサ部26,32,42,52,72から受信した生体データ取得装置25,33,43,53,73の位置情報及び方向情報と、センサ部26,32,52から受信したユーザUの位置情報及び方向情報とに基づいて、生体データ取得装置25,33,43,53,73の位置及び方向をVRヘッドセット3を装着しているユーザUに認識させるとともに、生体データ取得装置25,33,43,53,73による生体データ入力をVRヘッドセット3を装着しているユーザUに促す画像を、VRコンテンツに付加する。
コンテンツ送信部223は、VRコンテンツをVRヘッドセット3へ送信する。
生体データ送信部224は、生体データ入力をユーザUに促す画像を含むVRコンテンツがVRヘッドセット3によって表示された後に、生体データ取得装置25,33,43,53,73のいずれかからユーザUの生体データD1を受信し、生体データD1をサーバ装置6へ送信する。
コンテンツ共有部225は、VRヘッドセットの表示部37に表示されているVRコンテンツを、ユーザUではない他のユーザVによって操作される携帯端末8にも表示可能とする。すなわち、コンテンツ共有部225は、VR処理装置2と通信可能な携帯端末8の認証を行い、携帯端末8に対する認証が成功した場合に、VR処理装置2と携帯端末8との通信を許可し、VRコンテンツを携帯端末8に対応するコンテンツに変換し、変換したコンテンツを携帯端末8へ送信する。例えば、ユーザVは、ユーザUの友人又は家族などである。例えば、携帯端末8へ送信されるコンテンツは、VRコンテンツをVRに対応しないコンテンツへ変換したコンテンツでもよく、VRコンテンツを携帯端末8のブラウザに適合したコンテンツへ変換したコンテンツでもよい。
携帯端末8は、表示部75を備えており、コンテンツ共有部225から受信したコンテンツを表示する。
サーバ装置6は、VR処理装置2とネットワークN経由で通信可能に接続されている。サーバ装置6は、データベースDBを参照可能である。データベースDBは、ユーザUの登録済みの生体データD2を記憶する。
サーバ装置6は、生体認証部62を含む。生体認証部62は、VR処理装置2からネットワークN経由で受信した生体データD1とデータベースDBに記憶されている登録済み生体データD2とを照合する。サーバ装置6は、照合成功の場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨を示す決済許可通知を送信する。
サーバ装置12は、VR処理装置2及びサーバ装置6とネットワーク経由で通信可能に接続されている。このサーバ装置12は、サーバ装置6と一体であってもよい。サーバ装置12は、決済処理部121を含む。決済処理部121は、サーバ装置6からネットワークN経由で決済許可通知を受信した場合に、VR処理装置2からネットワークN経由で受信した決済指示に応じてユーザUに対する決済処理を実行する。
本実施形態において、サーバ装置12は、例えば、アクワイアラ(カード決済会社)のサーバ装置、イシュア(カード発行会社)、又は、カードブランドのサーバ装置である。
なお、本実施形態において、コンテンツ生成部222は、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、コンテンツが共有されていることを示す画像又は文字をVRコンテンツに付加する。コンテンツ送信部223は、コンテンツを共有していることを示す画像又は文字を含むVRコンテンツをVRヘッドセット3へ送信する。これにより、VRヘッドセット3を装着しているユーザUは、ユーザVがコンテンツを共有していることを認識することができる。
また、コンテンツ生成部222は、いずれかの生体データ取得装置の位置情報とVRヘッドセット3の位置情報との差分と、いずれかの生体データ取得装置の方向情報とVRヘッドセット3の方向情報との差分とに基づいて、ユーザUをいずれかの生体データ取得装置まで誘導する画像をVRコンテンツに付加してもよい。
さらに、コンテンツ生成部222は、いずれかの生体データ取得装置によって取得された生体データD1に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。コンテンツ生成部222は、データベースDBに記憶されている生体データD2をサーバ装置6及びネットワークN経由で受信し、受信した生体データD2に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。
図2は、本実施形態に係るVR処理装置2の構成の一例を示すブロック図である。
VR処理装置2は、接続部21、プロセッサ22、記憶部23、通信部24、生体データ取得装置25、センサ部26を含む。VR処理装置2は、生体データ取得装置25を含まなくてもよい。上述の各処理部は、内部バスIBにより相互に通信可能である。
なお、図1で説明済の処理部についての説明は省略する。
接続部21は、VR処理装置2と、VRヘッドセット3、コントローラ4、センサ装置5とを接続する。
プロセッサ22は、VRシステム1の演算処理を行う。プロセッサ22は、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225、を含む。
プロセッサ22は、例えば、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又は、DSP(Digital Signal Processor)などであってもよい。
制御部221はVRシステム1全体の制御を行う。制御部221は、接続部21を経由して、VRヘッドセット3、コントローラ4、及びセンサ装置5との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。
コンテンツ生成部222は、VRヘッドセット3の備えるディスプレイに表示するVRコンテンツを生成する。コンテンツ生成部222により生成されたVRコンテンツは、コンテンツ送信部223により、接続部21を経由してVRヘッドセット3に送信される。また、VRコンテンツは、通信部24を経由して、例えば携帯端末7,8などの外部装置に送信されてもよい。
記憶部23は、例えば、主記憶装置として用いられてもよい。記憶部23は、プロセッサ22からの制御に従う。記憶部23には、プロセッサ22の制御に基づいて、プロセッサ22により処理されるデータなどが一時的に格納される。
記憶部23は、例えば、不揮発性記憶領域に、プログラム231を格納する。プロセッサ22は、プログラム231を実行することにより、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225としての機能を実現するとしてもよい。
記憶部23は、生体データD1を格納する。生体データD1は、生体データ取得装置25,33,43,53,73のいずれかを用いて取得したユーザUの生体データである。
通信部24は、ネットワークNを経由して、例えばVR処理装置2とサーバ装置6,12及び携帯端末7,8との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。なお、通信部24は、サーバ装置6,12及び携帯端末7,8ではない他の装置とネットワークNを経由して通信を行ってもよい。
なお、VR処理装置2は例えば汎用的なPC(パーソナルコンピュータ)であってもよく、又はVRシステム1専用のハードウェアであってもよい。
図3は、本実施形態に係るVRヘッドセット3の構成の一例を示すブロック図である。
VRヘッドセット3は、接続部31、センサ部32、生体データ取得装置33、制御部34、マイク35、スピーカ36、表示部37を含む。
なお、図1で説明済の処理部についての説明は省略する。
接続部31は、VRヘッドセット3とVR処理装置2とを接続する。
センサ部32は、角速度センサ(ジャイロセンサ)S1を含む。センサ部32は、生体データ取得装置33に内蔵されていてもよく、生体データ取得装置33の近傍に設置されていてもよい。
角速度センサS1は、センサを備える物体の回転角度、及び、向きの変化を検知できるセンサである。すなわち、角速度センサS1により、VRヘッドセットの位置の変化及び向きが検出可能である。
なお、センサ部32に含まれるセンサは、上述のものに限られず、例えば、近接センサ、加速度センサ、位置センサ、磁気センサ、輝度センサなどが含まれていてもよい。
制御部34は、VRヘッドセット3に含まれる各処理部の制御を行う。制御部34は、接続部31を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部34は、センサ部32が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置33が取得した生体データ、マイク35に入力された音声データを、接続部31を経由してVR処理装置2へ送信する。また、例えば、制御部34は、接続部31を経由してVR処理装置2より音声データを受信してスピーカ36へ出力し、VRコンテンツを受信して表示部37へ出力する。
マイク35は、ユーザUの音声をVRシステム1に入力する。なお、VRヘッドセット3が声紋の生体データを取得可能な場合は、マイク35は、生体データ取得装置33を兼ねてもよい。
スピーカ36は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。スピーカ36は、例えばヘッドフォンであってもよい。
表示部37は、VR処理装置2のコンテンツ生成部222により生成されたVRコンテンツを表示する。表示部37は、ユーザUの両眼に対応した2つのディスプレイを備える。以下では、VRコンテンツが表示されている状態の表示部37を、VR画面とする。
図4は、本実施形態に係るコントローラ4の構成の一例を示すブロック図である。
コントローラ4は、接続部41、センサ部42、生体データ取得装置43、制御部44、入力部45を含む。
なお、図1で説明済の処理部についての説明は省略する。
接続部41は、コントローラ4とVR処理装置2とを接続する。
センサ部42の構成は、センサ部32と同等である。
制御部44は、コントローラ4に含まれる各処理部の制御を行う。制御部44は、接続部41を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部44は、センサ部42が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置43が取得した生体データ、入力部45に入力されたデータを、接続部41を経由してVR処理装置2へ送信する。
入力部45は、ユーザUの操作を受け付ける。入力部45は、例えば、ボタン、アナログスティック、ロータリエンコーダ、タッチパネル、各種のセンサなどでもよい。
図5は、本実施形態に係るセンサ装置5の構成の一例を示すブロック図である。
センサ装置5は、接続部51、センサ部52、生体データ取得装置53、制御部54、マイク55、スピーカ56を含む。また、センサ装置5は、カメラ57を含むとしてもよい。
なお、図1で説明済の処理部についての説明は省略する。
接続部51は、センサ装置5とVR処理装置2とを接続する。
センサ部52の構成は、センサ部32と同様である。
制御部54は、センサ装置5に含まれる各処理部の制御を行う。制御部54は、接続部51を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部54の動作は、制御部34,44の動作と同等である。
マイク55は、ユーザUの音声をVRシステム1に入力する。なお、センサ装置5が声紋の生体データを取得可能な場合は、マイク55は、生体データ取得装置53を兼ねてもよい。
スピーカ56は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。
カメラ57は、静止画又は動画を撮影する。カメラ57は、2次元画像を撮影できるものでもよく、又は、例えばステレオカメラ、赤外線カメラなどの奥行き情報を取得できるものでもよい。制御部54は、カメラ57により撮影された静止画又は動画に対して画像処理を行うことにより、例えばセンサ部52では認識することができないユーザUのジェスチャ、又は、ユーザUの足、腕、関節などの特定の部位の動き、又は、ユーザUが移動可能な空間に存在する物体などを認識可能であってもよい。
図6は、本実施形態に係るサーバ装置6の構成の一例を示すブロック図である。
サーバ装置6は、通信部61、生体認証部62、制御部63を含む。
なお、図1で説明済の処理部についての説明は省略する。
通信部61は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部61は、データベースDBと通信可能である。
なお、データベースDBは、ネットワークNに接続されていてもよく、ネットワークNを経由してサーバ装置6と通信可能であってもよい。
制御部63は、サーバ装置6に含まれる各処理部の制御を行う。制御部63は、通信部61を経由して、VR処理装置2及びデータベースDBとの間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。例えば、制御部63は、生体認証部62で実行された生体認証が成功した場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨の決済許可通知を送信する。
図7は、本実施形態に係る携帯端末7,8の構成の一例を示すブロック図である。
携帯端末7は、通信部71、センサ部72、生体データ取得装置73、プロセッサ74、表示部75を含む。
携帯端末8は、通信部71、センサ部72、プロセッサ74、表示部75、コンテンツ共有部76を含む。なお、携帯端末8は、生体データ取得装置73を備えていてもよい。
なお、図1で説明済の処理部についての説明は省略する。
通信部71は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部71は、ネットワークNを経由せずに、直接VR処理装置2の通信部24と有線又は無線により通信可能としてもよい。
センサ部72は、センサ部32と同様である。
プロセッサ74は、携帯端末7の演算処理を行う。プロセッサ74は、制御部741を含む。
制御部741は、携帯端末7に含まれる各処理部の制御を行う。制御部741は、通信部71を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部741の動作は、制御部34,44,54の動作と同等である。
表示部75は、例えば、一般的な携帯端末のディスプレイである。
また、上述のように、コンテンツ共有部225により携帯端末8の表示部75にVRコンテンツが表示される場合、携帯端末8は、VRシステム1に認証(ログイン)されることが望ましい。VRシステム1へのログインには、例えば、ログインID及びパスワードが用いられてもよい。より具体的には、例えば、VR処理装置2は、携帯端末8からVR処理装置2へアクセスがあった場合に、表示部75又はVRヘッドセット3の表示部37にログイン画面を表示する。ユーザUは、ログイン画面の指示に従い、ログインID及びパスワードを入力する。
なお、携帯端末8が生体データ取得装置73を備える場合は、VRシステム1へのログインに生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9を用いて後述する)と同等である。
図8は、本実施形態に係るVRシステム1を用いた決済処理を例示するフローチャートである。
ステップS801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。
ステップS802において、VR処理装置2のコンテンツ生成部222が生成したVRコンテンツが、接続部21を経由してVRヘッドセット3へ送信される。VRヘッドセット3の表示部37は、VR処理装置2より受信したVRコンテンツを表示する。さらに、コンテンツ生成部222は、ユーザUの選択により、又は、自動的に、ユーザUが商品を選択し購入可能なVRコンテンツを生成する。
ステップS803において、表示部37に表示された商品選択画面において、ユーザUが購入する商品が選択される。商品は、例えば、ユーザUがコントローラ4を操作することにより選択されてもよい。さらに、選択された商品の購入が承諾されると、VR処理装置2は、決済処理を開始する。商品の購入の承諾は、例えば、VRコンテンツ内に表示された購入ボタンがユーザUによって選択されることにより行われてもよい。
ステップS804において、VR処理装置2は、生体データの照合処理を開始する。生体データ照合処理の詳細については、図9で後述する。
ステップS805において、VR処理装置2は、ステップS804の処理により得られた生体データ照合処理結果を確認する。
生体データ照合処理結果が成功である場合は、VR処理装置2又はサーバ装置6は、サーバ装置12に対して決済許可通知を送信する。この場合、ステップS806において、サーバ装置12は、VR処理装置2より決済許可通知を受信し、決済処理部121は、決済処理を行う。決済処理が完了した場合、サーバ装置6は、通信部61を経由して決済完了通知をVR処理装置2へ送信する。さらに、ステップS807において、VR処理装置2は、決済完了通知を受信し、コンテンツ生成部222は、決済完了した旨の表示を含んだVRコンテンツを生成する。
また、生体データ照合処理結果が失敗である場合は、VR処理装置2は、決済処理を中止する。この場合、ステップS808において、VR処理装置2のコンテンツ生成部222は、決済失敗した旨の表示を含んだVRコンテンツを生成する。
なお、決済完了又は決済失敗した旨の表示は、例えば、メッセージ、アイコン、ダイアログボックスなどによる表示であってもよい。
本実施形態において、VR処理装置2は、ステップS801における起動時に、ユーザUの認証(ログイン)を行うとしてもよい。VRシステム1へのログインには、生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9参照)と同等である。
図9は、本実施形態に係る生体データ照合処理を例示するフローチャートである。
ステップS901において、VR処理装置2は、VRシステム1内で利用可能な生体データ取得装置が複数存在する場合に、どの生体データ取得装置を用いて生体データを取得するかをユーザに選択させる。ユーザUが生体データ取得装置を選択した場合は、ステップS902へ進む。
利用可能な生体データ取得装置がVRシステム1内に1つのみである場合、又は、VR処理装置2がユーザに生体データ取得装置を選択させない場合は、ステップS905に進む。
ステップS902において、VR処理装置2は、ステップS901においてユーザUが指定した生体データ取得装置の位置情報及び方向情報を検出する。具体的には、生体データ取得装置33が指定された場合は、VR処理装置2は、VRヘッドセット3の制御部34より、センサ部32が検出したVRヘッドセット3及び生体データ取得装置33の位置情報及び方向情報を受信する。同様に、生体データ取得装置43が指定された場合は、VR処理装置2は、制御部44より、センサ部42が検出したコントローラ4及び生体データ取得装置43の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置53が指定された場合は、VR処理装置2は、制御部54より、センサ部52が検出したセンサ装置5及び生体データ取得装置53の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置73が指定された場合は、VR処理装置2は、制御部741より、携帯端末7及び生体データ取得装置73の位置情報及び方向情報を受信する。VR処理装置2は、受信した位置情報及び方向情報を、記憶部23に一時的に格納する。
ステップS903において、VR処理装置2は、ステップS902において検出した各装置の位置情報及び方向情報を、VR画面内に表示する。具体的には、VR処理装置2のコンテンツ生成部222は、記憶部23よりステップS902で格納した各装置の位置情報及び方向情報を読み出す。コンテンツ生成部222は、読み出したそれぞれの装置の位置情報及び方向情報に基づいた各装置の画像を、もとのVRコンテンツに重畳し、新たなVRコンテンツを生成する。上述の処理により生成されるVRコンテンツの例は、図11で後述する。
ステップS904において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。
ステップS905において、VR処理装置2は、利用可能な生体データ取得装置を検索する。具体的には、VR処理装置2は、VRヘッドセット3、コントローラ4、センサ装置5、携帯端末7へ、各装置に備えられた生体データ取得装置33,43,53,73が利用可能であるか否かを問い合わせる。
制御部34,44,54,74は、生体データ取得装置33,43,53,73の状態を確認し、各生体データ取得装置が利用可能であるか否かをそれぞれVR処理装置2へ送信する。
ステップS906において、VR処理装置2は、ステップS905で得られた利用可能な生体データ取得装置の位置、向き、及び種類を表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS902及びステップS903で述べた方法と同等である。
ステップS907において、VR処理装置2は、ユーザUへステップS906で表示したいずれかの生体データ取得装置へ生体データを入力させる。この場合、例えば、各生体データ処理装置は、ユーザUより生体データの入力が完了した場合に、生体データD1をVR処理装置2へ送信する。VR処理装置2は、生体データD1を受信し、生体データD1を記憶部23に格納する。
なお、VR処理装置2は、複数の生体データ取得装置から生体データを受信した場合は、受信した複数の生体データを記憶部23に格納してもよく、最初又は最後に受信した生体データを有効なデータとして記憶部23へ格納してもよい。
ステップS908において、VR処理装置2は、サーバ装置6へ生体データ照合命令を送信する。具体的には、生体データ送信部224は、記憶部23より生体データD1を読み出し、生体データ照合命令と生体データD1をサーバ装置6へ送信する。
ステップS909において、サーバ装置6の生体認証部62は、ユーザUの生体データD1と、生体データ照合命令を受信する。サーバ装置6は、受信した生体データD1がデータベースDBに登録されているか否かを確認する。ユーザUの生体データが登録されている場合は、ステップS911へ進む。ユーザUの生体データが登録されていない場合は、サーバ装置6は、VR処理装置2へ生体データが未登録である旨の通知を行う。VR処理装置2は、生体データが未登録である旨の通知を受信し、ステップS910において、生体データ登録処理を行う。
なお、生体データ登録処理は、決済処理と独立して行われてもよい。例えば、生体データ登録処理は、VRシステム1の初回起動時などに行われてもよい。生体データ登録処理の詳細については、図10で後述する。
ステップS911において、サーバ装置6の生体認証部62は、生体データ照合処理を行う。具体的には、生体認証部62は、データベースDBに登録されているユーザUの登録済生体データD2を読み出し、VR処理装置2より受信した生体データD1と照合する。生体認証部62は、照合結果が成功又は失敗した旨をVR処理装置2へ送信する。
図10は、本実施形態に係る生体データ登録処理を例示するフローチャートである。
ステップS1001において、VR処理装置2は、登録可能な生体データ取得装置の種類を表示する。登録可能な生体データ取得装置の検索処理は、ステップS905の処理と同様である。
ステップS1002において、VR処理装置2は、ステップS1001で得られた登録可能な生体データ取得装置の位置、向き、及び種類をVR画面に表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS906で述べた方法と同等である。
ステップS1003において、VR処理装置2は、ステップS1002でVR画面に表示された生体データ取得装置のうち1つの生体データ取得装置を、ユーザUに選択させる。
なお、ステップS901で生体データ取得装置を指定された場合は、自動的にステップS901で指定された生体データ取得装置と同じものが指定されてもよい。この場合、ステップS1001及びステップS1002において、ステップS901で指定された生体データ取得装置がVR画面に表示され、ステップS1003の処理はなくてもよい。
ステップS1004において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。入力された生体データは、VR処理装置2へ送信される。
ステップS1005において、VR処理装置2は、ステップS1004で生体データ取得装置に入力された生体データを受信する。VR処理装置2の生体データ送信部224は、サーバ装置6へ、当該生体データと、生体データ登録指示を送信する。
ステップS1006において、サーバ装置6は、データベースDBに受信した生体データを登録する。
図11は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。より具体的には、図11は、図9のS906、及び、図10のS1002において、表示部37に表示されるVR画面V1を示す。
VR画面V1は、利用可能(又は登録可能)な生体センサを示す生体センサ選択画面W1を表示する。図11では、生体センサ選択画面W1はVR画面V1に重畳的に表示されているが、表示方法はこれに限られない。例えば、VR画面V1が切り替わり、生体センサ選択画面W1が全画面に表示されてもよい。
生体センサ選択画面W1には、利用可能な生体データ取得装置と、利用可能な生体データ取得装置が含まれる装置が表示される。図11の例では、生体センサ選択画面W1には、VRヘッドセット103と、VRヘッドセット103に含まれる虹彩センサ103A、声紋センサ103B、静脈センサ103C、及び、コントローラ104と、コントローラ104に含まれる静脈センサ104A、指紋センサ104B、及び、コントローラ105と、コントローラ105に含まれる静脈センサ105A、指紋センサ105B、及び、センサ装置106と、センサ装置106に含まれる声紋センサ106Aが表示される。
なお、生体センサ選択画面W1に表示される各装置及び生体センサの画像の向きは、各装置を操作するユーザUの動きに合わせて、リアルタイムに変化することが望ましい。また、生体センサが二種以上含まれる場合は、ユーザUが同種の生体センサと異種の生体センサとを、例えば色又は形などで容易に判別できるよう表示されることが望ましい。
生体センサ選択画面W2は、生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより静脈センサ104Aが選択された状態を示す。
生体センサの選択は、例えば、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体センサの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。
選択された静脈センサ104Aの周囲には、センシング可能領域Aが表示される。センシング可能領域は、ユーザUの体の一部を生体センサに近接させて生体データを取得することができる範囲を示す。
ユーザUは、表示された静脈センサ104Aのセンシング可能領域Aの範囲内に、例えば指を近づけることで、静脈データを入力する。
また、例えばユーザUがコントローラ4の位置及び向きを変化させることにより、生体センサ選択画面W2に表示されるコントローラ104の表示が変化する場合、センシング可能領域Aの表示もコントローラ104の位置及び向きに合わせて変化する。
なお、他の生体センサが選択された場合も、上述と同様に、選択された生体センサに対応したセンシング可能領域が表示される。
なお、センシング可能領域の表示態様は、領域を表示するものであれば、図11中に示されている態様に限られない。
図12は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。
VR画面V2は、図11の生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより声紋センサ106Aが選択された状態を示す。
声紋センサ106Aを含むセンサ装置106は、現在のユーザUの位置から離れた場所に存在するため、VR処理装置2は、ユーザUを声紋センサ106Aが反応する位置まで誘導する。
まず、制御部221は、ユーザUの位置を取得する。センサ装置5のカメラ57がユーザUを撮影することにより、制御部54又は制御部221がユーザUのVRシステム1内における位置及び向きを計算してもよい。又は、ユーザUに装着されたVRヘッドセット3のセンサ部が検出した位置及び向きを、ユーザUの位置及び向きとしてもよい。
次に、制御部221は、取得したユーザUの位置及び向きと声紋センサ106Aの位置及び向きとに基づいて、ユーザUを誘導する方向を決定する。ユーザUを誘導する方向は、VRシステム1内の位置及び向きを示すデータに変換され、コンテンツ生成部222に入力される。
コンテンツ生成部222は、制御部221より受信したデータに基づき、VRコンテンツ内にユーザUを誘導する方向を示す矢印201を描画する。
なお、ユーザUを誘導する方法は、上述の方法に限られない。例えば、コンテンツ生成部222により、VR画面V2上で声紋センサ106Aの位置が強調表示されてもよい。
VR画面V3は、ユーザUの位置が、声紋センサ106Aが反応する位置まで近づいた状態を示す。
制御部221は、ユーザUと声紋センサ106Aとの距離が一定以下になった場合に、声紋センサ106Aが利用可能になった旨をユーザUに通知する。例えば、コンテンツ生成部222は、制御部221よりユーザUと声紋センサ106Aとの距離が一定以下になった旨の通知を受信すると、VRコンテンツの声紋センサ106Aに印E1を描画してもよい。ユーザUは、VRコンテンツ内の印E1を視認することにより、声紋センサ106Aに対し、声紋データを入力する。
なお、印E1の形状及び表示方法は、図12中に表示されるものに限られない。また、声紋センサ106Aが利用可能になった旨をユーザUに通知する方法は、上述のものに限られない。例えば、VRヘッドセット3のスピーカ36を通じて音声によりユーザUに通知してもよい。
図13は、本実施形態に係る生体データ選択時のVR画面表示を例示する図である。より具体的には、図13は、図9のS901において、表示部37に表示されるVR画面V4を示す。
VR画面V4は、生体データ選択画面W3を表示する。図13では、生体データ選択画面W3はVR画面V4に重畳的に表示されているが、生体センサ選択画面W1と同様に、表示方法はこれに限られない。
生体データ選択画面W3には、取得する生体データの種類が表示される。図13の例では、生体データ選択画面W3には、指紋データB1、顔データB2、虹彩データB3、静脈データB4、声紋データB5が選択可能な項目として表示される。
ユーザUにより上述の項目のうち1つが選択された場合、VR画面V4上には、項目が選択された旨が表示される。例えば、VR画面V4上には、選択された項目の周囲に印E2が表示されてもよい。
なお、生体データの選択は、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体データの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。
なお、印E2の形状及び表示方法は、図13中に例示されるものに限られない。
図14は、本実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。より具体的には、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、表示部37に表示されるVR画面V5を示す。
VR画面V5は、画面表示W4を含む。画面表示W4は、コンテンツが携帯端末8と共有されていることを示す画像又は文字である。
なお、画面表示W4は、ユーザが認識することができるVR画面V5上の任意の位置に表示可能である。また、画面表示W4は、自動的に又はユーザUの操作により、移動又は消去されてもよい。
以上説明した本実施形態においては、VRシステム1は、VR画面上に生体センサの位置及び向きを表示可能である。これにより、ユーザUは、VR画面内で商品購入し、決済のための生体データの取得が必要な場合であっても、VRヘッドセット3を外すことなく、生体データを入力することができる。
本実施形態においては、決済に生体データが用いられるため、決済の安全性が確保される。
本実施形態においては、ユーザUの所有する携帯端末7を、例えばコントローラ4の代わりとしてVRシステム1に追加可能である。これにより、通常の仮想実現システムと携帯電話とでシステムを構築でき、コスト削減が可能である。
本実施形態においては、生体データ取得装置とユーザUの位置が離れている場合であっても、VRシステム1は、ユーザUが生体データを入力可能な位置までユーザUを誘導する。これにより、さらに生体データを入力するユーザUの利便性が高まる。
本実施形態においては、VRヘッドセット3の表示部37に表示されるVRコンテンツを、VRシステム1に認証された携帯端末8の表示部75にも出力可能とする。これにより、家族でVRシステム1を共有する場合、例えば、VRヘッドセット3を装着した子供がどんなゲームをしているかを、親が自分の携帯端末8を用いて把握することができ、子供を有害コンテンツから守ることができる。また、VRコンテンツを、VRヘッドセット3を装着していない者にも共有することができ、アミューズメント性を高めることができる。
[第2の実施形態]
本実施形態においては、VRシステムのユーザより取得した生体データを用いて、VR画面内に登場させるキャラクター(アバター)の属性を決定するVRシステムについて説明する。
本実施形態で使用するVRシステムは、第1の実施形態におけるVRシステム1と同様である。
図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。
VR画面V6は、ユーザUに対応するキャラクターC、キャラクターCの属性Xを表示する。属性Xは、常にVR画面V6に表示されている必要はなく、ユーザUにより属性Xの表示指示を受けた場合にのみ表示してもよい。
属性Xは、キャラクターCの属性を含む。例えば、属性Xは、名前P1、性別P2、年齢P3、体力P4、性格P5を含む。キャラクターCの属性は、これら以外の項目を含んでいてもよい。
キャラクターCの画像は、属性Xの項目の内容によって、外見や状態が変化するとしてもよい。例えば、性別P2、又は、年齢P3に合致するようにキャラクターCの外見が変化してもよく、体力P4によってキャラクターCの姿勢が変化してもよく、性格P5によってキャラクターCの表情が変化してもよい。
属性Xの各項目は、ユーザUが生体認証を行う毎に、ユーザUの生体データがVRシステム1によって解析された結果に基づいて更新されてもよい。
図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。
ステップS1601において、ユーザUの生体データが、VRシステム1内の任意の生体データ取得装置に入力される。ユーザUの生体データが入力されるタイミングは、図9のステップS904又はステップS907、又は、図10のステップS1004であってもよく、これら以外のタイミングで入力されてもよい。生体データ取得装置により取得された生体データは、VR処理装置2へ送信される。
ステップS1602において、VR処理装置2の制御部221は、ユーザUが入力した生体データを受信し、解析処理を行う。制御部221は、例えば、生体データが声紋データである場合、声の高さ及び質より、ユーザUの年齢及び性別を判定する。制御部221は、例えば、生体データが顔データである場合、表情を読み取ることにより、ユーザUの性格を判定する。なお、制御部221が行う解析処理は上述のものに限られない。
ステップS1603において、制御部221は、ステップS1602で得られた生体データの解析結果に基づき、キャラクターCの属性の決定を行う。属性の種類(項目)は、あらかじめユーザUにより決められていてもよく、又は、制御部221が解析結果に基づいて自動的に生成されてもよい。
ステップS1604において、制御部221は、ステップS1603で得られた属性に基づいて、キャラクターCの生成処理又は更新処理を行う。なお、キャラクターCの初回生成時は、キャラクターCの基本状態となる画像はあらかじめユーザUによって選択されてもよい。又は、制御部221は、属性に基づいて、キャラクターCを自動生成してもよい。
ステップS1605において、制御部221は、キャラクター情報及び属性情報を、をコンテンツ生成部222へ入力する。コンテンツ生成部222は、入力されたキャラクター情報及び属性情報に基づき、キャラクターC及び属性Xの表示を含むVRコンテンツを生成する。当該VRコンテンツは、コンテンツ送信部223によりVRヘッドセット3へ送信され、表示部37に表示される。
以上説明した本実施形態においては、ユーザUより取得した生体データを用いて、自動的に生体データに含まれる属性Xが反映されたキャラクターCをVR画面内に表示することができる。これにより、ユーザUの個性を反映したキャラクターの生成が可能となり、VRを通じたネットワーク上での個人の識別が容易になる。また、ユーザUの個性をキャラクターに反映させることにより、アミューズメント性を高めることができる。
[第3の実施形態]
近年、人工知能(AI:Artificial Intelligence)を用い、入力された検診データなどに基づいて病気の自動診断を行うシステムが開発されている。しかしながら、このような診断システムを利用するためには検診データの収集は、ユーザにとって負担であるため、ユーザの利便性を高める技術が望まれている。
本実施形態においては、VRシステムのユーザが日常的にVRシステムに入力する生体データを蓄積し、蓄積した生体データを診断システムに入力して結果を受信することで、ユーザが診断システムの利用に必要なデータの収集を意識することなく、簡易的な病気の診断結果が取得可能な診断システムを提案する。また、診断結果よりユーザが利用可能な病院と診療科を提案することにより、さらにユーザの利便性を高めることができる。
図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。
自動診断システム11は、VRシステム1Aと、診断用サーバ装置9と、予約システム10とを含む。
VRシステム1Aに含まれるVR処理装置2は、記憶部23を含む。記憶部23は、生体データD1と、位置情報233を含む。
生体データD1は、ユーザUが生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを格納する。
位置情報233は、例えば、診断用サーバ装置9がユーザUの受診可能な病院を抽出するために用いられる。
位置情報233は、例えば、ユーザUがVRシステム1に予め登録した住所であってもよく、VR処理装置2又は携帯端末7がGPS(Global Positioning System)を備える場合は、後述の画面表示T1を表示する際に当該GPSが示す位置であってもよい。位置情報233の取得方法は、上述のものに限られない。
なお、本実施形態に係るVRシステム1Aのその他の構成は、第1の実施形態におけるVRシステム1の構成と同様である。
診断用サーバ装置9は、記憶部91と、制御部92と、通信部93とを含む。
記憶部91は、病院情報911を含む。
病院情報911は、例えば、病名と、病名に対応可能な病院及び診療科と、病院の位置とを関連付ける情報である。
制御部92は、診断用サーバ装置9全体の制御を行う。制御部92は、例えば、ユーザUの生体データに基づいて診断処理を実行し、診断結果として病名を得る。さらに、制御部92は、病院情報911と、診断結果と、VR処理装置2より受信した位置情報233とに基づいて、病名に対応可能な病院及び診療科の一覧を生成し、当該一覧をVR処理装置へ送信する。
通信部93は、ネットワークNを経由して、例えばVR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。
予約システム10は、患者などからの診療日時の予約を受け付け可能な、一般的な病院の予約システムである。予約システム10は、例えば病院が備えるサーバ装置上で動作するプログラムなどにより実現される。
図18は、本実施形態に係る自動診断システム11の処理を例示するフローチャートである。
ステップS1801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。
ステップS1802において、VR処理装置2は、VRシステム1Aにログインする際に生体データの入力を要する場合に、ログイン時に用いた生体データの収集を行う。具体的には、VR処理装置2は、ユーザUがログインの際に生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを、これらの生体データ取得装置を含むVRヘッドセット3、コントローラ4、センサ装置5、携帯端末7のいずれかより受信し、記憶部23に格納する。
なお、VRシステム1Aへのログインは、ユーザUがVR処理装置2に対して行ってもよく、又は、ユーザUが携帯端末7に対して行ってもよい。
ステップS1803において、VR処理装置2は、VRシステム1Aにおいて決済処理が行われる毎に、決済時に用いた生体データの収集を行う。生体データの収集方法は、ステップS1802と同様である。
ステップS1804において、VR処理装置2は、記憶部23に格納されている生体データD1の量及び種類が、診断用サーバ装置9に入力可能な程度に十分であるか否かを確認する。VR処理装置2は、生体データD1の量及び種類が十分でないと判断した場合は、ステップS1802に戻り、生体データの収集を続ける。また、VR処理装置2は、生体データD1の量及び質が十分であると判断した場合は、ステップS1805に進む。
ステップS1805において、VR処理装置2は、VR処理装置の位置情報233を取得し、記憶部23に格納する。そして、VR処理装置2は、生体データD1及び位置情報233を診断用サーバ装置9へ送信する。
ステップS1806において、診断用サーバ装置9は、VR処理装置2より受信した生体データD1に基づいて、診断処理を実行し、診断結果を得る。診断結果は、例えば病名などでもよい。診断処理は、AI(Artificial Intelligence)を用いて行われてもよく、又は、その他任意のアルゴリズムを用いて行われてもよい。
ステップS1807において、診断用サーバ装置9は、VR処理装置2より受信した位置情報233に基づき、ユーザUが利用可能な範囲の病院を検索し、抽出する。さらに、診断用サーバ装置9は、診断結果及び抽出した病院と、病院情報911とに基づいて、ユーザUが受診可能な病院及び診療科を決定する。
ステップS1808において、診断用サーバ装置9は、ステップS1806及びステップS1807において得られた診断結果及びユーザUが受診可能な病院及び診療科を含むデータを、VR処理装置2へ送信する。
ステップS1809において、VR処理装置2は、診断用サーバ装置9より受信したデータに基づき、診断結果、病院、診療科などの情報をVRヘッドセット3の表示部37又は携帯端末7の表示部75に表示する。表示部37,75に表示される画面の詳細については、図19で後述する。
ステップS1810において、VR処理装置2は、ユーザUに、表示部37,75に表示された病院及び診療科を指定させる。ユーザUにより指定された病院及び診療科を示すデータは、予約システム10へ送信される。
ステップS1811において、予約システム10は、ステップS1810において指定した病院及び診療科の予約可能日時を検索し、VR処理装置2へ送信する。
ステップS1812において、VR処理装置2は、予約システム10より受信した予約可能日時を表示部37,75に表示し、ユーザUに予約日時を指定させる。ユーザUにより指定された予約日時は、予約システム10へ送信される。
ステップS1813において、予約システム10は、予約結果をVR処理装置2へ送信し、予約を完了する。
ステップS1814において、VR処理装置2は、予約完了した旨をユーザに通知する。具体的には、例えば、表示部37,75に予約完了メッセージを表示する。
なお、VR処理装置2は、例えば、予約完了後に診断結果を予約済の病院へ送信してもよい。
図19は、本実施形態に係る自動診断システム11における画面表示の第1の例を示す図である。具体的には、図19は、図18のステップS1809において、表示部37,75に表示される診断結果及びユーザUが受診可能な病院及び診療科の一覧を示す。
画面表示T1は、病名Q1、病院Q2、診療科Q3、アドレスQ4を含む。
病名Q1は、受信した診断結果に基づく病名を示す。
病院Q2は、病名Q1に関する診断が受けられる病院名を示す。
診療科Q3は、病院Q2の中でユーザが病名Q1に関して受信可能な診療科を示す。診療科Q3に含まれる各診療科の表示は、ユーザUにより選択可能であることが望ましい。制御部221又は制御部741は、ユーザUにより選択した診療科について、予約画面を表示する。選択された診療科は、例えば表示E3のように強調される。
アドレスQ4は、病院Q2及び診療科Q3の情報の所在を示すアドレスである。アドレスは、例えばURL(Uniform Resource Locator)などであってもよい。
なお、画面表示T1が含む項目は、上述のものに限られない。また、画面表示T1は表形式以外の形式で表示されてもよい。アドレスQ4に含まれる各アドレスの表示は、ユーザUにより選択可能であってもよい。この場合、制御部221又は制御部741は、ユーザUにより選択されたアドレスQ4に関連付けられたウェブページなどを表示してもよい。
図20は、本実施形態に係る自動診断システム11における画面表示の第2の例を示す図である。具体的には、図20は、図18のステップS1812において、表示部37,75に表示される予約画面を示す。図20は、図19の画面表示T1において、「A病院の耳鼻科」が選択された場合(表示E3参照)に表示される画面を示す。
画面表示T2は、日付選択表示E4を含む。日付選択表示E4は、例えばカレンダー表示であってもよく、リスト表示であってもよい。
日付選択表示E4は、予約可能な日付と、予約不可である日付が明示されていることが望ましい。制御部221又は制御部741は、ユーザUにより予約可能な日付が選択されると、時間帯選択表示E5をさらに表示してもよい。ユーザUは、さらに予約可能な時間帯を選択することにより、予約日時の指定を完了させる。なお、時間帯選択表示E5は、例えば、ポップアップ表示、リスト表示、又はその他の表示形式であってもよい。
本実施形態において、画面表示T1,T2は、VR処理装置2又は携帯端末7にインストールされたアプリケーションにより表示されてもよい。この場合、病院Q2及び診療科Q3を検索して表示する処理及び画面表示処理は、当該アプリケーションがプロセッサ22、プロセッサ74を使用して行われてもよい。
以上説明した本実施形態においては、自動診断システム11は、ユーザUがVRシステム1Aにログインする際又は決済を行う際にVRシステム1Aに入力する生体データを収集し、診断用サーバ装置9へ送信する。これにより、ユーザUは診断用サーバ装置9へ入力するデータの収集を意識的に行うことなく診断結果を取得可能となり、ユーザの利便性が高まる。また、自動診断システム11は、診断結果に基づいて最適な病院及び診療科を選択し、来院予約を行うとともに、診断用サーバ装置9より得られた診断結果を送信する。これによりさらにユーザの利便性が高まるだけでなく、医療ミスの防止及び診療時間の短縮にも貢献できる。
なお、本実施形態において、自動診断システム11は、ユーザUの病名の診断に限らず、あらゆる種類の診断に適用可能である。例えば、自動診断システム11を健康診断に適用する場合、自動診断システム11は、画面表示T1の内容のうち、病名Q1及び診療科Q3に代えて、検査項目及び詳細検査機関を関連付け、ユーザUに提示するとしてもよい。
また、本実施形態において、自動診断システム11には、VRシステム1に代えて、生体データD1の取得及び位置情報233の取得又は格納が可能な他の情報処理装置又はシステムが含まれるとしてもよい。
上記の実施形態は、例示であり、発明の範囲を限定することは意図していない。上記の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。上記の実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。