JPWO2018011988A1 - 仮想現実システム、及び、情報処理システム - Google Patents

仮想現実システム、及び、情報処理システム Download PDF

Info

Publication number
JPWO2018011988A1
JPWO2018011988A1 JP2016567869A JP2016567869A JPWO2018011988A1 JP WO2018011988 A1 JPWO2018011988 A1 JP WO2018011988A1 JP 2016567869 A JP2016567869 A JP 2016567869A JP 2016567869 A JP2016567869 A JP 2016567869A JP WO2018011988 A1 JPWO2018011988 A1 JP WO2018011988A1
Authority
JP
Japan
Prior art keywords
biometric data
user
information processing
information
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016567869A
Other languages
English (en)
Other versions
JP6095191B1 (ja
Inventor
浩史 澁川
浩史 澁川
雅史 田中
雅史 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brainy Inc.
Original Assignee
Brainy Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brainy Inc. filed Critical Brainy Inc.
Application granted granted Critical
Publication of JP6095191B1 publication Critical patent/JP6095191B1/ja
Publication of JPWO2018011988A1 publication Critical patent/JPWO2018011988A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

仮想現実システムは、情報処理装置と、仮想現実ヘッドセットと、生体データ取得装置と、第1及び第2のセンサとを含む。情報処理装置は、コントローラから受信した指示に応じて、仮想現実コンテンツを生成する。仮想現実ヘッドセットは、ユーザに装着され、情報処理装置から受信した仮想現実コンテンツをユーザに表示する。生体データ取得装置は、ユーザの生体データを取得する。第1のセンサは、生体データ取得装置の第1の位置情報と第1の方向情報とを生成する。第2のセンサは、仮想現実ヘッドセットの第2の位置情報と第2の方向情報とを生成する。情報処理装置は、第1及び第2の位置情報と第1及び第2の方向情報に基づいて、仮想現実ヘッドセットを装着しているユーザに生体データ取得装置の位置及び方向を認識させる画像を仮想現実コンテンツに付加する。

Description

本発明は、仮想現実システム、及び、情報処理システムに関する。
近年、仮想現実(Virtual reality:以下、VRとする)に関するシステムの開発が盛んに行われている。一般的には、ユーザがVRのコンテンツを体験する際、ユーザは頭部にゴーグル形状の装置(以下、VRヘッドセットとする)を装着する。VRヘッドセットには、左右それぞれの眼に対応した2つのディスプレイが備えられ、それぞれのディスプレイには、映像を見たユーザが奥行き感(又は飛び出し感)を得るための視差のある映像が表示される。
また、VRヘッドセットは位置センサ、加速度センサ、ジャイロセンサなどを搭載し、ユーザの頭の位置又は向きが変化する毎に、あたかもユーザの頭の位置又は向きが変化した方向にユーザの視界が移動したかのように、2つのディスプレイに表示する映像を変化させる。これにより、ユーザは、VRにおいて実際に自分の頭を動かしているような感覚を得ることができる。
通常、VRヘッドセットを用いてVRを体験するユーザは、例えばVR中で提供される有料コンテンツの購入等のために決済処理が必要になると、VRヘッドセットを外し、決済のための操作をする必要がある。決済のための操作は、例えばクレジットカードなどのカード番号の入力、暗証番号の入力、個人情報の入力などである。しかしながら、決済の度にVRヘッドセットを頭部から取り外し、決済後に再度頭部へ装着することはユーザにとって煩わしく、さらにVRヘッドセットの取り外しによりVRを体験するユーザの没入感が損なわれる。
また、VRヘッドセットが利用されるゲームなどでは、1つのVRヘッドセット及びVRマシンが例えば家族などの複数人によって共用されることが考えられ、この場合に決済の安全性が確保されることが望まれる。
本発明は上記事情を考慮してなされたものであり、VRヘッドセットを用いるユーザに対して決済を容易にするとともに、決済の安全性を確保するVRシステムを提供する。
本発明の一態様に係る仮想現実システムは、コントローラと、第1の情報処理装置と、VRヘッドセットと、生体データ取得装置と、第1のセンサと、第2のセンサと、第2の情報処理装置とを含む。コントローラは、ユーザからの指示を受け付ける。第1の情報処理装置は、コントローラから受信した指示に応じて、VRコンテンツを生成する。VRヘッドセットは、ユーザに装着され、第1の情報処理装置から受信したVRコンテンツをユーザに表示する。生体データ取得装置は、ユーザの生体データを取得する。第1のセンサは、生体データ取得装置の位置を示す第1の位置情報と、生体データ取得装置の方向を示す第1の方向情報とを生成し、第1の位置情報と第1の方向情報とを第1の情報処理装置へ送信する。第2のセンサは、VRヘッドセットの位置を示す第2の位置情報と、VRヘッドセットの方向を示す第2の方向情報とを生成し、第2の位置情報と第2の方向情報とを第1の情報処理装置へ送信する。第2の情報処理装置は、第1の情報処理装置と通信可能に接続されている。第1の情報処理装置は、コンテンツ生成部とコンテンツ送信部と生体データ送信部とを含む。コンテンツ生成部は、コントローラから決済指示を受信した場合に、第1のセンサから受信した第1の位置情報及び第1の方向情報と、第2のセンサから受信した第2の位置情報及び第2の方向情報とに基づいて、生体データ取得装置の位置及び方向をVRヘッドセットを装着しているユーザに認識させるとともに生体データ取得装置による生体データ入力をVRヘッドセットを装着しているユーザに促す画像、をVRコンテンツに付加する。コンテンツ送信部は、VRコンテンツをVRヘッドセットへ送信する。生体データ送信部は、生体データ入力をユーザに促す画像を含むVRコンテンツがVRヘッドセットによって表示された後に、生体データ取得装置からユーザの生体データを受信し、生体データを第2の情報処理装置へ送信する。第2の情報処理装置は、第1の情報処理装置から受信した生体データと、第2の情報処理装置によって参照される記憶装置に記憶されているユーザの登録済み生体データとを照合し、照合成功の場合に決済指示を許可する生体認証部を含む。
本発明によれば、VRヘッドセットを用いるユーザに対して決済を容易にするとともに決済の安全性を確保することができる。
図1は、第1の実施形態に係るVRシステムの構成の一例を示すブロック図である。 図2は、第1の実施形態に係るVR処理装置の構成の一例を示すブロック図である。 図3は、第1の実施形態に係るVRヘッドセットの構成の一例を示すブロック図である。 図4は、第1の実施形態に係るコントローラの構成の一例を示すブロック図である。 図5は、第1の実施形態に係るセンサ装置の構成の一例を示すブロック図である。 図6は、第1の実施形態に係るサーバ装置の構成の一例を示すブロック図である。 図7は、第1の実施形態に係る携帯端末の構成の一例を示すブロック図である。 図8は、第1の実施形態に係るVRシステムを用いた決済処理を例示するフローチャートである。 図9は、第1の実施形態に係る生体データ照合処理を例示するフローチャートである。 図10は、第1の実施形態に係る生体データ登録処理を例示するフローチャートである。 図11は、第1の実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。 図12は、第1の実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。 図13は、第1の実施形態に係る生体データ選択時のVR画面表示を例示する図である。 図14は、第1の実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。 図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。 図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。 図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。 図18は、第3の実施形態に係る自動診断システムの処理を例示するフローチャートである。 図19は、第3の実施形態に係る自動診断システムにおける画面表示の第1の例を示す図である。 図20は、第3の実施形態に係る自動診断システムにおける画面表示の第2の例を示す図である。
以下、本発明の実施形態を、図面を参照して説明する。なお、以下の説明において、略又は実質的に同一の機能及び構成要素については、同一符号を付し、必要な場合にのみ説明を行う。
[第1の実施形態]
本実施形態においては、VRシステムに含まれる生体データ取得装置の位置及び方向を検出し、決済時に、VRヘッドセットを装着しているユーザが生体データ取得装置の位置及び方向を認識可能な画像をVRヘッドセットのディスプレイに表示し、これによりユーザがVRヘッドセットを装着したままで生体データを入力可能とするVRシステムについて説明する。
本実施形態において、生体データ取得装置の方向とは、生体データ取得装置が高感度・高精度に生体データを取得可能な方向、換言すれば生体データ取得装置がセンシングをする方向としてもよい。
本実施形態において、識別情報はIDと称する。
本実施形態において、生体データは、例えば指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、顔データ、血管データ、音声データ、声紋データ、耳型データ、又は、その他のデータであってもよい。
本実施形態において、生体データ取得装置は、上記の生体データを取得するための例えば、生体センサ、カメラ、マイクなどとしてもよい。
本実施形態においては、ユーザが行う決済はカード決済である場合について説明する。カードの種類は、例えばクレジットカード、デビットカード、プリペイドカード、電子マネーカード、ポイントカード、キャッシュカード、又は、その他の電子決済を行うためのカードであってもよい。しかしながら、本実施形態は、決済に用いられる媒体又はプロダクトがカードでない場合にも同様に適用可能である。本実施形態における決済は、仮想通貨による決済としてもよい。
本実施形態において、コンテンツとは、例えば、画像データ、映像データ、プログラムとデータとのうちの少なくとも一方を含むソフトウェア、音データなどを含む。コンテンツは、例えば、ゲームプログラムなどでもよい。
図1は、本実施形態に係るVRシステム1の構成の一例を示すブロック図である。
VRシステム1は、VR処理装置2、人体装着用装置HD、センサ装置5、サーバ装置6,12を含む。人体装着用装置HDは、VRヘッドセット3とコントローラ4とを含む。VRヘッドセット3、及び、コントローラ4は、ユーザUが装着又は直接持って操作する装置である。VRヘッドセット3、及び、コントローラ4により、VRシステム1を制御可能である。また、VRシステム1は、ユーザUの携帯端末7を含んでいてもよく、ユーザUではない他のユーザVの携帯端末8を含んでいてもよい。携帯端末7,8とVR処理装置2とは、例えばネットワークN経由で通信可能としてもよく、ネットワークNを経由することなく通信可能としてもよい。より具体的には、携帯端末7,8とVR処理装置2とは、例えば、電話回線又はインターネット経由で通信可能でもよい。携帯端末7,8とVR処理装置2とは、例えば、無線LAN通信により通信可能でもよく、近距離無線通信により通信可能でもよく、赤外線通信により通信可能でもよい。
VRヘッドセット3は、ユーザUが頭部に装着する装置である。VRヘッドセット3はディスプレイを備えており、ディスプレイはVR処理装置2により生成されたVRコンテンツを表示する。ユーザUは、当該ディスプレイに表示されたVRコンテンツを視認することにより、VRを体験可能である。
VRヘッドセット3は、例えば、生体データ取得装置33とセンサ部32とを含む。
生体データ取得装置33は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置33は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、又は、声紋データに対応する生体センサを含む。
センサ部32は、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成し、VRヘッドセット3の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部32は、生体データ取得装置33に対応しており、生体データ取得装置33の位置を示す位置情報と、生体データ取得装置33の方向を示す方向情報とを生成し、生体データ取得装置33の位置情報と方向情報とをVR処理装置2へ送信するとしてもよい。
コントローラ4は、ユーザUがVRシステム1を操作するための装置であり、ユーザUからの指示を受け付ける。コントローラ4は、ユーザUの左右それぞれの手に持って操作されてもよく、左右それぞれの足、又はその他の体の部位のいずれかに装着されてもよい。以下では、VRシステム1に含まれるコントローラ4は2台とし、それぞれのコントローラ4は、ユーザUの左右それぞれの手に持って操作されるとする。
コントローラ4は、生体データ取得装置43とセンサ部42とを含む。
生体データ取得装置43は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
センサ部42は、コントローラ4の位置を示す位置情報と、コントローラ4の方向を示す方向情報を生成し、コントローラ4の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部42は、生体データ取得装置43に対応しており、生体データ取得装置43の位置を示す位置情報と、生体データ取得装置43の方向を示す方向情報とを生成し、生体データ取得装置43の位置情報と方向情報とをVR処理装置2へ送信する。
センサ装置5は、ユーザUが体験するVRの構築を補助する装置である。具体的には、例えばセンサ装置5がVR処理装置2に複数台接続されている場合に、VR処理装置2はVRヘッドセット3の備えるディスプレイ上にセンサ装置5の位置を表示することにより、ユーザUがVRヘッドセット3を装着して移動可能な範囲を示してもよい。また、例えばVR処理装置2は、複数台のセンサ装置5に備えられるセンサを用いて、ユーザUの動き、姿勢、体の特定の部位の位置などを測定してもよい。また、例えばセンサ装置5は、ユーザUが近づいた時に音を発することで、ユーザUに臨場感を与えてもよい。以下では、VRシステム1に含まれるセンサ装置5は4台とする。
センサ装置5は、生体データ取得装置53とセンサ部52とを含む。
生体データ取得装置53は、例えば、ユーザUと非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置53は、例えば、声紋データに対応する生体センサ、カメラを含む。
センサ部52は、センサ装置5の位置を示す位置情報と、センサ装置5の方向を示す方向情報を生成し、センサ装置5の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部52は、生体データ取得装置53に対応しており、生体データ取得装置53の位置を示す位置情報と、生体データ取得装置53の方向を示す方向情報とを生成し、生体データ取得装置53の位置情報と方向情報とをVR処理装置2へ送信する。
携帯端末7は、VR処理装置2と通信可能である。携帯端末7は、例えば、スマートフォンなどのような携帯電話、タブレット端末などであってもよい。
携帯端末7は、コントローラ4の代わりに用いられてもよい。すなわち、ユーザUは携帯端末7を用いてVRシステム1を操作可能であるとしてもよい。携帯端末7は、例えば、生体データ取得装置73とセンサ部72とを含み、センサ装置5と同様に、ユーザUの生体データを入力するために利用されてもよい。
生体データ取得装置73は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
センサ部72は、携帯端末7の位置を示す位置情報と、携帯端末7の方向を示す方向情報を生成し、携帯端末7の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部72は、生体データ取得装置73に対応しており、生体データ取得装置73の位置を示す位置情報と、生体データ取得装置73の方向を示す方向情報とを生成し、生体データ取得装置73の位置情報と方向情報とをVR処理装置2へ送信する。
VR処理装置2は、VRシステム1全体の制御、又は、制御に必要な演算を行う。VR処理装置2は、VRヘッドセット3、少なくとも1台以上のコントローラ4、少なくとも1台以上のセンサ装置5と有線又は無線で通信可能である。
VR処理装置2は、コントローラ4から受信した指示に応じて、VRコンテンツを生成する。VR処理装置2は、例えば、生体データ取得装置25、センサ部26、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225を含む。
生体データ取得装置25は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置25は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。
センサ部26は、生体データ取得装置25に対応しており、生体データ取得装置25の位置を示す位置情報と、生体データ取得装置25の方向を示す方向情報とを生成する。加えて、センサ部26は、例えばVRヘッドセット3に装着されているライトの光を検出するなどにより、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成するとしてもよい。
コンテンツ生成部222は、コントローラ4から決済指示を受信した場合に、センサ部26,32,42,52,72から受信した生体データ取得装置25,33,43,53,73の位置情報及び方向情報と、センサ部26,32,52から受信したユーザUの位置情報及び方向情報とに基づいて、生体データ取得装置25,33,43,53,73の位置及び方向をVRヘッドセット3を装着しているユーザUに認識させるとともに、生体データ取得装置25,33,43,53,73による生体データ入力をVRヘッドセット3を装着しているユーザUに促す画像を、VRコンテンツに付加する。
コンテンツ送信部223は、VRコンテンツをVRヘッドセット3へ送信する。
生体データ送信部224は、生体データ入力をユーザUに促す画像を含むVRコンテンツがVRヘッドセット3によって表示された後に、生体データ取得装置25,33,43,53,73のいずれかからユーザUの生体データD1を受信し、生体データD1をサーバ装置6へ送信する。
コンテンツ共有部225は、VRヘッドセットの表示部37に表示されているVRコンテンツを、ユーザUではない他のユーザVによって操作される携帯端末8にも表示可能とする。すなわち、コンテンツ共有部225は、VR処理装置2と通信可能な携帯端末8の認証を行い、携帯端末8に対する認証が成功した場合に、VR処理装置2と携帯端末8との通信を許可し、VRコンテンツを携帯端末8に対応するコンテンツに変換し、変換したコンテンツを携帯端末8へ送信する。例えば、ユーザVは、ユーザUの友人又は家族などである。例えば、携帯端末8へ送信されるコンテンツは、VRコンテンツをVRに対応しないコンテンツへ変換したコンテンツでもよく、VRコンテンツを携帯端末8のブラウザに適合したコンテンツへ変換したコンテンツでもよい。
携帯端末8は、表示部75を備えており、コンテンツ共有部225から受信したコンテンツを表示する。
サーバ装置6は、VR処理装置2とネットワークN経由で通信可能に接続されている。サーバ装置6は、データベースDBを参照可能である。データベースDBは、ユーザUの登録済みの生体データD2を記憶する。
サーバ装置6は、生体認証部62を含む。生体認証部62は、VR処理装置2からネットワークN経由で受信した生体データD1とデータベースDBに記憶されている登録済み生体データD2とを照合する。サーバ装置6は、照合成功の場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨を示す決済許可通知を送信する。
サーバ装置12は、VR処理装置2及びサーバ装置6とネットワーク経由で通信可能に接続されている。このサーバ装置12は、サーバ装置6と一体であってもよい。サーバ装置12は、決済処理部121を含む。決済処理部121は、サーバ装置6からネットワークN経由で決済許可通知を受信した場合に、VR処理装置2からネットワークN経由で受信した決済指示に応じてユーザUに対する決済処理を実行する。
本実施形態において、サーバ装置12は、例えば、アクワイアラ(カード決済会社)のサーバ装置、イシュア(カード発行会社)、又は、カードブランドのサーバ装置である。
なお、本実施形態において、コンテンツ生成部222は、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、コンテンツが共有されていることを示す画像又は文字をVRコンテンツに付加する。コンテンツ送信部223は、コンテンツを共有していることを示す画像又は文字を含むVRコンテンツをVRヘッドセット3へ送信する。これにより、VRヘッドセット3を装着しているユーザUは、ユーザVがコンテンツを共有していることを認識することができる。
また、コンテンツ生成部222は、いずれかの生体データ取得装置の位置情報とVRヘッドセット3の位置情報との差分と、いずれかの生体データ取得装置の方向情報とVRヘッドセット3の方向情報との差分とに基づいて、ユーザUをいずれかの生体データ取得装置まで誘導する画像をVRコンテンツに付加してもよい。
さらに、コンテンツ生成部222は、いずれかの生体データ取得装置によって取得された生体データD1に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。コンテンツ生成部222は、データベースDBに記憶されている生体データD2をサーバ装置6及びネットワークN経由で受信し、受信した生体データD2に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。
図2は、本実施形態に係るVR処理装置2の構成の一例を示すブロック図である。
VR処理装置2は、接続部21、プロセッサ22、記憶部23、通信部24、生体データ取得装置25、センサ部26を含む。VR処理装置2は、生体データ取得装置25を含まなくてもよい。上述の各処理部は、内部バスIBにより相互に通信可能である。
なお、図1で説明済の処理部についての説明は省略する。
接続部21は、VR処理装置2と、VRヘッドセット3、コントローラ4、センサ装置5とを接続する。
プロセッサ22は、VRシステム1の演算処理を行う。プロセッサ22は、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225、を含む。
プロセッサ22は、例えば、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又は、DSP(Digital Signal Processor)などであってもよい。
制御部221はVRシステム1全体の制御を行う。制御部221は、接続部21を経由して、VRヘッドセット3、コントローラ4、及びセンサ装置5との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。
コンテンツ生成部222は、VRヘッドセット3の備えるディスプレイに表示するVRコンテンツを生成する。コンテンツ生成部222により生成されたVRコンテンツは、コンテンツ送信部223により、接続部21を経由してVRヘッドセット3に送信される。また、VRコンテンツは、通信部24を経由して、例えば携帯端末7,8などの外部装置に送信されてもよい。
記憶部23は、例えば、主記憶装置として用いられてもよい。記憶部23は、プロセッサ22からの制御に従う。記憶部23には、プロセッサ22の制御に基づいて、プロセッサ22により処理されるデータなどが一時的に格納される。
記憶部23は、例えば、不揮発性記憶領域に、プログラム231を格納する。プロセッサ22は、プログラム231を実行することにより、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225としての機能を実現するとしてもよい。
記憶部23は、生体データD1を格納する。生体データD1は、生体データ取得装置25,33,43,53,73のいずれかを用いて取得したユーザUの生体データである。
通信部24は、ネットワークNを経由して、例えばVR処理装置2とサーバ装置6,12及び携帯端末7,8との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。なお、通信部24は、サーバ装置6,12及び携帯端末7,8ではない他の装置とネットワークNを経由して通信を行ってもよい。
なお、VR処理装置2は例えば汎用的なPC(パーソナルコンピュータ)であってもよく、又はVRシステム1専用のハードウェアであってもよい。
図3は、本実施形態に係るVRヘッドセット3の構成の一例を示すブロック図である。
VRヘッドセット3は、接続部31、センサ部32、生体データ取得装置33、制御部34、マイク35、スピーカ36、表示部37を含む。
なお、図1で説明済の処理部についての説明は省略する。
接続部31は、VRヘッドセット3とVR処理装置2とを接続する。
センサ部32は、角速度センサ(ジャイロセンサ)S1を含む。センサ部32は、生体データ取得装置33に内蔵されていてもよく、生体データ取得装置33の近傍に設置されていてもよい。
角速度センサS1は、センサを備える物体の回転角度、及び、向きの変化を検知できるセンサである。すなわち、角速度センサS1により、VRヘッドセットの位置の変化及び向きが検出可能である。
なお、センサ部32に含まれるセンサは、上述のものに限られず、例えば、近接センサ、加速度センサ、位置センサ、磁気センサ、輝度センサなどが含まれていてもよい。
制御部34は、VRヘッドセット3に含まれる各処理部の制御を行う。制御部34は、接続部31を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部34は、センサ部32が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置33が取得した生体データ、マイク35に入力された音声データを、接続部31を経由してVR処理装置2へ送信する。また、例えば、制御部34は、接続部31を経由してVR処理装置2より音声データを受信してスピーカ36へ出力し、VRコンテンツを受信して表示部37へ出力する。
マイク35は、ユーザUの音声をVRシステム1に入力する。なお、VRヘッドセット3が声紋の生体データを取得可能な場合は、マイク35は、生体データ取得装置33を兼ねてもよい。
スピーカ36は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。スピーカ36は、例えばヘッドフォンであってもよい。
表示部37は、VR処理装置2のコンテンツ生成部222により生成されたVRコンテンツを表示する。表示部37は、ユーザUの両眼に対応した2つのディスプレイを備える。以下では、VRコンテンツが表示されている状態の表示部37を、VR画面とする。
図4は、本実施形態に係るコントローラ4の構成の一例を示すブロック図である。
コントローラ4は、接続部41、センサ部42、生体データ取得装置43、制御部44、入力部45を含む。
なお、図1で説明済の処理部についての説明は省略する。
接続部41は、コントローラ4とVR処理装置2とを接続する。
センサ部42の構成は、センサ部32と同等である。
制御部44は、コントローラ4に含まれる各処理部の制御を行う。制御部44は、接続部41を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部44は、センサ部42が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置43が取得した生体データ、入力部45に入力されたデータを、接続部41を経由してVR処理装置2へ送信する。
入力部45は、ユーザUの操作を受け付ける。入力部45は、例えば、ボタン、アナログスティック、ロータリエンコーダ、タッチパネル、各種のセンサなどでもよい。
図5は、本実施形態に係るセンサ装置5の構成の一例を示すブロック図である。
センサ装置5は、接続部51、センサ部52、生体データ取得装置53、制御部54、マイク55、スピーカ56を含む。また、センサ装置5は、カメラ57を含むとしてもよい。
なお、図1で説明済の処理部についての説明は省略する。
接続部51は、センサ装置5とVR処理装置2とを接続する。
センサ部52の構成は、センサ部32と同様である。
制御部54は、センサ装置5に含まれる各処理部の制御を行う。制御部54は、接続部51を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部54の動作は、制御部34,44の動作と同等である。
マイク55は、ユーザUの音声をVRシステム1に入力する。なお、センサ装置5が声紋の生体データを取得可能な場合は、マイク55は、生体データ取得装置53を兼ねてもよい。
スピーカ56は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。
カメラ57は、静止画又は動画を撮影する。カメラ57は、2次元画像を撮影できるものでもよく、又は、例えばステレオカメラ、赤外線カメラなどの奥行き情報を取得できるものでもよい。制御部54は、カメラ57により撮影された静止画又は動画に対して画像処理を行うことにより、例えばセンサ部52では認識することができないユーザUのジェスチャ、又は、ユーザUの足、腕、関節などの特定の部位の動き、又は、ユーザUが移動可能な空間に存在する物体などを認識可能であってもよい。
図6は、本実施形態に係るサーバ装置6の構成の一例を示すブロック図である。
サーバ装置6は、通信部61、生体認証部62、制御部63を含む。
なお、図1で説明済の処理部についての説明は省略する。
通信部61は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部61は、データベースDBと通信可能である。
なお、データベースDBは、ネットワークNに接続されていてもよく、ネットワークNを経由してサーバ装置6と通信可能であってもよい。
制御部63は、サーバ装置6に含まれる各処理部の制御を行う。制御部63は、通信部61を経由して、VR処理装置2及びデータベースDBとの間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。例えば、制御部63は、生体認証部62で実行された生体認証が成功した場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨の決済許可通知を送信する。
図7は、本実施形態に係る携帯端末7,8の構成の一例を示すブロック図である。
携帯端末7は、通信部71、センサ部72、生体データ取得装置73、プロセッサ74、表示部75を含む。
携帯端末8は、通信部71、センサ部72、プロセッサ74、表示部75、コンテンツ共有部76を含む。なお、携帯端末8は、生体データ取得装置73を備えていてもよい。
なお、図1で説明済の処理部についての説明は省略する。
通信部71は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部71は、ネットワークNを経由せずに、直接VR処理装置2の通信部24と有線又は無線により通信可能としてもよい。
センサ部72は、センサ部32と同様である。
プロセッサ74は、携帯端末7の演算処理を行う。プロセッサ74は、制御部741を含む。
制御部741は、携帯端末7に含まれる各処理部の制御を行う。制御部741は、通信部71を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部741の動作は、制御部34,44,54の動作と同等である。
表示部75は、例えば、一般的な携帯端末のディスプレイである。
また、上述のように、コンテンツ共有部225により携帯端末8の表示部75にVRコンテンツが表示される場合、携帯端末8は、VRシステム1に認証(ログイン)されることが望ましい。VRシステム1へのログインには、例えば、ログインID及びパスワードが用いられてもよい。より具体的には、例えば、VR処理装置2は、携帯端末8からVR処理装置2へアクセスがあった場合に、表示部75又はVRヘッドセット3の表示部37にログイン画面を表示する。ユーザUは、ログイン画面の指示に従い、ログインID及びパスワードを入力する。
なお、携帯端末8が生体データ取得装置73を備える場合は、VRシステム1へのログインに生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9を用いて後述する)と同等である。
図8は、本実施形態に係るVRシステム1を用いた決済処理を例示するフローチャートである。
ステップS801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。
ステップS802において、VR処理装置2のコンテンツ生成部222が生成したVRコンテンツが、接続部21を経由してVRヘッドセット3へ送信される。VRヘッドセット3の表示部37は、VR処理装置2より受信したVRコンテンツを表示する。さらに、コンテンツ生成部222は、ユーザUの選択により、又は、自動的に、ユーザUが商品を選択し購入可能なVRコンテンツを生成する。
ステップS803において、表示部37に表示された商品選択画面において、ユーザUが購入する商品が選択される。商品は、例えば、ユーザUがコントローラ4を操作することにより選択されてもよい。さらに、選択された商品の購入が承諾されると、VR処理装置2は、決済処理を開始する。商品の購入の承諾は、例えば、VRコンテンツ内に表示された購入ボタンがユーザUによって選択されることにより行われてもよい。
ステップS804において、VR処理装置2は、生体データの照合処理を開始する。生体データ照合処理の詳細については、図9で後述する。
ステップS805において、VR処理装置2は、ステップS804の処理により得られた生体データ照合処理結果を確認する。
生体データ照合処理結果が成功である場合は、VR処理装置2又はサーバ装置6は、サーバ装置12に対して決済許可通知を送信する。この場合、ステップS806において、サーバ装置12は、VR処理装置2より決済許可通知を受信し、決済処理部121は、決済処理を行う。決済処理が完了した場合、サーバ装置6は、通信部61を経由して決済完了通知をVR処理装置2へ送信する。さらに、ステップS807において、VR処理装置2は、決済完了通知を受信し、コンテンツ生成部222は、決済完了した旨の表示を含んだVRコンテンツを生成する。
また、生体データ照合処理結果が失敗である場合は、VR処理装置2は、決済処理を中止する。この場合、ステップS808において、VR処理装置2のコンテンツ生成部222は、決済失敗した旨の表示を含んだVRコンテンツを生成する。
なお、決済完了又は決済失敗した旨の表示は、例えば、メッセージ、アイコン、ダイアログボックスなどによる表示であってもよい。
本実施形態において、VR処理装置2は、ステップS801における起動時に、ユーザUの認証(ログイン)を行うとしてもよい。VRシステム1へのログインには、生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9参照)と同等である。
図9は、本実施形態に係る生体データ照合処理を例示するフローチャートである。
ステップS901において、VR処理装置2は、VRシステム1内で利用可能な生体データ取得装置が複数存在する場合に、どの生体データ取得装置を用いて生体データを取得するかをユーザに選択させる。ユーザUが生体データ取得装置を選択した場合は、ステップS902へ進む。
利用可能な生体データ取得装置がVRシステム1内に1つのみである場合、又は、VR処理装置2がユーザに生体データ取得装置を選択させない場合は、ステップS905に進む。
ステップS902において、VR処理装置2は、ステップS901においてユーザUが指定した生体データ取得装置の位置情報及び方向情報を検出する。具体的には、生体データ取得装置33が指定された場合は、VR処理装置2は、VRヘッドセット3の制御部34より、センサ部32が検出したVRヘッドセット3及び生体データ取得装置33の位置情報及び方向情報を受信する。同様に、生体データ取得装置43が指定された場合は、VR処理装置2は、制御部44より、センサ部42が検出したコントローラ4及び生体データ取得装置43の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置53が指定された場合は、VR処理装置2は、制御部54より、センサ部52が検出したセンサ装置5及び生体データ取得装置53の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置73が指定された場合は、VR処理装置2は、制御部741より、携帯端末7及び生体データ取得装置73の位置情報及び方向情報を受信する。VR処理装置2は、受信した位置情報及び方向情報を、記憶部23に一時的に格納する。
ステップS903において、VR処理装置2は、ステップS902において検出した各装置の位置情報及び方向情報を、VR画面内に表示する。具体的には、VR処理装置2のコンテンツ生成部222は、記憶部23よりステップS902で格納した各装置の位置情報及び方向情報を読み出す。コンテンツ生成部222は、読み出したそれぞれの装置の位置情報及び方向情報に基づいた各装置の画像を、もとのVRコンテンツに重畳し、新たなVRコンテンツを生成する。上述の処理により生成されるVRコンテンツの例は、図11で後述する。
ステップS904において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。
ステップS905において、VR処理装置2は、利用可能な生体データ取得装置を検索する。具体的には、VR処理装置2は、VRヘッドセット3、コントローラ4、センサ装置5、携帯端末7へ、各装置に備えられた生体データ取得装置33,43,53,73が利用可能であるか否かを問い合わせる。
制御部34,44,54,74は、生体データ取得装置33,43,53,73の状態を確認し、各生体データ取得装置が利用可能であるか否かをそれぞれVR処理装置2へ送信する。
ステップS906において、VR処理装置2は、ステップS905で得られた利用可能な生体データ取得装置の位置、向き、及び種類を表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS902及びステップS903で述べた方法と同等である。
ステップS907において、VR処理装置2は、ユーザUへステップS906で表示したいずれかの生体データ取得装置へ生体データを入力させる。この場合、例えば、各生体データ処理装置は、ユーザUより生体データの入力が完了した場合に、生体データD1をVR処理装置2へ送信する。VR処理装置2は、生体データD1を受信し、生体データD1を記憶部23に格納する。
なお、VR処理装置2は、複数の生体データ取得装置から生体データを受信した場合は、受信した複数の生体データを記憶部23に格納してもよく、最初又は最後に受信した生体データを有効なデータとして記憶部23へ格納してもよい。
ステップS908において、VR処理装置2は、サーバ装置6へ生体データ照合命令を送信する。具体的には、生体データ送信部224は、記憶部23より生体データD1を読み出し、生体データ照合命令と生体データD1をサーバ装置6へ送信する。
ステップS909において、サーバ装置6の生体認証部62は、ユーザUの生体データD1と、生体データ照合命令を受信する。サーバ装置6は、受信した生体データD1がデータベースDBに登録されているか否かを確認する。ユーザUの生体データが登録されている場合は、ステップS911へ進む。ユーザUの生体データが登録されていない場合は、サーバ装置6は、VR処理装置2へ生体データが未登録である旨の通知を行う。VR処理装置2は、生体データが未登録である旨の通知を受信し、ステップS910において、生体データ登録処理を行う。
なお、生体データ登録処理は、決済処理と独立して行われてもよい。例えば、生体データ登録処理は、VRシステム1の初回起動時などに行われてもよい。生体データ登録処理の詳細については、図10で後述する。
ステップS911において、サーバ装置6の生体認証部62は、生体データ照合処理を行う。具体的には、生体認証部62は、データベースDBに登録されているユーザUの登録済生体データD2を読み出し、VR処理装置2より受信した生体データD1と照合する。生体認証部62は、照合結果が成功又は失敗した旨をVR処理装置2へ送信する。
図10は、本実施形態に係る生体データ登録処理を例示するフローチャートである。
ステップS1001において、VR処理装置2は、登録可能な生体データ取得装置の種類を表示する。登録可能な生体データ取得装置の検索処理は、ステップS905の処理と同様である。
ステップS1002において、VR処理装置2は、ステップS1001で得られた登録可能な生体データ取得装置の位置、向き、及び種類をVR画面に表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS906で述べた方法と同等である。
ステップS1003において、VR処理装置2は、ステップS1002でVR画面に表示された生体データ取得装置のうち1つの生体データ取得装置を、ユーザUに選択させる。
なお、ステップS901で生体データ取得装置を指定された場合は、自動的にステップS901で指定された生体データ取得装置と同じものが指定されてもよい。この場合、ステップS1001及びステップS1002において、ステップS901で指定された生体データ取得装置がVR画面に表示され、ステップS1003の処理はなくてもよい。
ステップS1004において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。入力された生体データは、VR処理装置2へ送信される。
ステップS1005において、VR処理装置2は、ステップS1004で生体データ取得装置に入力された生体データを受信する。VR処理装置2の生体データ送信部224は、サーバ装置6へ、当該生体データと、生体データ登録指示を送信する。
ステップS1006において、サーバ装置6は、データベースDBに受信した生体データを登録する。
図11は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。より具体的には、図11は、図9のS906、及び、図10のS1002において、表示部37に表示されるVR画面V1を示す。
VR画面V1は、利用可能(又は登録可能)な生体センサを示す生体センサ選択画面W1を表示する。図11では、生体センサ選択画面W1はVR画面V1に重畳的に表示されているが、表示方法はこれに限られない。例えば、VR画面V1が切り替わり、生体センサ選択画面W1が全画面に表示されてもよい。
生体センサ選択画面W1には、利用可能な生体データ取得装置と、利用可能な生体データ取得装置が含まれる装置が表示される。図11の例では、生体センサ選択画面W1には、VRヘッドセット103と、VRヘッドセット103に含まれる虹彩センサ103A、声紋センサ103B、静脈センサ103C、及び、コントローラ104と、コントローラ104に含まれる静脈センサ104A、指紋センサ104B、及び、コントローラ105と、コントローラ105に含まれる静脈センサ105A、指紋センサ105B、及び、センサ装置106と、センサ装置106に含まれる声紋センサ106Aが表示される。
なお、生体センサ選択画面W1に表示される各装置及び生体センサの画像の向きは、各装置を操作するユーザUの動きに合わせて、リアルタイムに変化することが望ましい。また、生体センサが二種以上含まれる場合は、ユーザUが同種の生体センサと異種の生体センサとを、例えば色又は形などで容易に判別できるよう表示されることが望ましい。
生体センサ選択画面W2は、生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより静脈センサ104Aが選択された状態を示す。
生体センサの選択は、例えば、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体センサの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。
選択された静脈センサ104Aの周囲には、センシング可能領域Aが表示される。センシング可能領域は、ユーザUの体の一部を生体センサに近接させて生体データを取得することができる範囲を示す。
ユーザUは、表示された静脈センサ104Aのセンシング可能領域Aの範囲内に、例えば指を近づけることで、静脈データを入力する。
また、例えばユーザUがコントローラ4の位置及び向きを変化させることにより、生体センサ選択画面W2に表示されるコントローラ104の表示が変化する場合、センシング可能領域Aの表示もコントローラ104の位置及び向きに合わせて変化する。
なお、他の生体センサが選択された場合も、上述と同様に、選択された生体センサに対応したセンシング可能領域が表示される。
なお、センシング可能領域の表示態様は、領域を表示するものであれば、図11中に示されている態様に限られない。
図12は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。
VR画面V2は、図11の生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより声紋センサ106Aが選択された状態を示す。
声紋センサ106Aを含むセンサ装置106は、現在のユーザUの位置から離れた場所に存在するため、VR処理装置2は、ユーザUを声紋センサ106Aが反応する位置まで誘導する。
まず、制御部221は、ユーザUの位置を取得する。センサ装置5のカメラ57がユーザUを撮影することにより、制御部54又は制御部221がユーザUのVRシステム1内における位置及び向きを計算してもよい。又は、ユーザUに装着されたVRヘッドセット3のセンサ部が検出した位置及び向きを、ユーザUの位置及び向きとしてもよい。
次に、制御部221は、取得したユーザUの位置及び向きと声紋センサ106Aの位置及び向きとに基づいて、ユーザUを誘導する方向を決定する。ユーザUを誘導する方向は、VRシステム1内の位置及び向きを示すデータに変換され、コンテンツ生成部222に入力される。
コンテンツ生成部222は、制御部221より受信したデータに基づき、VRコンテンツ内にユーザUを誘導する方向を示す矢印201を描画する。
なお、ユーザUを誘導する方法は、上述の方法に限られない。例えば、コンテンツ生成部222により、VR画面V2上で声紋センサ106Aの位置が強調表示されてもよい。
VR画面V3は、ユーザUの位置が、声紋センサ106Aが反応する位置まで近づいた状態を示す。
制御部221は、ユーザUと声紋センサ106Aとの距離が一定以下になった場合に、声紋センサ106Aが利用可能になった旨をユーザUに通知する。例えば、コンテンツ生成部222は、制御部221よりユーザUと声紋センサ106Aとの距離が一定以下になった旨の通知を受信すると、VRコンテンツの声紋センサ106Aに印E1を描画してもよい。ユーザUは、VRコンテンツ内の印E1を視認することにより、声紋センサ106Aに対し、声紋データを入力する。
なお、印E1の形状及び表示方法は、図12中に表示されるものに限られない。また、声紋センサ106Aが利用可能になった旨をユーザUに通知する方法は、上述のものに限られない。例えば、VRヘッドセット3のスピーカ36を通じて音声によりユーザUに通知してもよい。
図13は、本実施形態に係る生体データ選択時のVR画面表示を例示する図である。より具体的には、図13は、図9のS901において、表示部37に表示されるVR画面V4を示す。
VR画面V4は、生体データ選択画面W3を表示する。図13では、生体データ選択画面W3はVR画面V4に重畳的に表示されているが、生体センサ選択画面W1と同様に、表示方法はこれに限られない。
生体データ選択画面W3には、取得する生体データの種類が表示される。図13の例では、生体データ選択画面W3には、指紋データB1、顔データB2、虹彩データB3、静脈データB4、声紋データB5が選択可能な項目として表示される。
ユーザUにより上述の項目のうち1つが選択された場合、VR画面V4上には、項目が選択された旨が表示される。例えば、VR画面V4上には、選択された項目の周囲に印E2が表示されてもよい。
なお、生体データの選択は、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体データの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。
なお、印E2の形状及び表示方法は、図13中に例示されるものに限られない。
図14は、本実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。より具体的には、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、表示部37に表示されるVR画面V5を示す。
VR画面V5は、画面表示W4を含む。画面表示W4は、コンテンツが携帯端末8と共有されていることを示す画像又は文字である。
なお、画面表示W4は、ユーザが認識することができるVR画面V5上の任意の位置に表示可能である。また、画面表示W4は、自動的に又はユーザUの操作により、移動又は消去されてもよい。
以上説明した本実施形態においては、VRシステム1は、VR画面上に生体センサの位置及び向きを表示可能である。これにより、ユーザUは、VR画面内で商品購入し、決済のための生体データの取得が必要な場合であっても、VRヘッドセット3を外すことなく、生体データを入力することができる。
本実施形態においては、決済に生体データが用いられるため、決済の安全性が確保される。
本実施形態においては、ユーザUの所有する携帯端末7を、例えばコントローラ4の代わりとしてVRシステム1に追加可能である。これにより、通常の仮想実現システムと携帯電話とでシステムを構築でき、コスト削減が可能である。
本実施形態においては、生体データ取得装置とユーザUの位置が離れている場合であっても、VRシステム1は、ユーザUが生体データを入力可能な位置までユーザUを誘導する。これにより、さらに生体データを入力するユーザUの利便性が高まる。
本実施形態においては、VRヘッドセット3の表示部37に表示されるVRコンテンツを、VRシステム1に認証された携帯端末8の表示部75にも出力可能とする。これにより、家族でVRシステム1を共有する場合、例えば、VRヘッドセット3を装着した子供がどんなゲームをしているかを、親が自分の携帯端末8を用いて把握することができ、子供を有害コンテンツから守ることができる。また、VRコンテンツを、VRヘッドセット3を装着していない者にも共有することができ、アミューズメント性を高めることができる。
[第2の実施形態]
本実施形態においては、VRシステムのユーザより取得した生体データを用いて、VR画面内に登場させるキャラクター(アバター)の属性を決定するVRシステムについて説明する。
本実施形態で使用するVRシステムは、第1の実施形態におけるVRシステム1と同様である。
図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。
VR画面V6は、ユーザUに対応するキャラクターC、キャラクターCの属性Xを表示する。属性Xは、常にVR画面V6に表示されている必要はなく、ユーザUにより属性Xの表示指示を受けた場合にのみ表示してもよい。
属性Xは、キャラクターCの属性を含む。例えば、属性Xは、名前P1、性別P2、年齢P3、体力P4、性格P5を含む。キャラクターCの属性は、これら以外の項目を含んでいてもよい。
キャラクターCの画像は、属性Xの項目の内容によって、外見や状態が変化するとしてもよい。例えば、性別P2、又は、年齢P3に合致するようにキャラクターCの外見が変化してもよく、体力P4によってキャラクターCの姿勢が変化してもよく、性格P5によってキャラクターCの表情が変化してもよい。
属性Xの各項目は、ユーザUが生体認証を行う毎に、ユーザUの生体データがVRシステム1によって解析された結果に基づいて更新されてもよい。
図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。
ステップS1601において、ユーザUの生体データが、VRシステム1内の任意の生体データ取得装置に入力される。ユーザUの生体データが入力されるタイミングは、図9のステップS904又はステップS907、又は、図10のステップS1004であってもよく、これら以外のタイミングで入力されてもよい。生体データ取得装置により取得された生体データは、VR処理装置2へ送信される。
ステップS1602において、VR処理装置2の制御部221は、ユーザUが入力した生体データを受信し、解析処理を行う。制御部221は、例えば、生体データが声紋データである場合、声の高さ及び質より、ユーザUの年齢及び性別を判定する。制御部221は、例えば、生体データが顔データである場合、表情を読み取ることにより、ユーザUの性格を判定する。なお、制御部221が行う解析処理は上述のものに限られない。
ステップS1603において、制御部221は、ステップS1602で得られた生体データの解析結果に基づき、キャラクターCの属性の決定を行う。属性の種類(項目)は、あらかじめユーザUにより決められていてもよく、又は、制御部221が解析結果に基づいて自動的に生成されてもよい。
ステップS1604において、制御部221は、ステップS1603で得られた属性に基づいて、キャラクターCの生成処理又は更新処理を行う。なお、キャラクターCの初回生成時は、キャラクターCの基本状態となる画像はあらかじめユーザUによって選択されてもよい。又は、制御部221は、属性に基づいて、キャラクターCを自動生成してもよい。
ステップS1605において、制御部221は、キャラクター情報及び属性情報を、をコンテンツ生成部222へ入力する。コンテンツ生成部222は、入力されたキャラクター情報及び属性情報に基づき、キャラクターC及び属性Xの表示を含むVRコンテンツを生成する。当該VRコンテンツは、コンテンツ送信部223によりVRヘッドセット3へ送信され、表示部37に表示される。
以上説明した本実施形態においては、ユーザUより取得した生体データを用いて、自動的に生体データに含まれる属性Xが反映されたキャラクターCをVR画面内に表示することができる。これにより、ユーザUの個性を反映したキャラクターの生成が可能となり、VRを通じたネットワーク上での個人の識別が容易になる。また、ユーザUの個性をキャラクターに反映させることにより、アミューズメント性を高めることができる。
[第3の実施形態]
近年、人工知能(AI:Artificial Intelligence)を用い、入力された検診データなどに基づいて病気の自動診断を行うシステムが開発されている。しかしながら、このような診断システムを利用するためには検診データの収集は、ユーザにとって負担であるため、ユーザの利便性を高める技術が望まれている。
本実施形態においては、VRシステムのユーザが日常的にVRシステムに入力する生体データを蓄積し、蓄積した生体データを診断システムに入力して結果を受信することで、ユーザが診断システムの利用に必要なデータの収集を意識することなく、簡易的な病気の診断結果が取得可能な診断システムを提案する。また、診断結果よりユーザが利用可能な病院と診療科を提案することにより、さらにユーザの利便性を高めることができる。
図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。
自動診断システム11は、VRシステム1Aと、診断用サーバ装置9と、予約システム10とを含む。
VRシステム1Aに含まれるVR処理装置2は、記憶部23を含む。記憶部23は、生体データD1と、位置情報233を含む。
生体データD1は、ユーザUが生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを格納する。
位置情報233は、例えば、診断用サーバ装置9がユーザUの受診可能な病院を抽出するために用いられる。
位置情報233は、例えば、ユーザUがVRシステム1に予め登録した住所であってもよく、VR処理装置2又は携帯端末7がGPS(Global Positioning System)を備える場合は、後述の画面表示T1を表示する際に当該GPSが示す位置であってもよい。位置情報233の取得方法は、上述のものに限られない。
なお、本実施形態に係るVRシステム1Aのその他の構成は、第1の実施形態におけるVRシステム1の構成と同様である。
診断用サーバ装置9は、記憶部91と、制御部92と、通信部93とを含む。
記憶部91は、病院情報911を含む。
病院情報911は、例えば、病名と、病名に対応可能な病院及び診療科と、病院の位置とを関連付ける情報である。
制御部92は、診断用サーバ装置9全体の制御を行う。制御部92は、例えば、ユーザUの生体データに基づいて診断処理を実行し、診断結果として病名を得る。さらに、制御部92は、病院情報911と、診断結果と、VR処理装置2より受信した位置情報233とに基づいて、病名に対応可能な病院及び診療科の一覧を生成し、当該一覧をVR処理装置へ送信する。
通信部93は、ネットワークNを経由して、例えばVR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。
予約システム10は、患者などからの診療日時の予約を受け付け可能な、一般的な病院の予約システムである。予約システム10は、例えば病院が備えるサーバ装置上で動作するプログラムなどにより実現される。
図18は、本実施形態に係る自動診断システム11の処理を例示するフローチャートである。
ステップS1801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。
ステップS1802において、VR処理装置2は、VRシステム1Aにログインする際に生体データの入力を要する場合に、ログイン時に用いた生体データの収集を行う。具体的には、VR処理装置2は、ユーザUがログインの際に生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを、これらの生体データ取得装置を含むVRヘッドセット3、コントローラ4、センサ装置5、携帯端末7のいずれかより受信し、記憶部23に格納する。
なお、VRシステム1Aへのログインは、ユーザUがVR処理装置2に対して行ってもよく、又は、ユーザUが携帯端末7に対して行ってもよい。
ステップS1803において、VR処理装置2は、VRシステム1Aにおいて決済処理が行われる毎に、決済時に用いた生体データの収集を行う。生体データの収集方法は、ステップS1802と同様である。
ステップS1804において、VR処理装置2は、記憶部23に格納されている生体データD1の量及び種類が、診断用サーバ装置9に入力可能な程度に十分であるか否かを確認する。VR処理装置2は、生体データD1の量及び種類が十分でないと判断した場合は、ステップS1802に戻り、生体データの収集を続ける。また、VR処理装置2は、生体データD1の量及び質が十分であると判断した場合は、ステップS1805に進む。
ステップS1805において、VR処理装置2は、VR処理装置の位置情報233を取得し、記憶部23に格納する。そして、VR処理装置2は、生体データD1及び位置情報233を診断用サーバ装置9へ送信する。
ステップS1806において、診断用サーバ装置9は、VR処理装置2より受信した生体データD1に基づいて、診断処理を実行し、診断結果を得る。診断結果は、例えば病名などでもよい。診断処理は、AI(Artificial Intelligence)を用いて行われてもよく、又は、その他任意のアルゴリズムを用いて行われてもよい。
ステップS1807において、診断用サーバ装置9は、VR処理装置2より受信した位置情報233に基づき、ユーザUが利用可能な範囲の病院を検索し、抽出する。さらに、診断用サーバ装置9は、診断結果及び抽出した病院と、病院情報911とに基づいて、ユーザUが受診可能な病院及び診療科を決定する。
ステップS1808において、診断用サーバ装置9は、ステップS1806及びステップS1807において得られた診断結果及びユーザUが受診可能な病院及び診療科を含むデータを、VR処理装置2へ送信する。
ステップS1809において、VR処理装置2は、診断用サーバ装置9より受信したデータに基づき、診断結果、病院、診療科などの情報をVRヘッドセット3の表示部37又は携帯端末7の表示部75に表示する。表示部37,75に表示される画面の詳細については、図19で後述する。
ステップS1810において、VR処理装置2は、ユーザUに、表示部37,75に表示された病院及び診療科を指定させる。ユーザUにより指定された病院及び診療科を示すデータは、予約システム10へ送信される。
ステップS1811において、予約システム10は、ステップS1810において指定した病院及び診療科の予約可能日時を検索し、VR処理装置2へ送信する。
ステップS1812において、VR処理装置2は、予約システム10より受信した予約可能日時を表示部37,75に表示し、ユーザUに予約日時を指定させる。ユーザUにより指定された予約日時は、予約システム10へ送信される。
ステップS1813において、予約システム10は、予約結果をVR処理装置2へ送信し、予約を完了する。
ステップS1814において、VR処理装置2は、予約完了した旨をユーザに通知する。具体的には、例えば、表示部37,75に予約完了メッセージを表示する。
なお、VR処理装置2は、例えば、予約完了後に診断結果を予約済の病院へ送信してもよい。
図19は、本実施形態に係る自動診断システム11における画面表示の第1の例を示す図である。具体的には、図19は、図18のステップS1809において、表示部37,75に表示される診断結果及びユーザUが受診可能な病院及び診療科の一覧を示す。
画面表示T1は、病名Q1、病院Q2、診療科Q3、アドレスQ4を含む。
病名Q1は、受信した診断結果に基づく病名を示す。
病院Q2は、病名Q1に関する診断が受けられる病院名を示す。
診療科Q3は、病院Q2の中でユーザが病名Q1に関して受信可能な診療科を示す。診療科Q3に含まれる各診療科の表示は、ユーザUにより選択可能であることが望ましい。制御部221又は制御部741は、ユーザUにより選択した診療科について、予約画面を表示する。選択された診療科は、例えば表示E3のように強調される。
アドレスQ4は、病院Q2及び診療科Q3の情報の所在を示すアドレスである。アドレスは、例えばURL(Uniform Resource Locator)などであってもよい。
なお、画面表示T1が含む項目は、上述のものに限られない。また、画面表示T1は表形式以外の形式で表示されてもよい。アドレスQ4に含まれる各アドレスの表示は、ユーザUにより選択可能であってもよい。この場合、制御部221又は制御部741は、ユーザUにより選択されたアドレスQ4に関連付けられたウェブページなどを表示してもよい。
図20は、本実施形態に係る自動診断システム11における画面表示の第2の例を示す図である。具体的には、図20は、図18のステップS1812において、表示部37,75に表示される予約画面を示す。図20は、図19の画面表示T1において、「A病院の耳鼻科」が選択された場合(表示E3参照)に表示される画面を示す。
画面表示T2は、日付選択表示E4を含む。日付選択表示E4は、例えばカレンダー表示であってもよく、リスト表示であってもよい。
日付選択表示E4は、予約可能な日付と、予約不可である日付が明示されていることが望ましい。制御部221又は制御部741は、ユーザUにより予約可能な日付が選択されると、時間帯選択表示E5をさらに表示してもよい。ユーザUは、さらに予約可能な時間帯を選択することにより、予約日時の指定を完了させる。なお、時間帯選択表示E5は、例えば、ポップアップ表示、リスト表示、又はその他の表示形式であってもよい。
本実施形態において、画面表示T1,T2は、VR処理装置2又は携帯端末7にインストールされたアプリケーションにより表示されてもよい。この場合、病院Q2及び診療科Q3を検索して表示する処理及び画面表示処理は、当該アプリケーションがプロセッサ22、プロセッサ74を使用して行われてもよい。
以上説明した本実施形態においては、自動診断システム11は、ユーザUがVRシステム1Aにログインする際又は決済を行う際にVRシステム1Aに入力する生体データを収集し、診断用サーバ装置9へ送信する。これにより、ユーザUは診断用サーバ装置9へ入力するデータの収集を意識的に行うことなく診断結果を取得可能となり、ユーザの利便性が高まる。また、自動診断システム11は、診断結果に基づいて最適な病院及び診療科を選択し、来院予約を行うとともに、診断用サーバ装置9より得られた診断結果を送信する。これによりさらにユーザの利便性が高まるだけでなく、医療ミスの防止及び診療時間の短縮にも貢献できる。
なお、本実施形態において、自動診断システム11は、ユーザUの病名の診断に限らず、あらゆる種類の診断に適用可能である。例えば、自動診断システム11を健康診断に適用する場合、自動診断システム11は、画面表示T1の内容のうち、病名Q1及び診療科Q3に代えて、検査項目及び詳細検査機関を関連付け、ユーザUに提示するとしてもよい。
また、本実施形態において、自動診断システム11には、VRシステム1に代えて、生体データD1の取得及び位置情報233の取得又は格納が可能な他の情報処理装置又はシステムが含まれるとしてもよい。
上記の実施形態は、例示であり、発明の範囲を限定することは意図していない。上記の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。上記の実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (7)

  1. ユーザからの指示を受け付けるコントローラと、
    前記コントローラから受信した指示に応じて、仮想現実コンテンツを生成する第1の情報処理装置と、
    前記ユーザに装着され、前記第1の情報処理装置から受信した前記仮想現実コンテンツを前記ユーザに表示する仮想現実ヘッドセットと、
    前記ユーザの生体データを取得する生体データ取得装置と、
    前記生体データ取得装置の位置を示す第1の位置情報と、前記生体データ取得装置の方向を示す第1の方向情報とを生成し、前記第1の位置情報と前記第1の方向情報とを前記第1の情報処理装置へ送信する第1のセンサと、
    前記仮想現実ヘッドセットの位置を示す第2の位置情報と、前記仮想現実ヘッドセットの方向を示す第2の方向情報とを生成し、前記第2の位置情報と前記第2の方向情報とを前記第1の情報処理装置へ送信する第2のセンサと、
    前記第1の情報処理装置と通信可能に接続されている第2の情報処理装置と、
    を具備し、
    前記第1の情報処理装置は、
    前記コントローラから決済指示を受信した場合に、前記第1のセンサから受信した前記第1の位置情報及び前記第1の方向情報と、前記第2のセンサから受信した前記第2の位置情報及び前記第2の方向情報とに基づいて、前記生体データ取得装置の前記位置及び前記方向を前記仮想現実ヘッドセットを装着している前記ユーザに認識させるとともに前記生体データ取得装置による生体データ入力を前記仮想現実ヘッドセットを装着している前記ユーザに促す画像、を前記仮想現実コンテンツに付加するコンテンツ生成部と、
    前記仮想現実コンテンツを前記仮想現実ヘッドセットへ送信するコンテンツ送信部と、
    前記生体データ入力を前記ユーザに促す画像を含む前記仮想現実コンテンツが前記仮想現実ヘッドセットによって表示された後に、前記生体データ取得装置から前記ユーザの前記生体データを受信し、前記生体データを前記第2の情報処理装置へ送信する生体データ送信部と、
    を具備し、
    前記第2の情報処理装置は、
    前記第1の情報処理装置から受信した前記生体データと、前記第2の情報処理装置によって参照される記憶装置に記憶されている前記ユーザの登録済み生体データとを照合し、照合成功の場合に前記決済指示を許可する生体認証部
    を具備する、
    仮想現実システム。
  2. 前記第1のセンサと前記生体データ取得装置とを具備する携帯端末をさらに具備し、
    前記携帯端末は、前記第1の位置情報及び前記第1の方向情報を前記第1の情報処理装置へ送信し、前記ユーザの前記生体データを前記第1の情報処理装置へ送信する、
    請求項1の仮想現実システム。
  3. 前記第1の情報処理装置は、前記第1の情報処理装置と通信可能であり前記ユーザではない他のユーザによって操作される第3の情報処理装置の認証を行い、前記第3の情報処理装置に対する前記認証が成功した場合に、前記第1の情報処理装置と前記第3の情報処理装置との通信を許可し、前記仮想現実コンテンツを前記第3の情報処理装置に対応するコンテンツに変換し、前記コンテンツを前記第3の情報処理装置へ送信するコンテンツ共有部をさらに具備し、
    前記第3の情報処理装置は、前記コンテンツ共有部から受信した前記コンテンツを表示する表示部を具備し、
    前記第1の情報処理装置の前記コンテンツ生成部は、前記コンテンツ共有部が前記コンテンツを前記第3の情報処理装置へ送信している場合に、前記コンテンツが共有されていることを示す画像又は文字を前記仮想現実コンテンツに付加し、
    前記第1の情報処理装置の前記コンテンツ送信部は、前記コンテンツを共有していることを示す前記画像又は前記文字を含む前記仮想現実コンテンツを前記仮想現実ヘッドセットへ送信する、
    請求項1の仮想現実システム。
  4. 前記コンテンツ生成部は、前記第1の位置情報と前記第2の位置情報との差分と、前記第1の方向情報と前記第2の方向情報との差分とに基づいて、前記ユーザを前記生体データ取得装置まで誘導する画像を前記仮想現実コンテンツに付加する、
    請求項1の仮想現実システム。
  5. 前記コンテンツ生成部は、前記生体データと前記登録済み生体データとのうちの少なくとも一方に基づいて、前記ユーザに対応するキャラクターの属性を決定し、前記属性に応じて前記仮想現実コンテンツを生成する、
    請求項1の仮想現実システム。
  6. 請求項1の仮想現実システムと、
    診断処理装置と、
    を具備し、
    前記第1の情報処理装置は、
    前記生体データ取得装置から受信した前記生体データの履歴データと前記ユーザの位置を示す第3の位置情報とを記憶する第1の記憶部と、
    前記第1の記憶部に記憶されている前記履歴データと前記第3の位置情報とを前記診断処理装置へ送信する履歴送信部と、
    をさらに具備し、
    前記診断処理装置は、
    病名と前記病名に対応可能な病院及び診療科と前記病院の位置とを関連付けている病院情報とを記憶する第2の記憶部と、
    前記第1の情報処理装置から前記履歴データと前記第3の位置情報とを受信し、前記履歴データに基づいて診断処理を実行し、前記病院情報と前記診断処理の結果と前記第3の位置情報とに基づいて、前記診断処理の結果に対応可能な病院及び診療科の一覧を生成し、前記一覧を前記第1の情報処理装置へ送信する第1の制御部と、
    を具備し、
    前記第1の情報処理装置は、
    前記診断処理装置から受信した前記一覧を表示部に表示する第2の制御部
    をさらに具備する、
    情報処理システム。
  7. 前記第1の情報処理装置の前記第2の制御部は、前記ユーザに、前記表示部に表示された前記一覧に含まれる前記病院及び診療科のいずれかを選択させ、選択された前記病院の予約システムへ選択された診療科を示す診療科情報を送信し、
    前記予約システムは、前記第1の情報処理装置から前記診療科情報を受信し、前記診療科情報の示す前記診療科の予約可能日時を前記第1の情報処理装置へ送信し、
    前記第1の情報処理装置の前記第2の制御部は、前記予約システムから受信した前記予約可能日時を前記表示部に表示し、前記ユーザによって選択された日時を前記予約システムに送信する、
    請求項6の情報処理システム。
JP2016567869A 2016-07-15 2016-07-15 仮想現実システム、及び、情報処理システム Active JP6095191B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/071046 WO2018011988A1 (ja) 2016-07-15 2016-07-15 仮想現実システム、及び、情報処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017021288A Division JP6719776B2 (ja) 2017-02-08 2017-02-08 仮想現実システム

Publications (2)

Publication Number Publication Date
JP6095191B1 JP6095191B1 (ja) 2017-03-15
JPWO2018011988A1 true JPWO2018011988A1 (ja) 2018-07-12

Family

ID=58281121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567869A Active JP6095191B1 (ja) 2016-07-15 2016-07-15 仮想現実システム、及び、情報処理システム

Country Status (5)

Country Link
US (2) US10437057B2 (ja)
EP (1) EP3296940A4 (ja)
JP (1) JP6095191B1 (ja)
CN (2) CN113625880B (ja)
WO (1) WO2018011988A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6321271B1 (ja) * 2017-06-21 2018-05-09 株式会社コロプラ コンテンツ提供方法、当該方法をコンピュータに実行させるプログラム、およびコンテンツ提供装置
CN107734193A (zh) * 2017-11-22 2018-02-23 深圳悉罗机器人有限公司 智能设备系统及智能设备控制方法
JP7172139B2 (ja) * 2018-05-28 2022-11-16 大日本印刷株式会社 販売システム
KR101941947B1 (ko) * 2018-07-13 2019-01-24 주식회사 유니브이알 가상현실 체험 기기를 이용한 가상현실 영상 제공 시스템
CN111200745A (zh) * 2019-12-31 2020-05-26 歌尔股份有限公司 视点信息采集方法、装置、设备和计算机存储介质
JP2022086027A (ja) * 2020-11-30 2022-06-09 株式会社電通 情報処理システム
US20230259920A1 (en) * 2022-02-15 2023-08-17 Htc Corporation Authentication method performed through wallet connection interface, authentication system, and computer readable storage medium

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2006207908B2 (en) * 2005-01-28 2012-06-07 Cardinal Commerce Corporation System and method for conversion between internet and non-internet base transactions
US7839417B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
CN101470875A (zh) * 2007-12-29 2009-07-01 阿里巴巴集团控股有限公司 一种通过中间平台进行支付的方法及支付系统
CN201299884Y (zh) * 2008-10-09 2009-09-02 上海惠诚咨询有限公司 智能心理身心反馈训练装置
CN102542483A (zh) * 2011-11-08 2012-07-04 莫健新 房产位置展示系统及方法、展示数据生成系统及方法
US10223710B2 (en) * 2013-01-04 2019-03-05 Visa International Service Association Wearable intelligent vision device apparatuses, methods and systems
CN104302375A (zh) * 2012-02-06 2015-01-21 塞莱默水处理齐利诺普尔有限公司 具有内部空气分配管道的双平行横向排水沟
US9152226B2 (en) * 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
US9645394B2 (en) * 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
KR101991133B1 (ko) * 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이 및 그 제어 방법
US9699271B2 (en) * 2013-01-29 2017-07-04 Blackberry Limited Method and apparatus for suspending screen sharing during confidential data entry
US20140267411A1 (en) * 2013-03-15 2014-09-18 Elwha Llc Indicating observation or visibility patterns in augmented reality systems
JP6160154B2 (ja) * 2013-03-22 2017-07-12 セイコーエプソン株式会社 頭部装着型表示装置を利用した情報表示システム、頭部装着型表示装置を利用した情報表示方法、および、頭部装着型表示装置
KR102127927B1 (ko) * 2013-07-30 2020-07-09 엘지전자 주식회사 이동 단말기, 스마트 워치 및 이동 단말기와 스마트 워치간 보안 인증방법
US20150062164A1 (en) * 2013-09-05 2015-03-05 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
US20150142596A1 (en) * 2013-11-18 2015-05-21 Gabriel Jakobson Commercial transactions via a wearable computer with a display
JP2015118556A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション コントロールデバイスのための拡張現実オーバーレイ
KR102080747B1 (ko) * 2014-03-28 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
JP2015230236A (ja) * 2014-06-05 2015-12-21 株式会社ecbeing 商品案内装置、端末装置、商品案内方法、及びプログラム
KR102239090B1 (ko) * 2014-06-05 2021-04-13 삼성전자 주식회사 위치 정보를 제공하기 위한 방법 및 장치
KR20160067373A (ko) * 2014-12-04 2016-06-14 김상백 아바타를 이용한 신변제품 착용 스타일 정보 제공 시스템 및 그 운용방법
CN104616190A (zh) * 2015-03-05 2015-05-13 广州新节奏智能科技有限公司 基于互联网和移动互联网的多终端3d体感购物方法及系统
US20160358181A1 (en) * 2015-05-14 2016-12-08 Magic Leap, Inc. Augmented reality systems and methods for tracking biometric data
KR102557801B1 (ko) * 2016-02-04 2023-07-21 삼성전자주식회사 휴대 장치 및 휴대 장치의 전자 결제방법

Also Published As

Publication number Publication date
US20190377178A1 (en) 2019-12-12
US20180052324A1 (en) 2018-02-22
CN109478288B (zh) 2021-09-10
JP6095191B1 (ja) 2017-03-15
CN113625880A (zh) 2021-11-09
EP3296940A1 (en) 2018-03-21
US10437057B2 (en) 2019-10-08
WO2018011988A1 (ja) 2018-01-18
US10996474B2 (en) 2021-05-04
CN113625880B (zh) 2024-04-12
CN109478288A (zh) 2019-03-15
EP3296940A4 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
JP6095191B1 (ja) 仮想現実システム、及び、情報処理システム
US10318958B2 (en) Smart watch and operating method using the same
KR102190056B1 (ko) 빅데이터 기반의 환자 맞춤형 복약 정보 제공 장치 및 복약 정보 제공 방법
CN103890696B (zh) 经认证的手势辨识
US9614840B2 (en) Network authentication method and system based on eye tracking procedure
CA2932528A1 (en) Service-provision management system
CN107115123A (zh) 用于执行自动的且自我指导的医学检查的系统和方法
US11257087B2 (en) Methods and systems for detecting suspicious or non-suspicious activities involving a mobile device use
KR20120087492A (ko) 키오스크와 스마트 모바일 기기를 이용한 정신건강 진단 장치
JP2021007000A (ja) 情報処理方法、情報処理装置及びプログラム
JP6719776B2 (ja) 仮想現実システム
KR20170140705A (ko) 연상카드 맞추기 게임을 이용한 인지능력 재활훈련 시스템 및 그 방법
JP2017041199A (ja) 真正性保証装置及び真正性保証システム
TWM583581U (zh) 虛擬實境輔助交易系統
TWI801718B (zh) 智慧型互動顯示裝置、智慧型互動顯示系統及其互動顯示方法
CN108364682A (zh) 一种红外热成像体检设备、云端服务器、终端及系统
US10740816B2 (en) Person and machine matching device, matching system, person and machine matching method, and person and machine matching program
US20200364721A1 (en) Methods and systems for generating a unique signature based on user movements in a three-dimensional space
JP2020052505A (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
JP2020160539A (ja) 情報処理装置及び情報処理プログラム
JP2017182530A (ja) 検索システム、検索方法、サーバ、およびプログラム
JP2022188457A (ja) 介護情報記録装置及び介護情報記録方法
KR20220150794A (ko) 한방 진단 시스템 및 한방 진단 시스템의 동작 방법
KR20220068005A (ko) IoT 디바이스 연동 인지재활 서비스 제공 방법
JP2022052538A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170210

R150 Certificate of patent or registration of utility model

Ref document number: 6095191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250