CN109478288A - 虚拟现实系统及信息处理系统 - Google Patents

虚拟现实系统及信息处理系统 Download PDF

Info

Publication number
CN109478288A
CN109478288A CN201680087235.6A CN201680087235A CN109478288A CN 109478288 A CN109478288 A CN 109478288A CN 201680087235 A CN201680087235 A CN 201680087235A CN 109478288 A CN109478288 A CN 109478288A
Authority
CN
China
Prior art keywords
processing unit
user
content
sent
organism data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680087235.6A
Other languages
English (en)
Other versions
CN109478288B (zh
Inventor
澁川浩史
田中雅史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wu Liwei Benevolent Corp
Original Assignee
Wu Liwei Benevolent Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wu Liwei Benevolent Corp filed Critical Wu Liwei Benevolent Corp
Priority to CN202110945400.XA priority Critical patent/CN113625880B/zh
Publication of CN109478288A publication Critical patent/CN109478288A/zh
Application granted granted Critical
Publication of CN109478288B publication Critical patent/CN109478288B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

虚拟现实系统包括信息处理装置、虚拟现实头戴式耳机、生物体数据采集装置、第1传感器、第2传感器。信息处理装置根据收到的控制器发送的指示生成虚拟现实内容。虚拟现实头戴式耳机佩戴于用户上,并将收到的信息处理装置发送的虚拟现实内容显示给用户。生物体数据采集装置采集用户的生物体数据。第1传感器生成生物体数据采集装置的第1位置信息和第1方向信息。第2传感器生成虚拟现实头戴式耳机的第2位置信息和第2方向信息。信息处理装置基于第1和第2位置信息和第1和第2方向信息,将指示佩戴有虚拟现实头戴式耳机的用户识别生物体数据采集装置的位置和方向的画面添加到虚拟现实内容中。

Description

虚拟现实系统及信息处理系统
技术领域
本发明涉及虚拟现实系统及信息处理系统。
背景技术
近几年,与虚拟现实(Virtual reality:以下简称为VR)有关的系统开发盛行。通常,当用户体验VR内容时,用户在头上佩戴护目镜形状的设备(以下称为VR头戴式耳机)。Vr头戴式耳机中设置有分别与左右两眼对应的2个显示器,在各个显示器中,显示具有为了使观看视频的用户获得深度感(或者突出感)的视觉差的视频。
而且,VR头戴式耳机搭载有位置传感器、加速度传感器、陀螺仪传感器等,每当用户头部位置或方向变化时,用户的视野会向用户头部位置或方向变化了的方向移动,2个显示器中显示的影像也随之改变。因此,用户可以获得在VR中实际移动自己头部的感觉。
发明内容
发明待解决问题
通常,使用VR头戴式耳机来体验VR的用户,如果需要进行例如购买VR中提供的有偿内容之类的结算处理的话,需要摘掉VR头戴式耳机来进行结算操作。结算操作例如为信用卡之类的卡号码输入、密码输入、个人信息输入等。但是,结算时将VR头戴式耳机从头部摘下来,在结算后再将其佩戴至头部,这对用户来说是麻烦的,而且移除VR头戴式耳机还会损害体验VR的用户的身临其境感。
进一步地,在使用VR头戴式耳机的游戏中,可以想到1个VR头戴式耳机以及VR机器由例如家族成员等多人共用的情况,在这种情况下还希望确保结算的安全性。
本发明为解决上述问题,提供一种对于使用VR头戴式耳机的用户来说容易结算且可以确保结算安全性的VR系统。
解决本课题的方式
与本发明的一实施例相关的虚拟现实系统包括控制器、第1信息处理装置、VR头戴式耳机、生物体数据采集装置、第1传感器、第2传感器和第2信息处理装置。控制器用于接收用户的指示。第1信息处理装置用于根据控制器接收的指示生成VR内容。VR头戴式耳机佩戴于用户上,用于接收第1信息处理装置的VR内容并将所述VR内容展示给用户。生物体数据采集装置用于采集用户的生物体数据。第1传感器用于生成表示生物体数据采集装置的位置的第1位置信息和表示生物体数据采集装置的方向的第1方向信息,并将第1位置信息和第1方向信息发送给第1信息处理装置。第2传感器用于生成表示VR头戴式耳机位置的第2位置信息和表示VR头戴式耳机方向的第2方向信息,并将第2位置信息和第2向信息发送给第1信息处理装置。第2信息处理装置与第1信息处理装置可通信连接。第1信息处理装置包括内容生成部和内容发送部和生物体数据发送部。当内容生成部收到控制器的结算指示时,根据收到的第1传感器的第1位置信息和第1方向信息,以及收到的第2传感器的第2位置信息和第2方向信息,将使佩戴VR头戴式耳机的用户识别生物体数据采集装置的位置和方向,同时提示佩戴VR头戴式耳机的用户通过生物体数据采集装置输入生物体数据的画面添加到VR内容中。内容发送部用于将VR内容发送至VR头戴式耳机。在通过VR头戴式耳机显示含有提示用户输入生物体数据的画面的VR内容后,生物体数据发送部接收生物体数据采集装置发送的用户的生物体数据并将生物体数据发送给第2信息处理装置。当第2信息处理装置收到第1信息处理装置发送的生物体数据时,第2信息处理装置将其与用于参照的存储于存储装置中的用户已注册的生物体数据进行对照,并且包括在对照成功时允许结算的生物体认证部。
发明效果
根据本发明,对于使用VR头戴式耳机的用户来说容易结算且可以确保结算安全性。
附图说明
图1为与第1实施例相关的VR系统的结构的一例的方框图。
图2为与第2实施例相关的VR处理装置的结构的一例的方框图。
图3为与第1实施例相关的VR头戴式耳机的结构的一例的方框图。
图4为与第1实施例相关的控制器的结构的一例的方框图。
图5为与第1实施例相关的传感器装置的结构的一例的方框图。
图6为与第1实施例相关的服务器装置的结构的一例的方框图。
图7为与第1实施例相关的便携式终端的结构的一例的方框图。
图8为与第1实施例相关的使用VR系统进行结算处理的流程图示例。
图9为与第1实施例相关的进行生物体数据匹配的流程图的示例。
图10为与第1实施例相关的进行生物体数据注册的流程图的示例。
图11为与第1实施例相关的当注册生物体数据时或采集生物体数据时,VR画面显示的第1例示意图。
图12为与第1实施例相关的当注册生物体数据时或采集生物体数据时,VR画面显示的第2例示意图。
图13为与第1实施例相关的当选择生物体数据时,VR画面显示的示例。
图14为与第1实施例相关的内容共享期间的VR画面显示的示例。
图15为与第2实施例相关的当显示字符时的VR画面显示的示例。
图16为与第2实施例相关的确定属性的流程图的示例。
图17为与第3实施例相关的自动诊断系统的结构的方框图的示例。
图18为与第3实施例相关的自动诊断系统的结构的处理的流程图的示例。
图19为与第3实施例相关的自动诊断系统中画面显示的第1例示意图。
图20为与第3实施例相关的自动诊断系统中画面显示的第2例示意图。
具体实施形态
以下参照附图对本发明的实施例进行说明。在下列的说明中,对功能及结构大致或者实质相同的元件附以相同的符号,仅在必要时进行说明。
[第1实施例]
在本实施例中,对以下VR系统进行说明,所述VR系统检测VR系统中含有的生物体数据采集装置的位置和方向,并且结算时,将佩戴有VR头戴式耳机的用户能够识别的生物体数据采集装置的位置和方向的画面显示在VR头戴式耳机的显示器中,用户在佩戴有VR头戴式耳机的情况下根据该显示进行生物体数据的输入。
在本实施例中,生物体数采集装置的方向为生物体数据采集装置可以高灵敏度、高精度地采集生物体数据的方向,换言之可以是生物体数据采集装置利用传感器感测到的方向。
在本实施例中,将识别信息称为ID。
在本实施例中,生物体数据例如可以是指纹数据、静脉数据、动脉数据、掌形数据、视网膜数据、虹彩数据、脸数据、血管数据、声音数据、声纹数据、耳型数据,或者也可以是其他数据。
在本实施例中,生物体数据采集装置为了采集上述生物体数据,例如可以是生物体传感器、摄像头、麦克风等。
在本实施例中,对用户使用的结算为卡结算的情况进行说明。卡的种类例如可以是信用卡、借记卡、充值卡、电子钱包、积分卡、现金卡、或者也可以是其他电子结算用的卡。但是,本实施例也同样可以应用于结算的介质或产品不是卡的情况。在本实施例中的结算也可以是通过虚拟货币的结算。
在本实施例中,内容例如包括图像数据、影像数据、程序和数据中的至少一种的软件、声音数据等。内容也可以是例如游戏程序。
图1为与本实施例相关的VR系统1的结构的一例的方框图。
VR系统1包括VR处理装置2、人体佩戴用装置HD、传感器装置5、服务器装置6、12。人体佩戴用装置HD包括VR头戴式耳机3和控制器4。VR头戴式耳机3以及控制器4为用户U佩戴的或直接手持操作的装置。通过VR头戴式耳机3以及控制器4可以控制VR系统1。VR系统1还以含有用户U的便携式终端7,也可以含有不是用户U而是其他用户V的便携式终端8。便携式终端7、8和VR处理装置2例如可以通过网络N也可以不通过网络N进行通信。更具体地,便携式终端7、8和VR处理装置2例如可以通过电话线路或因特网进行通信。便携式终端7、8和VR处理装置2例如可以通过无线LAN通信、近距离无线通信和红外线通信进行通信。
VR头戴式耳机3为用户U佩戴于头部的装置。VR佩戴式耳机3具备显示器,显示器用于显示通过VR处理装置2生成的VR内容。用户U通过视觉确认显示于该显示器上的VR内容,可以体验VR。
VR头戴式耳机3例如包括生物体数据采集装置33和传感器部32。
生物体数据采集装置33例如通过与用户U接触或非接触采集用户U的生物体数据。更具体地,生物体数据采集装置33例如包括与指纹数据、静脉数据、动脉数据、掌形数据、视网膜数据、虹彩数据或者声纹数据对应的生物体传感器。
传感器部32用于生成表示VR头戴式耳机3位置的位置信息和表示VR头戴式耳机3方向的方向信息,并将VR头戴式耳机3的位置信息和方向信息发送给VR处理装置2。另外,传感器部32也可以与生物体数据采集装置33相对应,生成表示生物体数据采集装置33的位置的位置信息和表示生物体数据采集装置33的方向的方向信息,并将生物体数据采集装置33的位置信息和方向信息发送给VR处理装置2。
控制器4为用于用户U操作VR系统1的装置,其接收用户U发送的指示。控制器4可以通过用户U的左右手手持操作,也可以附接于左右脚或其他身体部位中的任一部位。下面,将包含在VR系统1中的控制器4设为2台,每台控制器4分别通过用户U的左右手来手持操作。
控制器4包括生物体数据采集装置43和传感器部42。
生物体数据采集装置43例如通过与用户U接触或非接触采集用户U的生物体数据。更具体地,生物体数据采集装置43例如包括与指纹数据、静脉数据、动脉数据、掌形数据或者声纹数据对应的生物体传感器。
传感器部42用于生成表示控制器4位置的位置信息和表示控制器4方向的方向信息,并将控制器4的位置信息和方向信息发送给VR处理装置2。另外,传感器部42与生物体数据采集装置43相对应,生成表示生物体数据采集装置43的位置的位置信息和表示生物体数据采集装置43的方向的方向信息,并将生物体数据采集装置43的位置信息和方向信息发送给VR处理装置2。
传感器装置5为辅助构筑用户U体验的VR的装置。具体地,当多台传感器装置5与VR处理装置2相连时,VR处理装置2通过VR头戴式耳机3具备的显示器上显示传感器装置5的位置,来显示用户U佩戴着VR头戴式耳机可以移动的范围。另外,VR处理装置2也可以通过使用设置于多台传感器装置5中的传感器,来测定用户U的移动、姿势、身体的特定部位的位置等。另外,传感器装置5也可以通过用户U靠近时发出声音,来赋予用户U临场感。下列将包含于VR系统1中的传感器装置5设为4台。
传感器装置5包括生物体数据采集装置53和传感器部52。
生物体数据采集装置53例如通过与用户U接触或非接触来采集用户U的生物体数据。更具体地,生物体数据采集装置53例如包括与声纹数据对应的生物体传感器、摄像头。
传感器部52用于生成表示传感器装置5位置的位置信息和表示传感器装置5方向的方向信息,并将传感器装置5的位置信息和方向信息发送给VR处理装置2。另外,传感器部52与生物体数据采集装置53相对应,生成表示生物体数据采集装置53的位置的位置信息和表示生物体数据采集装置53的方向的方向信息,并将生物体数据采集装置53的位置信息和方向信息发送给VR处理装置2。
便携式终端7可以与VR通信处理装置2通信。便携式终端7例如也可以是智能手机等携带电话、平板终端等。
便携式终端7也可以替代控制器4来使用。也就是说,用户U可以通过使用便携式终端7来操作VR系统1。便携式终端7例如也可以包括生物体数据采集装置73和传感器部72,如传感器装置5一样地,用作用户U的生物体数据的输入。
生物体数据采集装置73例如通过与用户U接触或非接触采集用户U的生物体数据。更具体地,生物体数据采集装置43例如包括与指纹数据、静脉数据、动脉数据、掌形数据或者声纹数据对应的生物体传感器。
传感器部72用于生成表示便携式终端7位置的位置信息和表示传便携式终端7方向的方向信息,并将便携式终端7的位置信息和方向信息发送给VR处理装置2。另外,传感器部72与生物体数据采集装置73相对应,生成表示生物体数据采集装置73的位置的位置信息和表示生物体数据采集装置73的方向的方向信息,并将生物体数据采集装置73的位置信息和方向信息发送给VR处理装置2。
VR处理装置2用于控制整个VR系统1,或进行控制所需的演算。VR处理装置2可以有线或无线地与VR头戴式耳机3、至少一台以上的控制器4、至少一台以上的传感器装置5地进行通信。
VR处理装置2根据收到的控制器4发送的指示生成VR内容。VR处理装置2例如包括生物体数据采集装置25、传感器部26、内容生成部222、内容发送部223、生物体数据发送部224、内容共享部225。
生物体数据采集装置25例如通过与用户U接触或非接触采集用户U的生物体数据。更具体地,生物体数据采集装置25例如包括与指纹数据、静脉数据、动脉数据、掌形数据或者声纹数据对应的生物体传感器。
传感器部26与生物体数据采集装置25相对应,生成表示生物体数据采集装置25的位置的位置信息和表示生物体数据采集装置25的方向的方向信息。另外,传感器部26例如也可以通过检测安装在VR头戴式耳机3上的灯的光,来生成表示VR头戴式耳机3的位置的位置信息和表示VR头戴式耳机3的方向的方向信息。
当内容生成部222收到控制器4发送的结算指示时,根据收到的传感器部26、32、42、52、72发送的生物体数据采集装置25、33、43、53、73的位置信息和方向信息,以及收到的传感器部26、32、52的用户U的位置信息和方向信息,将使佩戴VR头戴式耳机3的用户识别生物体数据采集装置25、33、43、53、73的位置和方向,同时提示佩戴VR头戴式耳机3的用户通过生物体数据采集装置25、33、43、73输入生物体数据的画面添加到VR内容中。
内容发送部223用于将VR内容发送至VR头戴式耳机3。
在通过VR头戴式耳机3显示含有提示用户U输入生物体数据的画面的VR内容后,生物体数据发送部224接收生物体数据采集装置25、33、43、53、73中任一发送的用户U的生物体数据D1并将生物体数据D1发送给服务器装置6。
内容共享部225可以将显示于VR头戴式耳机的显示部37的VR内容显示于不是由用户U而是其他用户V操作的便携式终端8上。也就是说,内容共享部225对能够与VR处理装置2进行通信的便携式终端8进行认证,当对便携式终端8认证成功时,允许VR处理装置2和便携式终端8进行通信,将VR内容转换成与便携式终端8相对应的内容,并将转换后的内容发送到便携式终端8。例如,用户V是用户U的朋友或家人。例如,发送到例携式终端8的内容可以是已将VR内容转换成不与VR对应的内容,也可以是已将VR内容转换成适于便携式终端8的浏览器的内容。
便携式终端8具备显示部75,以显示收到的内容共享部225发送的内容。
服务器装置6可以通过网络N与VR处理装置2可通信连接。服务器装置6可以参考数据库DB。数据库DB用于存储用户U已注册的生物体数据D2。
服务器设备6包括生物体认证部62。生物体认证部62用于将收到的VR处理装置2经由网络N发送的生物体数据D1和存储于数据库DB中的已注册的生物体数据D2进行匹配。当匹配成功时,服务器装置6经由网络N向服务器装置12发送表示允许结算意思的结算许可通知。
服务器装置12可以通过网络与VR处理装置2以及服务器装置6可通信连接。该服务器装置12也可以与服务器装置6一体。服务器装置12包括结算处理部121。当经由网络N收到服务器装置6发送的结算许可通知时,结算处理部121根据经由网络N收到的VR处理装置2发送的结算指示进行执行争对用户U的结算处理。
在本实施例中,服务器装置12例如为收单方(卡支付公司)的服务器装置、卡发行方(卡发行公司)或卡品牌方的服务器装置。
此外,在本实施例中,当内容共享部225将内容发送到便携式终端8时,内容生成部222将表示内容是共享的事项的画面或文字添加到VR内容中。内容发送部223用将含有表示内容共享事项的画面或文字的VR内容发送到VR头戴式耳机3中。由此,佩戴VR头戴式耳机3的用户U可以识别出用户V正在共享内容。
另外,内容生成部222可以根据任一生物体数据采集装置的位置信息和VR头戴式耳机3的位置信息之间的差,以及任一生物体数据采集装置的方向信息和VR头戴式耳机3的方向信息的差,将用户U引导至任一生物体数据采集装置的画面添加至VR内容中。
进一步地,内容生成部222可以根据由任一生物体数据采集装置采集的生物体数据D1,确定用户U对应的人物属性,生成与属性相对应的VR内容。内容生成部222也可以经由服务器装置6和网络N接收存储于数据库DB中的生物体数据D2,并基于收到的生物体数据D2,确定用户U对应的人物属性,生成与属性相对应的VR内容。
图2为与本实施例相关的VR处理装置2的结构的一例的方框图。
VR处理装置2包括连接部21、处理器22、存储部23、通信部24、生物体数据采集装置25和传感器部26。VR处理装置2也可以不包含生物体数据采集装置25。上述各处理部可以通过内部总线IB相互通信。
此外,将省略图1中已说明的处理部的说明。
连接部21与VR处理装置2、VR头戴式耳机3、控制器4、传感器装置5相连。
处理器22执行VR系统1的演算。处理器22包括控制部221、内容生成部222、内容发送部223、生物体数据发送部224、内容共享部225。
处理器22可以是例如CPU(Central Processing Unit)、MPU(Micro-ProcessingUnit)、或DSP(Digital Signal Processor)等。
控制部221用于控制整个VR系统1。控制部221通过连接部21,与VR头戴式耳机3、控制器4以及传感器装置5之间发送、接收命令、地址、数据、信息、指示、信号等。
内容生成部222用于生成在VR头戴式耳机3所具备的显示器上显示的VR内容。通过内容生成部222生成的VR内容,通过内容发送部223经由连接部21发送至VR头戴式耳机3中。另外,VR内容也可以经由通信部24,发送至例如便携式终端7、8等外部装置中。
存储部23例如也可以用作主存储装置。存储部23遵循处理器22的控制。基于处理器22的控制,通过处理器22处理的数据等暂时存储于存储部23中。
存储部23例如将程序231存储于非易失性存储区域。处理器22通过执行程序231,也可以实现作为控制部221、内容生成部222、内容发送部223、生物体数据发送部224、内容共享部225的功能。
存储部23存储生物体数据D1。生物体数据D1为通过任一生物体数据采集装置25、33、43、53、73采集的用户U的生物体数据。
通信部24经由网络N,例如与VR处理装置2和服务器装置6、12以及便携式终端7、8之间接收、发送命令、地址、数据、信息、指示、信号等。此外,通信部24也可以经由网络N不与服务器装置6、12以及便携式终端7、8而与其他装置进行通信。
此外,VR处理装置2也可以是例如通用PC(个人计算机)或专用于VR系统1的硬件。
图3为与本实施例相关的VR头戴式耳机3的结构的一例的方框图。
VR头戴式耳机3包括连接部31、传感器部32、生物体数据采集装置33、控制部34、麦克风35、扬声器36、显示部37。
此外,将省略图1中已说明的处理部的说明。
连接部31与VR头戴式耳机3和VR处理装置2相连。
传感器部32包括角速度传感器(陀螺仪传感器)S1。传感器部32可以是内置于生物体数据采集装置33中,也可以设置于生物体数据采集装置33附近。
角速度传感器S1是可以检测具有传感器的物体的旋转角度以及方向的变化的传感器。也就是说,通过角速度传感器S1,可以检测出VR头戴式耳机的位置的变化及方向。
此外,包含于传感器部32中的传感器并不限于上述所描述的,例如也可以包括靠近传感器、加速度传感器、位置传感器、磁传感器、亮度传感器等。
控制部34控制包括于VR头戴式耳机3中的各处理部。控制部34通过连接部31,与VR处理装置2之间发送、接收命令、地址、数据、信息、指示、信号等。更具体地,例如控制部34经由连接部31将传感器部32获取的位置信息和方向信息等传感器数据,生物体数据采集装置33获取的生物体数据,麦克风35中输入的声音数据发送到VR处理装置2。控制部34例如还经由连接部31接收VR处理装置2发送的声音数据并输出至扬声器36,接收VR内容并输出至显示部37。
麦克风35将用户U的声音输入至VR系统1。此外,当VR头戴式耳机3能够获取声纹的生物体数据时,麦克风35也可以兼备生物体数据采集装置33。
扬声器36用于输出VR处理装置2生成的声音或者控制部34生成的声音。扬声器36例如也可以是头戴式麦克风。
显示部37用于显示VR处理装置2的内容生成部222生成的VR内容。显示部37具备与用户U的两眼相对应的2个显示器。以下,将状态为正在显示VR内容的显示部37称为VR画面。
图4为与本实施例相关的控制器4的结构的一例的方框图。
控制部4包括连接部41、传感器部42、生物体数据采集装置43、控制部44、输入部45。
此外,将省略图1中已说明的处理部的说明。
连接部41与V控制部4和VR处理装置2相连。
传感器部42的结构与传感器部32相同。
控制部44控制包括于控制器4中的各处理部。控制部44通过连接部41,与VR处理装置2之间发送、接收命令、地址、数据、信息、指示、信号等。更具体地,例如控制部44经由连接部41将传感器部42获取的位置信息和方向信息等传感器数据,生物体数据采集装置43获取的生物体数据,输入部45中输入的数据发送到VR处理装置2。
输入部45受理用户U的操作。输入部45例如也可以是键盘、模拟杆、旋转编码器、触摸板、各类传感器等。
图5为与本实施例相关的传感器装置5的结构的一例的方框图。
传感器装置5包括连接部51、传感器部52、生物体数据采集装置53、控制部54、麦克风55、扬声器56。传感器装置5还可以包括摄像头57。
此外,将省略图1中已说明的处理部的说明。
连接部51与V传感器装置5和VR处理装置2相连。
传感器部52的结构与传感器部32相同。
控制部54用于控制包括于传感器装置5中的各处理部。控制部54通过连接部51,与VR处理装置2之间发送、接收命令、地址、数据、信息、指示、信号等。控制部54的动作与控制部34、44的动作相同。
麦克风55将用户U的声音输入至VR系统1。此外,当传感器装置5能够获取声纹的生物体数据时,麦克风55也可以兼备生物体数据采集装置53。
扬声器56用于输出VR处理装置2生成的声音或者控制部34生成的声音。
摄像头57用于拍摄静止图像动态图像。摄像头57可以是能够拍摄二次元图像的摄像头,或者也可以是例如能够获取立体相机、红外线相机等深度信息的摄像头。控制部54也可以是通过对摄像头57拍摄的静止图像或动态图像进行图像处理,能够识别例如传感器部52中无法识别的用户U的手势或者用户U的脚、手腕、关节等特定部位的动作或者用户U能够移动的空间中存在的物体等。
图6为与本实施例相关的服务器装置6的结构的一例的方框图。
服务器装置6包括通信部61、生物体认证部62、控制部63。
此外,将省略图1中已说明的处理部的说明。
通信部61能够连接网络N,并用经由网络N与VR处理装置2进行通信。通信部61能够与数据库DB通信。
此外,数据库DB可以是与网络N连接,也可以经由网络N与服务器装置6通信。
控制部63用于控制包括于服务器装置6中的各处理部。控制部63通过连接部61,与VR处理装置2和数据库DB之间发送、接收命令、地址、数据、信息、指示、信号等。例如当在生物体认证部62中执行的生物体认证成功时,控制部63经由网络N向服务器装置12发送表示允许结算意思的结算许可通知。
图7为与本实施例相关的便携式终端7、8的结构的一例的方框图。
便携式终端7包括通信部71、传感器部72、生物体数据采集装置33、处理器74、显示部75。
便携式终端8包括通信部71、传感器部72、处理器74、显示部75、内容共享部76。此外,便携式终端8也可以包括生物体数据采集装置73。
此外,将省略图1中已说明的处理部的说明。
通信部71能够连接网络N,并用经由网络N与VR处理装置2进行通信。通信部71也可以不经由网络N,直接有线或无线地与VR处理装置2的通信部24通信。
传感器部72与传感器部32相同。
处理器74用于执行便携式终端7的演算处理。处理器74包括控制部741。
控制部741用于控制包括于便携式终端7中的各处理部。控制部741通过连接部71,与VR处理装置2之间发送、接收命令、地址、数据、信息、指示、信号等。控制部741的动作与控制部34、44、54的动作相同。
显示部75例如为普通的便携式终端的显示器。
此外,如上所述地,当VR内容通过内容共享部225显示于便携式终端8的显示部75中时,希望VR系统1可以认证(登录)便携式终端8。例如也可以使用登录ID及密码来进行VR系统1中的登录。更具体地,例如,当便携式终端8向VR处理装置2发送访问请求时,VR处理装置2在显示部75或者VR头戴式耳机3的显示部37显示登录画面。用户U根据登录画面的指示,输入登录ID和密码。
此外,当便携式终端8具有生物体数据采集装置73时,也可以使用生物体认证登录VR系统1。此时,该生物体认证的顺序和结算处理时进行的生物体认证的顺序(将利用图9后述)一样。
图8为与本实施例相关的使用VR系统1进行结算处理的流程图示例。
步骤S801中,启动VR处理装置2。与VR处理装置2相连的VR头戴式耳机3、控制器4、传感器装置5中也可以接入电源,变成可通过用户U操作的状态。
在步骤S802中,将VR处理装置2的内容生成部222生成的VR内容经由连接部32发送至VR头戴式耳机3。VR头戴式耳机3的显示部37用于显示收到的VR处理装置2发送的VR内容。进一步地,内容生成部222用于根据用户的选择生成或自动地生成用户U可以选择并购买的商品的VR内容。
在步骤S803中,在显示于显示部37中的商品选择画面中,能够选择用户U将购买的商品。商品例如也可以通过用户U操作控制器4来被选择。而且,一旦同意购买选择的商品,VR处理装置2开始结算处理。同意购买商品例如也可以通过用户U选择显示于VR内容内的购买按钮来进行。
在步骤S804中,VR处理装置2开始进行生物体数据的匹配处理。关于生物体数据匹配处理的详细内容,将在图9中后述。
在步骤S805中,VR处理装置2确认通过步骤S804的处理得到的生物体数据匹配的处理结果。
当生物体数据匹配的处理结果是成功的时,VR处理装置2或服务器装置6对服务器装置12发送结算许可通知。此时,在步骤S806中,服务器装置12接收VR处理装置2发送的结算许可通知,并且结算处理部12进行结算处理。当结算处理完了时,服务器装置6经由通信部61将结算完了通知发送给VR处理装置2。进一步地,在步骤S807中,VR处理装置2接收结算完了通知,内容生成部222生成含有表示结算完了意思的VR内容。
并且,当生物体数据匹配的处理结果是失败时,VR处理装置2中止结算处理。此旨,在步骤S808中,VR处理装置2的内容生成部222生成含有表示结算失败意思的VR内容。
此外,结算完了或结算失败意思的表示例如也可以通过短信、图标、对话框等来表示。
在本实施例中,当VR处理装置2在S801中启动时,也可以进行用户U的认证(登陆)。也可以使用生物体认证登录VR系统1。此时,该生物体认证的顺序和结算处理时进行的生物体认证的顺序(参照图9)相同。
图9为与本实施例相关的进行生物体数据匹配的流程图的示例。
在步骤S901中,当VR系统1中可以使用的生物体数据采集装置存在多个时,VR处理装置2选择利用哪个生物体数据采集装置采集生物体数据。当用户U已选择生物体数据采集装置时,执行步骤S902。
当可以使用的生物体数据采集装置在VR系统1中仅存在一个时,或者VR处理装置2不让用户选择生物体数据采集装置时,则执行步骤S905。
在步骤S902中,VR处理装置2检测步骤S901中用户U指定的生物体数据采集装置的位置信息和方向信息。具体地,当指定的是生物体数据采集装置33时,VR处理装置2接收VR头戴式耳机3的控制部34发送的传感器部32检测出的VR头戴式耳机3和生物体数据采集装置33的的位置信息和方向信息。同样地,当指定的是生物体数据采集装置43时,VR处理装置2接收控制部44发送的传感器部42检测出的控制器4和生物体数据采集装置43的的位置信息和方向信息。另外还同样地,当指定的是生物体数据采集装置53时,VR处理装置2接收控制部54发送的传感器部52检测出的传感器装置5和生物体数据采集装置53的的位置信息和方向信息。另外还同样地,当指定的是生物体数据采集装置73时,VR处理装置2接收控制部741发送的便携式终端7和生物体数据采集装置73的位置信息和方向信息。VR处理装置2将接收到的位置信息和方向信息暂时存储于存储部23中。
在步骤S903中,VR处理装置2将步骤S902中检测出的各装置的位置信息和方向信息显示于VR画面内。具体地,VR处理装置2的内容生成部222读取在步骤S902中存储于存储部23中的各装置的位置信息和方向信息。内容生成部222基于读取的各个装置的位置信息和方向信息将各装置的图像和原VR内容进行重叠,从而生成新的VR内容。通过上述的处理生成的VR内容的示例将在图11中后述。
在步骤S904中,VR处理装置2使用户U将生物体数据输入至指定的生物体数据采集装置。
在步骤S905中,VR处理装置2检索可以使用的生物体数据采集装置。具体地,VR处理装置2向VR头戴式耳机3、控制器4、传感器装置5、便携式终端7询问是否可以使用上述各装置中配备的生物体数据采集装置33、43、53、73。
控制部34、44、54、74确认生物体数据采集装置33、43、53、73的状态,将能否使用生物体数据采集装置均发送至VR处理装置2。
在步骤S906中,VR处理装置2显示在步骤S905中得到的能够使用的生物体数据采集装置的位置、方向以及种类。生物体数据采集装置的位置及方向的检测方法以及显示方法与步骤S902以及步骤S903中叙述的方法相同。
在步骤S907中,VR处理装置2使用户U向步骤S906中显示的任一生物体数据采集装置输入生物体数据。此时,例如当用户U完成了生物体数据的输入时,各生物体数据处理装置将生物体数据D1发送给VR处理装置2。VR处理装置2接收生物体数据D1,并将生物体数据D1存储于存储部23中。
此外,当VR处理装置2收到多个生物体数据采集装置发送的生物体数据时,可以将收到的多个生物体数据存储于存储部23中,也可以将最初或最后收到的生物体数据作为有效的数据存储于存储部23中、
在步骤S908中,VR处理装置2将生物体数据匹配命令发送至服务器装置6。具体地,生物体数据发送部224读取存储部23中的生物体数据D1,将生物体数据匹配命令和生物体数据D1发送给服务器装置6。
在步骤S909中,服务器装置6的生物体认证部62接收用户U的生物体数据D1和生物体数据匹配命令。服务器装置6确认收到的生物体数据D1是否已注册于数据库DB中。当用户U的生物体数据已注册时,执行步骤S911。当用户U的生物体数据未注册时,服务器装置6通知VR处理装置2生物体数据未注册。VR处理装置2接收生物体数据未注册的通知,在步骤S910中,进行生物体数据注册。
此外,生物体数据的注册可以和结算处理分开进行。例如,生物体数据的注册可以在VR系统1的初次启动等时候进行。关于生物体数据注册的详细内容,将在图10中后述。
在步骤S911中,服务器装置6的生物体认证部62进行生物体数据匹配处理。具体地,生物体认证部62读取注册于数据库DB中的用户U的已注册的生物体数据D2,将其与收到的VR处理装置2发送的生物体数据D1进行匹配。生物体认证部62将匹配结果为成功或失败的意思发送给VR处理装置2。
图10为与本实施例相关的进行生物体数据注册的流程图的示例。
在步骤S1001中,VR处理装置2显示可以注册的生物体数据采集装置的种类。可以注册的生物体数据采集装置的检索与步骤S905的处理是一样的。
在步骤S1002中,VR处理装置2将在步骤S1001中得到的可以注册的生物体数据采集装置的位置、方向以及种类显示于VR画面中。生物体数据采集装置的位置及方向的检测方法以及显示方法与步骤S906中叙述的方法相同。
在步骤S1003中,VR处理装置2使用户U选择步骤S1002中显示于VR画面的生物体数据采集装置中的一个生物体数据采集装置。
此外,当在步骤S901中指定了生物体数据采集装置时,也可以自动地指定和在步骤S901中指定的生物体数据采集装置一样的装置。此时,在步骤S1001以及步骤S1002中,可以将在步骤S901中指定的生物体数据采集装置显示于VR画面中,不进行步骤S1003的处理。
在步骤S1004中,VR处理装置2使用户U将生物体数据输入至指定的生物体数据采集装置。将输入的生物体数据发送至VR处理装置2。
在步骤S1005中,VR处理装置2接收步骤S1004中输入于生物体数据采集装置的生物体数据。VR处理装置2的生物体数据发送部224将该生物体数据和生物体数据注册指示发送至服务器装置6。
在步骤S1006中,服务器装置6将收到的生物体数据注册至数据库DB中。
图11为与本实施例相关的当注册生物体数据时或采集生物体数据时,VR画面显示的第1例示意图。更具体地,图11示出了在图9的S906以及图10的S1002中显示于显示部37的VR画面V1。
VR画面V1显示生物体传感器选择画面W1,指示可以使用(或可以注册)的生物体传感器。在图11中,生物传感器选择画面W1重叠在VR画面V1上来显示,但显示方法不限于此。例如,也可以替换VR画面V1,在整个画面中显示生物体传感器选择画面W1。
生物体传感器选择画面W1中显示有可以使用的生物体数据采集装置和可以使用的生物体数据采装置中含有的装置。在图11的示例中,在生物体传感器选择画面W1中显示有VR头戴式耳机103、VR头戴式耳机103中含有的虹彩传感器103A、声纹传感器103B、静脉传感器103C,以及控制器104、控制器104中含有的静脉传感器104A、指纹传感器104B,以及控制器105、控制器105中含有的静脉传感器105A、指纹传感器105B,以及传感器装置106、传感器装置106中含有的声纹传感器106A。
此外,希望生物体传感器选择画面W1中显示的各装置以及生物体传感器的图像的方向根据操作各装置的用户U的移动而实时变化。此外还希望这样显示:当具有两种以上生物体传感器时,用户U例如可以根据颜色或形状容易地判断是同种生物体传感器还是不同种生物体传感器。
生物体传感器选择画面W2示出在显示于生物体传感器选择画面W1中的生物体传感器中用户U选择了静脉传感器104A时的状态。
生物体传感器的选择例如也可以通过用户U操作控制器4的输入部45来进行。生物体传感器的选择还可以例如通过用户U通过VR头戴式耳机3的麦克风35发出声音指示来进行。
选择的静脉传感器104A的周围显示可以感测的区域A。可以感测的区域示出了用户U的身体的一部分接近生物体传感器后可以获得生物体数据的范围。
例如用户U通过将手指接近在显示的静脉传感器104A的可以感测的区域A的范围内来输入静脉数据。
此外,例如当显示于生物体传感器选择画面W2中的控制器104的显示根据用户U改变的控制器4的位置及方向而改变时,可以感测的区域A的显示也根据控制器104的位置及方向的改变而改变。
此外,当选择了其他生物体传感器时,和上述相同地,显示与选择的生物体传感器对应的可以感测的区域。
此外,可以感测的区域的显示样式,如果是显示区域的话,不限于图11中所示的样式。
图12为与本实施例相关的当注册生物体数据时或采集生物体数据时,VR画面显示的第2例示意图。
VR画面V2示出了用户U在显示于图11的生物体传感器选择画面W1中的生物体传感器中选择了声纹传感器106A时的状态。
由于含有声纹传感器106A的传感器装置106在远离于当前用户U所在的位置,因此VR处理装置2将用户U引导至声纹传感器106A作出反应的位置。
首先,控制部221获取用户U的位置。可以通过传感器装置5的摄像头57拍摄用户U,计算出在用户U的VR系统1中的控制部54或控制部221的位置和方向。或者也可以将佩戴于用户U上的VR头戴式耳机3的传感器部检测出的位置及方向作为用户U的位置和方向。
其次,控制部221基于获取的用户U的位置和方向以及声纹传感器106A的位置和方向,确定引导用户U的方向。将引导用户U的方向转换成指示VR系统1中的位置及方向的数据,输入至内容生成部222。
内容生成部222基于收到的控制部221发送的数据,在VR内容中描绘指示引导用户U的方向的箭头201。
此外,引导用户U的方法不限于上述方法。例如也可以是通过内容生成部222,在VR画面V2上突出显示声纹传感器106A的位置。
VR画面V3显示出用户U的位置靠近声纹传感器106A响应的位置时的状态。
当用户U和声纹传感器106A的距离等于或小于预定值时,控制部221通知用户U声纹传感器106A为可利用。例如,也可以当内容生成部222接收到控制部221发送的用户U和声纹传感器106A的距离等于或小于预定值以下的通知时,将标记E1描绘在VR内容的声纹传感器106A上。用户U通过视觉确认VR内容中的标记E1,对声纹传感器106A输入声纹数据。
此外,标记E1的形状及表示方法不限于图12中显示的形状及显示方法。并且,通知用户U声纹传感器106A是可利用的方法不限于上述描述的。例如也可以通过VR头戴式耳机3的扬声器36通过声音通知用户U。
图13为与本实施例相关的当选择生物体数据时,VR画面显示的示例。更具体地,图13示出了在图9的S901中显示于显示部37的VR画面V4。
VR画面V4显示生物体数据选择画面W3。在图13中,生物传感器选择画面W3重叠在VR画面V4上来显示,但和生物体传感器选择画面W1一样地,显示方法不限于此。
生物体数据选择画面W3中显示要采集的生物体数据种类。在图13的示例中,生物体数据选择画面W3中,作为可以选择的项目显示有指纹数据B1、脸数据B2、虹彩数据B3、静脉数据B4、声纹数据B5。
当用户U在上述项目中选择了一个时,VR画面V4上显示项目已被选择的意思。例如,可以在VR画面V4上在已被选择的项目的周围显示标记E2。
此外,生物体传感器的选择也可以通过用户U操作控制器4的输入部45来进行。另外,生物体传感器的选择还可以例如通过用户U通过VR头戴式耳机3的麦克风35发出声音指示来进行。
此外,标记E2的形状及表示方法不限于图13中显示的形状及显示方法。
图14为与本实施例相关的内容共享期间的VR画面显示的示例。更具体地,当内容共享部225将内容发送至便携式终端8时,示出了显示于显示部37的VR画面V5。
VR画面V5包括画面显示W4。画面显示W4为示出内容为与便携式终端8共享的事项的图像或文字。
此外,画面显示W4可以显示于VR画面V5上用户可以识别的任一位置。而且,画面显示W4也可以自动地或根据用户U的操作移动或消失。
在以上说明的本实施例中,VR系统1可以在VR画面上显示生物体传感器的位置和方向。由此,即使当需要采集用于在VR画面中购买商品并结算的生物体数据时,用户U也无用移除VR头戴式耳机3来输入生物体数据。
在本实施例中,由于结算时使用生物体数据,因此可以确保结算的安全性。
在本实施例中,用户U所有的便携式终端7例如可以替代控制器4,添加至VR系统1中。由此,可以通过普通的虑拟实现系统和便携式电话建立系统,减少成本。
在本实施例中,即使在远离生物体数据采集装置和用户U的位置时,VR系统1也可将用户U引导至用户U可以输入生物体数据的位置。由此,进一步地提高了用户U输入生物体数据的便利性。
在本实施例中,能够将VR头戴式耳机3的显示部37中显示的VR内容输出至已在VR系统1中认证的便携式终端8的显示部75中。由此,当家庭成员共享VR系统1时,例如家长可以通过自己的便携式终端8了解佩戴VR头戴式耳机3的孩子在玩哪一款游戏,从而可以保护孩子远离有害内容。而且,也可以将VR内容共享给未佩戴VR头戴式耳机3的人,从而提高娱乐性。
[第2实施例]
在本实施例中,将对使用从VR系统的用户采集到的生物体数据来确定出现在VR画面内的角色(化身)的属性的VR系统进行说明。
在本实施例中使用的VR系统与在第1实施例中的VR系统1是相同的。
图15为与第2实施例相关的当显示角色时的VR画面显示的示例。
VR画面V6显示与用户U对应的角色C、角色C的属性X。属性X可以是仅在收到用户U的属性X的显示指示时显示而不需要总是显示于VR画面V6中。
属性X包括角色C的属性。例如属性X包括姓名P1、性别P2、年龄P3、体力P4、性格P5。角色C的属性也可以包括上述项目之外的项目。
角色C的图像的外表或形态也可以根据属性X的项目的内容而改变。例如,角色C的外表可以根据性格P2或年龄P3而改变,角色C的姿势可以根据体力P4而改变,角色C的表情可以根据性格P5而改变。
每当用户U进行生物体认证时,属性X的各项目可以基于VR系统1解析的用户U的生物体数据的结果进行更新。
图16为与第2实施例相关的确定属性的流程图的示例。
在步骤S1601中,将用户U的生物体数据输入至VR系统1内的任一生物体数据采集装置中。输入用户U的生物体数据的时间点,可以是图9的步骤S904或步骤S907或图10的步骤S1004,也可以是在除此之外的时间点输入的。将生物体数据采集装置采集的生物体数据发送至VR处理装置2。
在步骤S1602中,VR处理装置2的控制部221接收用户输入的生物体数据并进行解析处理。例如当生物体数据为声纹数据时,控制部221通过声音的高低和音质,判定用户U的年龄和性别。例如当生物体数据为脸数据时,控制部221通过读取表情,判定用户U的性格。引外,控制部221执行的解析不限于上述描述的。
在步骤S1603中,控制部221基于步骤S1602中获取的生物体数据的解析结果,确定角色C的属性。属性的种类(项目)可以是由用户U预先确定的,或者也可以是控制部221基于解析结果而自动生成的。
在步骤S1604中,控制部221基于步骤S1603中获取的属性,生成角色C或进行更新。此外,角色C的基本形状的图像可以在初次生成角色C时事先由用户U选择。或者,也可以控制部221基于属性自动生成角色C。
在步骤S1605中,控制部221将角色信息及属性信息输入至内容生成部222。内容生成部222基于输入的角色信息和属性信息生成含有表示角色C及属性X的VR内容。将该VR通过内容内容发送部223发送至VR头戴式耳机3并显示于显示部37中。
在以上说明的本实施例中,利用从用户U处得到的生物体数据,可以将反映生物体数据中具有的属性X的角色C自动显示到VR画面内。由此,可以生成反映用户U个性的角色,从而通过VR可以容易地识别网络上的个人身份。而且,通过将用户U的个性反映到角色上,可以提高娱乐性。
[第3实施例]
近几年,利用人工智能(AI:Artificial Intelligence),基于输入的诊断数据自动诊断疾病的系统正在被逐渐开发出来。但是,为了利用像这样的诊断系统,诊断数据的收集对于用户来说是负担,因此需要一种提高用户便利性的技术。
在本实施例中,提出一种诊断系统,其可以通过累积VR系统用户日常输入于VR系统中的生物体数据,并将累积的生物体数据输入至诊断系统并接收结果,来获取简单的疾病诊断结果而不会使用户产生利用诊断系统必须收集数据的意识。而且,根据诊断结果可以建议用户能够就医的医院和诊疗科,从而可以进一步提高用户的便利性。
图17为与第3实施例相关的自动诊断系统的结构方框图示例。
自动诊断系统11包括VR系统1A、诊断用服务器装置9和预约系统10。
VR系统1A中含有的VR处理装置2包括存储部23。存储部23包括生物体数据D1和位置信息233。
生物体数据D1储存有用户输入于生物体数据采集装置25、33、43、53、73中任一个的生物体数据。
位置信息233例如用于诊断用服务器装置9提取用户U能够就诊的医院。
位置信息233例如可以是用户U事先注册于VR系统1中住所,也可以是当VR处理装置2或便携式终端7具备GPS时,显示后述的画面显示T1时该GPS显示的位置。位置信息233的获取方法不限于上述描述的。
此外,与本实施例相关的VR系统1A的其他结构和第1实施例中的VR系统1的结构相同。
诊断用服务器装置9包括存储部91、控制部92和通信部93。
存储部91包括医院信息911。
医院信息911例如为与疾病名称、可以治疗该疾病的医院及诊所、医院的位置相关的信息。
控制部92用于控制整个诊断用服务器装置9。控制部92例如根据用户U的生物体数据进行诊断,并获得疾病名称以作为诊断结果。进一步地,控制部92根据医院信息911、诊断结果、收到的VR处理装置2发送的位置信息233,生成能够应对疾病的医院和诊所的一览表,并将该一览表发送到VR处理装置。
通信部93经由网络N,例如与VR处理装置2之间接收、发送命令、地址、数据、信息、指示、信号等。
预约系统10为可以受理患者发送的预约的诊疗时间的普通医院的预约系统。预约系统10通过例如医院具备的服务器装置上运行的程序来实现。
图18为与本实施例相关的自动诊断系统11的处理流程图示例。
在步骤S1801中,启动VR处理装置2。与VR处理装置2相连的VR头戴式耳机3、控制器4、传感器装置5中也可以接入电源,变成可通过用户U操作的状态。
在步骤S1802中,VR处理装置2在登录VR系统1A时需要输入生物体数据时,获取登录时使用的生物体数据。具体地,VR处理装置从含有生物体数据采集装置的VR头戴式耳机3、控制器4、传感器装置5、便携式终端中的任一个接收已输入于生物体数据采集装置25、33、43、53、73中任一的生物体数据,并将其存储于存储部23中。
此外,用户U可以在VR处理装置2中进行VR系统1的登录,或者也可以在便携式终端7中进行VR系统1的登录。
在步骤S1803中,每当在VR系统1A中进行结算处理时,VR处理装置2获取结算时使用的生物体数据进行。生物体数据的获取方法与步骤S1802相同。
在步骤S1804中,VR处理装置2确认存储于存储部23中的生物体数据D1的量及种类是否达到可以输入到诊断用服务器装置9中的程度。当VR处理装置2判断生物体数据D1的数量及种类不充分时,返回步骤S1802,继续收集生物体数据。当VR处理装置2判断生物体数据D1的数量及质量充分时,执行步骤S1805。
在步骤S1805中,VR处理装置2采集VR处理装置的位置信息233并存储于存储部23中。然后,VR处理装置2将生物体数据D1和位置信息233发送至诊断用服务器装置9。
在步骤S1806中,诊断用服务器装置9根据收到的VR处理装置2发送的生物体数据D1,进行诊断处理,获得诊断结果。诊断结果例如可以是疾病名称。诊断处理可以利用AI(Artificial Intelligence),或者也可以使用其他任一算法进行。
在步骤S1807中,诊断用服务器装置9根据收到的VR处理装置2发送的位置信息233,检索用户U能够利用的医院范围,并提取。进一步地,诊断用服务器装置9根据诊断结果及提取的医院、医院信息911,确定用户U能够就诊的医院及诊所。
在步骤S1808中,诊断用服务器装置9将含有步骤S1806及步骤S1807中获得的诊断结果及用户U能够就诊的医院和诊所的数据发送至VR处理装置2。
在步骤S1809中,VR处理装置2根据收到的诊断用服务器装置9发送的数据,将诊断结果、医院、诊所等信息显示于VR头戴式耳机3的显示部37或者便携式终端7的显示部75中。关于详细的显示于显示部37、75的画面将在图19中后述。
在步骤S1810中,VR处理装置2指示用户U指定显示于显示部37、75中的医院及诊所。将表示用户U指定的医院及诊所的数据发送给预约系统10。
在步骤S1811中,预约系统10检索步骤S1810中指定的医院和诊所的能够预约的时间,并发送给VR处理装置2。
在步骤S1812中,VR处理装置2将收到的预约系统10发送的能够预约的时间显示于显示部37、75上,并指示用户U指定预约时间。将用户U指定的预约时间发送给预约系统10。
在步骤S1813中,预约系统10将预约结果发送给VR处理装置2,并完成预约。
在步骤S1814中,VR处理装置2通知用户预约完成。具体地,例如在显示部37、75中显示预约完成的短信。
此外,VR处理装置2例如也可以在预约完成后将诊断结果发送给预约的医院。
图19为与本实施例相关的自动诊断系统11中画面显示的第1例示意图。具体地,图19示出在图18的步骤S1809中显示于显示部37、75中的诊断结果及用户U能够就诊的医院和诊所的一览表。
画面显示T1包括疾病名称Q1、医院Q2、诊所Q3、地址Q4。
疾病名称Q1用于显示基于收到的诊断结果的疾病名称。
医院Q2用于显示与疾病名称Q1相关的可以就诊的医院名称。
诊所Q3用于显示用户可以收到的与疾病名称Q1相关的医院Q2中的诊所。诊所Q3中含有的各诊所的显示最好可以由用户U选择。控制部221或者控制部741显示与用户U选择的诊所相关的预约画面。被选择的诊所例如如显示E3一样突出显示。
地址Q4为显示医院Q2和诊所Q3信息的所在地的地址。地址也可以例如是URL(Uniform Resource Locator)等。
此外,画面显示T1中含有的项目不限于上述。而且,画面显示T1也可以以除表样式之外的其他样式显示。地址Q4中含有的各地址的显示可以由用户U选择。在这种情况下,控制部221或者控制部741也可以显示与用户U选择的地址Q4相关联的网页。
图20为与本实施例相关的自动诊断系统11中画面显示的第2例示意图。具体地,图20示出了在图18的S1812中显示于显示部37、75的预约画面。图20示出了在图19的画面显示T1中选择了“A医院的耳鼻喉科”时(参考显示E3)显示的画面。
画面显示T2包括日期选择显示E4。日期选择显示E4例如可以是日历显示,也可以是列表显示。
日期选择显示E4最好清楚地显示可以预约的日期和不可预约的日期。当用户U选择了可以预约的日期时,控制部221或者控制部741可以进一步显示时间段选择显示E5。用户U通过进一步选择可以预约的时间段,从而完成预约日期和时间的指定。此外,时间段选择显示E5例如也可以是弹出显示、列表显示或者其他显示形式。
在本实施例中,画面显示T1、T2也可以是通过安装于VR处理装置2或者便携式终端7中的应用程序来显示。在这种情况下,检索及显示医院Q2和诊所Q3以及画面显示的处理也可以过使用处理器22、处理器74由该应用程序来进行。
在以上说明的本实施例中,自动诊断系统11在用户U登录VR系统1A时或者进行结算时采集输入于VR系统1A中的生物体数据并发送至诊断用服务器装置9。由此,用户U可以不需要有意识地进行输入到诊断用服务器装置9的数据的采集而获取诊断结果,提高用户的便利性。而且,自动诊断系统11基于诊断结果选择最合适的医院和诊所,并进行就医预约,同时发送收到的诊断用服务器装置9发送的诊断结果。由此不仅可以进一步提高用户的便利性,还可以防止医疗失误及缩短诊断时间。
此外,在本实施例中,自动诊断系统11不限于用户U的疾病名称的诊断,也可以适用于所有类型的诊断。例如,当将自动诊断系统11应用于健康诊断时,自动诊断系统11可以将提示给用户的画面显示T1的内容中的疾病名称Q1和诊所Q3替代为与检查项目及详细检查机构相关的内容。
而且,在本实施例中,在自动诊断系统11中可以含有替代VR系统1的可以获取和存储生物体数据D1及位置信息233的其他信息处理装置或系统。
上述实施例为例示,并不旨在限定发明的范围。上述实施例可以实施成其他各种各样的形态,在不脱离发明主旨的范围内可以进行各种省略、替换、变更。上述实施例或其变形例,包含在发明的范围或主旨中,同样地也包含于记载于权利要求范围的发明及其相同范围内。

Claims (7)

1.一种虚拟现实系统,包括:
受理用户指示的控制器,
根据收到的所述控制器发送的指示,生成虚拟现实内容的第1信息处理装置,
佩戴于所述用户上并且将收到的所述第1信息处理装置发送的所述虚拟现实内容显示给所述用户的虚拟现实头戴式耳机,
采集所述用户的生物体数据的生物体数据采集装置,
生成表示所述生物体数据采集装置的位置的第1位置信息和表示所述生物体数据采集装置的方向的第1方向信息,并将所述第1位置信息和所述第1方向信息发送给所述第1信息处理装置的第1传感器,
生成表示所述虚拟现实头戴式耳机位置的第2位置信息和表示所述虚拟现实头戴式耳机方向的第2方向信息,并将所述第2位置信息和所述第2方向信息发送给所述第1信息处理装置的第2传感器,
可以和所述第1信息处理装置通信连接的第2信息处理装置;
所述第1信息处理装置包括:
内容生成部,当所述内容生成部收到所述控制器发送的结算指示时,根据收到的所述第1传感器发送的所述第1位置信息和所述第1方向信息,以及收到的所述第2传感器发送的所述第2位置信息和所述第2方向信息,将使佩戴所述虚拟现实头戴式耳机的所述用户识别所述生物体数据采集装置的所述位置和所述方向,同时提示佩戴所述虚拟现实头戴式耳机的所述用户通过所述生物体数据采集装置输入生物体数据的画面添加到所述虚拟现实内容中,
内容发送部,其将所述虚拟现实内容发送至所述虚拟现实头戴式耳机,
生物体数据发送部,在通过所述虚拟现实头戴式耳机显示含有提示所述用户输入所述生物体数据的画面的所述虚拟现实内容后,所述生物体数据发送部接收所述生物体数据采集装置发送的所述用户的所述生物体数据并将所述生物体数据发送给所述第2信息处理装置;
所述第2信息处理装置包括:
将收到的所述第1信息处理装置发送的所述生物体数据和通过所述第2信息处理装置存储于存储装置中的所述用户已注册的用于参照的生物体数据进行匹配,当匹配成功时指示允许结算的生物体认证部。
2.根据权利要求1所述的虚拟现实系统,其特征在于,
还包括便携式终端,所述便携式终端包括所述第1传感器和所述生物体数据采集装置,
所述便携式终端将所述第1位置信息和所述第1方向信息发送给所述第1信息处理装置,并将所述用户的所述生物体数据发送给所述第1信息处理装置。
3.根据权利要求1所述的虚拟现实系统,其特征在于,
所述第1信息处理装置包括内容共享部,当所述内容共享部对可以与所述第1信息处理装置进行通信且不是由所述用户而是由其他用户操作的第3信息处理装置进行认证且针对所述第3信息处理装置的所述认证成功时,所述内容共享部允许所述第1信息处理装置和所述第3信息处理装置进行通信,并将所述虚拟现实内容转换成与所述第3信息处理装置对应的内容,并将所述内容发送给所述第3信息处理装置,
所述第3信息处理装置包括显示部,所述显示部显示收到的所述内容共享部发送的所述内容,当所述内容共享部将所述内容发送到所述第3信息处理装置时,所述第1信息处理装置的所述内容生成部将表示所述内容是共享的事项的图像或文字添加到所述虚拟现实内容中,
所述第1信息处理装置的所述内容发送部将含有表示所述内容共享事项的图像或文字的所述虚拟现实内容发送到所述虚拟现实头戴式耳机中。
4.根据权利要求1所述的虚拟现实系统,其特征在于,
所述内容生成部222根据所述第1位置信息和所述第2位置信息之间的差和所述第1方向信息和所述第2方向信息之间的差,将引导所述用户至所述生物体数据采集装置的画面添加到所述虚拟现实内容中。
5.根据权利要求1所述的虚拟现实系统,其特征在于,
所述内容生成部根据所述生物体数据和所述已注册的生物体数据中的至少一方,确定与所述用户相对应的角色属性,并根据所述属性生成所述虚拟现实内容。
6.一种信息处理系统,包括:
权利要求1的虚拟现实系统,
诊断处理装置;
所述第1信息处理装置还包括:
存储收到的所述生物体数据采集装置发送的所述生物体数据的病历数据和表示所述用户位置的第3位置信息的第1存储部,
将存储于所述第1存储部的所述病历数据和所述第3位置信息发送给所述诊断处理装置的病历发送部;
所述诊断处理装置包括:
存储有与疾病名称、可以治疗所述疾病的医院和诊所、所述医院的位置相关的医院信息的第2存储部,
接收所述第1信息处理装置发送的所述病历信息和所述第3位置信息,基于所述病历数据进行诊断处理,并基于所述医院信息和所述诊断处理的结果和所述第3位置信息,生成可以治疗所述诊断处理结果的医院和诊所的一览表,并将所述一览表发送给所述第1信息处理装置的第1控制部;
所述第1信息处理装置还包括:
将收到的所述诊断处理装置发送的所述一览表显示于显示部的第2控制部。
7.根据权利要求6所述的信息处理系统,其特征在于,
所述第1信息处理装置的所述第2控制部指示所述用户选择显示于所述显示部的包含于所述一览表的所述医院和诊所中的任一个,并将示出了所选择的诊所的诊所信息发送给所选择的所述医院的预约系统,
所述预约系统接收所述第1信息处理装置发送的所述诊所信息,并将可以预约所述诊所信息中显示的所述诊所的日期和时间发送给所述第1信息处理装置,
所述第1信息处理装置的所述第2控制部将收到的所述预约系统发送的所述可以预约的日期和时间显示于所述显示部中,并将所述用户选择了的日期和时间发送给所述预约系统。
CN201680087235.6A 2016-07-15 2016-07-15 虚拟现实系统及信息处理系统 Active CN109478288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110945400.XA CN113625880B (en) 2016-07-15 Virtual reality system and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/071046 WO2018011988A1 (ja) 2016-07-15 2016-07-15 仮想現実システム、及び、情報処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202110945400.XA Division CN113625880B (en) 2016-07-15 Virtual reality system and information processing system

Publications (2)

Publication Number Publication Date
CN109478288A true CN109478288A (zh) 2019-03-15
CN109478288B CN109478288B (zh) 2021-09-10

Family

ID=58281121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680087235.6A Active CN109478288B (zh) 2016-07-15 2016-07-15 虚拟现实系统及信息处理系统

Country Status (5)

Country Link
US (2) US10437057B2 (zh)
EP (1) EP3296940A4 (zh)
JP (1) JP6095191B1 (zh)
CN (1) CN109478288B (zh)
WO (1) WO2018011988A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111200745A (zh) * 2019-12-31 2020-05-26 歌尔股份有限公司 视点信息采集方法、装置、设备和计算机存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6321271B1 (ja) * 2017-06-21 2018-05-09 株式会社コロプラ コンテンツ提供方法、当該方法をコンピュータに実行させるプログラム、およびコンテンツ提供装置
CN107734193A (zh) * 2017-11-22 2018-02-23 深圳悉罗机器人有限公司 智能设备系统及智能设备控制方法
JP7172139B2 (ja) * 2018-05-28 2022-11-16 大日本印刷株式会社 販売システム
KR101941947B1 (ko) * 2018-07-13 2019-01-24 주식회사 유니브이알 가상현실 체험 기기를 이용한 가상현실 영상 제공 시스템
JP2022086027A (ja) * 2020-11-30 2022-06-09 株式会社電通 情報処理システム
US20230259920A1 (en) * 2022-02-15 2023-08-17 Htc Corporation Authentication method performed through wallet connection interface, authentication system, and computer readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080030461A1 (en) * 2006-08-01 2008-02-07 Canon Kabushiki Kaisha Mixed reality presentation apparatus and control method thereof, and program
CN101470875A (zh) * 2007-12-29 2009-07-01 阿里巴巴集团控股有限公司 一种通过中间平台进行支付的方法及支付系统
CN102542483A (zh) * 2011-11-08 2012-07-04 莫健新 房产位置展示系统及方法、展示数据生成系统及方法
JP2013157004A (ja) * 2005-01-28 2013-08-15 Cardinal Commerce Corp インターネットベースおよび非インターネットベース取引間の変換システムおよびその方法
US20130335573A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Input method designed for augmented reality goggles
US20150358778A1 (en) * 2014-06-05 2015-12-10 Samsung Electronics Co., Ltd. Method and apparatus for providing location information
CN105229566A (zh) * 2013-03-15 2016-01-06 埃尔瓦有限公司 增强现实系统中指示观察或视觉图案

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7839417B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
WO2013119657A1 (en) * 2012-02-06 2013-08-15 Xylem Water Solutions Zelienople Llc Dual parallel lateral with internal air distribution pipe
US9645394B2 (en) * 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
KR101991133B1 (ko) * 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이 및 그 제어 방법
US9699271B2 (en) * 2013-01-29 2017-07-04 Blackberry Limited Method and apparatus for suspending screen sharing during confidential data entry
KR102127927B1 (ko) * 2013-07-30 2020-07-09 엘지전자 주식회사 이동 단말기, 스마트 워치 및 이동 단말기와 스마트 워치간 보안 인증방법
US20150142596A1 (en) * 2013-11-18 2015-05-21 Gabriel Jakobson Commercial transactions via a wearable computer with a display
JP2015118556A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション コントロールデバイスのための拡張現実オーバーレイ
KR102080747B1 (ko) * 2014-03-28 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
JP2015230236A (ja) * 2014-06-05 2015-12-21 株式会社ecbeing 商品案内装置、端末装置、商品案内方法、及びプログラム
US20160358181A1 (en) * 2015-05-14 2016-12-08 Magic Leap, Inc. Augmented reality systems and methods for tracking biometric data
KR102557801B1 (ko) * 2016-02-04 2023-07-21 삼성전자주식회사 휴대 장치 및 휴대 장치의 전자 결제방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157004A (ja) * 2005-01-28 2013-08-15 Cardinal Commerce Corp インターネットベースおよび非インターネットベース取引間の変換システムおよびその方法
US20080030461A1 (en) * 2006-08-01 2008-02-07 Canon Kabushiki Kaisha Mixed reality presentation apparatus and control method thereof, and program
CN101470875A (zh) * 2007-12-29 2009-07-01 阿里巴巴集团控股有限公司 一种通过中间平台进行支付的方法及支付系统
CN102542483A (zh) * 2011-11-08 2012-07-04 莫健新 房产位置展示系统及方法、展示数据生成系统及方法
US20130335573A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Input method designed for augmented reality goggles
CN105229566A (zh) * 2013-03-15 2016-01-06 埃尔瓦有限公司 增强现实系统中指示观察或视觉图案
US20150358778A1 (en) * 2014-06-05 2015-12-10 Samsung Electronics Co., Ltd. Method and apparatus for providing location information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111200745A (zh) * 2019-12-31 2020-05-26 歌尔股份有限公司 视点信息采集方法、装置、设备和计算机存储介质

Also Published As

Publication number Publication date
US20180052324A1 (en) 2018-02-22
CN109478288B (zh) 2021-09-10
EP3296940A1 (en) 2018-03-21
WO2018011988A1 (ja) 2018-01-18
US10437057B2 (en) 2019-10-08
JPWO2018011988A1 (ja) 2018-07-12
US10996474B2 (en) 2021-05-04
US20190377178A1 (en) 2019-12-12
JP6095191B1 (ja) 2017-03-15
CN113625880A (zh) 2021-11-09
EP3296940A4 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
CN109478288A (zh) 虚拟现实系统及信息处理系统
CN108702408B (zh) 用于促进移动设备支付和个人使用的可穿戴个人数字设备
US20210125248A1 (en) Methods of Authenticating a User
CN106030598B (zh) 用于移动装置的信任代理认证方法
KR102190056B1 (ko) 빅데이터 기반의 환자 맞춤형 복약 정보 제공 장치 및 복약 정보 제공 방법
CN106233314A (zh) 响应于机械输入检测启用访问支付信息的用户设备
CN107665426A (zh) 使用生物特征认证进行支付的方法和电子设备
CN106030599A (zh) 移动装置的连续认证
CN108885744A (zh) 产品支付方法和用于支持该产品支付方法的电子装置
CN109154983A (zh) 被配置为交换生物测定信息的头戴式显示系统
CN103890696A (zh) 经认证的手势辨识
CN105809438A (zh) 用于智能可穿戴设备的身份识别方法、支付方法与装置
CN104640233B (zh) 电子设备之间建立通信连接的方法、装置和系统
US10263989B2 (en) Method for matching multiple devices, and device and server system for enabling matching
Colantonio et al. Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society
US20200324074A1 (en) Electronic device and method for providing information for stress relief by same
US20210166271A1 (en) Method for providing text-reading based reward-type advertisement service and user terminal for executing same
JP6392188B2 (ja) 真正性保証装置及び真正性保証システム
CN108389050A (zh) 用于执行多个支付的电子设备及方法
JP6719776B2 (ja) 仮想現実システム
CN108205754A (zh) 电子支付方法以及用于支持该电子支付方法的电子设备
CN113625880B (en) Virtual reality system and information processing system
KR20220065625A (ko) 전자 문서에 기반하여 회원권 명의 변경을 지원하는 전자 시스템
CN106257523A (zh) 移动终端及其用户配置文件使用方法
KR20160055406A (ko) 인지능력을 측정하는 게임 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant