CN108700937A - 视频显示设备和用于减轻vr不适的方法 - Google Patents
视频显示设备和用于减轻vr不适的方法 Download PDFInfo
- Publication number
- CN108700937A CN108700937A CN201680082566.0A CN201680082566A CN108700937A CN 108700937 A CN108700937 A CN 108700937A CN 201680082566 A CN201680082566 A CN 201680082566A CN 108700937 A CN108700937 A CN 108700937A
- Authority
- CN
- China
- Prior art keywords
- video
- user
- electro photoluminescence
- display apparatus
- video display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36036—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Optics & Photonics (AREA)
- Otolaryngology (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
一种视频显示设备,包括:显示器,被配置为再现视频;处理器,被配置为基于视频中示出的运动来生成用于向用户施加电刺激的信号;通信单元,被配置为向电刺激设备发送生成的信号。
Description
技术领域
示例性实施例涉及一种视频显示设备和一种用于减轻虚拟现实(VR)不适的方法。
背景技术
当虚拟现实(VR)装置被安装在用户的头部上时,用户可通过使用视频显示设备来观看通过拍摄三维(3D)空间而获得的视频。用户可在观看视频时旋转他或她的头部,并且视频显示设备以基于头部的方向而变化的方式来再现视频。
在用户观看诸如电影、戏剧或运动的内容时,可基于内容来提供气味或运动。可通过直接移动用户就座的椅子来提供运动,或者可通过向用户施加电流以使得用户感觉好像他或她正在移动来提供运动。
发明内容
技术方案
提供了一种视频显示设备和一种用于减轻用户的虚拟现实(VR)不适的方法。
提供了一种视频显示设备和一种用于增强用户的现实感的方法。
提供了一种记录有用于通过计算机执行该方法的程序的非暂时性计算机可读记录介质。
有益效果
根据示例性实施例,可减轻虚拟现实(VR)不适。
附图说明
从以下结合附图对示例性实施例的描述中,这些和/或其它方面将变得清楚和更容易理解,其中:
图1是用于说明虚拟现实(VR)不适的原因的示图;
图2是示出用于减轻用户的VR不适的示例性实施例的示图;
图3是根据示例性实施例的视频显示设备的框图;
图4是用于说明根据示例性实施例的用于基于视频的视点来施加电刺激的方法的示图;
图5是示出根据示例性实施例的用于基于视频的视点施加电刺激的方法的流程图;
图6是用于说明用于通过图3的视频显示设备来控制电刺激设备的方法的示图;
图7是示出根据示例性实施例的视频显示设备的框图;
图8是示出根据示例性实施例的电刺激设备的框图;
图9是用于说明根据示例性实施例的基于视频的改变程度来调节频率的示例的曲线图;
图10是用于说明基于视频的旋转方向添加偏移的示例的曲线图;
图11是用于说明根据示例性实施例的用于基于电极的附着程度来确定电刺激的施加的方法的示图;
图12是示出根据示例性实施例的用于基于电极的附着程度来确定电刺激的施加的方法的流程图;
图13是示出根据示例性实施例的用于基于人体的电阻来确定电刺激的施加的方法的流程图;
图14是根据示例性实施例的头戴式显示器(HMD)的框图;
图15是用于说明根据示例性实施例的用于调节电刺激的方法的示图;
图16是示出根据示例性实施例的用于通过检测用户的运动来调节电刺激的强度的方法的流程图;
图17是用于说明根据示例性实施例的用于通过用户调节电刺激的强度的方法的示图;
图18是用于说明根据示例性实施例的通过用户使用电刺激设备来调节电刺激的强度的示例的示图;
图19是用于说明根据示例性实施例的用于校正电刺激的发送时间的方法的示图;
图20是示出代表视频信息的电刺激数据的示例的表;
图21是用于说明根据示例性实施例的从服务器向多个视频显示设备发送电刺激信号或数据的示例的视图;
图22是用于说明根据示例性实施例的从服务器向多个视频显示设备发送电刺激信号或数据的示例的视图;
图23是用于说明根据示例性实施例的用于由用户手动施加电刺激信号的方法的示图;和
图24是用于解释根据示例性实施例的用于基于视频的运动生成用于电刺激的信号的方法的流程图。
用于实现本发明的最佳模式
提供了一种视频显示设备和一种用于减轻用户的虚拟现实(VR)不适的方法。
提供了一种视频显示设备和一种用于增强用户的现实感的方法。
提供了一种记录有用于通过计算机执行该方法的程序的非暂时性计算机可读记录介质。
其他方面将在下面的描述中部分阐述,并且部分地将从描述中变得显而易见,或者可通过所给出的示例性实施例的实践而了解。
根据示例性实施例的一方面,一种视频显示设备包括:显示器,被配置为再现虚拟现实视频;处理器,被配置为基于视频中示出的运动生成用于向用户施加电刺激的信号;通信器,被配置为向电刺激设备发送生成的信号。
具体实施方式
现在将详细参照示例在附图中示出的示例性实施例,其中相同的附图标记始终表示相同的元件。就这一点而言,本示例性实施例可具有不同的形式,并且不应该被解释为限于这里阐述的描述。因此,下面仅通过参照附图来描述示例性实施例,以解释其方面。
在下文中,将参照附图详细描述示例性实施例。
图1是用于说明虚拟现实(VR)不适的原因的示图。用户10经由视频显示设备100观看视频。视频显示设备100再现视频使得用户感觉他或她是在虚拟现实中。由于用户的眼睛观看视频,所以用户10感觉他或她正在移动。然而,因为用户10在现实中并不移动,所以他或她的前庭系统不能识别任何运动,并且由于虚拟运动与前庭系统没有识别到运动之间的差别,他或她可能会感到不适。因此,可通过向前庭系统施加电刺激来防止用户10感到不适。
图2是示出用于减轻用户的VR不适的示例性实施例的示图。参照图2,视频显示设备100可通过向电刺激设备200发送信号来控制电刺激设备200使得向用户10施加电刺激。
用户10通过视频显示设备100观看视频。用户10也可穿戴电刺激设备200。电刺激设备200可以是与视频显示设备100分离的设备。电刺激设备200和视频显示设备100可以以例如以头戴式显示器(HMD)的形式一体地制造。
视频显示设备100分析视频并向电刺激设备200发送基于视频的信号。视频显示设备100检测视频的视点、视频中的方向改变、视频的改变程度等,并且向电刺激设备200发送信号。视频显示设备100向电刺激设备200发送用于控制电刺激的大小、频率、偏移等的信号。将在下面参照图9、图10和图11详细描述电刺激的形式。
电刺激设备200基于从视频显示设备100接收到的信号向用户10施加电刺激。例如,电刺激设备200可向用户10施加电流。电刺激设备200基于从视频显示设备100接收到的信号调节电刺激的强度、频率、偏移等,并向用户10施加调节后的电刺激。
用户10的前庭系统响应于电刺激而起反应,并且信号经由神经元递送至大脑。因此,与未施加电刺激的情况相比,如果施加电刺激,则用户10感到较少不适。
图3是根据示例性实施例的视频显示设备的框图。参照图3,视频显示设备100包括处理器110、显示器120和通信单元(本文中也称为“通信器”和/或“收发器”)130。
处理器110控制显示器120和通信单元130。处理器110通过向显示器120提供视频来控制显示器,使得显示器120显示视频。处理器110经由通信单元130向电刺激设备200发送信号。
处理器110分析视频以便提取视频的特征。处理器110确定视频的视点。视频的视点可指观看视频的用户的视点。例如,处理器100可确定视频的视点是第一人称视点还是第三人称视点。此外,处理器110可确定视频的视点是否是第一人称视点和第三人称视点的组合。第一人称视点的视频在本文中被定义为从位于三维(3D)空间中的对象的视点捕获的视频,第三人称视点在本文中被定义为从对象的外部捕获的视频。具体地,第一人称视点的视频是从对象的视点观看3D空间的3D空间的视频,第三人称视点的视频是从外部观看3D空间的3D空间的视频。此外,视频可从第一人称视点变为第三人称视点,反之亦然。处理器110确定视频中示出的对象的背景或运动。处理器110可通过确定是背景移动还是对象移动来确定视频的视点。此外,处理器110可确定是否在视频中示出了旋转。
例如,当视频中没有主对象存在而是只有子对象存在时,处理器110可将视频确定为第一人称视点的视频。主对象可以是大小大于其他对象的大小的对象。此外,处理器110可在检测到关于视频的中心点的旋转时,将视频确定为第一人称视点的视图。在将视频确定为第一人称视点的视频之后,处理器110确定在视频中是只有子对象移动还是背景移动。处理器110确定当只有子对象移动时不必施加电刺激信号,并且确定当背景移动时需要施加电刺激信号。主对象可以是位于视频中心并具有相对较小尺寸变化的对象,并且子对象可以是位于视频周边并且具有相对较大尺寸变化的对象。
此外,当主对象被固定到视频的中心并且除主对象之外的对象移动时,处理器110将视频确定为第三人称视点的视频。因为当用户观看第三人称视点的视频时发生相对较小的不适,所以处理器110可在用户观看第三人称视点的视频时,将要向用户施加的电刺激信号的强度设置为低于当用户观看第一人称视点的视频时将要施加的电刺激信号的强度。此外,当用户观看第三人称视点的视频时,处理器110可不施加电刺激信号。处理器110可通过使用作为来自视频的机械学习的结果而构建的分类器来基于对象的特征识别对象。处理器110可使用直接使用视频的像素数据的像素区域接近方案、使用压缩视图信息的压缩区域接近方案或者组合上述方案的混合接近方案。
详细地,处理110可提取对象的局部梯度(或在边缘的方向)的直方图以便识别对象。此外,处理器110可通过使用用于视频的检测目标区域的各种通道计算的视频的特征(R颜色值、G颜色值和/或B颜色值、灰度值、梯度幅度值和梯度直方图值)来检测对象。
处理器110可检测视频中的对象的边界线。处理器110可通过利用视频的颜色和亮度来检测对象的边界线,以确定相邻像素之间的色差和亮度差。例如,处理器110可将具有相似颜色的区域检测为一个对象。处理器110可将表示像素的亮度的值从低值改变为高值或从高值改变为低值的点连接,以检测对象的边界线。处理器110可通过对视频的像素值进行微分来计算梯度,并且可通过使用该梯度来检测亮度改变的点。
处理器110可将包括与对象模型相似的特征的区域检测为对象。处理器110可从视频中提取关键点以对关键点与对象模型进行比较。
处理器110可检测对象的运动。处理器110可基于当前帧和先前帧之间的差异来检测对象的运动。
处理器110可检测视频的运动。处理器110可确定当前帧和先前帧中的相同或相似块,并且可基于相同或相似块的移动来检测视频中示出的运动。处理器110可通过将块的移动显示为矢量来显示当前帧与先前帧之间的运动。
处理器110可通过使用块匹配算法(BMA)或光流来估计运动。例如,光流与基于两个连续帧之间的差估计运动的方法相应。光流可表示亮度样式在视频中如何移动。光流可逐渐改变亮度并且将视频中的运动的方向和速度显示为矢量。稀疏光流与从视频提取主关键点并提取与提取的关键点相应的运动信息的方法相应。密集光流与视频的各个像素的运动信息相应,并且代表性算法是Gunner Farneback算法。当分析示出相对较大运动的视频时可使用稀疏光流,当分析示出较小运动的视频时使用密集光流。
处理器110基于视频中示出的运动生成用于电刺激的信号。当在视频本身中存在示出的运动时,而不是在穿戴视频显示设备的用户存在运动时,处理器110可生成用于电刺激的信号。
光流可用于检测对象并跟踪对象的运动。
此外,处理器110可检测构成对象的部分以及对象的整体,并且可基于对象的整体和/或部分来检测对象。
处理器110可通过使用这些方案来检测对象,并且可基于检测到的对象的大小和运动来确定视频的视点。
作为另一个示例,处理器110可基于视频之间的像素的变化来确定是否将要施加电刺激信号。处理器110确定视频的一部分是否改变或整个视频是否改变。处理器110可通过监视是否只有视频的特定区域的像素被改变来确定视频的一部分是否被改变。此外,处理器110可通过监视视频的所有像素是否被改变或平行地移动来确定整个视频是否被改变。
作为另一个示例,处理器110可基于视频的改变程度来确定是否将要施加电刺激信号。例如,如果相应像素值改变的像素的数量不小于全部像素的数量的50%,则处理器110可确定将要施加电刺激信号,如果相应像素值改变的像素的数量小于全部像素的数量的50%,则不施加电刺激信号。处理器110可基于用户偏好按照用户的口述来增大或减小改变的像素的数量与所有像素的数量的比率。
处理器110生成将要向电刺激设备200发送的信号。处理器110基于视频的分析结果生成信号。处理器110可通过确定电刺激的强度、频率、大小和偏移来生成信号。
通信单元130无线地或以有线方式连接到电刺激设备200以发送和接收信号。通信单元130可经由短程通信(诸如蓝牙或无线保真(Wi-Fi))或其他通信方案来发送和接收信号。通信方案不受限制。
显示器120提供用于向用户提供虚拟现实的视频。例如,显示器120可在两个划分的屏幕中显示相同的视频,使得用户10的两只眼睛观看相同的视频。
图4是用于说明根据示例性实施例的用于基于视频的视点来施加电刺激的方法的示图。
视频显示设备100可基于视频的视点来确定是否施加电刺激。视频显示设备100基于视频的视点向电刺激设备发送用于向用户施加电刺激的信号,或者停止电刺激设备的操作。例如,视频显示设备100可通过分析视频来确定视频的视点是第一人称视点还是第三人称视点。
如果视频的视点是第一人称视点,则视频显示设备100向电刺激设备200发送信号,以控制电刺激设备200使得电刺激设备200向用户施加信号。车辆在图4的第一人称视点的视频中不移动,但道路被示出为运动。当只有对象在第一人称视点的视频中移动时,视频显示设备100可不向电刺激设备200发送信号。当对象不移动或几乎不移动,但背景被示出为在第一人称视点的视频中移动时,视频显示设备100可向电刺激设备200发送信号。
如果视频的视点是第三人称视点,则视频显示设备100不向电刺激设备200发送信号或者发送指示将不施加电刺激的信号。当电刺激设备200受视频显示设备100控制时,电刺激设备200不向用户施加电刺激,除非它从视频显示设备100接收到相应的信号。
车辆在图4的第三人称视点的视频中移动,但道路可以是静止的。根据视频,道路可与车辆一起移动,但与在第一人称视点的视频中道路的明显移动相比,在第三人称视点的视频中道路可看起来移动较少或以另一种样式移动。
图5是示出根据示例性实施例的用于基于视频的视点施加电刺激的方法的流程图。
在操作510中,视频显示设备100在显示器120上显示视频。
在操作520中,视频显示设备100确定视频是否与第一人称视点相应。如果视频与第一人称视点相应,则操作进行到操作530,否则,操作进行到操作540。
在操作530中,视频显示设备100向电刺激设备200发送用于向用户施加电刺激的信号。
在操作540中,视频显示设备100停止电刺激设备200的操作。
图6是用于说明用于通过视频显示设备来控制电刺激设备的方法的示图。图6示出了用户旋转头部的情况。在观看视频时,用户可移动头部。视频显示设备100显示基于用户的运动而变化的视频。用户的头部可向左或向右旋转,或可向上或向下旋转。图6的头部的旋转表示用户直接移动头部的情况。
当检测到用户的头部的旋转时,视频显示设备100控制电刺激设备200,使得不向用户施加电刺激。由于在视频随着用户头部旋转而旋转时导致较少的视觉诱发晕动症(VIMS),因此如果向用户施加电刺激,则用户可能感到更不适。因此,视频显示设备100不向电刺激设备200发送信号,或者发送通知将不施加电刺激的信号。
当通过外部运动与用户旋转一起做出运动时,视频显示设备100发送信号以控制电刺激设备200,使得向用户施加电刺激。例如,当用户走路或处于车辆中或火车上时,视频显示设备100控制电刺激设备200,使得向用户施加电刺激。视频显示设备100可控制电刺激设备200,同时区分在用户观看视频时通过外部运动做出用户的运动的情况和在用户不看视频时通过外部运动做出用户的运动的情况。
当通过外部运动与用户旋转一起做出运动时,电刺激设备200发送信号以控制电刺激设备200,使得向用户施加电刺激。例如,当用户走路或在车内或在火车上时,用户可能感到不适。然后,视频显示设备100或电刺激设备200可实时检测用户是否感到不适,并且可向用户施加用于减轻不适的电刺激信号。
在另一个示例性实施例中,诸如火车或超顶车厢的运输装置沿固定路径移动。因此,用户感到不适的区域是在路径中。用户感到不适的区域可由交通工具的位置、速度和方向性来确定。设置在交通工具中的计算机或与交通工具连接的服务器可基于路径生成电刺激数据,并且将生成的电刺激数据发送到视频显示设备100或电刺激设备200。
在另一示例中,设置在运输装置中的计算机或与运输装置连接的服务器可基于电刺激数据,向视频显示设备100或电刺激设备200发送信号,以便控制视频显示设备100或者电刺激设备200,使得视频显示设备100或电刺激设备200向用户施加电刺激信号。设置在交通工具中的计算机或与交通工具连接的服务器检测用户或交通工具的位置,并确定是否是向用户施加电刺激的适当时间。设置在交通工具中的计算机或与交通工具连接的服务器可在当要施加电刺激时的时间点,向用户穿戴的电刺激设备200或视频显示设备100发送信号,以控制视频显示设备100或电刺激设备200使得视频显示设备100或电刺激设备200向用户施加电刺激信号。
图7是示出根据示例性实施例的视频显示设备的框图。图7的视频显示设备100还包括传感器140。传感器140是被配置用于检测用户的运动的装置。例如,传感器140可包括运动传感器,诸如,陀螺仪传感器或加速度传感器。
传感器140检测用户的运动并向处理器110输出检测结果。传感器140可检测头部的运动,诸如,旋转、翻滚、俯仰或偏荡。
处理器110可基于从传感器140接收的检测结果确定是否将要施加电刺激。例如,当传感器140检测到用户的头部旋转时,处理器110可如上面参照图6所述的停止施加电刺激。
图8是示出根据示例性实施例的电刺激设备的框图。参照图8,电刺激设备200包括通信单元(在本文中也被称为“通信器”和/或“收发器”)210、电流发生器220和一对电极230。
通信单元210通过有线或无线地连接到视频显示设备100,并被配置为发送和接收信号。通信单元210可通过诸如蓝牙或Wi-Fi的短程通信或者通过使用其他通信方案来发送和接收信号。
通信单元210从视频显示设备100接收与电刺激相关的信号,并向电流发生器220输出接收到的信号。
电流发生器220基于从通信单元210接收的信号生成电流。电流发生器220可调节电流的大小和频率。此外,电流发生器220可将偏移添加到AC电流。电流发生器220可基于从视频显示设备100接收到的信号,确定要向其施加电流的电极230以及向电极230施加的电流的极性、大小等。
电极230可附接到用户的身体。电流通过电极230流向身体。两个电极230可配对,并且可附接到用户耳朵的后侧。此外,一对电极230可附接到用户的太阳穴附近。此外,电极230可被附接到用户的耳朵和颈部的后侧,并且电刺激设备200可使得电流从左耳的后侧流到颈部的后侧,或从颈部的后侧流到耳朵的后侧。
电极230的附接位置和数量不限于此。
图9是用于说明基于视频的改变程度来调节频率的示例的曲线图。视频显示设备100可根据视频改变的程度来确定频率和电流宽度,并可向电刺激设备200发送确定的频率和电流宽度。
当视频中示出的运动变得更大时,可向用户施加较低频率和较大电流宽度的电刺激。与此相反,当视频中示出的运动变得更小时,可向用户施加较高频率和较小电流宽度的电刺激。
图9示出通过电刺激设备200输出电刺激的一种形式。当向用户施加基于一般运动的电刺激时,电刺激设备200向电极230输出参考频率信号。当向用户施加基于相对较小运动的电刺激时,电刺激设备200向电极230输出相对较高的频率信号。高频率的意思是比参考频率更高的频率。与此相反,当向用户施加基于比一般运动更大的运动的电刺激时,电刺激设备200向电极230输出频率低于参考频率的相对较低的频率信号。
图10是用于说明基于视频中示出的旋转方向添加偏移的示例的曲线图。视频显示设备100可基于视频中示出的旋转方向,对电刺激添加偏移。视频显示设备100基于旋转方向确定偏移方向,并向电刺激设备200发送偏移的确定方向。
当视频示出向左旋转时,视频显示设备100可添加负偏移。例如,负偏移的意思是AC电流被移动到小于零安培。与此相反,当视频示出向右旋转时,视频显示设备100可添加正偏移。例如,正偏移的意思是AC电流被移动到大于零安培。
尽管图10示出了基于视频中示出的旋转方向的偏移的方向,但是根据被施加电刺激的电极的位置,偏移的方向可变成相反。
视频显示设备100可根据方向的变化来确定偏移的大小。视频显示设备100随着方向变化的增大而增大偏移的大小,并且随着方向改变的减小而减小偏移的大小。
图11是用于说明用于基于电极的附着程度来确定电刺激的施加的方法的示图。电流式前庭刺激(GVS)系统是电刺激设备200的一个示例。电刺激设备200可基于压力的大小施加或不施加电刺激。此外,电刺激设备200可基于压力的大小调节电刺激的强度。
电刺激设备200可进一步包括压力传感器。压力传感器可附着到电极230的后表面。压力传感器测量当用户穿戴电刺激设备200时的压力。电刺激设备200向视频显示设备100发送测量到的压力。接触电阻和压力彼此成反比。因此,接触电阻随着压力大小的增大而减小,并且接触电阻随着压力大小的减小而增大。如果接触电阻高,则由于即使向电极230输出相同的电流也会施加相对较高的电压,因此用户可能会感到不舒服。因此,如果接触电阻高(或压力低),则电刺激设备200调节电刺激的强度,或者如果压力低于阈值压力,则不施加电刺激。
视频显示设备100基于压力的大小来控制电刺激设备200。如果测量的压力低于阈值压力,则视频显示设备100停止电刺激设备200的操作。即,视频显示设备100控制电刺激设备200,使得不向用户施加电刺激。
如果测量的压力低于阈值压力,则视频显示设备100通知用户该事实。视频显示设备100可经由显示器120显示警报消息或提供声音。如果测量的压力高于阈值压力,则视频显示设备100可显示正常穿戴消息。
如果测量的压力高于阈值压力,则视频显示设备100准备施加电刺激。如果测量的压力高于阈值压力,则这意味着用户正常穿戴电刺激设备200并且电极230适当地附接到用户。因此,视频显示设备100向电刺激设备200发送用于向用户正常施加电刺激的信号。如果测量的压力高于阈值压力,则视频显示设备100基于压力的大小,调节向电刺激设备200施加的电刺激的强度。基于接触电阻,实际向用户施加的电压的大小不同。此外,因为对于不同用户的接触电阻的大小不同,所以即使施加相同的电压,用户感受到的电压的大小也可能不同。电刺激设备200可测量实际向用户施加的电压的大小。电刺激设备200可将用户感受到的电压的大小与实际向用户施加的电压的大小进行比较,以便调节向用户施加的电压的大小。
如果电刺激设备200从视频显示设备100接收到信号,或者如果测量的压力低于阈值压力,则即使电刺激设备200没有收到信号,电刺激设备200也可不向电极230输出电刺激。
图12是示出根据示例性实施例的用于基于电极的附着程度确定电刺激的施加的方法的流程图。
在操作1210,视频显示设备100从电刺激设备200接收压力测量。
在操作1220,视频显示设备100确定接收到的压力是否大于阈值压力。
在操作1230,视频显示设备100向电刺激设备200发送用于向用户施加电刺激的信号。只有当视频与第一人称视点相应时,视频显示设备100才向电刺激设备200发送用于向用户施加电刺激的信号。
在操作1240,视频显示设备100停止电刺激设备200的操作。
在操作1250,视频显示设备100通知接收到的压力小于阈值压力的报告。此外,视频显示设备100可通知用户电刺激未施加。视频显示设备100可向显示器120显示消息或通过使用声音向用户通知消息。
图13是示出根据示例性实施例的用于基于人体的电阻来确定电刺激的施加的方法的流程图。
在操作1310,视频显示设备100从电刺激设备200接收用户的身体电阻的大小。电刺激设备200可向用户的身体施加电流,并且可通过测量电压来测量用户的身体电阻。
在操作1320,视频显示设备100可基于用户的身体电阻的大小来确定电刺激的强度。即使向不同的用户施加相同的电流,也可能会造成不便,因为根据不同的身体电阻,用户之间的电压可能会有所不同。
在操作1330,视频显示设备100向电刺激设备200发送用于向用户施加确定的电刺激的信号。视频显示设备100可向电刺激设备200输出确定的电刺激的强度。
可基于视频的视点是第一人称视点并且电极230被适当地附着到用户的前提来执行图13的操作。具体地,只有当视频的视点是第一人称视点并且测量的压力高于阈值压力时,视频显示设备100才可基于身体电阻的大小来确定电刺激的强度并且向用户施加电刺激。
此外,当用户的头部旋转时,无论视频的视点、压力的大小、身体阻力的大小等如何,视频显示设备100都可不向用户施加电刺激。
图14是根据示例性实施例的头戴式显示器(HMD)的框图。图14的HMD 1400可以是视频显示设备100和电刺激设备200在其中被整体制造的装置。因此,HMD 1400包括处理器1410、显示器1420、电流发生器1430和电极1440,不包括单独的通信单元。此外,HMD 1400还可包括加速度传感器、陀螺仪传感器、压力传感器和/或电阻测量单元中的任意。
已经由附图提供的视频显示设备100和电刺激设备200的描述也被应用于图14的HMD 1400。
图1至图14是用于说明用于减轻观看虚拟现实视频的用户的不适的方法的视图,图15至图19是用于说明用于增强观看虚拟现实视频的用户感受到的现实感的方法的视图。
用户观看视频中示出的运动,但因为用户的身体实际上并没有移动而感到不适。因此,视频显示设备100基于视频中示出的运动刺激前庭,以便减轻观看虚拟现实视频的用户感到的不适。
观看虚拟现实视频的用户可能会感到沉浸,因为他或她感觉与视频中示出的运动相同的运动。因此,视频显示设备100可通过使用户感觉与视频中示出的运动相同的运动来增强用户感受到的现实感,其中,通过沿着与视频中相同的方向刺激前庭并使用与视频中相同的强度来使用户感觉与视频中示出的运动相同的运动。为了增强现实感,电刺激数据与视频一起执行,并且基于电刺激数据向用户施加电刺激。电刺激数据包括施加电刺激的用户身体的位置以及电刺激的时间点和强度。
视频显示设备100可选择不适减轻功能和现实增强功能。视频显示设备100仅在再现视频时选择不适减轻功能,并且在电刺激数据与视频一起执行时选择现实增强功能。视频显示设备100可基于用户提供的输入来选择不适减轻功能和现实增强功能。
不适减轻功能是通过实时分析视频来向用户施加电刺激的功能。当选择不适减轻功能时,向用户施加的电刺激可以是AC电流。视频显示设备100可改变AC电流的大小、频率、偏移等。
现实增强功能是由视频显示设备100调节电刺激数据的大小和当施加电刺激时的时间点的功能。当电刺激数据与视频一起创建时,视频显示设备100向用户施加记录在电刺激数据中的电刺激。当选择现实增强功能时,向用户施加的电刺激可以是基于视频的改变的信号。电刺激的形式和强度可基于视频的改变来确定。
图15是用于说明根据示例性实施例的用于调节电刺激的方法的示图。视频显示设备100可施加可基于来自用户的反馈调节的电刺激。详细地,视频显示设备100调节记录在电刺激数据中的电刺激的强度。
视频显示设备100通过电刺激设备200向用户施加电刺激。视频显示设备100接收来自用户的反馈。用户的反馈可直接或间接地从用户接收。例如,用户可直接调节电刺激的强度。此外,视频显示设备100可通过检测用户的运动来调节电刺激的强度。
视频显示设备100施加基于反馈来调节的电刺激。视频显示设备100可基于反馈调节电刺激的强度和当施加电刺激时的时间点。此外,视频显示设备100可在不调节电刺激的形式的情况下调节强度或时间点。
图16是示出根据示例性实施例的用于通过检测用户的运动来调节电刺激的强度的方法的流程图。
在操作1610,视频显示设备100在显示器120上再现视频。
在操作1620,视频显示设备100基于视频的再现时间向电刺激设备200发送用于向用户施加电刺激的信号。视频显示设备100基于视频的再现时间来存储记录有电刺激的形式的电刺激数据。电刺激数据是基于视频中示出的运动的方向和大小预先创建的数据。如果视频被再现,则电刺激数据可与字幕文件一起执行。视频显示设备100基于电刺激数据向电刺激设备200发送信号。
在操作1630,视频显示设备100检测用户的运动。视频显示设备100可通过使用运动传感器(诸如,例如,陀螺传感器或加速度传感器)来检测用户的运动。
在操作1640,视频显示设备100可基于用户的运动程度来调节电刺激的强度。视频显示设备100可对记录在电刺激数据中的电刺激的强度和用户的运动程度进行比较,以便调节电刺激的强度。例如,如果用户的运动与电刺激的强度相比相对较大,则视频显示设备100可减小电刺激的强度,如果用户的运动与电刺激的强度相比相对较小,则视频显示设备100可增大电刺激的强度。视频显示设备100可对记录在电刺激数据中的电刺激的强度和用户的运动程度进行比较,以更新用户的灵敏度,并且可相应地调节电刺激的强度。灵敏度与表示由不同用户对于相同大小的电流感觉到的程度的值相应。即使施加相同大小的电流,用户感受的程度也可能会有所不同。因此,视频显示设备100可基于用户的运动程度来更新用户的灵敏度,并且基于更新后的灵敏度来调节电刺激的强度。具体地,视频显示设备100可在维持电刺激数据的形式的同时,仅基于灵敏度来调节电流的大小。
图17是用于说明根据示例性实施例的用于通过用户调节电刺激的方法的示图。
用户可通过使用视频显示设备100来调节电刺激的强度。视频显示设备100逐渐增大电刺激的强度,用户指示期望的电刺激的强度。视频显示设备100基于由用户指示的电刺激强度来施加电刺激。
如图17所示,用户可通过触摸显示在视频显示设备100的显示器120上的条带1710来选择期望的电刺激的强度。此外,用户可通过使用视频显示设备100的物理按钮(诸如音量按钮)来指示电刺激的强度。
即使没有由用户提供的任何直接输入,视频显示设备100也可通过检测用户的运动来指示电刺激的强度。当电刺激的强度逐渐增大时,视频显示设备100通过使用运动传感器来检测用户的运动程度。视频显示设备100可基于相对于电刺激的强度表现的用户的运动程度来调节电刺激的强度。视频显示设备100可基于针对电刺激的强度的用户的运动程度来获取用户的灵敏度。视频显示设备100设置用户的灵敏度,并且基于灵敏度来调节电刺激的强度。
此外,当电刺激的强度逐渐增大时,视频显示设备100可通过检测用户的手势来选择电刺激的强度。用户可通过执行点他或她的头或者敲击视频显示设备100的外部的操作来指示电刺激的强度。视频显示设备100可将当检测到用户的手势时的时间点施加的电刺激的强度选择为参考强度。
图18是用于说明通过用户使用电刺激设备来调节电刺激的强度的示例的示图。
电刺激设备200可进一步包括物理按钮。用户可通过按压电刺激设备200的按钮来调节电刺激的强度。即使在再现视频时,用户也可通过按压电刺激设备200的按钮来增大或减小电刺激的强度。
电刺激设备200基于由用户提供的输入来调节输出到电极230的电流的大小。此外,电刺激设备200向视频显示设备100发送由用户提供的输入。视频显示设备100可基于由用户提供的输入,向电刺激设备200发送信号。
图19是用于说明根据示例性实施例的用于校正电刺激的发送时间的方法的示图。
因为视频显示设备100和电刺激设备200通过有线或无线地彼此连接,所以在当视频显示设备100发送信号时的时间点和当电刺激设备200接收信号时的时间点之间出现间隙(即,时间间隔)。此外,在当视频移动时的时间点和当用户感觉到电刺激时的时间点之间存在间隙。
视频显示设备100在视频被再现之前,与电刺激设备200同步。视频显示设备100向电刺激设备200发送信号,并记录发送时间。电刺激设备200接收信号,并记录接收时间。电刺激设备200向视频显示设备100发送接收时间。视频显示设备100对发送时间和接收时间进行比较,以便调节信号发送时间。信号发送时间与将要被再现的视频一起存储在电刺激数据中。视频显示设备100调节记录在电刺激数据中的信号发送时间,并向电刺激设备200发送针对调节后的发送时间的信号。
视频显示设备100基于用户的运动调节信号发送时间。视频显示设备100向电刺激设备200发送信号,并记录信号发送时间。视频显示设备100记录当用户对电刺激进行反应时的反应时间。视频显示设备100可通过使用运动传感器检测用户的反应。视频显示设备100对信号发送时间和反应时间进行比较,以便调节信号发送时间。
视频显示设备100可通过校正信号发送时间,在与当视频变化时的时间一致的时间向用户施加电刺激。
图20是示出表示视频信息的电刺激数据的示例的表。例如,电刺激数据可以是元数据的形式。
视频显示设备100可将代表视频信息的电刺激数据与视频一起存储。电刺激数据是与将要向用户施加以在再现视频时减轻不适并增强现实感的电刺激信号相关的信息。
例如,电刺激数据可包括名称和值两个字段。“时间”代表当施加电刺激时的时间。“类型”代表电刺激的类型,包括俯仰、翻滚和偏荡。“模式”代表电刺激的波形,包括直流刺激(DCS)、交流刺激(ACS)和自定义运动类型。“电流”代表电流的大小。“频率”代表施加的电流的频率。“计数”代表施加的电刺激的重复次数。“方向”代表施加的电刺激的方向。
图20的电刺激数据的形式是一个示例,电刺激数据可包括各种字段。
图21和图22是用于说明通过服务器向多个视频显示设备或电刺激设备发送信号的示例的视图。服务器2100可生成并存储视频数据和电刺激数据。电刺激数据包括:再现视频时与当施加电刺激时的时间点有关的信息、电刺激的强度和电刺激的形式。电刺激数据可在生成视频数据时与视频数据一起生成。例如,电影制造商可在制作电影时制造与电影相关的电刺激数据。
服务器2100向多个视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140或多个电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240发送信号。多个视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140或多个电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240基于接收到的信号向用户施加电刺激。
作为另一示例,服务器2100可向多个视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140或多个电刺激设备2210、电刺激设备2120、电刺激设备2130和电刺激设备2240发送视频数据或电刺激数据。当视频数据被再现时,视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140可基于与视频数据相应的电刺激数据向用户施加电刺激。视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140基于当视频被再现时的时间点向用户施加记录在电刺激数据中的电刺激。多个电刺激设备2210、电刺激设备2120、电刺激设备2130和电刺激设备2240可基于电刺激数据向用户施加电刺激。
图21是用于说明从服务器向多个视频显示设备发送电刺激数据或信号的示例的视图。电刺激数据是为了基于视频向用户施加电刺激信号而创建的数据,并且可在视频被再现之前向视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140发送电刺激数据。在当施加电刺激时的时间点,向视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140发送信号。服务器2100向视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140发送电刺激数据或信号,视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140基于电刺激数据或信号来向用户施加电刺激。视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140可再现与接收到的电刺激数据相应的视频。如果视频被再现,则视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140搜索存储器以了解是否存储了与再现的视频相应的电刺激数据。如果找到了电刺激数据,则在视频被再现时,视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140基于电刺激数据控制电刺激设备,以施加电刺激。
尽管图21示出向视频显示设备2110、视频显示设备2120、视频显示设备2130和视频显示设备2140发送电刺激数据或信号,但是服务器2100还可向多个HMD发送电数据或信号。
图22是用于说明从服务器向多个视频显示设备发送电刺激数据或信号的示例的视图。服务器2100向电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240发送电数据或信号,电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240基于电刺激数据或信号来向用户施加电刺激。服务器2100可将电刺激数据或信号与视频一起发送。此外,服务器2100向多个用户显示视频,并向电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240发送电刺激数据或信号,使得在视频被再现时被用户穿戴的电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240向用户施加电刺激。
在下文中,将举例说明许多观众进入电影院看电影的情况。观众进入电影院并穿戴电刺激设备2210,就好像他们穿戴3D眼镜来观看3D电影一样。服务器2100在电影被再现时向电刺激设备2210发送电刺激数据或信号,以向观众施加电信号。因为观众观看相同的电影,所以服务器2100可向多个电刺激设备2210、电刺激设备2220、电刺激设备2230和电刺激设备2240发送相同的电刺激数据,或可在相同的时间点发送信号。
图23是用于说明根据示例性实施例的用于由用户手动施加电刺激信号的方法的示图。参照图23,用户可在观看视频时基于视频中示出的运动来操纵操纵杆2300。基于用户的操纵,操纵杆2300向电刺激设备200发送信号。电刺激设备200基于发送的信号向用户施加电刺激。
用户可操纵操纵杆2300,电刺激设备200可根据操纵杆2300的运动方向向用户施加电刺激。
例如,用户可基于视频中示出的运动来操纵操纵杆2300,以便在观看视频时减轻不适或增强现实感。如果视频示出向左旋转,则用户可向左旋转操纵杆2300。如果视频示出向右旋转,则用户可向右旋转操纵杆2300。用户可通过使用操纵杆2300来直接控制电刺激信号的方向、强度等。
操纵杆2300可包括球和棍子,球可通过棍子支撑。用户可操纵球,而操纵杆2300可检测球的运动,并向电刺激设备发送信号。
作为另一示例性实施例,用户可附接用于测量用户的生物信号的测量设备。测量设备可测量用户的诸如脉搏、脑电波或体温等的生物信号。基于测量到的生物信号,可确定用户是否感到不适。基于从测量设备输出的信号,电刺激设备200可通过向用户施加电刺激来减轻不适。
图24是用于解释根据示例性实施例的用于基于视频中示出的运动生成用于电刺激的信号的方法的流程图。
在操作2410,视频显示设备再现视频。视频可以是虚拟现实视频。
在操作2420,基于视频中示出的运动,视频显示设备生成用于向用户施加电刺激的信号。视频显示设备检测视频中示出的运动。生成的信号包括例如,与电刺激的强度、施加电刺激的身体的位置以及当施加电刺激时的时间点相关的信息。当不是穿戴视频显示设备的用户的运动,而是视频本身中示出运动时,处理器110可生成用于电刺激的信号。
视频显示设备可基于视频中示出的运动的方向生成信号。视频可示出与被旋转、向前移动、向后移动、放大或缩小中的任何相关的运动。视频显示设备检测视频是否示出与被旋转、向前移动、向后移动、放大或缩小相关的运动,并且基于检测到的在视频中示出的运动来生成信号。视频显示设备可通过使用块匹配算法(BMA)或光流来检测视频的运动。
在操作2430,视频显示设备向电刺激设备发送信号。接收到信号的电刺激设备基于包含在信号中的信息向用户施加电刺激。
视频显示设备可基于视频的视点生成信号。视频的视点可以是第一人称视点或第三人称视点。视频显示设备可在第一人称视点的视频被再现时基于视频中示出的运动来生成信号。视频显示设备可在第三人称视点的视频被再现时不生成信号。此外,即使当第三人称视点的视频被再现时,视频显示设备也可生成代表强度与再现第一人称视点的视频的情况相比较低的电刺激的信号。
应该理解,本文中描述的示例性实施例应该仅被认为是描述性的而不是为了限制的目的。通常应当将每个示例性实施例内的特征或方面的描述视为可用于其他示例性实施例中的其他类似特征或方面。
虽然已经参照附图描述了一个或多个示例性实施例,但本领域中的普通技术人员将理解:在不脱离由权利要求限定的精神和范围的情况下可对其进行形式和细节上的各种改变。
Claims (15)
1.一种视频显示设备,包括:
显示器,被配置为再现虚拟现实视频;
处理器,被配置为基于视频中示出的运动来确定是否生成用于向用户施加电刺激的信号,并且在做出生成信号的决定时生成信号;和
通信器,被配置为向电刺激设备发送生成的信号。
2.如权利要求1所述的视频显示设备,其中,处理器还被配置为基于视频中示出的旋转、前向移动、后向移动、放大和缩小中的至少一个来生成信号。
3.如权利要求1所述的视频显示设备,其中,处理器还被配置为确定视频的视点,并基于确定的视点生成信号。
4.如权利要求3所述的视频显示设备,其中,处理器还被配置为当视点被确定为第一人称视点时确定生成信号,并且当视点被确定为第三人称视点时确定不生成信号。
5.如权利要求1所述的视频显示设备,还包括:
传感器,被配置为检测穿戴视频显示设备的用户的运动,
其中,处理器还被配置为基于检测到的用户的运动的程度来调节电刺激的强度。
6.如权利要求5所述的视频显示设备,其中,处理器还被配置为对电刺激的强度与检测到的用户的运动的程度进行比较以便更新用户的灵敏度,并且基于更新后的灵敏度来调节电刺激的强度。
7.如权利要求5所述的视频显示设备,其中,显示器还被配置为显示电刺激的强度的描绘,接收来自用户的输入,并且向处理器输出接收到的输入,并且处理器还被配置为基于接收到的输入逐渐增大电刺激的强度并将电刺激的强度调节到由用户指示的强度。
8.如权利要求5所述的视频显示设备,其中,处理器还被配置为对当发送信号时的时间和当传感器检测到用户的运动时的时间进行比较,以便调节发送电刺激的时间。
9.一种用于基于虚拟现实视频提供电刺激的方法,所述方法包括:
再现视频;
基于视频中示出的运动来确定是否生成用于向用户施加电刺激的信号;
在做出生成信号的决定时生成信号;和
向电刺激设备发送生成的信号。
10.如权利要求9所述的方法,其中,生成信号的步骤包括:基于视频中示出的旋转、前向移动、后向移动、放大和缩小中的至少一个来生成信号。
11.如权利要求9所述的方法,其中,生成信号的步骤包括:基于视频的视点生成信号。
12.如权利要求11所述的方法,其中,确定是否生成信号的步骤包括:当视点为第一人称视点时确定生成信号,并且当视点为第三称人视点时确定不生成信号。
13.如权利要求9所述的方法,还包括:
检测穿戴视频显示设备的用户的运动,
其中,生成信号的步骤包括:通过基于检测到的用户的运动的程度调节电刺激的强度来生成信号。
14.如权利要求13所述的方法,其中,调节电刺激的强度的步骤包括:对电刺激的强度与检测到的用户的运动的程度进行比较以便更新用户的灵敏度,并且基于更新后的灵敏度来调节电刺激的强度。
15.如权利要求13所述的视频显示设备,还包括:
显示电刺激的强度的描绘;和
接收来自用户的输入,
其中,调节电刺激的强度的步骤包括:基于接收到的输入逐渐增大电刺激的强度并将电刺激的强度调节到由用户指示的强度。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0024301 | 2016-02-29 | ||
KR20160024301 | 2016-02-29 | ||
KR1020160106171A KR102365162B1 (ko) | 2016-02-29 | 2016-08-22 | 멀미 저감을 위한 영상 표시 장치 및 방법 |
KR10-2016-0106171 | 2016-08-22 | ||
PCT/KR2016/014978 WO2017150795A1 (en) | 2016-02-29 | 2016-12-21 | Video display apparatus and method for reducing vr sickness |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108700937A true CN108700937A (zh) | 2018-10-23 |
Family
ID=59925416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680082566.0A Pending CN108700937A (zh) | 2016-02-29 | 2016-12-21 | 视频显示设备和用于减轻vr不适的方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3365755B1 (zh) |
KR (1) | KR102365162B1 (zh) |
CN (1) | CN108700937A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112099625A (zh) * | 2020-08-25 | 2020-12-18 | 华南理工大学 | 基于微电流刺激的虚拟力反馈评估和调整系统与方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10832483B2 (en) | 2017-12-05 | 2020-11-10 | Electronics And Telecommunications Research Institute | Apparatus and method of monitoring VR sickness prediction model for virtual reality content |
KR102020472B1 (ko) * | 2018-08-08 | 2019-09-10 | 가천대학교 산학협력단 | Eeg센서 기반 향분사장치를 활용한 vr 콘텐츠 사용자의 피로도 완화 시스템 |
KR102591907B1 (ko) * | 2021-09-15 | 2023-10-20 | 사회복지법인 삼성생명공익재단 | 영상 컨텐츠와 모션 체어를 연동하는 방법, 컴퓨터 프로그램 및 시스템 |
KR102563321B1 (ko) | 2021-12-22 | 2023-08-04 | 고려대학교 산학협력단 | 역방향 광류를 이용한 멀미 저감 장치, 방법 및 이를 위한 컴퓨터 판독가능 프로그램 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101971608A (zh) * | 2008-03-10 | 2011-02-09 | 皇家飞利浦电子股份有限公司 | 向用户提供由视频流中的运动检测触发的物理刺激的方法和装置 |
US20150109528A1 (en) * | 2013-10-21 | 2015-04-23 | Postech Academy-Industry Foundation | Apparatus and method for providing motion haptic effect using video analysis |
KR101564964B1 (ko) * | 2015-02-05 | 2015-11-02 | 계명대학교 산학협력단 | 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치 |
CN105094310A (zh) * | 2014-05-09 | 2015-11-25 | 梦工厂动画公司 | 虚拟现实驾乘系统中减少晕车的方法和系统 |
CN105278676A (zh) * | 2014-06-09 | 2016-01-27 | 伊默森公司 | 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法 |
-
2016
- 2016-08-22 KR KR1020160106171A patent/KR102365162B1/ko active IP Right Grant
- 2016-12-21 EP EP16892808.3A patent/EP3365755B1/en active Active
- 2016-12-21 CN CN201680082566.0A patent/CN108700937A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101971608A (zh) * | 2008-03-10 | 2011-02-09 | 皇家飞利浦电子股份有限公司 | 向用户提供由视频流中的运动检测触发的物理刺激的方法和装置 |
US20150109528A1 (en) * | 2013-10-21 | 2015-04-23 | Postech Academy-Industry Foundation | Apparatus and method for providing motion haptic effect using video analysis |
CN105094310A (zh) * | 2014-05-09 | 2015-11-25 | 梦工厂动画公司 | 虚拟现实驾乘系统中减少晕车的方法和系统 |
CN105278676A (zh) * | 2014-06-09 | 2016-01-27 | 伊默森公司 | 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法 |
KR101564964B1 (ko) * | 2015-02-05 | 2015-11-02 | 계명대학교 산학협력단 | 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112099625A (zh) * | 2020-08-25 | 2020-12-18 | 华南理工大学 | 基于微电流刺激的虚拟力反馈评估和调整系统与方法 |
CN112099625B (zh) * | 2020-08-25 | 2022-03-29 | 华南理工大学 | 基于微电流刺激的虚拟力反馈评估和调整系统与方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20170101757A (ko) | 2017-09-06 |
EP3365755A1 (en) | 2018-08-29 |
KR102365162B1 (ko) | 2022-02-21 |
EP3365755B1 (en) | 2021-06-30 |
EP3365755A4 (en) | 2018-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10248202B2 (en) | Video display apparatus and method for reducing VR sickness | |
CN108700937A (zh) | 视频显示设备和用于减轻vr不适的方法 | |
CN103181180B (zh) | 提示控制装置以及提示控制方法 | |
TWI625549B (zh) | 電子式隱形眼鏡、其成像系統、提供內容之方法與非暫態之電腦可讀取媒介 | |
US11061240B2 (en) | Head-mountable apparatus and methods | |
CN102301316B (zh) | 用户界面装置以及输入方法 | |
US6623428B2 (en) | Digital image sequence display system and method | |
CN104755023B (zh) | 图像显示设备和信息输入设备 | |
US9483117B2 (en) | Apparatus, method and computer program for controlling a near-eye display | |
CN104581113B (zh) | 基于观看角度的自适应全息显示方法及全息显示装置 | |
CN108027652A (zh) | 信息处理设备、信息处理方法以及程序 | |
CN108596106B (zh) | 基于vr设备的视觉疲劳识别方法及其装置、vr设备 | |
CN105797349A (zh) | 实景跑步装置、方法及系统 | |
CN110673734A (zh) | 虚拟旅游方法、客户端、服务器端、系统及图像采集设备 | |
CN104076512A (zh) | 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法 | |
US20110044604A1 (en) | Method and apparatus to provide a physical stimulus to a user, triggered by a motion detection in a video stream | |
US11928251B2 (en) | Motion sickness reduction method and apparatus for VR motion platform | |
JP5096643B1 (ja) | 輻輳能力判定装置及びその方法 | |
JPH08289327A (ja) | 映像表示装置 | |
US11107276B2 (en) | Scaling voxels in a virtual space | |
CN106663412A (zh) | 信息处理设备、信息处理方法及程序 | |
KR20220014254A (ko) | 버스와 같은 차량에서 여행 가상현실 컨텐츠를 제공하는 방법 및 시스템 | |
US11893879B2 (en) | Stimulus presentation apparatus, stimulus presentation method and program | |
KR20200099047A (ko) | 씨스루 헤드 마운트 디스플레이를 위한 실세계 영상 왜곡 방법 및 실세계 영상 왜곡 기능을 가지는 씨스루 헤드 마운트 디스플레이 | |
CN112462942B (zh) | 一种可穿戴设备及其使用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |