CN109069927A - 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统 - Google Patents

用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统 Download PDF

Info

Publication number
CN109069927A
CN109069927A CN201780023847.3A CN201780023847A CN109069927A CN 109069927 A CN109069927 A CN 109069927A CN 201780023847 A CN201780023847 A CN 201780023847A CN 109069927 A CN109069927 A CN 109069927A
Authority
CN
China
Prior art keywords
user
virtual space
visual field
virtual
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780023847.3A
Other languages
English (en)
Inventor
高野友辉
马场功淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016116444A external-priority patent/JP6126273B1/ja
Priority claimed from JP2016116437A external-priority patent/JP6177965B1/ja
Application filed by Colopl Inc filed Critical Colopl Inc
Publication of CN109069927A publication Critical patent/CN109069927A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/02Miscellaneous game characteristics having an effect on the human senses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

提供了一种在提供虚拟现实时减少影像晕眩(虚拟现实晕眩)的技术。提供虚拟现实的计算机的处理器执行的处理,包括在存储器定义虚拟空间的步骤(S1010)、检出佩戴了头戴式显示装置的用户的动作的步骤(S1020)、基于用户的动作而决定在虚拟空间中飞翔的物体的飞翔方向的步骤(S1030)、生成用于以虚拟空间中的用户的视界沿飞翔方向移动的方式使头戴式显示装置显示视界图像的视界图像数据,并基于已生成的视界图像数据而使显示器显示视界图像的步骤(S1040)、在物体到达虚拟空间的对象物的情况(步骤S1050的YES)下使虚拟用户的位置高速地移动至对象物的步骤(S1060)。

Description

用于提供虚拟空间的方法、用于使计算机实现该方法的程序 以及用于提供虚拟空间的系统
技术领域
本公开涉及提供虚拟现实的技术,更具体地,涉及减少虚拟现实中的影像晕眩的技术。
背景技术
已知使用头戴式显示(HMD)装置而提供虚拟现实的技术。在提供虚拟现实时,有时候产生所谓的被称为虚拟现实(Virtual Reality)晕眩(Virtual Reality Sickness)的影像晕眩。因此,需要用于减少影像晕眩的技术。
例如,日本专利第5869177号公报(日本专利文献1)公开了一种技术,该技术在向头戴式显示器提供用户所投入的虚拟空间的视野图像时,进行抑制头戴式显示器的佩戴者所辨认的信息量的图像生成(参照摘要)。
另外,日本专利公开2007-116309号公报(日本专利文献2)公开了一种技术,该技术用于准确地判断拍摄者正在进行的偏转方向和俯仰方向的动作,恰当地抑制图像模糊(参照摘要)。
现有技术文献
专利文献
专利文献1:日本专利第5869177号公报
专利文献2:日本专利公开2007-116309号公报
发明内容
有一种游戏利用了将头戴式显示装置佩戴于虚拟现实的一个适用对象的用户的动作,例如,手的动作。因此,需要根据用户的动作而减少影像晕眩的技术。
本公开是为了解决上述的问题点而提出的,某个情形的目的为提供一种方法,该方法在提供虚拟现实时,减少影像晕眩(虚拟现实晕眩)。另一情形的目的为提供一种程序,该程序在提供虚拟现实时,减少影像晕眩。再一情形的目的为提供一种系统,该系统在提供虚拟现实时,减少影像晕眩。
根据某个实施方式,提供了一种方法,该方法用于计算机向头戴式显示装置提供虚拟空间的方法。该方法,包括计算机的处理器定义虚拟空间的步骤、处理器基于头戴式显示装置的用户的动作而决定根据用户的动作在虚拟空间中飞翔的物体的飞翔方向的步骤、处理器以虚拟空间中的用户的视界沿飞翔方向移动的方式使头戴式显示装置显示视界的步骤。
本发明的上述及其他的目的、特征、方面及优点,通过结合附图而理解的与本发明相关的下列详细说明而变得清楚。
附图说明
图1是示意根据某个实施方式的头戴式显示系统100的构成概况的图。
图2是示意根据一个情形的计算机200的硬件构成的一个示例的框图。
图3是概念地示意设定于根据某个实施方式的头戴式显示装置110的uvw视野坐标系的图。
图4是概念地示意根据某个实施方式的表现虚拟空间2的一个形态的图。
图5是从上方示意佩戴根据某个实施方式的头戴式显示装置110的用户190的头部的图。
图6是示意在虚拟空间2中从X方向观看视界区域23的YZ截面的图。
图7是示意在虚拟空间2中从Y方向观看视界区域23的XZ截面的图。
图8是表示由根据某个实施方式的计算机200实现的功能构成的框图。
图9是表示在根据某个实施方式的头戴式显示系统100中执行的处理的一部分的时序图。
图10是表示在虚拟用户处于虚拟空间2中向对象物投掷飞环等物体的情况下、计算机200执行的处理的一部分的流程图。
图11是示意山和树存在于虚拟空间2中的状态的图。
图12是用于说明虚拟用户向树1110投掷绳索1120时的状态的图。
图13是用于说明响应于绳索1120的环挂在树1110上,虚拟用户移动至树1110的附近的图。
图14是示意山存在于虚拟空间2中且马奔跑的状态的图。
图15是示意图像1500的图,该图像1500显示对象物在虚拟空间2中移动的状态。
图16是用于说明在一个情形中虚拟用户向移动物高速地移动的状态的图。
图17示意根据某个实施方式的头戴式显示系统100A的构成概况的图。
图18示意根据一个情形的计算机200A的硬件构成的一个示例的框图。
图19是将根据某个实施方式的计算机200A表示为模块构成的框图。
图20是表示在根据某个实施方式的头戴式显示系统100A中执行的处理的一部分的时序图。
图21是表示计算机200A根据就座于载板180的用户190的动作而执行的处理的一部分的流程图。
图22是示意在某个实施方式中用户190就座于载板180的形态的图。
图23是示意在某个实施方式中用户190站立于载板180的形态的图。
图24是示意在某个实施方式中用户190就座于橇1300A的形态的图。
图25是用于说明用户190就座或站立的载板180或橇1300A被水平地维持的情况的图。
图26是用于说明维持水平状态的用户190向右侧倾斜并使载板180或橇1300A向右侧倾斜的情况的图。
图27是用于说明维持水平状态的用户190向左侧倾斜并使载板180或橇1300A向左侧倾斜的情况的图。
图28是用于说明维持水平状态的用户190向前方倾斜并使载板180向前方倾斜的情况的图。
图29是用于说明维持水平状态的用户190向后方倾斜并使载板180向后方倾斜的情况的图。
具体实施方式
以下,参照附图,说明本发明的实施方式。在以下的说明中,对相同的部件赋予相同的符号。这些部件的名称及功能也相同。所以,不再重复其详细的说明。
[头戴式显示系统的构成]
参照图1,说明头戴式显示(Head Mount Display)系统100的构成。图1是示意根据某个实施方式的头戴式显示系统100的构成概况的图。在某个情形中,头戴式显示系统100作为家庭用的系统或业务用的系统而被提供。
如图1所示,根据某个实施方式的头戴式显示系统100具备头戴式显示装置110、头戴式显示传感器120、控制器160以及计算机200。头戴式显示装置110包括显示器112和注视传感器140。控制器160包括运动传感器130。在某个情形中,计算机200能够连接于网络19,能够与连接于网络19的服务器150通信。在其他情形中,头戴式显示装置110能够包括传感器114,代替头戴式显示传感器120。
根据某个实施方式的头戴式显示装置110被佩戴于用户的头部,能够在工作中向用户提供虚拟空间。更具体而言,头戴式显示装置110分别在显示器112显示右眼用的图像及左眼用的图像。如果用户的各眼辨认各自的图像,则用户能够基于双眼的视差将该图像作为三维的图像而识别。
显示器112,例如,作为非透过型的显示装置而被实现。在某个情形中,显示器112以位于用户的双眼的前方的方式配置于头戴式显示装置110的本体。所以,用户如果辨认显示器112显示的三维图像,则能够投入于虚拟空间。在某个实施方式中,虚拟空间包括,例如,背景、用户能够操作的物件以及用户能够选择的菜单的图像。在某个实施方式中,显示器112能够作为所谓的智能手机等信息显示终端所具备的液晶显示器或有机电致发光(Electro Luminescence)显示器而被实现。
在某个情形中,显示器112能够包括用于显示右眼用的图像的子显示器和用于显示左眼用的图像的子显示器。在其他情形中,显示器112可以为将右眼用的图像和左眼用的图像一体地显示的构成。这种情况下,显示器112,包括高速快门。高速快门,以能够交替地显示右眼用的图像和左眼用的图像的方式进行工作,使得图像仅被某一方的眼识别。
头戴式显示传感器120,包括多个光源(图中未显示)。各光源,例如,由发出红外线的发光二极管(LED)实现。头戴式显示传感器120,具有用于检出头戴式显示装置110的运动的位置追踪功能。头戴式显示传感器120,使用该功能,检出现实空间内的头戴式显示装置110的位置及倾斜。
此外,在其他情形,头戴式显示传感器120,可以由摄像机实现。这种情况下,头戴式显示传感器120,使用从摄像机输出的头戴式显示装置110的图像信息,执行图像解析处理,从而能够检出头戴式显示装置110的位置及倾斜。
在其他情形,头戴式显示装置110,可以具备传感器114作为位置检出器,代替头戴式显示传感器120。头戴式显示装置110,使用传感器114,能够检出头戴式显示装置110自身的位置及倾斜。例如,在传感器114为角速度传感器、地磁传感器、加速度传感器或陀螺传感器等的情况下,头戴式显示装置110,能够使用这些传感器中的某一个,代替头戴式显示传感器120,检出自身的位置及倾斜。作为一个示例,在传感器114为角速度传感器的情况下,角速度传感器,经时地检出现实空间中的头戴式显示装置110围绕3轴的角速度。头戴式显示装置110,基于各角速度,算出头戴式显示装置110围绕3轴的角度随时间的变化,进而,基于角度随时间的变化,算出头戴式显示装置110的倾斜。
运动传感器130,在某个情形中,安装于用户的手,检出用户的手的运动。例如,运动传感器130,检出手的旋转速度、旋转数等。已检出的信号,被发送至计算机200。运动传感器130,例如,设于手袋型的控制器160。在某个实施方式中,为了现实空间中的安全,控制器160,优选通过像手袋型那样佩戴于用户190的手,从而佩戴于不容易飞离的地方。在其他情形中,未佩戴于用户190的传感器也可以检出用户190的手的运动。例如,拍摄用户190的摄像机的信号也可以作为表示用户190的动作的信号而被输入至计算机200。运动传感器130和计算机200通过有线或通过无线而互相连接。在无线的情况下,通信方式没有被特别地限定,例如,使用蓝牙(Bluetooth(注册商标))等公知的通信手段。
注视传感器140,检出用户190的右眼及左眼的视线朝向的方向(视线方向)。该方向的检出,例如,由公知的眼球追踪功能实现。注视传感器140,由具有该眼球追踪功能的传感器实现。在某个情形中,注视传感器140,优选包括右眼用的传感器及左眼用的传感器。注视传感器140,例如,可以为这样的传感器:向用户190的右眼及左眼照射红外光,并且,接受来自角膜及虹膜的对于照射光的反射光,从而检出各眼球的旋转角。注视传感器140,基于已检出的各旋转角,能够检测到用户190的视线方向。
服务器150,能够向计算机200发送程序。在其他情形中,服务器150,能够与用于向其他用户使用的头戴式显示装置提供虚拟现实的其他计算机200进行通信。例如,在娱乐设施中,在多个用户进行参加型的游戏的情况下,各计算机200,与其他的计算机200通信基于各用户的动作的信号,能够使多个用户在相同的虚拟空间中玩共同的游戏。
[硬件构成]
参照图2,说明本实施方式涉及的计算机200。图2,示意根据一个情形的计算机200的硬件构成的一个示例的框图。计算机200,具备处理器10、存储器11、存储部12、输入输出接口13以及通信接口14,作为主要的构成要素。各构成要素,分别连接于总线15。
处理器10,基于给予计算机200的信号,或者,基于预定条件成立,执行存储于存储器11或存储部12的程序所包含的一系列的命令。在某个情形中,处理器10,作为CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-ProgrammableGate Array)等装置而被实现。
存储器11,暂时地保存程序及数据。程序,例如,从存储部12被加载。数据,包括向计算机200输入的数据和由处理器10生成的数据。在某个情形中,存储器11,作为RAM(Random Access Memory)等挥发性存储器而被实现。
存储部12,永久地保持程序及数据。存储部12,例如,作为ROM(Read-OnlyMemory)、硬盘装置、闪存等非挥发性存储装置而被实现。存储于存储部12的程序,包括用于在头戴式显示系统100中提供虚拟空间的程序、仿真程序、游戏程序、用户认证程序以及用于实现与其他计算机200的通信的程序。存储于存储部12的数据,包括用于规定虚拟空间的数据及物件等。
此外,在其他情形中,存储部12,可以作为像存储卡那样能够拆卸的存储装置而实现。再者,在其他情形中,也可以使用这样的构成:使用保存于外部存储装置的程序及数据,代替内置于计算机200的存储部12。依照这种构成,例如,在像娱乐设施那样,使用多个头戴式显示系统100的情况下,能够统一地进行程序和数据的更新。
输入输出接口13,在与头戴式显示装置110、头戴式显示传感器120、运动传感器130、服务器150之间通讯信号。在某个情形中,输入输出接口13,使用USB(UniversalSerial Bus)接口、DVI(Digital Visual Interface)、HDMI(注册商标)(High-DefinitionMultimedia Interface)等端子而实现。此外,输入输出接口13不限于上述接口。
通信接口14,连接于网络19,与连接于网络19的其他计算机(例如,服务器150)通信。在某个情形中,通信接口14,例如,作为LAN(Local Area Network)等有线通信接口,或者,WiFi(Wireless Fidelity),Bluetooth(注册商标),NFC(Near Field Communication)等无线通信接口而被实现。此外,通信接口14不限于上述接口。
在某个情形中,处理器10,将存储于存储部12的1个以上的程序加载于存储器11,执行该程序包含的一系列的命令。该1个以上的程序,能够包括计算机200的操作系统、用于提供虚拟空间的应用程序、能够使用控制器160在虚拟空间执行的游戏软件等。处理器10,经由输入输出接口13,向头戴式显示装置110发送用于提供虚拟空间的信号。头戴式显示装置110,基于该信号而在显示器112显示影像。
此外,在图2所示的示例中,计算机200,示出了设于头戴式显示装置110的外部的构成,但是,在其他情形中,计算机200也可以内置于头戴式显示装置110。作为一个示例,包括显示器112的便携型的信息通信终端(例如,智能手机)作为计算机200而起作用。
另外,计算机200,也可以是被多个头戴式显示装置110共同使用的构成。依照这种构成,例如,能够向多个用户提供同一虚拟空间,因而,各用户能够与其他的用户在同一的虚拟空间玩同一应用程序。
在某个实施方式中,在头戴式显示系统100中,预先设定全局坐标系。全局坐标系具有3个基准方向(轴),该3个基准方向分别平行于现实空间中的竖直方向、垂直于竖直方向的水平方向、垂直于竖直方向和水平方向的双方的前后方向。在本实施方式中,全局坐标系为视点坐标系的一种。于是,全局坐标系中水平方向、竖直方向(上下方向)以及前后方向,分别被规定为X轴、Y轴、Z轴。更具体而言,在全局坐标系中,X轴平行于现实空间的水平方向。Y轴平行于现实空间的竖直方向。Z轴平行于现实空间的前后方向。
在某个情形中,头戴式显示传感器120,包括红外线传感器。红外线传感器,如果分别检出从头戴式显示装置110的各光源发出的红外线,则检出头戴式显示装置110的存在。头戴式显示传感器120,还基于各点的值(全局坐标系的各坐标值),检出与佩戴了头戴式显示装置110的用户的运动相应的、现实空间内的头戴式显示装置110的位置及倾斜。更详细而言,头戴式显示传感器120,使用经时地检出的各值,能够检出头戴式显示装置110的位置及倾斜随时间的变化。
全局坐标系与现实空间的坐标系平行。所以,由头戴式显示传感器120检出的头戴式显示装置110的各倾斜,相当于全局坐标系中的头戴式显示装置110的围绕3轴的各倾斜。头戴式显示传感器120,基于全局坐标系中的头戴式显示装置110的倾斜,将uvw视野坐标系设定于头戴式显示装置110。设定于头戴式显示装置110的uvw视野坐标系,对应于佩戴了头戴式显示装置110的用户在虚拟空间中观看物体时的视点坐标系。
[已公开的实施方式的构成的概况]
(构成1)在某个实施方式中,提供了用于计算机200向头戴式显示装置110提供虚拟空间2的方法。该方法,包括计算机200的处理器10定义虚拟空间2的处理、处理器10基于头戴式显示装置110的用户190的动作而决定根据用户190的动作在虚拟空间2中飞翔的物体的飞翔方向的处理、处理器10以虚拟空间2内的用户190的视界沿飞翔方向移动的方式使头戴式显示装置110显示视界的处理。
(构成2)优选,在某个实施方式中,在构成1中,决定物体的飞翔方向的处理,包括基于用户190的动作而决定虚拟空间2内的物体的飞翔距离的处理。使头戴式显示装置110显示视界的处理,包括使显示器112显示从虚拟空间2中根据飞翔距离而移动后的位置起的视界的处理。
(构成3)优选,在某个实施方式中,在构成1或2中,该方法还包括在物体到达虚拟空间2内的对象物的情况下,处理器10使虚拟空间2内的用户190移动至该对象物的处理。
(构成4)优选,在某个实施方式中,在构成3中,使用户190移动至对象物的处理,包括在物体到达静止物的情况下,使用户190在虚拟空间2中移动至该静止物。
(构成5)优选,在某个实施方式中,在构成3中,使用户190移动至对象物的处理,包括在物体到达移动物的情况下,使用户190沿移动物的行进方向移动。
(构成6)优选,在某个实施方式中,在构成3~5中的任一个中,使用户190移动至该对象物的处理,包括以虚拟空间2内的用户190的周围的风景接近用户190的方式使头戴式显示装置110显示视界。
(构成7)优选,在某个实施方式中,在构成1或2中,还包括在物体到达虚拟空间2内的对象物的情况下,处理器10以向用户190的方位拉动对象物的方式使头戴式显示装置110显示用户190的视界的处理。
(构成8)优选,在某个实施方式中,在构成1~7中的任一个中,决定物体的飞翔方向的处理,包括基于与用户190的手的运动相应的物理量,或基于对连接于计算机200的控制器进行的操作,决定物体的飞翔方向。
(构成9)优选,在某个实施方式中,在构成1~8中的任一个中,决定物体的飞翔距离的处理,包括基于与用户190的手的运动相应的物理量,或基于对连接于计算机200的控制器进行的操作,决定物体的飞翔距离。
(构成10)根据某个实施方式的头戴式显示系统100,具备头戴式显示装置110以及用于向头戴式显示装置110提供虚拟空间2的计算机200。计算机200,具备用于存储一系列的命令的存储器和用于执行一系列的命令的处理器10。如果一系列的命令由处理器10执行,则处理器10构成为,定义虚拟空间2,基于头戴式显示装置110的用户190的动作,决定根据用户190的动作在虚拟空间2中飞翔的物体的飞翔方向,以虚拟空间2内的用户190的视界沿飞翔方向移动的方式,使头戴式显示装置110显示视界。
[uvw视野坐标系]
参照图3,说明uvw视野坐标系。图3是概念地示意设定于根据某个实施方式的头戴式显示装置110的uvw视野坐标系的图。头戴式显示传感器120在头戴式显示装置110起动时,检出全局坐标系内的头戴式显示装置110的位置及倾斜。处理器10,基于已检出的值,将uvw视野坐标系设定于头戴式显示装置110。
如图3所示,头戴式显示装置110,设定以佩戴了头戴式显示装置110的用户的头部为中心(原点)的三维的uvw视野坐标系。更具体而言,头戴式显示装置110,将3个方向设定为头戴式显示装置110的uvw视野坐标系的俯仰方向(u轴)、偏转方向(v轴)以及侧偏方向(w轴),这3个方向是通过将规定全局坐标系的水平方向、竖直方向以及前后方向(X轴、Y轴、Z轴)在全局坐标系内分别围绕各轴倾斜头戴式显示装置110围绕各轴的倾斜度而新得到的。
在某个情形中,佩戴了头戴式显示装置110的用户190直立,并且,在辨认正面的情况下,处理器10在头戴式显示装置110设定平行于全局坐标系的uvw视野坐标系。这种情况下,全局坐标系内的水平方向(X轴)、竖直方向(Y轴)以及前后方向(Z轴)与头戴式显示装置110的uvw视野坐标系的俯仰方向(u轴)、偏转方向(v轴)以及侧偏方向(w轴)一致。
在将uvw视野坐标系设定于头戴式显示装置110之后,头戴式显示传感器120,基于头戴式显示装置110的运动,能够检测已设定的uvw视野坐标系的头戴式显示装置110的倾斜(倾斜的变化量)。这种情况下,头戴式显示传感器120,分别检出uvw视野坐标系内的头戴式显示装置110的俯仰角(θu)、偏转角(θv)以及侧偏角(θw),作为头戴式显示装置110的倾斜。俯仰角(θu)表示uvw视野坐标系内的头戴式显示装置110围绕俯仰方向的倾斜角度。偏转角(θv)表示uvw视野坐标系内的头戴式显示装置110围绕偏转方向的倾斜角度。侧偏角(θw)表示uvw视野坐标系内的头戴式显示装置110围绕侧偏方向的倾斜角度。
头戴式显示传感器120,基于已检出的头戴式显示装置110的倾斜角度,将头戴式显示装置110运动后的头戴式显示装置110上的uvw视野坐标系设定于头戴式显示装置110。头戴式显示装置110和头戴式显示装置110的uvw视野坐标系的关系,与头戴式显示装置110的位置及倾斜无关,始终恒定。如果头戴式显示装置110的位置及倾斜变化,则全局坐标系内的头戴式显示装置110的uvw视野坐标系的位置及倾斜与该位置及倾斜的变化连动地变化。
在某个情形中,头戴式显示传感器120,基于红外线的光强度及多个点间的相对位置关系(例如,各点间的距离等),可以将头戴式显示装置110在现实空间内的位置确定为相对于头戴式显示传感器120的相对位置,其中,基于来自红外线传感器的输出而取得红外线的光强度。另外,处理器10,基于已确定的相对位置,可以决定现实空间内(全局坐标系)的头戴式显示装置110的uvw视野坐标系的原点。
[虚拟空间]
参照图4,进一步说明虚拟空间。图4概念地示意根据某个实施方式的表现虚拟空间2的一个形态的图。虚拟空间2,具有将中心21的360度方向的全体覆盖的全天球状的构造。图4中,为了不使说明复杂化,例举了虚拟空间2中的上半部分的天球。虚拟空间2中,规定了各网格。各网格的位置,被预先规定为虚拟空间2中规定的XYZ坐标系内的坐标值。计算机200,将构成能够展开成虚拟空间2的内容(静止画、动画等)的各部分图像分别对应于虚拟空间2中对应的各网格,向用户提供用户能够辨认的虚拟空间图像22展开的虚拟空间2。
在某个情形中,在虚拟空间2中,规定以中心21为原点的XYZ坐标系。XYZ坐标系,例如,平行于全局坐标系。XYZ坐标系为视点坐标系的一种,因而XYZ坐标系的水平方向、竖直方向(上下方向)、前后方向,被分别规定为X轴、Y轴、Z轴。所以,XYZ坐标系的X轴(水平方向)与全局坐标系的X轴平行,XYZ坐标系的Y轴(竖直方向)与全局坐标系的Y轴平行,XYZ坐标系的Z轴(前后方向)与全局坐标系的Z轴平行。
在头戴式显示装置110起动时,即,在头戴式显示装置110的初始状态,虚拟摄像机1配置于虚拟空间2的中心21。虚拟摄像机1,与现实空间内的头戴式显示装置110的运动连动地在虚拟空间2中同样地移动。由此,现实空间内的头戴式显示装置110的位置及朝向的变化,在虚拟空间2中被同样地再现。
在虚拟摄像机1,与头戴式显示装置110的情况同样地,规定了uvw视野坐标系。虚拟空间2内的虚拟摄像机的uvw视野坐标系被规定为与现实空间(全局坐标系)内的头戴式显示装置110的uvw视野坐标系连动。所以,如果头戴式显示装置110的倾斜变化,相应地,虚拟摄像机1的倾斜也变化。另外,虚拟摄像机1,能够与佩戴了头戴式显示装置110的用户在现实空间内的移动连动地在虚拟空间2中移动。
虚拟摄像机1的朝向,根据虚拟摄像机1的位置及倾斜而决定,因而,用户辨认虚拟空间图像22时作为基准的视线(基准视线5),根据虚拟摄像机1的朝向而决定。计算机200的处理器10,基于基准视线5,规定虚拟空间2内的视界区域23。视界区域23,对应于虚拟空间2中的、佩戴了头戴式显示装置110的用户的视界。
由注视传感器140检出的用户190的视线方向为用户190辨认物体时的视点坐标系内的方向。头戴式显示装置110的uvw视野坐标系,等同于用户190辨认显示器112时的视点坐标系。另外,虚拟摄像机1的uvw视野坐标系,与头戴式显示装置110的uvw视野坐标系连动。所以,根据某个情形的头戴式显示系统100,能够将由注视传感器140检出的用户190的视线方向视为虚拟摄像机1的uvw视野坐标系内的用户的视线方向。
[用户的视线]
参照图5,说明用户的视线方向的决定。图5是从上方示意佩戴根据某个实施方式的头戴式显示装置110的用户190的头部的图。
在某个情形中,注视传感器140,检出用户190的右眼及左眼的各视线。在某个情形中,在用户190观看近处的情况下,注视传感器140检出视线R1及L1。在其他情形中,在用户190观看远处的情况下,注视传感器140检出视线R2及L2。这种情况下,视线R2及L2相对于侧偏方向w所成的角度,小于视线R1及L1相对于侧偏方向w所成的角度。注视传感器140,向计算机200发送检出结果。
计算机200,在从注视传感器140接收视线R1及L1的检出值作为视线的检出结果的情况下,基于该检出值,确定视线R1及L1的交点,即注视点N1。另一方面,计算机200,在从注视传感器140接收视线R2及L2的检出值的情况下,将视线R2及L2的交点确定为注视点。计算机200,基于已确定的注视点N1的位置,确定用户190的视线方向N0。计算机200,例如,检出通过将用户190的右眼R和左眼L连接的直线的中点与注视点N1的直线延伸的方向,作为视线方向N0。视线方向N0为用户190通过双眼而实际地使视线朝向的方向。另外,视线方向N0,相当于用户190相对于视界区域23而实际地使视线朝向的方向。
在其他情形中,头戴式显示系统100,可以在构成头戴式显示系统100的任意部件处具备话筒及扬声器。用户,通过向话筒发话,从而能够对虚拟空间2给予声音指示。
另外,在其他情形中,头戴式显示系统100,可以具备电视播放接收调谐器。依照这种构成,头戴式显示系统100,能够在虚拟空间2中显示电视节目。
再者,在其他情形中,头戴式显示系统100,可以具备用于连接于互联网的通信电路,或者,用于连接于电话线路的通话功能。
[视界区域]
参照图6及图7,说明视界区域23。图6是示意在虚拟空间2中从X方向观看视界区域23的YZ截面的图。图7是示意在虚拟空间2中从Y方向观看视界区域23的XZ截面的图。
如图6所示,YZ截面处的视界区域23包括区域24。区域24,由虚拟摄像机1的基准视线5和虚拟空间2的YZ截面定义。处理器10,将虚拟空间中的以基准视线5为中心且包括极角α的范围规定为区域24。
如图7所示,XZ截面处的视界区域23包括区域25。区域25,由基准视线5和虚拟空间2的XZ截面定义。处理器10,将虚拟空间2中的以基准视线5为中心且包括方位角β的范围规定为区域25。
在某个情形中,头戴式显示系统100,基于来自计算机200的信号,使显示器112显示视界图像26,从而向用户190提供虚拟空间。视界图像26,相对于虚拟空间图像22中的与视界区域23重叠的部分。用户190,如果使佩戴于头的头戴式显示装置110移动,则虚拟摄像机1也与该运动连动地移动。结果,虚拟空间2中的视界区域23的位置变化。由此,显示器112显示的视界图像26,被更新为虚拟空间图像22中的、与用户在虚拟空间2中朝向的方向的视界区域23重叠的图像。用户,能够辨认虚拟空间2中的所期望的方向。
用户190,在佩戴着头戴式显示装置110的期间,不辨认现实世界,仅能够辨认展开成虚拟空间2的虚拟空间图像22。因此,头戴式显示系统100,能够向用户给予高度地向虚拟空间2投入的感觉。
在某个情形中,处理器10,能够与佩戴了头戴式显示装置110的用户190的现实空间中的移动连动地,在虚拟空间2中移动虚拟摄像机1。这种情况下,处理器10,基于虚拟空间2中的虚拟摄像机1的位置及朝向,确定投影于头戴式显示装置110的显示器112的图像区域(即,虚拟空间2中的视界区域23)。
根据某个实施方式,虚拟摄像机1,优选包括两个虚拟摄像机,即,用于提供右眼用的图像的虚拟摄像机和用于提供左眼用的图像的虚拟摄像机。另外,优选在两个虚拟摄像机设定恰当的视差,使得用户190能够识别三维的虚拟空间2。在本实施方式中,将本公开涉及的技术思想列举为虚拟摄像机1包括两个虚拟摄像机,并构成为通过将两个虚拟摄像机的侧偏方向合成而生成的侧偏方向(w)符合头戴式显示装置110的侧偏方向(w)。
[头戴式显示装置的控制装置]
参照图8,说明头戴式显示装置110的控制装置。在某个实施方式中,控制装置由具有公知的构成的计算机200实现。图8是将根据某个实施方式的计算机200表示为模块构成的框图。
如图8所示,计算机200,具备显示控制模块220、虚拟空间控制模块230、存储模块240以及通信控制模块250。显示控制模块220,包括虚拟摄像机控制模块221、视界区域决定模块222、视界图像生成模块223以及基准视线确定模块224,作为子模块。虚拟空间控制模块230,包括虚拟空间定义模块231、虚拟物件生成模块232以及物体控制模块233,作为子模块。存储模块240,保持空间信息241、物件信息242以及用户信息243。
在某个实施方式中,显示控制模块220和虚拟空间控制模块230由处理器10实现。在其他实施方式中,多个处理器10可以作为显示控制模块220和虚拟空间控制模块230而工作。存储模块240,由存储器11或存储部12实现。通信控制模块250,有通信接口14实现。
在某个情形中,显示控制模块220,控制头戴式显示装置110的显示器112的图像显示。虚拟摄像机控制模块221,在虚拟空间2中配置虚拟摄像机1,控制虚拟摄像机1的举动、朝向等。视界区域决定模块222,规定视界区域23。视界图像生成模块223,基于已决定的视界区域23,生成显示器112显示的视界图像26。
基准视线确定模块224,基于来自注视传感器140的信号,确定用户190的视线。
虚拟空间控制模块230,控制向用户190提供的虚拟空间2。虚拟空间定义模块231,通过生成表示虚拟空间2的虚拟空间数据,从而规定头戴式显示系统100中的虚拟空间2。
虚拟物件生成模块232,生成虚拟空间2中显示的对象物。对象物,例如,包括根据游戏情节的行进而显示的风景,动物等,风景包括森林、山等。
物体控制模块233,控制用户在虚拟空间2中保持的物体的动作。该物体,例如,能够包括与现实空间中的用户190的动作连动地而在虚拟空间2中被投掷的绳索、石头、飞环等的投掷物。
存储模块240,保持计算机200为了向用户190提供虚拟空间2而使用的数据。在某个情形中,存储模块240,保持空间信息241、物件信息242以及用户信息243。空间信息241,保持为了提供虚拟空间2而规定的1个以上的模板。物件信息242,保持用于显示在虚拟空间2中再现的内容以及被该内容使用的物件的信息。该内容,例如,能够包括显示游戏、与现实社会相同的风景的内容等。用户信息243,保持用于使计算机200作为头戴式显示系统100的控制装置而起作用的程序以及使用被物件信息242保持的各内容的应用程序等。存储于存储模块240的数据及程序,由头戴式显示装置110的用户输入。或者,从提供该内容的商家所运营的计算机(例如,服务器150)下载计算机200,存储于存储模块240。
通信控制模块250,经由网络19,能够与服务器150等的信息通信装置通信。
在某个情形中,显示控制模块220及虚拟空间控制模块230,能够使用日本UnityTechnologies公司提供的Unity(注册商标)而实现。
[控制构造]
参照图9,说明头戴式显示系统100的控制构造。图9是表示在根据某个实施方式的头戴式显示系统100中执行的处理的一部分的时序图。
在步骤S910,计算机200的处理器10作为虚拟空间定义模块231而确定虚拟空间图像数据。
在步骤S920,处理器10,将虚拟摄像机1初始化。例如,将虚拟摄像机1配置于虚拟空间2中预先规定的中心点,并使虚拟摄像机1的视线朝向用户190朝向的方向。
在步骤S930,处理器10作为视界图像生成模块223而生成初始的视界图像。通信控制模块250将已生成的视界图像经由视界图像生成模块223而向头戴式显示装置110发送。
在步骤S932,头戴式显示装置110的显示器112,基于从计算机200接收的信号,显示视界图像。佩戴了头戴式显示装置110的用户190,如果辨认视界图像,则能够识别虚拟空间2。
在步骤S934,头戴式显示传感器120,基于从头戴式显示装置110发出的多个红外光,检测到头戴式显示装置110的位置和倾斜。检测结果,作为运动检测数据,被发送至计算机200。
在步骤S940,处理器10,基于头戴式显示装置110的位置和倾斜,确定佩戴了头戴式显示装置110的用户190的视界方向。处理器10,执行应用程序,基于应用程序所包含的命令,在虚拟空间2中显示物件。用户190,通过该应用程序的执行而欣赏虚拟空间2中能够辨认的内容。在某个情形中,该内容,例如,包括球技、投绳等游戏,观光地的导览等。
在步骤S942,运动传感器130,检出用户190的手的运动。表示已检出的运动的信号,被发送至计算机200。该信号,包括手的旋转速度、加速度等。例如,在某个情形中,能够具有这样的场景:在执行球技的应用程序的情况下,根据用户190的手腕的挥动,存在于虚拟空间2中的虚拟用户投掷球。这种情况下,当用户190实际地移动手腕时,检出该手腕的旋转方向和速度。在其他情形中,在执行绳索投掷的游戏的情况下,如果用户190使手腕旋转,则检出使绳索旋转的期间的手腕的旋转速度及投掷绳索时的手腕的挥动方向。再者,在其他情形中,在执行旅行的应用程序的情况下,有时候虚拟空间2中的虚拟用户能够作为观光导游而起作用。这种情况下,检出虚拟空间2中的观光导游对旅行者说例如“请看右手的方向”时的右手腕的运动及右手腕所指示的方向。
在步骤S950,处理器10,基于运动传感器130输出的信号,确定飞翔方向。在本实施方式中,飞翔方向包括球、环、石头等的虚拟物体在虚拟空间2中飞翔的方向或者虚拟用户的手腕、手指、指示棒等的物件所指示的方向。
在步骤S960,处理器10,基于已确定的飞翔方向,决定虚拟用户的移动后的视界。
在步骤S970,处理器10,基于已确定的飞翔方向,决定虚拟摄像机1的朝向。
在步骤S980,处理器10,基于已决定的虚拟摄像机1的朝向,决定视界区域。在本实施方式中,视界区域表示虚拟空间2中的虚拟用户能够辨认的范围。
在步骤S990,计算机200,根据已决定的视界区域,生成用于显示视界图像的视界图像数据,将所生成的视界图像数据向头戴式显示装置110输出。
在步骤S992,头戴式显示装置110的显示器112,基于已接收的视界图像数据而更新视界图像,显示更新后的视界图像。用户190,能够识别更新后的视界图像,即视线沿飞翔方向移动后的视界。
参照图10,说明计算机200的控制构造。图10是表示在虚拟用户处于虚拟空间2中向对象物投掷飞环等的物体的情况下,计算机200执行的处理的一部分的流程图。
在步骤S1010,处理器10,作为虚拟空间定义模块231,在存储器11定义虚拟空间2。
在步骤S1020,处理器10,基于来自运动传感器130的信号,检出佩戴了头戴式显示装置110的用户190的动作。
在步骤S1030,处理器10,基于用户190的动作,决定在虚拟空间2中飞翔的物体的飞翔方向。例如,处理器10,基于用户190的右手的旋转速度及投掷方向,决定物体飞翔时的初速、飞翔方向等的参数。在另一情形中,处理器10,基于用户190的右手的旋转次数及投掷方向,可以决定该参数。与考虑旋转速度的情况相比,在考虑旋转次数的情况下,控制器160更容易控制物体在从用户190的手离开前的飞翔,因而能够更安全地使用头戴式显示装置110。
在步骤S1040,处理器10,作为虚拟物件生成模块232,生成视界图像数据,该视界图像数据用于以虚拟空间2中的用户190的视界沿飞翔方向移动的方式使头戴式显示装置110显示视界图像。处理器10,将已生成的视界图像数据向头戴式显示装置110发送,基于该视界图像数据,使显示器112显示视界图像。
在步骤S1050,处理器10,基于虚拟空间中的虚拟用户与对象物的虚拟距离以及用户190的手腕的旋转动作,判断物体是否到达虚拟空间2的对象物。例如,对象物,可以是虚拟空间2中显示的树、岩石等静止物,或者,像汽车、狗或马那样在虚拟空间2中奔跑的移动物中的任一种。能够基于例如虚拟空间2中的物体的初速、飞翔方向以及从虚拟用户至对象物的虚拟距离,判断物体是否到达对象物。此外,该判断在虚拟空间2适用,因而,可以无视现实空间中应当考虑的空气阻力等的物理量的存在。处理器10,如果判断物体到达虚拟空间2的对象物(步骤S1050的YES),则将控制切换为步骤S1060。否则(步骤S1050的NO),处理器10将控制返回步骤S1020。
在步骤S1060,处理器10,作为物体控制模块233,使虚拟空间2中的虚拟用户的位置移动至该对象物。
此外,在其他情形中,步骤S1050中的判断,例如,可以考虑游戏软件中所执行的物理演算。这种情况下,例如,能够考虑物体的大小、质量、虚拟空间2中的重力或空气阻力等。如此,能够提高虚拟现实中所提供的兴趣。
再者,在其他情形中,处理器10,可以执行确定物体到达的对象物的处理,代替步骤S1050中的判断处理。该对象物,例如,包括树、岩石、地面等的静止物以及动物、车辆等的移动物。在该情形中,例如,处理器10,可以以虚拟用户在虚拟空间2中高速地移动至该对象物的方式生成视界图像。如此,即使在高速移动的虚拟现实的情况下,也能够抑制对用户190产生虚拟现实晕眩。
[用户相对于静止物的移动]
参照图11至图13,说明虚拟空间2中的用户相对于静止物的移动。在某个实施方式中,列举了树作为静止物,但静止物不限于所列举的物体。例如,只要是像建筑物、河流的对岸那样至少用户在虚拟空间2中能够辨认的物体即可。
图11是示意山和树存在于虚拟空间2中的状态的图。用户,在右前方识别树,在左前方识别山。图11A示意佩戴了头戴式显示装置110的用户190在虚拟空间2中辨认的图像1100。图11B示意从上方(Y方向)观看虚拟空间2的状态。
作为一个示例,说明头戴式显示系统100在虚拟空间2中使虚拟用户投掷绳索并向该绳索挂着的目标移动的剧本。在某个情形中,佩戴了头戴式显示装置110的用户190,在右手安装传感器。该传感器,检出右手的运动(旋转或投掷动作),检出结果被输入至计算机200。计算机200,执行实现该剧本的应用程序,向显示器112发送用于显示图像的信号。如果显示器112根据该信号显示图像,则用户190识别该图像。
如图11A所示,在某个情形中,虚拟空间2中的虚拟用户,辨认山和树1110。根据上述剧本的进行,如果用户190使佩戴有控制器160的手移动,从而为了使绳索显示而进行预先规定的动作,则显示绳索1120。
如图11B所示,如果从Y轴方向观看虚拟空间2,则在相当于虚拟用户的虚拟摄像机1的视野,显示绳索1120。
图12是用于说明虚拟用户向树1110投掷绳索1120时的状态的图。图11A示意绳索1120向着树1110飞去的状态。图11B示意根据绳索1120的投掷虚拟摄像机1的朝向向着树1110的方位的状态。
如果用户190将右手腕转动数圈并向右前方挥动右手,则处理器10,基于从安装于右手的传感器输出的信号,切换显示器112所显示的图像。更具体而言,虚拟空间2中的视界图像,切换为以树1110为中心的图像。虚拟用户,能够在投掷绳索1120时,以似乎将视线切换为树1110的方向的方式识别视界图像。用户190,能够预测绳索1120飞去的方向,因而能够不损害投入感,防止所谓的影像晕眩(虚拟现实晕眩)。
图13是用于说明响应于绳索1120的环挂在树1110上,虚拟用户移动至树1110的附近的图。图13A是示意移动至树1110的附近的虚拟用户所辨认的图像的图。图13B是示意虚拟空间2中的虚拟摄像机1的位置及朝向的图。
如图13A所示,在某个情形中,图像1300,显示虚拟用户移动至树1110的附近的状态。由存在于虚拟空间2中的虚拟用户投掷的绳索1120挂在树1110的树枝上之后,如果用户190进行如将绳索1120拉动至身边那样的动作,则在虚拟空间2中,虚拟用户能够向着树1110高速地移动。更具体而言,虚拟用户,能够比根据头戴式显示传感器120所检出的头戴式显示装置110的位置的时间变化的移动速度更高速地移动。这时,可以以虚拟用户和树1110的周围的风景向虚拟用户的方位高速地移动的方式显示视界图像。
如图13B所示,通过虚拟摄像机1的位置被瞬时地移动至树1110的附近,使得用户190能够以似乎虚拟用户瞬时地移动至树1110的方式进行辨认。
如上所述,在某个情形中,在基于用户190的动作,虚拟用户在虚拟空间2中向静止物投掷物体的情况下,虚拟用户所辨认的视界图像,切换成物体飞翔的方向,即虚拟用户的视界移动的方向。用户190的动作,包括手腕的旋转及投掷物体的举止。视界图像切换的方向,对应于这种动作。所以,用户190,能够根据自身的动作而辨认虚拟空间2中的视界图像,因而能够抑制影像晕眩。
[用户相对于静止物的移动]
接着,参照图14至图16,说明虚拟空间2中的用户相对于移动物的移动。在某个实施方式中,列举了马作为移动物,但移动物不限于所列举的物体。例如,只要是其他动物、汽车等的车辆、鸟、飞机、火箭等的在现实空间移动的物体即可。
图14是示意山存在于虚拟空间2中且马奔跑的状态的图。图14A示意佩戴了头戴式显示装置110的用户190在虚拟空间2中辨认的视界图像1400。图14B示意从上方(Y方向)观看虚拟空间2的状态。在某个情形中,佩戴了头戴式显示装置110的用户190作为虚拟用户而辨认视界图像1400。视界图像1400显示山和马1410。
如图14A所示,如果用户190进行预定的动作,则头戴式显示装置110的处理器10在视界图像1400之中显示绳索1120。如果用户190移动手,则运动传感器130检出该运动,处理器10,以绳索1120向着奔跑的马1410飞去的方式使显示器112显示图像。这时,根据用户190的动作,显示器112以马1410成为视界图像1400的中心的方式显示图像。所以,用户190进行动作的方向和在视界图像1400显示的方向为大致相同的方向,因而能够抑制虚拟现实晕眩。
图15是示意图像1500的图,该图像1500显示对象物在虚拟空间2中移动的状态。图15A是示意虚拟空间2中的马1410奔跑且场所移动的状态的图。图15B示意从上方(Y方向)观看虚拟空间2的状态。
如图15A所示,如果用户190在虚拟空间2中作为虚拟用户而进行向着奔跑的马1410投掷绳索1120的动作,则运动传感器130检测到该动作,检出移动方向。例如,在马1410于图像1500中从右至左奔跑的情况下,用户190,进行将右手向左前方投掷的动作。于是,处理器10,以视界图像向左方向切换的方式生成信号,将该信号向显示器112发送。
图15B,将相当于虚拟用户的虚拟摄像机1的朝向切换成以马1410为中心的方向。在该状态下,如果显示器112显示图像,则用户190作为虚拟用户而能够在虚拟空间2中的图像的中心辨认马1410。
再者,在其他情形中,如果绳索1120挂在马1410上,则用户190通过进行拉动绳索1120的动作,从而能够使虚拟用户向马1410的方位高速地移动。
图16是用于说明在一个情形中虚拟用户向移动物高速地移动的状态的图。图16A示意虚拟用户所辨认的视界图像1600。图16B示意从上方(Y方向)观看虚拟空间2的状态。
如图16A所示,在虚拟空间2中,虚拟用户能够高速地移动至对象物。例如,如果在如图15A所示地绳索1120挂在马1410上的状态下,用户190进行拉绳索1120的动作,例如,将佩戴有运动传感器130的手拉至跟前的动作,则处理器10,使显示器112显示如虚拟用户高速地向马1410接近那样的画面。例如,显示如虚拟用户的周围的景色高速地向虚拟用户的后方行进那样的图像,作为视界图像。如此,辨认视界图像的用户190,即使在虚拟空间2中也能够予想基于自己的动作的移动方向,因而,能够防止虚拟现实晕眩的发生。
如上所述,依照某个实施方式,基于现实空间中的用户190的动作,显示虚拟空间2中的虚拟用户的移动方向,因而用户190的动作和虚拟空间2中的移动方向连动。结果,即使在虚拟空间2中进行虚拟用户的移动,也能够抑制对此时辨认图像的用户190产生虚拟现实晕眩。此外,可以将以上公开的各特征恰当组合。
[头戴式显示系统的构成]
参照图17,说明头戴式显示(Head Mount Display)系统100A的构成。图17是示意根据某个实施方式的头戴式显示系统100A的构成概况的图。在某个情形中,头戴式显示系统100A作为家庭用的系统或业务用的系统而被提供。此外,对与上述的头戴式显示系统100的构成相同的部件赋予相同的符号,不再赘述与其功能重复的说明。
如图17所示,根据某个实施方式的头戴式显示系统100A具备上述的头戴式显示装置110、上述的头戴式显示传感器120、载板180以及计算机200A。头戴式显示装置110,包括上述的显示器112、上述的注视传感器140。载板180包括倾斜传感器170。在某个情形中,计算机200A能够连接于网络19,能够与连接于网络19的服务器150通信。在其他情形中,头戴式显示装置110能够包括上述的传感器114,代替头戴式显示传感器120。
根据某个实施方式,头戴式显示系统100A还可以具备控制器160A。控制器160A能够包括运动传感器130A。
控制器160A,从用户190接收对计算机200A的命令的输入。在某个情形中,控制器160A,构成为能够由用户190握持。在其他情形中,控制器160A,构成为能够佩戴于用户190的身体或衣服的一部分。在其他情形中,控制器160A,构成为基于从计算机200A发送的信号而输出振动、声音、亮光中的至少一种。
运动传感器130A,在某个情形中,安装于用户的手,检出用户的手的运动。例如,运动传感器130A,检出手的旋转速度、旋转数等。已检出的信号,被发送至计算机200A。运动传感器130A,例如,设于手袋型的控制器160A。在某个实施方式中,为了现实空间中的安全,控制器160A,优选通过像手袋型那样佩戴于用户190的手,从而佩戴于不容易飞离的地方。在其他情形中,未佩戴于用户190的传感器也可以检出用户190的手的运动。例如,拍摄用户190的摄像机的信号也可以作为表示用户190的动作的信号而被输入至计算机200A。运动传感器130A和计算机200A通过有线或通过无线而互相连接。在无线的情况下,通信方式没有被特别地限定,例如,使用蓝牙(Bluetooth(注册商标))等公知的通信手段。
倾斜传感器170,例如,由加速度传感器、触摸传感器等实现。在某个实施方式中,在像载板180那样底部为球面状的部件中,使用加速度传感器作为倾斜传感器170。在某个实施方式中,在用户190使用像雪橇那样具有侧壁的器具的情况下,除了加速度传感器之外,或者代替加速度传感器,可以在左右的侧壁配置触摸传感器作为倾斜传感器。这种情况下,能够检测到该器具向用户190触摸的侧壁的方向倾斜。
载板180,构成为根据作用于上表面的负荷而倾斜。例如,在某个情形中,在载板180的底面形成有圆弧状的倾斜。在其他情形中,载板180,包括多个弹簧等的弾性部件,这些弾性部件将所作用的负荷传递至设置载板180的地板。
[硬件构成]
参照图18,说明本实施方式涉及的计算机200A。图18是示意根据一个情形的计算机200A的硬件构成的一个示例的框图。计算机200A,具备上述的处理器10、上述的存储器11、上述的存储部12、上述的输入输出接口13以及上述的通信接口14作为主要的构成要素。各构成要素,分别连接于上述的总线15。
在某个实施方式中,输入输出接口13,在与头戴式显示装置110、头戴式显示传感器120、运动传感器130A、倾斜传感器170之间通讯信号。在某个情形中,输入输出接口13,使用USB(Universal Serial Bus)接口、DVI(Digital Visual Interface)、HDMI(注册商标)(High-Definition Multimedia Interface)等端子而实现。此外,输入输出接口13不限于上述接口。
在某个实施方式中,输入输出接口13,还能够与控制器160A通信。例如,输入输出接口13,接收从运动传感器130A输出的信号的输入。在其他情形中,输入输出接口13,向控制器160A发送从处理器10输出的命令。该命令,向控制器160A指示振动、声音输出、发光等。控制器160A,如果接收该命令,则根据该命令,执行振动、声音输出或发光的任一种。
在某个情形中,处理器10,将存储于存储部12的1个以上的程序加载于存储器11,执行该程序包含的一系列的命令。该1个以上的程序,能够包括计算机200A的操作系统、用于提供虚拟空间的应用程序、能够使用控制器160A在虚拟空间执行的游戏软件等。处理器10,经由输入输出接口13,向头戴式显示装置110发送用于提供虚拟空间的信号。头戴式显示装置110,基于该信号而在显示器112显示影像。
[已公开的实施方式的构成的概况]
根据某个实施方式,提供了用于计算机向头戴式显示装置提供虚拟空间的方法。该方法,包括至少1个处理器定义虚拟空间的步骤、至少1个处理器检出该头戴式显示装置的用户倾斜的方向(例如,左右或前后中的某一种)的步骤、至少1个处理器基于用户190倾斜的方向而决定在该虚拟空间中相当于用户190的虚拟用户的移动方向的步骤、至少1个处理器以该虚拟空间中的虚拟用户的视界沿已决定的虚拟用户的移动方向移动的方式使该头戴式显示装置显示该视界的步骤。
根据某个实施方式,决定该移动方向的步骤,包括根据用户190的倾斜继续的时间决定该移动方向。
根据某个实施方式,决定该移动方向的步骤,包括根据用户190的倾斜程度而决定该移动方向。
根据某个实施方式,该方法,还具备至少1个处理器基于已检出的用户190的倾斜而决定该虚拟空间中的虚拟用户的移动距离的步骤。显示该视界的步骤,包括以虚拟用户的视界向着该移动方向而移动该移动距离的方式显示该视界。
根据某个实施方式,用于计算机向头戴式显示装置提供虚拟空间的方法,包括至少1个处理器定义虚拟空间的步骤、至少1个处理器检出该头戴式显示装置的用户倾斜的方向的步骤、至少1个处理器基于已检出的用户190的倾斜而决定该虚拟空间中的虚拟用户的移动距离的步骤、至少1个处理器以该虚拟空间中的虚拟用户的视界移动已决定的虚拟用户的移动距离的方式使该头戴式显示装置显示该视界的步骤。
根据某个实施方式,决定该移动距离的步骤,包括根据用户190的倾斜继续的时间,决定该移动距离。
根据某个实施方式,决定该移动距离的步骤,包括根据用户190的倾斜的程度,决定该移动距离。
根据某个实施方式,检出用户190倾斜的方向的步骤,包括检出加速度的步骤,该加速度基于用户190的伴随着体重移动的动作或姿势。
根据某个实施方式,检出用户190倾斜的方向的步骤,包括检出从用户190作用的负荷。
根据某个实施方式,该处理器构成为,定义虚拟空间,检出该头戴式显示装置的用户倾斜的方向,基于已检出的方向而决定该虚拟空间中的虚拟用户的移动方向,以该虚拟空间中的虚拟用户的视界沿已决定的虚拟用户的移动方向移动的方式使该头戴式显示装置显示该视界。
根据某个实施方式,该处理器构成为,基于已检出的用户190的倾斜而决定该虚拟空间中的虚拟用户的移动距离。显示该视界,包括以虚拟用户的视界向着该移动方向移动该移动距离的方式显示该视界。
根据某个实施方式,处理器构成为,定义虚拟空间,检出该头戴式显示装置的用户倾斜的方向,基于已检出的方向而决定该虚拟空间中的虚拟用户的移动距离,以该虚拟空间中的虚拟用户的视界移动已决定的虚拟用户的移动距离的方式使该头戴式显示装置显示该视界。
[头戴式显示装置的控制装置]
参照图19,说明头戴式显示装置110的控制装置。在某个实施方式中,控制装置由具有公知的构成的计算机200A实现。图19是将根据某个实施方式的计算机200A表示为模块构成的框图。
如图19所示,计算机200A,具备上述的显示控制模块220、上述的虚拟空间控制模块230、上述的存储模块240以及上述的通信控制模块250。显示控制模块220,包括上述的虚拟摄像机控制模块221、上述的视界区域决定模块222、上述的视界图像生成模块223以及上述的基准视线确定模块224,作为子模块。虚拟空间控制模块230,包括上述的虚拟空间定义模块231、上述的虚拟物件生成模块232、上述的物体控制模块233、移动方向决定模块234以及移动距离决定模块235,作为子模块。
移动方向决定模块234,基于来自倾斜传感器170的输出,决定虚拟空间2中的虚拟用户的移动方向。根据某个实施方式,移动方向决定模块234,基于从倾斜传感器170输出的信号,检测到用户190的负荷作用的方向,将该方向决定为虚拟用户应当移动的方向。
移动距离决定模块235,基于来自倾斜传感器170的输出,决定虚拟用户的移动距离。例如,在处于水平状态的载板180倾斜的情况下,移动距离决定模块235,决定与倾斜角度相应的移动距离。在某个情形中,移动距离决定模块235,基于处理器10执行的程序中预先规定的每一度倾斜角度的虚拟移动距离和该倾斜角度,决定虚拟用户的移动距离。根据其他实施方式,移动距离决定模块235,基于倾斜继续的时间,决定虚拟用户的移动距离。例如,能够基于处理器10执行的程序中预先规定的单位时间的虚拟移动距离和该倾斜继续的时间的积,决定虚拟用户的移动距离。
[控制构造]
参照图20,说明头戴式显示系统100A的控制构造。图20是表示在根据某个实施方式的头戴式显示系统100A中执行的处理的一部分的时序图。图20中,步骤S942A以外的处理与上述的处理相同,因而,不赘述重复的说明。
在步骤S940,处理器10,基于头戴式显示装置110的位置和倾斜,确定佩戴了头戴式显示装置110的用户190的视界方向。处理器10,执行应用程序,基于应用程序所包含的命令,在虚拟空间2中显示物件。用户190,通过该应用程序的执行而欣赏虚拟空间2中能够辨认的内容。在某个情形中,该内容,例如,包括使用雪橇等的橇的体育运动、滑雪、滑雪板等。在某个实施方式中,用户190,就座于载板180,能够根据显示器112所显示的图像的推移而改变姿势。
在步骤S942A,倾斜传感器170,检出用户190倾斜的方向。表示已检出的倾斜的信号,被发送至计算机200A。该信号,包括载板180的倾斜角度。例如,在某个情形中,能够具有这样的场景:在执行如雪橇那样的滑降竞技的应用程序情况下,根据用户190的倾斜,存在于虚拟空间2中的虚拟用户控制虚拟空间2中显示的雪橇的行进方向。这种情况下,在用户190使身体倾斜时,倾斜传感器170检出该倾斜方向。
在步骤S950,处理器10,基于从倾斜传感器170输出的信号,决定虚拟用户的移动方向和移动距离。在本实施方式中,移动方向包括,虚拟用户或虚拟用户就座的橇等的器具在虚拟空间2中行进的方向。此外,在其他情形中,在仅需要移动方向的情况下,处理器10,作为移动方向决定模块234,能够仅决定移动方向。在其他情形中,在仅需要移动距离的情况下,处理器10,作为移动距离决定模块235,能够仅决定移动距离。
再者,在另一情形中,处理器10可以为基于从倾斜传感器170输出的信号而决定虚拟用户的移动方向和移动速度的构成。虚拟用户的移动速度能够设定为载板180的倾斜角度越大就越快。
在步骤S960,处理器10,基于已决定的移动方向及移动距离,决定虚拟用户的移动后的视界。
在步骤S970,处理器10,基于已决定的移动方向及移动距离,决定虚拟摄像机1在虚拟空间2中的位置及朝向。
在步骤S980,处理器10,基于已决定的虚拟摄像机1的位置及朝向,决定视界区域。在本实施方式中,视界区域表示虚拟用户在虚拟空间2中能够辨认的范围。
在步骤S990,计算机200A,根据已决定的视界区域,生成用于显示视界图像的视界图像数据,将所生成的视界图像数据向头戴式显示装置110输出。视界图像数据,构成为能够显示这样的形态:以虚拟用户向着已决定的移动方向高速地移动的方式,虚拟用户的周围的景色高速地向着虚拟用户的方位移动。
在步骤S992,头戴式显示装置110的显示器112,基于已接收的视界图像数据而更新视界图像,显示更新后的视界图像。用户190,能够识别更新后的视界图像,即视线沿移动方向移动后的视界。
参照图21,进一步说明计算机200A的控制构造。图21是表示计算机200A根据就座于载板180的用户190的动作而执行的处理的一部分的流程图。
在步骤S1010A,处理器10,作为虚拟空间定义模块231,在存储器11定义虚拟空间2。
在步骤S1020A,处理器10,基于来自倾斜传感器170的信号,检出佩戴了头戴式显示装置110且就座于载板180的用户190倾斜的方向,具体而言,右、左、前或后。
在步骤S1030A,处理器10,基于用户190的倾斜,决定在虚拟空间2中行进的虚拟用户的移动方向。例如,在用户190使身体向右侧倾斜一定时间的情况下,处理器10,判断虚拟用户或虚拟用户就座的乘坐物向右侧移动。在另一情形中,根据用户190进行使身体暂时地向右侧倾斜的动作的次数,处理器10,决定虚拟用户向右侧移动的方向。例如,在预先规定的时间内,用户190进行用于使身体倾斜的1次的动作,在该情况下,处理器10,决定虚拟用户相对于行进方向而向右侧移动1度。在用户190进行该动作10次的情况下,处理器10,决定虚拟用户向右侧移动10度。
在其他情形中,在用户190进行使身体向左侧倾斜的动作的情况下,与进行向右侧倾斜的动作的情况相同,处理器10,决定左侧的移动方向。
在其他实施方式中,倾斜传感器170,能够检测用户190使身体前倾。这时,处理器10,根据来自倾斜传感器170的信号,检测到用户190使身体向前倾斜,能够基于倾斜角度而决定移动距离。例如,在检测到向前方倾斜1度的情况下,如果在处理器10执行的程序中预先规定使虚拟用户移动10m,那么,处理器10在检测到用户190向前方倾斜5度时,决定使虚拟用户在虚拟空间2中移动50m。
在步骤S1040A,处理器10,作为虚拟物件生成模块232,生成视界图像数据,该视界图像数据用于以虚拟空间2中的虚拟用户的视界沿步骤S1030A中已决定的移动方向移动的方式使头戴式显示装置110显示视界图像。根据某个实施方式,处理器10,除了移动方向之外,还生成反映移动距离的视界图像数据,该移动距离与用户190的倾斜继续的时间相应。处理器10,将已生成的视界图像数据向头戴式显示装置110发送,基于该视界图像数据而使显示器112显示视界图像。
[就座的用户的移动]
参照图22至图24,说明用户190的倾斜的检出的一个形态。
图22是示意在某个实施方式中用户190就座于载板180的形态的图。图22A示意佩戴了头戴式显示装置110(图中未显示)的用户190维持水平状态并就座于载板180的形态。图22B示意用户190进行体重移动并使载板180向用户190的左侧倾斜的形态。图22C示意用户进行体重移动并使载板180向用户190的右侧倾斜的状态。如果载板180倾斜,则倾斜传感器170输出与该方向相应的信号。所输出的信号被输入至计算机200A。检测到倾斜的方向,不限于图22B所示的左、图22C所示的右,在某个实施方式中,倾斜传感器170,也能够检测出用户190向前方进行体重移动时的向前方的倾斜、或者用户190向后方进行体重移动时的向后方的倾斜。
图23是示意在某个实施方式中用户190站立于载板180的形态的图。图23A示意佩戴了头戴式显示装置110(图中未显示)的用户190维持水平状态并站立于载板180的形态。图22B示意用户190进行体重移动并使载板180向用户190的左侧倾斜的形态。图22C示意用户进行体重移动并使载板180向用户190的右侧倾斜的状态。如果载板180倾斜,则倾斜传感器170输出与该方向相应的信号。所输出的信号被输入至计算机200A。检测到倾斜的方向,不限于图22B所示的左、图22C所示的右,在某个实施方式中,倾斜传感器170,也能够检测出用户190向前方进行体重移动时的向前方的倾斜、或者用户190向后方进行体重移动时的向后方的倾斜。用户190,根据自身的体重移动,能够预测虚拟空间2中的虚拟用户的移动方向,因而,能够能够不损害投入感,并防止所谓的影像晕眩(虚拟现实晕眩)。
参照图24,说明倾斜的检测的另一形态。图24是示意在某个实施方式中用户190就座于橇1300A的形态的图。在橇1300A的两侧面,分别配置有触摸传感器1370、1371。触摸传感器1370、1371的输出,连接于计算机200A的输入接口。在某个情形中,能够在游乐场提供1个以上的橇1300A。
图24A示意佩戴了头戴式显示装置110(图中未显示)的用户190维持水平状态并就座于橇1300A的形态。这时,用户190不触摸于触摸传感器1370及1371。
图28B示意用户190进行体重移动并使橇1300A向用户190的右侧倾斜的形态。如果橇1300A向右侧倾斜且用户的右手触摸于触摸传感器1370,则从触摸传感器1370输出的信号被输入至计算机200A。处理器10,基于该信号,检测到橇1300A向右侧倾斜。再者,处理器10,以虚拟空间2中从虚拟用户的右前方起的视界被用户190识别的方式,生成视界图像数据。处理器10向头戴式显示装置110发送视界图像数据,显示器112显示基于视界图像数据的图像。用户190,如果观看该图像,则识别在虚拟空间2中向右方向移动。
图22C示意用户190进行体重移动并使橇1300A向用户190的左侧倾斜的状态。如果橇1300A向左侧倾斜且用户的左手触摸于触摸传感器1371,则从触摸传感器1371输出的信号被输入至计算机200A。处理器10,基于该信号,检测到橇1300A向左侧倾斜。再者,处理器10,以虚拟空间2中从虚拟用户的左前方起的视界被用户190识别的方式,生成视界图像数据。处理器10向头戴式显示装置110发送视界图像数据,显示器112显示基于视界图像数据的图像。用户190,如果观看该图像,则识别在虚拟空间2中向左方向移动。
此外,在图24所示的示例中,也可以与图22或图23相同地,在橇1300A的底部配置倾斜传感器170,以代替触摸传感器1370、1371。
接着,参照图25至图27,说明虚拟空间2中的虚拟用户的移动。在某个实施方式中,佩戴了头戴式显示装置110的用户190,作为虚拟用户,辨认虚拟空间2中的视界图像1400A。
图25是用于说明用户190就座或站立的载板180或橇1300A被水平地维持的情况的图。这时,处理器10,基于从倾斜传感器170或触摸传感器1370、1371输出的信号,判断用户190维持水平状态。再者,处理器10,生成如在虚拟空间2中水平状态的图像被辨认那样的视界图像数据,向头戴式显示装置110的显示器112发送该视界图像数据。
如图25A所示,在显示器112基于该视界图像数据而显示图像的情况下,用户190,作为虚拟用户而识别视界图像1400A。这时,如图22B所示,对应于虚拟用户的虚拟摄像机1,捕捉与虚拟用户的视野相应的视界区域23。
[向右侧的移动]
图26是用于说明维持水平状态的用户190向右侧倾斜并使载板180或橇1300A向右侧倾斜的情况的图。这时,处理器10,基于从倾斜传感器170或触摸传感器1370、1371输出的信号,判断用户190向右侧倾斜。再者,处理器10,生成被识别成虚拟空间2中的虚拟用户从初始位置(例如,参照图25)向右侧移动的视界图像数据。例如,处理器10,生成用于显示如虚拟空间2中所识别的图像似乎从右向左流动那样的视界图像的视界图像数据,并向头戴式显示装置110发送视界图像数据。
如图26A所示,显示器112,显示基于该视界图像数据的视界图像1500A。在视界图像1400A中显示于右方的树1410A移动至视界图像1500A的中心。
如图26B所示,这种移动,例如,相当于虚拟空间2中假定的虚拟摄像机1移动至树1410A的正面。处理器10,为了显示与根据虚拟摄像机1的移动而识别的图像相同的图像,生成视界图像数据。
从视界图像1400A向视界图像1500A的推移,基于用户190向右侧移动体重而进行。如此,用户190,根据向右侧的体重移动的自己的动作,能够识别由视界图像的推移导致的在虚拟空间2中的移动,因而,用户190的倾斜和虚拟空间2中的移动方向连动。结果,能够抑制所谓的虚拟现实晕眩的发生。
[向左侧的移动]
图27是用于说明维持水平状态的用户190向左侧倾斜并使载板180或橇1300A向左侧倾斜的情况的图。这时,处理器10,基于从倾斜传感器170或触摸传感器1370、1371输出的信号,判断用户190向左侧倾斜。再者,处理器10,生成被识别成虚拟空间2中的虚拟用户从初始位置(例如,参照图25)向左侧移动的视界图像数据。例如,处理器10,生成用于显示如虚拟空间2中所识别的图像似乎从左向右流动那样的视界图像的视界图像数据,并向头戴式显示装置110发送视界图像数据。
如图27A所示,显示器112,显示基于该视界图像数据的视界图像1600A。在视界图像1400A中显示于左方的山1420A移动至视界图像1600A的中心。
如图27B所示,这种移动,例如,相当于虚拟空间2中假定的虚拟摄像机1移动至山1420A的正面。处理器10,为了显示与根据虚拟摄像机1的移动而识别的图像相同的图像,生成视界图像数据。
从视界图像1400A向视界图像1600A的推移,基于用户190向左侧移动体重而进行。如此,用户190,根据向左侧的体重移动的自己的动作,能够识别由视界图像的推移导致的在虚拟空间2中的移动,因而,用户190的倾斜和虚拟空间2中的移动方向连动。结果,能够抑制所谓的虚拟现实晕眩的发生。
[向前方的移动]
图28是用于说明维持水平状态的用户190向前方倾斜并使载板180向前方倾斜的情况的图。处理器10,基于从倾斜传感器170输出的信号,判断用户190向前方倾斜。再者,处理器10,生成被识别成虚拟空间2中的虚拟用户从初始位置(例如,参照图25)向前方移动的视界图像数据。例如,处理器10,生成用于显示如虚拟空间2中所识别的图像似乎高速地接近那样的视界图像的视界图像数据,并向头戴式显示装置110发送视界图像数据。
如图28A所示,显示器112显示基于该视界图像数据的视界图像1700。视界图像1400A中在远方被较小地显示的树1410A及山1420A,分别根据虚拟空间2中的移动距离而被较大地显示。此外,虚拟空间2中的移动距离,在某个情形中,例如,能够基于用户190的前倾的角度和预定的每单位角度的移动距离而被算出。该移动距离,在其他情形中,可以基于前倾的状态继续的时间和预定的每单位时间的移动距离而被算出。
如图28B所示,虚拟空间2中的视界图像的移动,例如,相当于虚拟空间2中假定的虚拟摄像机1向着树1410A和山1420A的方位而高速地移动。处理器10,为了显示与根据虚拟摄像机1的移动而识别的图像相同的图像,生成视界图像数据。
从视界图像1400A向视界图像1700的推移,基于用户190向前方移动体重而进行。用户190,根据体重移动的自己的动作,能够识别虚拟空间2中的移动,因而,用户190的倾斜和虚拟空间2中的移动方向连动。结果,能够抑制所谓的虚拟现实晕眩的发生。
[向后方的移动]
图29是用于说明维持水平状态的用户190向后方倾斜并使载板180向后方倾斜的情况的图。处理器10,基于从倾斜传感器170输出的信号,判断用户190向后方倾斜。再者,处理器10,生成被识别成虚拟空间2中的虚拟用户从初始位置(例如,参照图25)向后方移动的视界图像数据。例如,处理器10,生成用于显示如虚拟空间2中所识别的图像似乎高速地远离那样的视界图像的视界图像数据,并向头戴式显示装置110发送视界图像数据。
如图29A所示,显示器112显示基于该视界图像数据的视界图像1800。视界图像1400A中显示的树1410A及山1420A,分别被显示成小于图25所示的情况。例如,树1410A及山1420A,根据虚拟空间2中的移动距离而被较小地显示。此外,虚拟空间2中的移动距离,在某个情形中,例如,能够基于用户190的后倾的角度和预定的每单位角度的移动距离而被算出。该移动距离,在其他情形中,可以基于后倾的状态继续的时间和预定的每单位时间的移动距离而被算出。
如图29B所示,虚拟空间2中的视界图像的移动,例如,相当于虚拟空间2中假定的虚拟摄像机1沿从树1410A和山1420A远离的方向高速地移动。处理器10,为了显示与根据虚拟摄像机1的移动而识别的图像相同的图像,生成视界图像数据。
从视界图像1400A向视界图像1800的推移,基于用户190向后方移动体重而进行。用户190,根据体重移动的自己的动作,能够识别虚拟空间2中的移动,因而,与前倾的情况相同,用户190的倾斜和虚拟空间2中的移动方向连动。结果,能够抑制所谓的虚拟现实晕眩的发生。
如上所述,依照某个实施方式,基于现实空间中用户190倾斜的方向,决定虚拟空间2中的虚拟用户的移动方向,因而,用户190的倾斜和虚拟空间2中的移动方向连动。结果,即使在虚拟空间2中进行虚拟用户的移动,也能够抑制对辨认这时的图像的用户190产生虚拟现实晕眩。此外,在上述的实施方式中分别说明的各特征,能够被恰当地组合。例如,关于维持水平方向的用户190时载板180倾斜的情况的前方或后方的成分,被视为虚拟用户在虚拟空间2中以前进或后退的方式向虚拟摄像机1的基准视线5的方向移动,进行移动距离的算出,能够根据用户使载板180向右侧或左侧倾斜的倾斜程度,使虚拟摄像机1绕着偏转方向(v轴)旋转。
本次公开的实施方式在全部的方面均为示例,并应当被认定为非限制性。本发明的范围不是上述的说明,而是由权利要求书表示,并旨在包括与权利要求书的范围等同的含义及范围内的全部变更。
关于本公开,附加了以下的内容。
(项目1)
一种用于计算机向头戴式显示装置提供虚拟空间的方法,包括:
定义虚拟空间的步骤,
检出所述头戴式显示装置的用户倾斜的方向的步骤,
基于已检出的所述倾斜的方向而决定所述虚拟空间中的所述用户的移动方向的步骤,以及
以所述虚拟空间中的所述用户的视界向已决定的所述用户的移动方向移动的方式使所述头戴式显示装置显示所述视界的步骤。
(项目2)
根据项目1所述的方法,其中,决定所述移动方向的步骤,包括根据所述用户的倾斜继续的时间而决定所述移动方向。
(项目3)
根据项目1所述的方法,其中,决定所述移动方向的步骤,包括根据所述用户倾斜的方向而决定所述移动方向。
(项目4)
根据项目1至3中的任一项所述的方法,其中,还具备基于已检出的所述用户的倾斜而决定所述虚拟空间中的所述用户的移动距离的步骤,
显示所述视界的步骤,包括以所述用户的视界向着所述移动方向而移动所述移动距离的方式显示所述视界。
(项目5)
一种用于计算机向头戴式显示装置提供虚拟空间的方法,包括:
定义虚拟空间的步骤,
检测所述头戴式显示装置的用户的倾斜的步骤,
基于已检出的所述用户的倾斜而决定所述虚拟空间中的所述用户的移动距离的步骤,以及
以所述虚拟空间中的所述用户的视界移动已决定的所述用户的移动距离的方式使所述头戴式显示装置显示所述视界的步骤。
(项目6)
根据项目4或5所述的方法,其中,决定所述移动距离的步骤,包括根据所述用户的倾斜继续的时间而决定所述移动距离。
(项目7)
根据项目4或5所述的方法,其中,决定所述移动距离的步骤,包括根据所述用户的倾斜的程度而决定所述移动距离。
(项目8)
根据项目1至7中的任一项所述的方法,其中,检出所述用户的倾斜的步骤,包括检出加速度的步骤,该加速度基于所述用户的伴随着体重移动的动作或姿势。
(项目9)
根据项目8所述的方法,其中,检出所述用户的倾斜的步骤,包括检出从所述用户作用的负荷。
(项目10)
一种程序,用于使计算机实现项目1至9中的任一项所述的方法。
(项目11)
一种系统,其中,具备头戴式显示装置、用于向所述头戴式显示装置提供虚拟空间的计算机以及用于检出所述头戴式显示装置的用户倾斜的传感器,
所述计算机,具备用于存储一系列的命令的存储器以及用于执行所述一系列的命令的处理器,
如果所述一系列的命令由所述处理器执行,则所述处理器构成为,定义虚拟空间,检出所述头戴式显示装置的用户倾斜的方向,基于所述倾斜的方向而决定所述虚拟空间中的所述用户的移动方向,以所述虚拟空间中的所述用户的视界沿已决定的所述用户的移动方向移动的方式使所述头戴式显示装置显示所述视界。
(项目12)
根据项目11所述的系统,其中,所述处理器构成为,基于已检出的所述用户的倾斜而决定所述虚拟空间中的所述用户的移动距离,
显示所述视界,包括以所述用户的视界向着所述移动方向移动所述移动距离的方式显示所述视界。
(项目13)
一种系统,其中,具备头戴式显示装置、用于向所述头戴式显示装置提供虚拟空间的计算机以及用于检出所述头戴式显示装置的用户的倾斜的传感器,
所述计算机,具备用于存储一系列的命令的存储器以及用于执行所述一系列的命令的处理器,
如果所述一系列的命令由所述处理器执行,则所述处理器构成为,定义虚拟空间,检出所述头戴式显示装置的用户的倾斜,基于已检出的所述用户的倾斜而决定所述虚拟空间中的所述用户的移动距离,以所述虚拟空间中的所述用户的视界移动已决定的所述用户的移动距离的方式使所述头戴式显示装置显示所述视界。
本次公开的实施方式在全部的方面均为示例,并应当被认定为非限制性。本发明的范围不是上述的说明,而是由权利要求书表示,并旨在包括与权利要求书的范围等同的含义及范围内的全部变更。
符号说明
10 处理器
11 存储器
12 存储部
13 输入输出接口
14 通信接口
15 总线
19 网络
21 中心
22 虚拟空间图像
23 视界区域
24、25 区域
26、1400、1600 视界图像
100 系统
112 显示器
114、120 传感器
130 运动传感器
140 注视传感器
150 服务器
160、160A 控制器
190 用户
200、200A 计算机
220 显示控制模块
221 虚拟摄像机控制模块
222 视界区域决定模块
223 视界图像生成模块
224 基准视线确定模块
230 虚拟空间控制模块
231 虚拟空间定义模块
232 虚拟物件生成模块
233 物体控制模块
234 移动方向决定模块
235 移动距离决定模块
240 存储模块
241 模板
242 内容
243 程序
250 通信控制模块
1100、1300、1500 图像
1110 树
1120 绳索
1410 马
1410A 树
1420A 山

Claims (11)

1.一种用于计算机向头戴式显示装置提供虚拟空间的方法,包括:
计算机的处理器定义虚拟空间的步骤,
所述处理器基于所述头戴式显示装置的用户的动作而决定根据所述用户的动作在所述虚拟空间中飞翔的物体的飞翔方向的步骤,以及
所述处理器以所述虚拟空间中的所述用户的视界沿所述飞翔方向移动的方式使所述头戴式显示装置显示所述视界的步骤。
2.根据权利要求1所述的方法,其中,所述决定步骤,包括基于所述用户的动作而决定所述虚拟空间中的所述物体的飞翔距离的步骤,
使所述头戴式显示装置显示所述视界的步骤,包括使所述头戴式显示装置显示从所述虚拟空间内根据所述飞翔距离而移动后的位置起的视界的步骤。
3.根据权利要求1或2所述的方法,其中,还包括在所述物体到达所述虚拟空间内的对象物的情况下,所述处理器使所述虚拟空间中的所述用户移动至该对象物的步骤。
4.根据权利要求3所述的方法,其中,使所述用户移动至所述对象物的步骤,包括在所述物体到达静止物的情况下,使所述用户在所述虚拟空间中移动至该静止物。
5.根据权利要求3所述的方法,其中,使所述用户移动至所述对象物的步骤,包括在所述物体到达移动物的情况下,使所述用户沿所述移动物的行进方向移动。
6.根据权利要求3至5中的任一项所述的方法,其中,使所述用户移动至该对象物的步骤,包括以所述虚拟空间中的所述用户的周围的风景接近所述用户的方式使所述头戴式显示装置显示所述视界。
7.根据权利要求1或2所述的方法,其中,还包括在所述物体到达所述虚拟空间内的对象物的情况下,所述处理器以向所述用户的方位拉动所述对象物的方式使所述头戴式显示装置显示所述用户的视界的步骤。
8.根据权利要求1至7中的任一项所述的方法,其中,决定所述物体的飞翔方向的步骤,包括基于与所述用户的手的运动相应的物理量,或基于对连接于所述计算机的控制器进行的操作,决定所述物体的飞翔方向。
9.根据权利要求1至8中的任一项所述的方法,其中,决定所述物体的飞翔距离的步骤,包括基于与所述用户的手的运动相应的物理量,或基于对连接于所述计算机的控制器进行的操作,决定所述物体的飞翔距离。
10.一种程序,用于使计算机实现根据权利要求1至9中的任一项所述的方法。
11.一种用于提供虚拟空间的系统,其中,具备头戴式显示装置以及能够电连接于所述头戴式显示装置的计算机,
所述计算机,具备用于存储一系列的命令的存储器以及用于执行所述一系列的命令的处理器,
如果所述一系列的命令由所述处理器执行,则所述处理器构成为,定义虚拟空间,基于所述头戴式显示装置的用户的动作,决定根据所述用户的动作在所述虚拟空间中飞翔的物体的飞翔方向,以所述虚拟空间中的所述用户的视界沿所述飞翔方向移动的方式使所述头戴式显示装置显示所述视界。
CN201780023847.3A 2016-06-10 2017-06-08 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统 Pending CN109069927A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016-116444 2016-06-10
JP2016116444A JP6126273B1 (ja) 2016-06-10 2016-06-10 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2016116437A JP6177965B1 (ja) 2016-06-10 2016-06-10 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2016-116437 2016-06-10
PCT/JP2017/021305 WO2017213218A1 (ja) 2016-06-10 2017-06-08 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム

Publications (1)

Publication Number Publication Date
CN109069927A true CN109069927A (zh) 2018-12-21

Family

ID=60573510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780023847.3A Pending CN109069927A (zh) 2016-06-10 2017-06-08 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统

Country Status (3)

Country Link
US (2) US10252162B2 (zh)
CN (1) CN109069927A (zh)
WO (1) WO2017213218A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417989A (zh) * 2017-09-27 2020-07-14 Cy游戏公司 程序、信息处理方法、信息处理系统、头戴式显示装置和信息处理装置
CN113722644A (zh) * 2021-09-03 2021-11-30 北京房江湖科技有限公司 基于外接设备在虚拟空间选取浏览点位的方法及其装置
CN113730905A (zh) * 2021-09-03 2021-12-03 北京房江湖科技有限公司 一种在虚拟空间中实现自由游走的方法及其装置
CN114144753A (zh) * 2019-07-30 2022-03-04 索尼集团公司 图像处理装置、图像处理方法和记录介质
CN114364563A (zh) * 2019-09-11 2022-04-15 奥迪股份公司 在交通工具中运行虚拟现实眼镜的方法以及包括虚拟现实眼镜和交通工具的虚拟现实系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017120247A1 (en) 2016-01-05 2017-07-13 Reald Spark, Llc Gaze correction of multi-view images
WO2018112838A1 (zh) * 2016-12-22 2018-06-28 深圳市柔宇科技有限公司 头戴式显示设备及其视觉辅助方法
CN111183405A (zh) 2017-08-08 2020-05-19 瑞尔D斯帕克有限责任公司 调整头部区域的数字表示
US11017575B2 (en) * 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
CN109298779B (zh) * 2018-08-10 2021-10-12 济南奥维信息科技有限公司济宁分公司 基于虚拟代理交互的虚拟训练系统与方法
CN116501175B (zh) * 2023-06-25 2023-09-22 江西格如灵科技股份有限公司 虚拟角色移动方法、装置、计算机设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1676184A (zh) * 2004-03-31 2005-10-05 世嘉股份有限公司 图像生成装置、图像显示方法和程序
CN103877726A (zh) * 2014-04-10 2014-06-25 北京蚁视科技有限公司 一种虚拟现实组件系统
CN105144248A (zh) * 2013-04-16 2015-12-09 索尼公司 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统
CN204864894U (zh) * 2015-08-19 2015-12-16 天津先驱领域科技有限公司 一种用于虚拟现实游戏的头盔
CN105222761A (zh) * 2015-10-29 2016-01-06 哈尔滨工业大学 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶系统及驾驶方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US7667700B1 (en) * 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
JP2007116309A (ja) * 2005-10-19 2007-05-10 Seiko Epson Corp 画像情報再生装置
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US8416152B2 (en) * 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display
JP2010237882A (ja) * 2009-03-30 2010-10-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8913009B2 (en) * 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP5539936B2 (ja) * 2011-08-16 2014-07-02 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP5878438B2 (ja) * 2012-08-13 2016-03-08 株式会社コナミデジタルエンタテインメント 表示制御装置、表示制御システム、及びプログラム
US20150185825A1 (en) * 2013-12-30 2015-07-02 Daqri, Llc Assigning a virtual user interface to a physical object
JP6788327B2 (ja) * 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP5869177B1 (ja) * 2015-09-16 2016-02-24 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1676184A (zh) * 2004-03-31 2005-10-05 世嘉股份有限公司 图像生成装置、图像显示方法和程序
CN105144248A (zh) * 2013-04-16 2015-12-09 索尼公司 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统
CN103877726A (zh) * 2014-04-10 2014-06-25 北京蚁视科技有限公司 一种虚拟现实组件系统
CN204864894U (zh) * 2015-08-19 2015-12-16 天津先驱领域科技有限公司 一种用于虚拟现实游戏的头盔
CN105222761A (zh) * 2015-10-29 2016-01-06 哈尔滨工业大学 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶系统及驾驶方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
三十九机: "PS4,XBOXONE,PC次世代《高尔夫俱乐部》新画面", 《优酷》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417989A (zh) * 2017-09-27 2020-07-14 Cy游戏公司 程序、信息处理方法、信息处理系统、头戴式显示装置和信息处理装置
CN114144753A (zh) * 2019-07-30 2022-03-04 索尼集团公司 图像处理装置、图像处理方法和记录介质
CN114364563A (zh) * 2019-09-11 2022-04-15 奥迪股份公司 在交通工具中运行虚拟现实眼镜的方法以及包括虚拟现实眼镜和交通工具的虚拟现实系统
CN113722644A (zh) * 2021-09-03 2021-11-30 北京房江湖科技有限公司 基于外接设备在虚拟空间选取浏览点位的方法及其装置
CN113730905A (zh) * 2021-09-03 2021-12-03 北京房江湖科技有限公司 一种在虚拟空间中实现自由游走的方法及其装置
CN113722644B (zh) * 2021-09-03 2023-07-21 如你所视(北京)科技有限公司 基于外接设备在虚拟空间选取浏览点位的方法及其装置

Also Published As

Publication number Publication date
WO2017213218A1 (ja) 2017-12-14
US10252162B2 (en) 2019-04-09
US10589176B2 (en) 2020-03-17
US20170354882A1 (en) 2017-12-14
US20190232165A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
CN109069927A (zh) 用于提供虚拟空间的方法、用于使计算机实现该方法的程序以及用于提供虚拟空间的系统
JP6298558B1 (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN105377117B (zh) 基于用户的光学处方的头戴式显示器
JP6234622B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6321263B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6276434B1 (ja) 仮想空間における移動を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019046120A (ja) 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
JP2018106258A (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6126273B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2017220224A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6425846B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP2019133309A (ja) プログラム、情報処理装置、及び情報処理方法
JP2018116684A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018170013A (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2018192238A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6934383B2 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2019168962A (ja) プログラム、情報処理装置、及び情報処理方法
JP2018190390A (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6220473B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、当該プログラムを記録した記録媒体、および仮想空間を提供するためのシステム
JP2019155115A (ja) プログラム、情報処理装置、及び情報処理方法
JP2018124989A (ja) 仮想空間における移動を支援するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019211868A (ja) 画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181221