CN110841275A - 图像显示系统、图像显示方法以及计算机可读介质 - Google Patents

图像显示系统、图像显示方法以及计算机可读介质 Download PDF

Info

Publication number
CN110841275A
CN110841275A CN201910764270.2A CN201910764270A CN110841275A CN 110841275 A CN110841275 A CN 110841275A CN 201910764270 A CN201910764270 A CN 201910764270A CN 110841275 A CN110841275 A CN 110841275A
Authority
CN
China
Prior art keywords
boundary
user
position detection
detection sensor
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910764270.2A
Other languages
English (en)
Other versions
CN110841275B (zh
Inventor
罗宾·鲍彻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Publication of CN110841275A publication Critical patent/CN110841275A/zh
Application granted granted Critical
Publication of CN110841275B publication Critical patent/CN110841275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供显示用户的不适感少的图像的图像显示系统、图像显示方法以及计算机可读介质。一种图像显示系统,在显示器显示虚拟空间图像,所述图像显示系统具备处理装置,所述处理装置构成为进行如下处理:从多个位置检测传感器取得检测数据;根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;根据所述距离,设定用于对用户的动作进行判定的边界;伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。

Description

图像显示系统、图像显示方法以及计算机可读介质
技术领域
本发明涉及图像显示系统、图像显示方法以及计算机可读介质。
背景技术
公知有如下游戏:使用各种传感器等对现实空间中的用户的动作进行检测,并反映到虚拟空间内的对象物。在日本特开平10-214155号公报公开有在钓鱼游戏中使用的输入装置。该输入装置内置能够检测加速度和倾斜的传感器,并与游戏处理装置连接。在将触发按钮接通的状态下,当输入装置以如投入钓竿的实际动作那样的动作移动时,在与游戏处理装置连接的显示器上显示鱼线投入到水面的图像。
在上述系统中,在将触发按钮接通的状态下稍微移动输入装置时,鱼线投入到水面的图像有可能与用户意图相反地显示。当如上所述用户在现实世界进行的动作与所反映的图像之间产生背离时,存在用户感到不适感的问题。
发明内容
本发明的目的在于,在将用户的动作反映到虚拟空间内的活动时,显示用户的不适感少的图像。
该概要是为了对于在以下详细的说明中进一步记载的概念,通过简单化的形式示出其选择部分而提供的。该概要不意图特定记载于权利要求的主题的主要特征或必不可少的特征,也不意图作为确定记载于权利要求的主题的范围时的辅助来使用。
在一个一般方式中,提供在显示器显示虚拟空间图像的图像显示系统。所述图像显示系统,在显示器显示虚拟空间图像,所述图像显示系统具备处理装置,其中,所述处理装置构成为进行如下处理:从多个位置检测传感器取得检测数据;根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;根据所述距离,设定用于对用户的动作进行判定的边界;伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。
在另一一般方式中,提供使用处理装置在显示器显示虚拟空间图像的图像显示方法。所述图像显示方法,使用处理装置在显示器显示虚拟空间图像,其中,该图像显示方法具有如下步骤:从多个位置检测传感器取得检测数据;根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;根据所述距离,设定用于对用户的动作进行判定的边界;伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。
在另一一般方式中,提供存储程序的非暂时性计算机可读介质。所述程序使计算机执行如下处理:从多个位置检测传感器取得检测数据;根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;根据所述距离,设定用于对用户的动作进行判定的边界;伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。
根据以下的详细说明、附图以及权利要求的记载,可以显而易见其他特征和方式。
附图说明
图1是示意地示出图像显示系统的第一实施方式的图。
图2是图1的图像显示系统的框图。
图3是说明第一实施方式中的边界设定方法的图。
图4是说明第一实施方式中的边界利用方式的图。
图5是说明第一实施方式中的边界利用方式的图。
图6A是示出在第一实施方式中的对象物移动距离计算中使用的数据的图表的图,图6B是示出在第一实施方式中的对象物移动距离计算中使用的数据的映射的图。
图7是第一实施方式中的游戏画面的一例的图。
图8是说明第一实施方式中的边界设定顺序的流程图。
图9是说明第一实施方式中的游戏的进行的流程图。
图10A~图10C是关于第二实施方式中的边界利用方式,分别示出对象物的后方移动、对象物的向后方右侧的移动以及对象物的向后方左侧的移动的图。
图11A~图11C是关于图像显示系统的第二实施方式中的边界利用方式,示出对象物的前方移动、对象物的向前方左侧的移动以及对象物的向前方右侧的移动的图。
图12是关于第二实施方式中的边界利用方式,示出对象物的上升的图。
图13是说明第二实施方式中的游戏的进行的流程图。
图14A~图14C是关于图像显示系统的变形例中的边界利用方式,分别示出边界的设定、动作开始的判定以及动作完成的判定的图。
图15A~图15C是关于图像显示系统的变形例中的边界利用方式,分别示出边界的设定、脚踝位置比边界低时的活动种类的判定、脚踝位置比边界高时的活动种类的判定的图。
在整个附图和详细的说明中,相同的附图标记表示相同的要素。附图有时未按照比例尺绘制,有时为了明确性、例示以及简便性而夸大附图中的要素的相对尺寸、比例以及描绘。
具体实施方式
通过本公开,给出所记载的方法、装置及/或系统的总括性的理解。对于本领域技术人员,所记载的方法、装置及/或系统的变形和等同是显而易见的。动作的顺序是例示的,可以以对于本领域技术人员而言显而易见的方式进行变更。动作以一定的顺序产生的例外。有时省略与本领域技术人员公知的功能和构造有关的记载。
例示的实施方式可以取各种方式,不限定于所记载的实施例。但是,记载的实施例是完整的,向本领域技术人员传达了本公开的全部范围。
[第一实施方式]
对图像处理系统的一实施方式进行说明。
如图1所示,图像处理系统具有框体11、跟踪系统20、头戴式显示器
30(HMD:Head Mounted Display)以及游戏处理装置50。跟踪系统20具有一个或多个跟踪辅助装置21以及多个跟踪传感器22。游戏处理装置50对应于检测数据取得部、距离计算部、设定部、判定部以及活动执行部。跟踪传感器22对应于位置检测传感器。
框体11模仿秋千。框体11具备:支承体12;以及座位部15,通过吊挂部13被悬挂在支承体12。座位部15具备座位面以及位于与座位面相反的一侧的背面。在座位部15的背面设置有跟踪传感器22。另外,座位部15的摆动范围被限制在预定范围,以使座位部15不会摆动得大。例如,也可以在吊挂部13或座位部15设置限制摆动振幅的构件,也可以增大吊挂部13和座位部15的重量。
在头部佩戴了HMD30的用户200就座在座位部15。在用户200的脚踝附近佩戴有跟踪传感器22。另外,关于跟踪传感器22的位置,除了脚踝附近以外,也可以是脚趾、脚跟等。关于跟踪传感器22,可以是其自身能够佩戴于用户200的身体,也能够例如通过捆绑带等装配构件来佩戴于用户200。
游戏处理装置50设置在配置有框体11的空间或除此以外的位置,通过通信线缆或无线与HMD30连接,能够双向收发数据。游戏处理装置50进行如下处理:在HMD30显示虚拟空间图像并进行游戏。
关于跟踪系统20,使用跟踪传感器22和配置在跟踪空间的传感器。在配置有框体11的空间配置有跟踪辅助装置21。跟踪辅助装置21和HMD30协作而向游戏处理装置50发送用于检测HMD30的位置的检测数据。另外,跟踪辅助装置21和跟踪传感器22协作而向游戏处理装置50发送用于检测跟踪传感器22的位置的检测数据。
游戏处理装置50根据从跟踪辅助装置21和跟踪传感器22中的至少一个发送的数据,对就座于座位部15的用户200的脚的动作进行检测。游戏处理装置50例如对用户使双脚同步移动、或者分别移动各只脚的动作进行检测,判定检测到的动作是否满足预定条件。当判定为检测到的动作满足预定条件时,游戏处理装置50在虚拟空间中执行与用户对应的虚拟人物(化身(Avatar),角色)的虚拟活动。在本实施方式中,以在现实世界中用户200进行向前方踢出脚的动作,从而使与用户200对应的虚拟人物在虚拟空间内执行使穿在脚上的鞋对象物向前方飞出的“飞鞋(Kick the shoe on the swing)”的活动的游戏为例示来进行说明。
参照图2,对HMD30、跟踪传感器22、跟踪辅助装置21进行详细说明。
HMD30为可穿戴计算机,是具备覆盖双眼的壳体的非透射式显示器、或除此以外的透射式显示器。关于非透射式头戴式显示器,可以在一个至多个显示器分别显示用于使左眼视觉确认的图像和用于使右眼视觉确认的图像,也可以将左眼和右眼用的共同的图像显示在显示器。关于透射式显示器,可以使通过设置在头戴式显示器或除此以外的显示器的相机所摄影的图像显示在显示器,也可以是显示器由半反射镜或透明材料形成,且通过该显示器能够视觉确认现实世界。另外,HMD30可以是固定在壳体或框架等的显示器,也可以是可拆装地固定在预定的壳体的智能手机等多功能电话终端。HMD30显示虚拟现实(VR:Virtual Reality)、使用户视觉确认现实世界的同时提供虚拟空间的内容的增强现实(AR:Augmented Reality)、或者包含这些的混合现实(MR:Mixed Reality)等图像。在本实施方式中,以HMD30为非透射式显示器来进行说明。
HMD30具有信息处理部31、测量装置32、以及显示器33。信息处理部31执行用于使游戏进行的处理。信息处理部31不限定于对自身执行的所有处理进行软件处理。例如,信息处理部31也可以具备对自身执行的处理的至少一部分进行硬件处理的专用的硬件电路(例如面向特定用途的集成电路:ASIC)。即,信息处理部31能够构成为包含根据计算机程序(软件)动作的一个或多个处理器、执行各种处理中的至少一部分处理的一个或多个专用的硬件电路或者它们的组合的电路(circuitry)。
处理器包含CPU、MPU、GPU等运算处理装置以及RAM或ROM等存储介质。另外,信息处理部31具备HDD、SSD等作为存储设备的存储介质(存储器)。这些存储介质中的至少一个存储以使CPU执行处理的方式构成的程序代码或指令。存储介质、即计算机可读介质包含能够由通用或专用的计算机接入的所有可利用的介质。测量装置32为至少检测HMD30的方向的装置,例如为惯性测量装置(IMU:Inertial Measurement Unit)。例如,惯性测量装置具备陀螺传感器、加速度传感器等,对以X轴、Y轴以及Z轴为中心的旋转角度、角速度、加速度等中的至少一个进行检测。显示器33为有机EL显示器或液晶显示器等。
跟踪传感器22为用于检测自身的位置和方向的传感器。例如,跟踪传感器22与HMD30同样具有惯性测量装置。
另外,跟踪传感器22与多个跟踪辅助装置21协作而输出与自身的位置和方向对应的信号。跟踪传感器22和跟踪辅助装置21协作,从而能够检测空间内的跟踪传感器22的位置。作为跟踪辅助装置21的一例,能够使用多轴激光振荡器。此时,跟踪辅助装置21在配置框体11的空间的上方,以彼此成为对角的方式设置。跟踪辅助装置21射出脉冲激光。跟踪传感器22具备检测激光的传感器,在通过同步脉冲取得同步的同时检测自身的位置和方向。对于跟踪传感器22和跟踪辅助装置21,例如能够使用从HTC Corporation(注册商标)提供的Vive Tracker(注册商标)和Vive Base Station。
游戏处理装置50具备位置特定部51、图像处理部52、进行管理部53以及数据存储部60。位置特定部51根据从HMD30和跟踪辅助装置21中的至少一个取得的数据来确定HMD30的方向。另外,位置特定部51除了HMD30的方向以外,也可以确定HMD30的位置。而且,位置特定部51根据从跟踪传感器22和跟踪辅助装置21中的至少一个取得的数据来确定跟踪传感器22的方向和位置。
图像处理部52根据位置特定部51确定的HMD30的方向及/或位置而在显示器33显示虚拟空间图像。另外,图像处理部52将与用户对应的虚拟人物的身体的一部分作为虚拟空间的一部分显示。
进行管理部53管理游戏的进行,进行位置特定部51和图像处理部52执行的处理以外的处理。进行管理部53在游戏开始条件成立时开始游戏。游戏开始条件例如是用户或游戏的管理者输出指示等。另外,进行管理部53在游戏结束条件成立时结束游戏。能够根据游戏来变更游戏结束条件。例如,游戏结束条件为从开始游戏起的经过时间得到限制时间、用户的得分达到阈值、或者完成任务等。
数据存储部60为HDD(Hard Disk Drive:硬盘驱动器)或SSD(Solid State Drive:固态硬盘)等的存储介质。数据存储部60存储游戏处理程序及其他的程序。位置特定部51、图像处理部52、进行管理部53执行记载于这些程序的计算机可读指令,使游戏进行。
数据存储部60存储设定信息61、游戏空间数据62、游戏进行数据63。设定信息61包含根据跟踪传感器22的位置设定的边界信息。
游戏空间数据62是用于渲染(rendering)游戏进行的空间的数据。例如,包含用于渲染游戏战场的背景的数据和用于渲染虚拟空间内的对象物的数据。在这种对象物包含在游戏战场移动的敌人等对象物和仅在满足预定条件时显示的对象物。游戏空间数据62还包含这种对象物在虚拟空间中的位置信息。
游戏进行数据63为在游戏进行的管理中使用的数据,根据游戏的进行而被更新。游戏进行数据63包含与用户关联的用户属性信息。在用户属性信息包含用户的设定信息、用户的参数、游戏媒介(或游戏内容)以及与游戏媒介关联的属性信息中的至少一个。用户的设定信息为用户的性別、年龄或年龄层、所在地、邮件地址等。用户的参数为例如与用户对应的虚拟人物的参数,是得分、胜利次数或败北次数等游戏结果以及等级、状态、能力、技能、才能、攻击力、防御力、HP、生命、体力值、回复力、咒文、作业等对战用参数等。游戏媒介为在游戏中使用的电子数据(内容),能够通过用户在游戏内取得、所有、使用、管理、交换、合成、强化、售出、废弃或赠与等。例如,包含卡片、项目、虚拟货币、票、角色、化身等任意的媒介。游戏媒介的属性信息为游戏媒介的参数等,与用户属性信息等相同。另外,也可以代替游戏媒介本身,用户的参数、与游戏媒介关联的属性信息被取得、所有、使用、管理、交换、合成、强化、售出、废弃或赠与等。另外,游戏进行数据63也可以包含与敌人有关的信息。与敌人有关的信息例如包含如敌人的体力值等表示打倒敌人的容易度的信息。
在游戏处理装置50以能够收发数据的方式连接有输入操作部65。输入操作部65为鼠标、键盘、触摸屏装置等定点设备(pointing device)。输入操作部65通过通信线缆或无线而连接在游戏处理装置5。输入操作部65由用户或游戏管理者使用。
参照图3,说明对用户200设定用于判定活动的边界的方法。用户200在各脚踝附近佩戴了跟踪传感器22的状态下就座于座位部15。在图3仅示出右脚。此时,用户200的脚(鞋)的底面也可以不用必须接触到地面500。
游戏处理装置50从跟踪传感器22取得检测数据来确定跟踪传感器22的位置。由此,取得佩戴于座位部15的跟踪传感器22的位置、佩戴于左脚的跟踪传感器22的位置、佩戴于右脚的跟踪传感器22的位置。将佩戴于座位部15的跟踪传感器22的位置、佩戴于左脚的跟踪传感器22(图3中未图示)的位置、佩戴于右脚的跟踪传感器22的位置分别作为就座位置P1(X1、Y1、Z1)、左脚位置P2(X2、Y2、Z2)、右脚位置P3(X3、Y3、Z3)。
另外,将与地面500平行且就座于座位部15的用户200的脸朝向的方向作为“X方向(前后方向)”。另外,将与地面500平行且与“X方向”正交的方向作为“Z方向(左右方向)”。而且,将地面500的法线方向作为“Y方向(垂直方向)”。另外,游戏处理装置50能够设定任意的坐标系而不限定于这些方向。
游戏处理装置50计算Y方向上的就座位置P1与左脚位置P2之间的距离Ly、或Y方向上的就座位置P1与右脚位置P3之间的距离Ly。代替于此,也可以计算这些距离Ly双方。由此,对从用户200的膝盖到脚踝为止的小腿长度进行测量。代替于此,例如也可以计算作为左脚位置P2的Y坐标与右脚位置P3的Y坐标的中间的位置与就座位置P1的Y坐标之间的距离。
游戏处理装置50通过在距离Ly乘上预定比例R2来计算校正距离Ly2。另外,比例R2比“0”大且比“1”小。接着,游戏处理装置50在从作为基准位置的左脚位置P2或右脚位置P3向作为反X方向的后方分开校正距离Ly2的位置,设定后方边界102(第一边界)。在计算就座位置P1与左脚位置P2之间的距离Ly以及就座位置P1与右脚位置P3之间的距离Ly双方时,也可以使用这些距离Ly,分别设定左脚用的后方边界102和右脚用的后方边界102。
关于后方边界102,只要示出X坐标的边界即可。例如,后方边界102也可以是以X方向为法线方向且与Y方向和Z方向平行的Y-Z平面。作为一例,比例R2是考虑就座于座位部15的用户200作为在虚拟空间中用于使鞋对象物飞出的活动的准备动作,使小腿以膝盖为中心旋转,并向后方(反X方向)弯曲脚时的一般的角度等来确定的。由于比例R2基本上恒定,因此例如对于小腿长的用户200而言,与小腿短的用户200相比,后方边界102设定在从基准位置远的位置。
另外,游戏处理装置50通过在距离Ly乘上预定比例R1来计算校正距离Ly1。另外,比例R1比“0”大且比“1”小。比例R1可与比例R2不同,也可以与比例R2相同。基本上,比例R1、R2为恒定,但是通过能够分别调整比例R1、R2,从而能够适合各种体形的用户。接着,游戏处理装置50在从作为基准位置的左脚位置P2或右脚位置P3向作为X方向的前方分开校正距离Ly1的位置,设定前方边界101(第二边界)。在计算了就座位置P1与左脚位置P2之间的Y方向上的距离Ly以及就座位置P1与右脚位置P3之间的Y方向上的距离Ly双方时,也可以使用这些距离Ly来分别设定左脚用的前方边界101和右脚用的前方边界101。
关于前方边界101,只要示出X坐标的边界即可。例如,前方边界101也可以是以X方向为法线方向的与Y方向和Z方向平行的Y-Z平面。作为一例,比例R1是考虑就座于座位部15的用户200作为在虚拟空间中用于使鞋对象物飞出的活动的动作,使小腿以膝盖为中心旋转而向前方(X方向)踢出脚时的一般的角度等来确定的。由此,例如对于小腿长的用户200而言,与小腿短的用户200相比,前方边界101设定在从基准位置远的位置。
如上所述设定的前方边界101和后方边界102反映作为用户体形的小腿的长度。另一方面,在例如根据用户脚踝位置的移动方向的变化来判定是否执行活动时,存在用户稍微移动了脚时等在用户未意图的时机执行活动的可能性,存在用户感到不适感的问题。另外,当使用于判定活动执行的边界等在用户之间一致时,会出现容易执行活动的用户和难以执行活动的用户。相对于此,如本实施方式这样根据用户体形来设定边界,从而执行按照用户意图的活动,能够减少用户的不适感。
参照图4和图5,对使用了前方边界101和后方边界102的游戏的进行顺序进行说明。另外,如上所述,限制座位部15根据用户200的动作而稍微摇摆这样的前后的摇摆。在图4和图5仅示出右脚。
如图4所示,用户200在开始飞鞋游戏时,作为向前方踢出脚的准备,使小腿以膝盖为中心旋转,以使小腿位于座位部15的下方。游戏处理装置50确定左脚位置P2(未图示)和右脚位置P3,判定它们中的至少一个是否越过后方边界102。
在判定为左脚位置P2和右脚位置P3中的至少一个越过了后方边界102时,游戏处理装置50判定为开始了飞鞋动作。
在飞鞋动作的开始判定之后,游戏处理装置50一边确定左脚位置P2和右脚位置P3,一边判定它们中的至少一个是否越过前方边界101。
如图5所示,游戏处理装置50在判定为左脚位置P2(未图示)和右脚位置P3中的至少一个越过了前方边界101时,判定为完成了飞鞋动作。接着,游戏处理装置50在虚拟空间中使虚拟人物的鞋对象物,向作为踢出方向的用户200的前方,按照预定轨迹落下。具体地讲,游戏处理装置50根据跟踪传感器22的检测数据,使鞋对象物按照用户踢出的方向落下。例如,在从用户200观察时踢出方向为前方左侧时,游戏处理装置50使鞋对象物朝向前方左侧落下。
另外,游戏处理装置50取得飞鞋动作完成时的跟踪传感器22的速度。该速度为作为每单位时间的移动距离的速度、角速度、加速度等中的至少一个。游戏处理装置50根据将速度与对象物的移动距离(飞出距离)关联的数据来使鞋对象物移动。速度可以从一对跟踪传感器22之间的距离计算,也可以通过跟踪传感器22内置的速度检测传感器或外部的速度检测传感器来检测。在根据距离计算速度时,用使小腿旋转时的时间T除以佩戴于座位部15的跟踪传感器22与左脚位置P2或右脚位置P3之间的距离Ly来计算速度V(V=Ly/T)。关于时间T,可以使用预先设定的时间(常数),也可以测量从脚越过后方边界102时到越过前方边界101时为止的时间,使用所测量的时间。
图6A是作为将脚的移动速度与鞋对象物的移动距离关联的数据的一例的图表。在该图表中,以速度越大,距离阶段性地越变大的方式,将速度与距离关联。另外,如图6B的映射所示,也可以以速度越大,距离连续地越变大的方式,将速度与距离关联。代替图表或者除图表以外,游戏处理装置50也可以使用预定的运算式来计算移动距离。
图7是示意地示出通过用户200视觉确认的画面110的一例。在画面110显示有虚拟空间111的图像。在虚拟空间111显示有鞋对象物112和虚拟人物113的一部分。
游戏处理装置50在完成一个飞鞋动作且鞋对象物112移动之后,在虚拟人物的脚上再次显示鞋对象物112,使用户能够再次进行飞鞋。当鞋对象物112的落下位置或移动轨迹满足得分赋予条件时,向用户赋予得分。另外,所赋予的得分也可以根据落下位置或移动轨迹而不同。代替于此,当鞋对象物112的落下位置或移动轨迹满足达成条件时,任务完成。
如上所述,由于用户实际上就座于秋千的座位部15来进行飞鞋动作,因此座位部15伴随用户的动作而摇摆。另外,通过由HMD30检测摇摆,从而游戏处理装置50能够使显示在HMD30的图像按照实际的摇摆来移动。由此,抑制VR晕的产生,并且用户得到犹如坐在虚拟的秋千来进行飞鞋这样的代入感。
对本实施方式的游戏处理的顺序进行说明。
参照图8,对边界的设定顺序进行说明。游戏处理装置50根据跟踪传感器22等取得检测数据,确定跟踪传感器22的位置(传感器位置)(步骤S1)。具体地讲,确定就座位置P1、左脚位置P2、右脚位置P3。
游戏处理装置50当判断为新开始了游戏、或者新的用户开始游戏时,根据跟踪传感器22的位置来设定边界(步骤S2)。具体地讲,使用就座位置P1以及左脚位置P2和右脚位置P3中的至少一个,设定前方边界101和后方边界102。关于前方边界101和后方边界102,可以是双脚共同,也可以分别对各只脚设定。前方边界101和后方边界102的位置信息作为设定信息61来存储在数据存储部60。此时,前方边界101和后方边界102的位置信息也可以与用户的识别信息关联而被存储。在设定了前方边界101和后方边界102的位置信息的用户进行游戏时,也可以从数据存储部60读出前方边界101和后方边界102的位置信息,使用所读出的位置信息来进行游戏。
接着,参照图9对游戏的进行顺序进行说明。游戏处理装置50根据输入操作部65中的输入操作等的触发来开始游戏(步骤S11)。游戏处理装置50例如进行对在上一次游戏中使用的边界的位置信息等进行重置等的初始化。另外,游戏处理装置50取得HMD30的测量装置32的检测数据,将与检测数据对应的显示范围的图像显示于HMD30。
游戏处理装置50一边根据游戏进行数据63来使游戏进行,一边根据后方边界102的位置信息,判定左脚位置P2或右脚位置P3是否越过后方边界102(步骤S12)。在左脚位置P2和右脚位置P3没有越过后方边界102时(步骤S12:否),游戏处理装置50再次进入到步骤S12。
在判定为左脚位置P2或右脚位置P3越过了后方边界102时(步骤S12:是),游戏处理装置50判定为对应的脚开始了飞鞋动作(步骤S13)。
游戏处理装置50一边使游戏进行,一边判定左脚位置P2或右脚位置P3是否越过前方边界101(步骤S14)。当判定为左脚位置P2和右脚位置P3没有越过前方边界101时(步骤S14:否),游戏处理装置50进入到步骤S17。另外,在步骤S14中,也可以判定左脚位置P2或右脚位置P3是否在例如1~2秒等预定时间内越过了前方边界101。也可以当判定为左脚位置P2或右脚位置P3没有在预定时间内越过前方边界101时(步骤S14:否),进入到步骤S17。
游戏处理装置50在判定为左脚位置P2和右脚位置P3中的至少一个越过了前方边界101时(步骤S14:是),判定为完成了飞鞋动作(步骤S15)。
而且,游戏处理装置50在虚拟空间内执行飞鞋动作的活动(步骤S16)。此时,游戏处理装置50使用图6B的映射,根据移动速度计算鞋对象物的移动距离。例如,游戏处理装置50对虚拟人物的脚和鞋对象物进行渲染,并且以使鞋对象物根据所计算的移动距离向踢出脚的方向沿着抛物线落下的方式进行渲染。另外,游戏处理装置50在鞋对象物从虚拟人物的脚离开之后,将新的鞋对象物渲染到虚拟人物的脚。
游戏处理装置50根据游戏结束条件来判断游戏是否结束(步骤S17)。当判断为满足结束条件时(步骤S17:是),游戏处理装置50结束游戏。另外,在不满足结束条件时(步骤S17:否),返回步骤S12。
对第一实施方式的优点进行说明。
(1)对佩戴于用户的脚的跟踪传感器22与佩戴于框体11的跟踪传感器22之间的距离进行计算,根据该距离来设定前方边界101和后方边界102。由此,根据用户体形来设定前方边界101和后方边界102的位置。另外,在佩戴于用户的脚的跟踪传感器22与前方边界101或后方边界102之间的位置关系满足预定条件时,在虚拟空间内执行与用户的动作对应的活动。在现实世界中开始用户的动作的位置,根据用户的体形而不同。因此,通过使用反映用户体形的边界,抑制与用户意图相反地执行活动的情况,能够减少用户的不适感。
(2)游戏处理装置50取得佩戴于用户的脚的跟踪传感器22越过了前方边界101时的速度。另外,速度的大小反映到飞鞋动作的鞋对象物的移动距离。由此,用户通过调整脚的移动速度,从而能够调整虚拟空间中的鞋对象物的移动距离。因此,根据鞋对象物的落下位置等来赋予得分、或者赋予与移动距离对应的得分等,能够使游戏变得多样化。
(3)在佩戴于用户的脚的跟踪传感器22越过了前方边界101时,游戏处理装置50在虚拟空间中使鞋对象物从虚拟人物的脚移动。因此,能够使对象物的移动开始的时机接近用户设想的时机。因此,用户能够直观地进行踢脚的动作来作为输入操作。
(4)在用户的脚佩戴有跟踪传感器22。由此,能够将脚的动作反映到虚拟空间中的活动。因此,能够提供新颖的游戏。
[第二实施方式]
接着,对图像显示系统的第二实施方式进行说明。另外,第二实施方式中的边界设定方法与第一实施方式相同。另一方面,第二实施方式中的所设定的边界利用方式是从第一实施方式变更而来。以下,对于与第一实施方式相同的部分附上相同的符号并省略其详细说明。
在第二实施方式中,将前方边界101和后方边界102利用于在虚拟空间内是否开始了对象物的移动的判定。具体地讲,左脚位置P2和右脚位置P3与前方边界101和后方边界102中的至少一个之间的位置关系满足预定条件时,游戏处理装置50使与座位部15对应的座位部对象物和虚拟人物移动。另外,由于虚拟空间内的用户视角与虚拟人物的视角对应,因此虚拟空间内的用户视角也伴随虚拟人物的移动而移动。以往在使虚拟人物移动时,使用伴随现实世界中的用户的视角移动来使虚拟人物等在虚拟空间内移动的方法、或根据游戏情节使虚拟人物等自动地移动的方法。或者,例如现实世界的用户对自身把持的控制器进行操作,使用图标等虚拟空间内的GUI(Graphical User Interface:图形用户界面)来指示移动,从而使虚拟人物移动。在前者的情况下,存在虚拟人物与用户意图相反地移动的可能性。在后者的情况下,为了使虚拟人物向目标位置移动,需要对控制器进行操作而使用现实世界不存在的图标等GUI来指示移动,因此存在损坏代入感的可能性。相对于此,在本实施方式中,用户通过坐在秋千且移动脚来使虚拟人物移动。由此,能够通过比以往的方法更直观的动作来使虚拟人物移动。关于移动对象的对象物,代替座位部对象物和虚拟人物或除此以外,也可以是与框体11对应的虚拟空间内的整个框体对象物。另外,在本实施方式中,在与进行飞鞋动作的模式(踢模式)不同的模式(飞行模式)中,判定座位部对象物和虚拟人物的移动。
关于图10A~图12所示的前方边界101和后方边界102,只要示出X方向的边界即可。例如,前方边界101和后方边界102为以X方向为法线方向的Y-Z平面。游戏处理装置50判定左脚位置P2(未图示)和右脚位置P3(未图示)双方是否同时越过边界。
如图10A所示,游戏处理装置50在判定为双脚越过了前方边界101时,判定用户200伸出脚的方向。在判定为伸出脚的方向为作为用户正面的X方向时,游戏处理装置50使座位部对象物和虚拟人物在虚拟空间内向伸出脚的方向的相反方向、即后方(反X方向)移动。此时,游戏处理装置50可以使座位部对象物和虚拟人物113向后方水平地移动,也可以向后方摆动。如上所述,通过使对象物向对于用户突出脚的方向相反的方向移动显示,从而能够向用户给出如座位部对象物和虚拟人物通过由虚拟人物动作的反作用引起的推力而移动这样的印象(image)。
游戏处理装置50确定用户伸出脚的方向的方法没有特别限定。例如,也可以以在游戏开始前且设定边界时的左脚位置P2为基准来判断伸出脚的方向。代替于此,也可以以就座位置P1为基准来判断左脚位置P2伸出的方向或右脚位置P3伸出的方向。代替于此,也可以计算左脚位置P2和右脚位置P3的中央值,根据从作为基准的就座位置P1向所述中央值的方向,判定伸出脚的方向。
如图10B所示,游戏处理装置50在判定为左脚位置P2(未图示)和右脚位置P3(未图示)双方越过前方边界101且用户200伸出双脚的方向为前方左侧时,在虚拟空间内使座位部对象物和虚拟人物113向后方右侧移动。
如图10C所示,游戏处理装置50在判定为左脚位置P2(未图示)和右脚位置P3(未图示)双方越过前方边界101且用户200伸出双脚的方向为前方右侧时,在虚拟空间内使座位部对象物和虚拟人物113向后方左侧移动。
另外,在图10A~图10B中,虽然座位部对象物和虚拟人物113向作为相对于用户伸出脚的方向为相反侧的方向移动,但是座位部对象物和虚拟人物113也可以向与伸出脚的方向相同的方向移动。例如,也可以在用户向自身的正面突出了双脚时,座位部对象物和虚拟人物113向前方移动。另外,也可以在用户伸出双脚的方向为前方左侧时,座位部对象物和虚拟人物113向前方左侧移动。
另外,座位部对象物和虚拟人物113的移动方向不限定于上述的方向。例如,座位部对象物和虚拟人物113也可以向作为用户的正侧方的右方向或左方向移动。例如,也可以在用户伸出脚的方向为从作为基准的正面向右呈预定角度以上时,座位部对象物和虚拟人物113向右方向移动。另外,也可以在用户伸出脚的方向为向左呈预定角度以上时,座位部对象物和虚拟人物113向左方向移动。
如图11A所示,游戏处理装置50当判定为用户200以小腿位于座位部15的下方的方式弯曲脚且左脚位置P2(未图示)和右脚位置P3(未图示)越过后方边界102时,确定小腿的方向。游戏处理装置50当判断为小腿伸出的方向为与X方向相反的方向、即反X方向时,使座位部对象物和虚拟人物113在虚拟空间内向作为X方向的前方移动。
如图11B所示,游戏处理装置50当判断为左脚位置P2(未图示)和右脚位置P3(未图示)双方越过了后方边界102时,确定小腿的方向。游戏处理装置50当判断为小腿的方向为后方右侧时,使座位部对象物和虚拟人物向前方左侧移动。
如图11C所示,游戏处理装置50当判断为左脚位置P2(未图示)和右脚位置P3(未图示)双方越过了后方边界102时,确定小腿的方向。游戏处理装置50当判断为小腿的方向为后方左侧时,使座位部对象物和虚拟人物向前方右侧移动。
另一方面,在用户200伸出左脚时弯曲右脚,在伸出右脚时弯曲左脚,交替地踢出左脚和右脚时,座位部对象物和虚拟人物在虚拟空间内向作为上方的Y方向移动。
如图12所示,游戏处理装置50当判断为左脚位置P2(未图示)越过了前方边界101且右脚位置P3(未图示)越过了后方边界102时,对向上方移动的座位部对象物和虚拟人物进行渲染。在预定时间内重复一个脚越过前方边界101且另一个脚越过后方边界102的状态的期间,继续进行向上方移动的座位部对象物和虚拟人物的渲染。另外,也可以在一个脚越过前方边界101且另一个脚越过后方边界102的次数达到预定次数时,开始向上方移动的座位部对象物和虚拟人物113的渲染。
参照图13,对第二实施方式的游戏处理的顺序进行说明。
当开始游戏时(步骤S20),游戏处理装置50进行重置上一次履历等的初始化。另外,游戏处理装置50判断双脚是否同时越过边界(步骤S21)。
游戏处理装置50在判断为双脚越过了前方边界101和后方边界102中的任意一个时(步骤S21:是),取得脚(小腿)伸出的方向(步骤S22)。而且,游戏处理装置50在HMD30上显示根据所取得的方向使座位部对象物和虚拟人物移动的图像(步骤S23)。
另一方面,在步骤S21中,游戏处理装置50在判断为用户的双脚没有同时越过边界时(步骤S21:否),判断用户的双脚是否各只脚越过了不同的边界(步骤S25)。游戏处理装置50当判断为各只脚越过了不同的边界时(步骤S25:是),在HMD30上显示使就座对象物和虚拟人物上升的图像(步骤S26),并进入到步骤S24。另外,游戏处理装置50当判断为不是各只脚越过了不同的边界的状态时(步骤S25:否),进入到步骤S24。
游戏处理装置50判断是否游戏结束(步骤S24)。在判断为是游戏结束时(步骤S24:是),结束该处理。另一方面,在判断为不是游戏结束时(步骤S24:否),返回步骤S21。
对第二实施方式的优点进行说明。
(5)在用户伸出或弯曲脚,从而左脚位置P2和右脚位置P3与前方边界101和后方边界102中的至少一个之间的位置关系满足预定条件时,座位部对象物和虚拟人物移动。由此,用户能够在自己意图的时机,通过直观的操作使虚拟空间内的虚拟人物移动。
(6)在左脚位置P2和右脚位置P3超过前方边界101时,游戏处理装置50使座位部对象物和虚拟人物向后方、即与伸出双脚的方向相反的方向移动。另外,在左脚位置P2和右脚位置超过后方边界102时,游戏处理装置50使座位部对象物和虚拟人物对象物向前方、即与伸出双脚的方向相反的方向移动。如上所述,通过使用反映用户体形的边界,从而能够抑制与用户意图相反地执行活动的情况。
(7)游戏处理装置50根据左脚位置P2和右脚位置P3相对于边界的位置关系的不同,变更座位部对象物和虚拟人物的移动方式。即,在左脚位置P2和右脚位置双方同时超过边界时,使座位部对象物和虚拟人物向后方或前方移动,在左脚位置P2和右脚位置P3越过不同的边界时,使座位部对象物和虚拟人物上升。由此,能够为了判定活动种类而使用边界。
能够如下所述变更上述各实施方式来实施。能够在技术上不矛盾的范围内彼此组合上述各实施方式和以下的变更例。
·在上述各实施方式中,将跟踪传感器22佩戴在用户的脚踝附近。代替于此或除此以外,也可以将佩戴在用户身体中的脚踝附近以外的位置的跟踪传感器22的检测数据的值反映到活动。例如,在“飞行模式”中,也可以根据佩戴在用户的包括头部的上半身中的任意一个位置的跟踪传感器22的检测数据,增大座位部对象物和虚拟人物的移动速度、移动距离等。另外,在“踢模式”中,也可以根据用户上半身的移动来增大鞋对象物的移动距离等,将上半身的移动反映到活动。而且,在“飞行模式”中,在左脚位置P2和右脚位置P3越过前方边界101,并且佩戴在用户头部的跟踪传感器22或佩戴在头部以外的上半身位置的跟踪传感器22的位置相对于开始游戏时的初始位置向后方位置移动时,即在头部或头部以外的上半身向与脚伸出的方向相反的方向倾斜时,也可以增大座位部对象物和虚拟人物的移动的速度、移动距离等来反映活动。
·在上述各实施方式中,使用佩戴在用户脚踝附近的跟踪传感器22,判定是否开始执行活动以及是否完成了所执行的活动。代替于此或除此以外,也可以使用佩戴在用户身体中的脚踝附近以外的位置的跟踪传感器22,判定是否开始执行活动以及是否完成了所执行的活动中的至少一个。
参照图14A~图14C,对使用佩戴在胳膊的跟踪传感器22,在虚拟空间中执行投掷对象物的活动的顺序的一例进行说明。如图14A所示,用户200分别在肘和手腕佩戴跟踪传感器22。游戏处理装置50根据从跟踪传感器22和跟踪辅助装置21中的至少一个取得的数据,确定手腕位置P5和肘位置P6。游戏处理装置50根据跟踪传感器22间的距离,计算从用户200的肘到手腕为止的长度、即前臂的长度Lx1。而且,游戏处理装置50在从手腕位置P5向用户200的肩膀分开在长度Lx1乘上预定比例R5的长度的位置设定后方边界102。另外,该例中的比例为“1”以上。另外,游戏处理装置50在从手腕位置P5向肘方向分开在长度Lx1乘上预定比例R6的长度的位置设定前方边界101。
如图14B所示,游戏处理装置50判断手腕位置P5是否越过了后方边界102。游戏处理装置50当判断为手腕位置P5越过后方边界102时,判断为动作开始。与该动作对应的活动为例如投掷球等对象物的活动、鱼饵等对象物投入(投放)到水面的活动。另外,代替投掷对象物,也可以是打击球、跳舞等弯曲胳膊的活动。
如图14C所示,游戏处理装置50在动作开始之后,判断手腕位置P5是否越过了前方边界101。游戏处理装置50当判断为手腕位置P5越过了前方边界101时,判断为完成动作。接着,游戏处理装置50在虚拟空间中反映活动。例如,在投放时,游戏处理装置50使诱饵按照所运算的轨迹向前方移动。另外,在投掷球时,游戏处理装置50使球按照所运算的轨迹向前方移动。
另外,也可以不使用前臂的长度而使用整个胳膊的长度或上胳膊的长度来设定边界。在计算整个胳膊的长度时,在手腕和肩膀佩戴跟踪传感器22。另外,在计算上胳膊的长度时,在肘和肩膀佩戴跟踪传感器22。游戏处理装置50计算胳膊全体的长度或上胳膊的长度,在所计算的长度乘上预定比例,以手腕的位置、肩膀的位置或肘的位置为基准来设定边界。如上所述设定的边界,能够在是否执行与使整个胳膊旋转的动作、弯曲胳膊的动作对应的活动的判定中使用。作为例子,也可以在玩高尔夫的游戏、玩棒球的游戏、玩网球的游戏、玩台球的游戏等中,进行动作开始的判定、完成的判定或动作种类的判定等。
·在上述各实施方式中,系统提供的游戏是用户坐下并玩的游戏。代替于此,游戏也可以是用户以站立姿势玩的游戏。
如图15A所示,游戏处理装置50根据跟踪传感器22的位置,计算小腿的长度Ly5。另外,游戏处理装置50在从脚踝位置P7在朝向用户200的膝盖的方向上分开了在小腿的长度Ly5乘上预定比例R7的长度的位置,设定边界120。另外,该例子中的比例R7小于“1”。
如图15B所示,游戏处理装置50也可以在例如足球等包含踢出对象物的活动的游戏中,在从比边界120低的脚踝位置P7开始了踢出动作时,判定为用户意图的活动为运球。
如图15C所示,游戏处理装置50也可以在从比边界120高的脚踝位置P7开始了踢出动作时,判定为用户意图的活动为射击。
另外,在第二实施方式中,在佩戴于脚踝附近的跟踪传感器22与预先设定的边界之间的位置关系满足了预定条件时,在虚拟空间内执行预定的活动。代替于此或除此以外,也可以使用佩戴在用户身体中的脚踝附近以外的位置的跟踪传感器22来进行虚拟人物等的移动。也可以例如在佩戴在上半身中的任意一个位置的跟踪传感器22与对于上半身设定的边界之间的位置关系满足了预定条件时,进行虚拟人物等的移动。另外,也可以在佩戴于头部的跟踪传感器22与对于头部设定的边界之间的位置关系满足了预定条件时,进行虚拟人物等的移动。虚拟人物等的移动可以是上升、下降、向左方向的移动、向右方向的移动等中的任意一个移动,也可以是向沿着上半身移动方向的方向的移动,也可以是向除此以外的方向的移动。
·在上述各实施方式中,在左脚位置P2或右脚位置P3越过后方边界102时判定为动作开始,在越过前方边界101时判定为动作完成。代替于此,也可以在左脚位置P2或右脚位置P3越过了后方边界102时,执行飞鞋等的活动。代替于此,也可以在左脚位置P2或右脚位置P3越过前方边界101时,执行飞鞋等的活动。根据该方式,能够减轻关于活动的判定处理中的处理负荷。
·在第二实施方式中,在一个脚越过前方边界101且另一个脚越过后方边界102的状态在预定时间内重复的期间,对上升的座位部对象物和虚拟人物进行渲染。代替于此或除此以外,也可以在一个脚的跟踪传感器22与前方边界101之间的位置关系满足预定条件,并且另一个脚的跟踪传感器22与后方边界102之间的位置关系满足预定条件时,对下降的座位部对象物和虚拟人物进行渲染。或者,也可以在任意一个脚的跟踪传感器22与前方边界101或后方边界102之间的位置关系满足预定条件时、或双脚的跟踪传感器22与前方边界101或后方边界102之间的位置关系满足预定条件时,对下降的座位部对象物和虚拟人物进行渲染。对于此时的用户的具体动作,不特别限定。例如,除了交替地移动脚的动作以外,也可以是向前后同时移动双脚的动作、向左右同时移动双脚的动作、用双脚蹬自行车这样的动作等。或者,也可以渲染重复进行上升和下降的座位部对象物和虚拟人物,而不是对上升和下降中的一个进行渲染。
·在上述各实施方式中,也可以根据小腿的长度来变更鞋对象物的移动距离。例如,在小腿长时,也可以相比小腿短的情况,以使鞋对象物的移动距离变长的方式进行校正。在使速度恒定时,小腿越长,以膝盖为中心使小腿旋转时的离心力越变大。因此,当小腿越长越使鞋对象物的移动距离大时,能够接近现实世界中的事象。相反,在小腿长时,相比小腿短的情况,也可以以鞋对象物的移动距离变短的方式进行校正。
·在上述各实施方式中,在左脚位置P2和右脚位置P3中的至少一个越过后方边界102时,判定为开始与飞鞋的活动对应的动作。代替于此,也可以在左脚位置P2和右脚位置P3中的至少一个与后方边界102重叠时,判定为开始该动作。同样,在左脚位置P2和右脚位置P3中的至少一个越过前方边界101时,判定为完成与飞鞋的活动对应的动作。代替于此,也可以在左脚位置P2和右脚位置P3中的至少一个与前方边界101重叠的情况下,判定为完成该动作。
·在上述各实施方式中,作为秋千的座位部15在前后方向上稍微摇摆。代替于此,也可以使座位部15伴随用户蹬秋千的动作而向前后摇摆。此时,通过以就座位置P1为基准使前方边界101和后方边界102移动,从而能够进行关于用户的飞鞋动作的判定。
·在上述各实施方式中,将从就座位置P1到作为脚踝位置的左脚位置P2为止、或从就座位置P1到作为脚踝位置的右脚位置P3为止计算为小腿的长度。代替于此,也可以在以用户200的脚接触到地面500的方式调整吊挂部13而改变座位部15的高度时,将就座位置P1的高度计算为小腿的长度。
·在上述各实施方式中,计算用户小腿的长度。代替于此,也可以计算用户大腿的长度。大腿的长度能够通过就座位置P1的坐标与左脚位置P2或右脚位置P3的坐标之间的距离来近似。在大腿长时,估计小腿的长度也长,因此也可以根据大腿的长度来设定边界。此时也能够设定按照用户体形的边界。
·在上述各实施方式中,以左脚位置P2或右脚位置P3为基准来设定边界。代替于此或除此以外,例如也可以以佩戴于座位部15的跟踪传感器22等、不佩戴在用户身体的跟踪传感器22为基准来设定边界。
·在上述各实施方式中,在脚的位置越过后方边界102时,判定为开始动作,在脚的位置越过前方边界101时,判定为完成了动作。代替于此或除此以外,关于脚或胳膊与边界之间的位置关系,也可以判定用户动作的种类。例如,如果是棒球游戏,则也可以根据胳膊与边界之间的位置关系来判定打击动作和投球动作等。如果是跳舞游戏,则也可以根据脚或胳膊与边界之间的位置关系来判定转身、跳跃等。
·在上述各实施方式中,以用户的脚为基准设定前方边界101和后方边界102。代替于此或除此以外,在图3中,也可以设定表示Y方向边界的上方边界和下方边界。代替于此,也可以设定表示Z方向边界的左边界和右边界。另外,边界的数量可以是一个,也可以是三个以上的多个。另外,边界也可以是点或线而不是平面。
·在上述各实施方式中,在用户的左脚位置P2或右脚位置P3越过前方边界101和后方边界102中的任意一个时,判定为位置关系满足预定条件。代替于此,游戏处理装置50也可以根据是否正在靠近边界、或者是否正在从边界远离来判定是否执行活动。
·在上述各实施方式中,作为一例的跟踪系统20是使作为发光器的跟踪辅助装置21与作为受光器的跟踪传感器22协作的系统。如果能够检测跟踪传感器22的位置和方向,则能够使用除此以外的跟踪系统20。也可以使用例如在游戏空间设置作为受光器的辅助装置且该辅助装置与作为发光器的跟踪传感器22协作来计算跟踪传感器22的位置和方向的系统等、上述实施方式以外的由外向内方式的跟踪系统。代替于此,也可以使用通过搭载于跟踪传感器22的传感器对现实空间进行扫描来确定用户位置的由内向外方式的跟踪系统。
·在上述各实施方式中,具有受光器的HMD30与具有发光器的跟踪辅助装置21协作来检测HMD30的位置和方向。代替于此,也可以由具有发光器的HMD30与具有受光器的跟踪辅助装置21协作来检测HMD30的位置和方向。代替于此,也可以使用由内向外方式的跟踪系统。
·在上述各实施方式中,作为一例的用户使用的显示器为HMD30。关于显示器,代替于此或除此以外,也可以是不佩戴于用户身体的显示器。例如,可以使用设置型的显示器、便携游戏机的显示器、组装在街机游戏机的显示器等。在使用这种显示器时,也可以从输入操作部(控制器)接收基于用户操作的信号,变更该显示器中的显示范围。
·在上述各实施方式中,HMD30是与游戏处理装置50不同的装置。代替于此,HMD30也可以内置游戏处理装置50。而且,HMD30也可以是具备检测自身位置的装置的独立式HMD。
·在上述各实施方式中,虽然作为一例的框体为秋千,但是框体也可以是除此以外的东西。框体可以是具有用户就座的座位部的东西,也可以是用户以站立姿势或躺下的姿势进行动作的东西。框体例如可以是汽车、自行车、飞机或飞行体、潜水艇、过山车、火箭等乘坐物,也可以是具有能够进行射击的枪或火箭筒炮的东西,也可以是滑梯等游戏道具。代替于此,系统也可以提供不使用框体11的游戏或游戏以外的应用程序。
·在上述各实施方式中,系统是用户玩游戏的系统。代替于此,系统也可以是以体验为目的的系统、用于观看电影等内容的系统、用户用于与其他用户进行交流的系统、学习系统、培训系统、医疗领域的仿真系统等。

Claims (12)

1.一种图像显示系统,在显示器显示虚拟空间图像,所述图像显示系统具备处理装置,其中,
所述处理装置构成为进行如下处理:
从多个位置检测传感器取得检测数据;
根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;
根据所述距离,设定用于对用户的动作进行判定的边界;
伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及
响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。
2.根据权利要求1所述的图像显示系统,其中,
所述处理装置构成为,
响应于所述第一位置检测传感器越过所述边界或与所述边界重叠,判定为所述位置关系满足所述条件。
3.根据权利要求1或2所述的图像显示系统,其中,
所述第一位置检测传感器被佩戴于所述用户。
4.根据权利要求1~3中的任意一项所述的图像显示系统,其中,
与所述活动对应的所述用户的动作包含向第一方向的移动,
所述边界包含第一边界,
所述第一边界被设定为相对于所述第一位置检测传感器在所述第一方向上分开,
所述处理装置构成为,
响应于所述第一位置检测传感器越过所述第一边界或与所述第一边界重叠,判断为所述用户的动作已开始。
5.根据权利要求1~4中的任意一项所述的图像显示系统,其中,
与所述活动对应的所述用户的动作包含向第二方向的移动,
所述边界还包含第二边界,
所述第二边界设定为相对于所述第一位置检测传感器在所述第二方向上分开,
所述处理装置构成为,响应于所述第一位置检测传感器越过所述第二边界或与所述第二边界重叠,判断为所述用户的动作已完成。
6.根据权利要求5所述的图像显示系统,其中,
所述处理装置构成为,
根据来自所述位置检测传感器的检测数据或来自佩戴于所述用户的速度检测传感器的检测数据,取得在所述第一位置检测传感器越过所述边界时或与所述边界重叠时的、所述第一位置检测传感器的速度,将所取得的速度反映到所述活动。
7.根据权利要求1~6中的任意一项所述的图像显示系统,其中,
所述处理装置构成为,
响应于所述位置关系满足所述条件,使对象物在所述虚拟空间中移动。
8.根据权利要求7所述的图像显示系统,其中,
所述处理装置构成为,
响应于所述第一位置检测传感器越过在其移动方向上分开设定的边界或与所述边界重叠,使对象物在所述虚拟空间中向与所述移动方向对应的方向移动。
9.根据权利要求1~8中的任意一项所述的图像显示系统,其中,
所述活动根据所述第一位置检测传感器与所述边界之间的位置关系而不同。
10.根据权利要求1~8中的任意一项所述的图像显示系统,其中,
所述第一位置检测传感器佩戴于所述用户的脚。
11.一种图像显示方法,使用处理装置在显示器显示虚拟空间图像,其中,
该图像显示方法具有如下步骤:
从多个位置检测传感器取得检测数据;
根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;
根据所述距离,设定用于对用户的动作进行判定的边界;
伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及
响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。
12.一种非暂时性计算机可读介质,存储程序,其中,
所述程序使计算机执行如下处理:
从多个位置检测传感器取得检测数据;
根据所述检测数据,对所述多个位置检测传感器中的第一位置检测传感器与第二位置检测传感器之间的距离进行计算;
根据所述距离,设定用于对用户的动作进行判定的边界;
伴随所述用户的动作,判定所述第一位置检测传感器与所述边界之间的位置关系是否满足条件;以及
响应于所述位置关系满足所述条件,在所述虚拟空间中执行与所述用户的动作对应的活动。
CN201910764270.2A 2018-08-21 2019-08-19 图像显示系统、图像显示方法以及计算机可读介质 Active CN110841275B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018154384A JP7058198B2 (ja) 2018-08-21 2018-08-21 画像表示システム、画像表示方法及び画像表示プログラム
JP2018-154384 2018-08-21

Publications (2)

Publication Number Publication Date
CN110841275A true CN110841275A (zh) 2020-02-28
CN110841275B CN110841275B (zh) 2023-12-01

Family

ID=69586170

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910764270.2A Active CN110841275B (zh) 2018-08-21 2019-08-19 图像显示系统、图像显示方法以及计算机可读介质

Country Status (3)

Country Link
US (3) US10921880B2 (zh)
JP (2) JP7058198B2 (zh)
CN (1) CN110841275B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111939561A (zh) * 2020-08-31 2020-11-17 聚好看科技股份有限公司 显示设备及交互方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6643583B2 (ja) * 2017-06-27 2020-02-12 株式会社コナミアミューズメント ゲーム機、及びコンピュータプログラム
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US20240160273A1 (en) * 2022-11-16 2024-05-16 Sony Interactive Entertainment Inc. Inferring vr body movements including vr torso translational movements from foot sensors on a person whose feet can move but whose torso is stationary
JP7422375B1 (ja) 2023-07-27 2024-01-26 有限会社池谷製作所 着座したユーザの脚部の姿勢を推定する家具型機器、付属機器及びシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1595334A (zh) * 2003-02-24 2005-03-16 株式会社东芝 使操作员能够不操作设备而发出指令的操作识别系统
US20090322763A1 (en) * 2008-06-30 2009-12-31 Samsung Electronics Co., Ltd. Motion Capture Apparatus and Method
JPWO2015030264A1 (ja) * 2013-08-30 2017-03-02 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
JP4120017B2 (ja) 1997-01-30 2008-07-16 株式会社セガ 入力装置およびゲーム処理装置、その方法
JP3668663B2 (ja) 2000-02-21 2005-07-06 日本電信電話株式会社 仮想空間における動作入力方法および装置およびその動作入力プログラムを記録した記録媒体
US9405372B2 (en) * 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
JP5247022B2 (ja) * 2006-12-01 2013-07-24 株式会社スクウェア・エニックス ゲーム装置、ゲームプログラム
JP5612828B2 (ja) * 2009-04-10 2014-10-22 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP5107962B2 (ja) * 2009-04-24 2012-12-26 株式会社コナミデジタルエンタテインメント ゲーム制御プログラム、ゲーム装置、及びゲーム制御方法
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP5114795B2 (ja) 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
JP5609416B2 (ja) * 2010-08-19 2014-10-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2013208373A (ja) * 2012-03-30 2013-10-10 Namco Bandai Games Inc プログラム、情報記憶媒体及びサーバ
EP3116616B1 (en) * 2014-03-14 2019-01-30 Sony Interactive Entertainment Inc. Gaming device with volumetric sensing
JP5980393B1 (ja) 2015-09-01 2016-08-31 ガンホー・オンライン・エンターテイメント株式会社 端末装置
JP6449922B2 (ja) * 2017-01-18 2019-01-09 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2018020735A1 (ja) 2016-07-28 2018-02-01 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1595334A (zh) * 2003-02-24 2005-03-16 株式会社东芝 使操作员能够不操作设备而发出指令的操作识别系统
US20090322763A1 (en) * 2008-06-30 2009-12-31 Samsung Electronics Co., Ltd. Motion Capture Apparatus and Method
JPWO2015030264A1 (ja) * 2013-08-30 2017-03-02 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111939561A (zh) * 2020-08-31 2020-11-17 聚好看科技股份有限公司 显示设备及交互方法
CN111939561B (zh) * 2020-08-31 2023-09-19 聚好看科技股份有限公司 显示设备及交互方法

Also Published As

Publication number Publication date
US11543881B2 (en) 2023-01-03
US11360548B2 (en) 2022-06-14
JP7409615B2 (ja) 2024-01-09
JP2020030501A (ja) 2020-02-27
JP7058198B2 (ja) 2022-04-21
US20220276699A1 (en) 2022-09-01
US10921880B2 (en) 2021-02-16
JP2022058418A (ja) 2022-04-12
US20210141445A1 (en) 2021-05-13
CN110841275B (zh) 2023-12-01
US20200064908A1 (en) 2020-02-27

Similar Documents

Publication Publication Date Title
CN110841275B (zh) 图像显示系统、图像显示方法以及计算机可读介质
CN109568944B (zh) 游戏处理方法、游戏处理装置、游戏处理系统及记录介质
JP3413127B2 (ja) 複合現実感装置及び複合現実感提示方法
US11045735B2 (en) Computer system
JP2015150063A (ja) プログラムおよびゲーム装置
US20110070953A1 (en) Storage medium storing information processing program, information processing apparatus and information processing method
US20220362667A1 (en) Image processing system, non-transitory computer-readable storage medium having stored therein image processing program, and image processing method
CN110769906A (zh) 模拟系统、图像处理方法以及信息存储介质
JP3413128B2 (ja) 複合現実感提示方法
JP6769697B2 (ja) プログラム及びゲーム装置
JP6580619B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6672401B2 (ja) ゲームプログラム、方法、および情報処理装置
JP7194495B2 (ja) プログラム、コンピュータシステムおよびゲーム実行制御方法
JP6735077B2 (ja) システム、方法及びプログラム
JP7325833B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7319686B2 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
WO2022124135A1 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP7440401B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP2020187772A (ja) システム、方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant