CN109416614B - 通过计算机实现的方法以及非易失性计算机可读介质、系统 - Google Patents

通过计算机实现的方法以及非易失性计算机可读介质、系统 Download PDF

Info

Publication number
CN109416614B
CN109416614B CN201780038499.7A CN201780038499A CN109416614B CN 109416614 B CN109416614 B CN 109416614B CN 201780038499 A CN201780038499 A CN 201780038499A CN 109416614 B CN109416614 B CN 109416614B
Authority
CN
China
Prior art keywords
display
virtual space
image
user
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780038499.7A
Other languages
English (en)
Other versions
CN109416614A (zh
Inventor
渡边匡志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016233012A external-priority patent/JP6181842B1/ja
Priority claimed from JP2017139711A external-priority patent/JP6356878B2/ja
Application filed by GREE Inc filed Critical GREE Inc
Publication of CN109416614A publication Critical patent/CN109416614A/zh
Application granted granted Critical
Publication of CN109416614B publication Critical patent/CN109416614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

控制部根据佩戴了所述佩戴式显示器的第1用户的姿势输出所述虚拟空间的图像,向第2用户使用的触摸面板显示器输出所述虚拟空间的图像,根据所述第2用户对所述触摸面板显示器进行的触摸操作,在所述虚拟空间内进行第1动作,向所述佩戴式显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。

Description

通过计算机实现的方法以及非易失性计算机可读介质、系统
技术领域
本发明涉及使多个用户共享虚拟空间的应用程序控制程序、应用程序控制方法以及应用程序控制系统。
背景技术
已知一种在佩戴于用户的头部的佩戴式显示器(以下、HMD:头戴式显示器)显示虚拟空间的图像来玩的虚拟现实游戏。HMD具备例如陀螺传感器等跟踪传感器,能够检测用户的头部的活动。用户进行头部活动时,HMD追随头部的活动而改变显示于显示器的图像。如此,通过游戏图像追随头部的活动,从而用户能够更进一步将意识集中于游戏。也就是说,提高在游戏中的沉浸感。
另外,作为这种虚拟现实游戏之一,提出有由多个用户一起玩的游戏。在专利文献1中记载了一种多个用户分别佩戴HMD一起玩的游戏。在该游戏中,将佩戴了HMD的各用户的位置信息反映到虚拟空间的化身的位置信息,在虚拟空间内描绘各用户的化身(avatar)。
【现有技术文献】
【专利文献】
【专利文献1】日本特开2014-17776号公报
发明内容
【发明所要解决的课题】
另一方面,当多个用户想要一起玩虚拟现实游戏时,并不限于始终要准备与玩游戏的人数相同数量的HMD。另外,在用户之中,还可能存在不愿意佩戴HMD的用户。若设想这样的各种状况,还没有一种使得不佩戴HMD的用户和佩戴了HMD的用户都能够参加且提高不佩戴HMD的用户对应用程序的贡献度的游戏。
本发明的目的在于,提供一种佩戴了佩戴式显示器的用户和没有佩戴的用户在虚拟空间协作进行的应用程序控制程序、应用程序控制方法以及应用程序控制系统。
【用于解决课题的手段】
在一个方式中,提供一种应用程序控制程序,使用向用户佩戴的佩戴式显示器输出图像的控制部输出虚拟空间的图像。该应用程序控制程序使所述控制部作为执行如下工作的单元发挥作用,根据佩戴了所述佩戴式显示器的第1用户的姿势输出所述虚拟空间的图像,向第2用户所使用的触摸面板显示器输出所述虚拟空间的图像,根据所述第2用户对所述触摸面板显示器进行的触摸操作,在所述虚拟空间内进行第1动作,向所述佩戴式显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
在另一方式中,提供一种应用程序控制方法,使用向用户佩戴的佩戴式显示器输出图像的控制部输出虚拟空间的图像。在该方法中,所述控制部根据佩戴了所述佩戴式显示器的第1用户的姿势输出所述虚拟空间的图像,向第2用户所使用的触摸面板显示器输出所述虚拟空间的图像,根据所述第2用户对所述触摸面板显示器进行的触摸操作,在所述虚拟空间内进行第1动作,向所述佩戴式显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
此外,在另一方式中,提供一种应用程序控制系统,具备向用户佩戴的佩戴式显示器输出图像的控制部,以输出虚拟空间的图像,所述控制部根据佩戴了所述佩戴式显示器的第1用户的姿势输出所述虚拟空间的图像,向第2用户所使用的触摸面板显示器输出所述虚拟空间的图像,根据所述第2用户对所述触摸面板显示器进行的触摸操作,在所述虚拟空间内进行第1动作,向所述佩戴式显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
此外,在另一方式中,提供一种应用程序控制程序,使用向用户佩戴的佩戴式显示器输出图像的控制部输出虚拟空间的图像。所述应用程序控制程序使所述控制部作为执行如下工作的单元发挥作用,根据佩戴了第1显示器的第1用户的姿势输出所述虚拟空间的图像,向第2显示器输出所述虚拟空间的图像,根据所述第2用户对第1操作部进行的操作,在所述虚拟空间内进行第1动作,向所述第1显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对第2操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
在另一方式中,提供一种应用程序控制方法,使用向用户佩戴的佩戴式显示器输出图像的控制部输出虚拟空间的图像。在该方法中,所述控制部根据佩戴了第1显示器的第1用户的姿势输出所述虚拟空间的图像,向第2显示器输出所述虚拟空间的图像,根据所述第2用户对第1操作部进行的操作,在所述虚拟空间内进行第1动作,向所述第1显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对第2操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
此外,在其他方式中,提供一种应用程序控制程序,使用向用户佩戴的佩戴式显示器输出图像的控制部输出虚拟空间的图像。在该系统中,使所述控制部作为执行如下工作的单元发挥作用,根据佩戴了第1显示器的第1用户的姿势输出所述虚拟空间的图像,向第2显示器输出所述虚拟空间的图像,根据所述第2用户对第1操作部进行的操作,在所述虚拟空间内进行第1动作,向所述第1显示器输出反映了所述第1动作的所述虚拟空间的图像,根据由所述第1用户对第2操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
附图说明
图1是俯瞰第1实施方式的应用程序控制系统的概念图。
图2是功能性地示出图1的应用程序控制系统的框图。
图3是说明图1的应用程序控制系统中的虚拟空间和用户能够目视辨认的图像的概念图。
图4是输出到图1的触摸面板显示器的第2虚拟空间图像的说明图。
图5是输出到图1的触摸面板显示器的俯瞰图像的说明图。
图6是输出到图1的触摸面板显示器的第2虚拟空间图像的说明图。
图7是输出到图1的佩戴式显示器的第1虚拟空间图像的说明图。
图8是输出到图1的佩戴式显示器的第1虚拟空间图像的说明图。
图9是对图1的佩戴式显示器输出图像的处理步骤的说明图。
图10是使图1的应用程序控制系统中的移动对象物停止的处理步骤的说明图。
图11是第2实施方式的输出到触摸面板显示器的第2虚拟空间图像的说明图。
图12是第3实施方式的输出到触摸面板显示器的第2虚拟空间图像的说明图。
图13是第4实施方式的输出到佩戴式显示器的第1虚拟空间图像的说明图。
图14是变形例的输出到触摸面板显示器的第1虚拟空间图像的说明图。
图15是变形例的输出到触摸面板显示器的第2虚拟空间图像的说明图。
图16是变形例的输出到佩戴式显示器的虚拟空间图像,(a)是输出到佩戴式显示器的图像,(b)是输出到触摸面板显示器的图像的说明图。
图17是功能性地示出变形例的应用程序控制系统的框图。
图18是示出图17的应用程序控制系统的构成的一个例子的图。
具体实施方式
(第1实施方式)
以下依照图1~图10说明应用程序控制程序、应用程序控制方法以及应用程序控制系统的一实施方式。在本实施方式中,假设作为在多个用户之间共享虚拟空间的应用程序,提供游戏应用程序的情况。
如图1所示,应用程序控制系统具有作为佩戴式显示器的头戴式显示器(以下、HMD)11、操作部(控制器)14、主显示器12、触摸面板显示器13。HMD11被佩戴于第1用户101的头部。在HMD11显示虚拟空间的图像。第1用户101在虚拟空间内寻找移动的对象物(以下、移动对象物),通过操作部14进行操作,对找到的移动对象物进行动作(第2动作)。在本实施方式中,第1用户101寻找“鬼怪”等移动对象物,对操作部14进行接通操作,从而对该移动对象物进行狙击。
输出到主显示器12、以及触摸面板显示器13的图像被第2用户102目视辨认。第2用户102一边对输出到主显示器12以及触摸面板显示器13的图像进行目视辨认,一边对触摸面板显示器13进行操作,以支援第1用户101。另外,第2用户102也可以通过原始声音或者经由麦克风输入的语音,能够向第1用户101告知移动对象物的位置。
参见图2,说明应用程序控制系统10的概要结构。应用程序控制系统10除了具备HMD11、操作部14、主显示器12、触摸面板显示器13之外,还具备与它们连接的控制装置15。
HMD11具有HMD控制部30、跟踪传感器31以及显示部32。HMD控制部30将与跟踪传感器31的检测结果对应的信号输出到控制装置15,并且接受从控制装置15输入的图像信号等各种信号。跟踪传感器31是用于确定第1用户101的关注点的传感器,检测第1用户101的头部的位置以及朝向等。跟踪传感器31具有例如陀螺传感器、加速度传感器、地磁传感器等中的至少1个传感器。另外,作为其他实施方式,还可以将直接检测第1用户101的眼球的活动的传感器、例如、向瞳孔内入射近红外线而检测其反射光的视线检测传感器等作为跟踪传感器31使用。在HMD11的显示部32显示虚拟空间之中的以第1用户101的关注点为中心的预定范围的图像。也就是说,预定范围的图像以能够被第1用户101目视辨认的方式显示。另外,下面将输出到HMD11的显示部32的虚拟空间的图像称作“第1虚拟空间图像”。
操作部14例如具备操作按钮、操作柄,构成为第1用户101能够在不目视的情况下进行操作。操作部14具有加速度传感器等,能够检测从初始位置的方向的变化以及其变化量等。操作部14能够将表示由第2用户102进行的操作的接通/关闭的信号、以及操作部14的方向的变化量等输出到控制装置15。
主显示器12是第2用户102能够目视辨认的显示器。在主显示器12上,与HMD11的显示部32同步地显示第1虚拟空间图像。
触摸面板显示器13可以是设置于框体的触摸面板显示器,也可以是平板电脑、智能手机等便携式信息终端。在触摸面板显示器13上输出将虚拟空间内的一部分投影的图像(以下、称为第2虚拟空间图像)。在本实施方式中,作为第2虚拟空间图像,使用从设定于第1用户101的铅直方向上方的位置的视点观看虚拟空间内的图像(俯瞰图像)。当开始了游戏时,在触摸面板显示器13上显示的第2虚拟空间图像的初始视域(view)是从与向在HMD11的显示部32显示的第1虚拟空间图像投影的虚拟空间的位置相同的位置观看的视点。初始视域在第2虚拟空间图像中的视点位置与初始视域在第1虚拟空间图像中的视点位置可以相同,也可以不同。将虚拟空间向第2虚拟空间图像投影的位置根据第2用户102的滑屏操作等预定的触摸操作进行变更以及指定。例如,通过第2用户102的滑屏操作,虚拟空间的投影范围变更,第2虚拟空间图像改变,滑屏操作停止,从而虚拟空间的投影范围的变更停止,第2虚拟空间图像的显示范围被指定。另外,“触摸操作”包括例如轻击操作、滑屏操作、轻弹操作、捏合操作、捏开操作、长按操作等。此外,触摸面板显示器13将与第2用户102的触摸操作对应的信号输出到控制装置15。例如,触摸面板显示器13输出与滑屏操作的轨迹对应的信号、与接触位置对应的信号等。
输出到HMD11的显示部32的第1虚拟空间图像和输出到触摸面板显示器13的第2虚拟空间图像是同一虚拟空间内的图像,但是不同之处在于,前者根据第1用户101的身体姿势变更虚拟空间的显示范围,相对于此,后者根据第2用户102的触摸操作变更虚拟空间的显示范围。另外,在触摸面板显示器13显示从预定位置俯瞰虚拟空间的俯瞰图像。
控制装置15取得从HMD11、操作部14以及触摸面板显示器13输出的信号,对由第1用户101和第2用户102进行的虚拟空间内的游戏进行管理。
控制装置15具备控制部16、存储部17以及图像信息存储部25。控制部16具有运算部、易失性存储部、以及非易失性存储部,依照记录于非易失性存储部的应用程序控制程序执行游戏。存储部17是图像处理用的存储部,也可以是易失性存储部,也可以是非易失性存储部。该存储部17记录有游戏管理信息18、关注点信息19、指定显示范围信息20、对象物位置信息21以及接触位置信息22。
游戏管理信息18是包括用户ID、游戏的进行状况等的信息,随着游戏的进行而更新。关注点信息19是表示由跟踪传感器31检测到的第1用户101的头部的位置以及朝向的信息、或者根据头部的位置以及朝向特定的关注点的位置的信息。关注点信息19跟随第1用户101的头部的位置以及朝向而被更新。指定显示范围信息20是表示第2用户102通过触摸操作而显示于触摸面板显示器13的范围的信息,根据第2用户102的触摸操作而更新。对象物位置信息21是表示在虚拟空间内移动的移动对象物的位置的信息。控制部16依照应用程序控制程序而使各个移动对象物随机移动。对象物位置信息21随着移动对象物的位置的变化而被更新。移动对象物的位置在输出到HMD11以及主显示器12的第1虚拟空间图像和输出到触摸面板显示器13的第2虚拟空间图像之间同步。此外,接触位置信息22表示在触摸面板显示器13的画面上的接触位置,在每次进行了第2用户102的触摸操作时被更新。另外,在图像信息存储部25记录有用于描绘虚拟空间的图像的信息。
控制部16将基于从HMD11输入的信号的关注点信息19记录于存储部17。另外,控制部16将与从触摸面板显示器13输入的指定显示范围对应的信号作为指定显示范围信息20记录于存储部17。
控制部16取得记录于图像信息存储部25的图像信息之中的、以基于关注点信息19的关注点为中心的预定范围的图像信息,作为第1虚拟空间图像输出到HMD11以及主显示器12。另外,控制部16将由第2用户102的触摸操作指定的指定显示范围作为指定显示范围信息20记录于存储部17。此外,控制部16根据指定显示范围信息20从图像信息存储部25取得图像信息,作为第2虚拟空间图像输出到触摸面板显示器13。另外,控制部16将俯瞰虚拟空间的一部分或者整个俯瞰图像输出到触摸面板显示器13。
参见图3,说明虚拟空间以及被输出到HMD11以及主显示器12的第1虚拟空间图像。HMD控制部30确定第1用户101的头部的位置以及朝向。例如,头部的位置以及朝向,以初始位置为基准,作为表示沿着水平方向的X轴以及以X轴为中心的旋转方向的俯仰角(pitch)θp、表示沿着铅直方向的Y轴以及以Y轴为中心的旋转方向的偏航角(yaw)θy、表示沿着进深方向的Z轴以及以Z轴为中心的旋转方向的翻滚角(roll)θr的3个轴向的位置以及绕各轴的角度而计算出。HMD控制部30将3个轴向的位置以及绕各轴的角度作为关注点信息19输出到控制部16。
控制部16根据关注点信息19确定在虚拟空间110内的关注点114或者视线方向D。关注点或者视线方向的确定方法能够使用与跟踪传感器31的种类等对应的公知的方法。例如,控制部16虚拟地设定将左眼位置和右眼位置相连的直线,将在与该直线正交的方向延伸且穿过左眼位置与右眼位置的中点的方向设为视线方向D。此外,控制部16能够将视线方向D与对象物(或者背景)的交点作为关注点114确定。另外,作为跟踪传感器,使用检测眼球的活动的传感器或检测来自瞳孔内的反射光的传感器的情况下,也可以根据眼球的活动、反射光,确定视线方向。
控制部16从图像信息存储部25取得基于关注点114和视线方向D的范围即关注范围111的图像信息,作为第1虚拟空间图像输出到HMD11的显示部32。例如,在将从第1用户101的视点的位置朝向关注点114的方向设为视线方向D时,关注范围111是以视线方向D为中心的水平方向的水平视角α、以及作为垂直方向的角度的垂直视角(图示略)等确定的范围。水平视角α以及垂直视角并不是表示第1用户101的物理性视角,而是指生成虚拟空间110的图像的渲染(rendering)的角度。另外,控制部16还将与所取得的图像信息对应的图像输出到主显示器12。
在显示于HMD11的第1虚拟空间图像以及显示于主显示器的第1虚拟空间图像中,在没有对图像进行预定的动作的情况下,虚拟空间整体以初始状态显示。例如,初始状态是“黑暗”的状态、即,图像的亮度以及饱和度低的状态。在该初始状态的第1虚拟空间图像中,在虚拟空间内移动的移动对象物115以非显示状态显示。在非显示状态下,移动对象物完全没有被显示或者以难以目视辨认的不清楚的状态显示。不清楚的显示状态是例如、只有移动对象物115的一部分被显示而整体没有被显示的状态、或者移动对象物115的亮度、饱和度以及色调的至少一个非常接近背景而不易看清的状态。另外,例如、在虚拟空间内,第2用户102作为工蜂(drone)或者阿凡达等角色(character)116显示。在本实施方式中,角色116的位置维持第1用户101的铅直方向上方的位置。
另外,在触摸面板显示器13中,通过第2用户102的触摸操作指定显示范围,控制部16从触摸面板显示器13取得被指定的显示范围,作为指定显示范围信息20存储于存储部17。另外,控制部16将与指定显示范围信息20对应的指定显示范围112以与第1虚拟空间图像的初始状态不同的显示方式作为第2虚拟空间图像输出到触摸面板显示器13。具体地讲,此时的显示方式是相比于初始状态使得亮度、饱和度以及色调的至少一个不同的状态、即变更状态。变更状态是例如、被照射了光的状态、即亮度比初始状态的亮度高、且饱和度以及色调与初始状态的饱和度以及色调不同的状态。控制部16根据对象物位置信息21,将移动对象物以能够目视辨认的方式显示到第2虚拟空间图像。由此,第2用户能够在第2虚拟空间图像上目视辨认移动对象物。
此外,在第1用户101的关注范围111、以及由第2用户102指定的指定显示范围112的至少一部分重叠的情况下,将第1虚拟空间图像之中的该重叠部分以与初始状态不同的变更状态显示。具体地讲,将重叠部分以亮度、饱和度以及色调的至少一个与重叠部分以外的部分不同的状态显示。另外,在图3中,在关注范围111显示包括了整个指定显示范围112的状态。在第1虚拟空间图像中,光以从角色116自身或者角色116所具有的光源照射的方式显示。
控制部16在虚拟空间110内指定由第2用户102指定的指定显示范围112(第1动作),在第1虚拟空间图像反映第1动作。具体地讲,控制部16在第1虚拟空间图像中只将关注范围与指定显示范围112的重叠部分(虚拟空间中的重叠范围)中包含的移动对象物115设为显示状态(能够目视辨认的状态),将存在于重叠部分以外的移动对象物115设为非显示状态(不能目视辨认的状态)。因此,只在关注范围111和指定显示范围112有重叠且在该重叠部分包含移动对象物115的情况下,第1用户101能够目视辨认移动对象物115。
另外,在本实施方式中,由第2用户102指定的指定显示范围112、换言之用于生成第2虚拟空间图像的虚拟空间内的投影范围的水平视角β比用于生成第1虚拟空间的虚拟空间内的投影范围的水平视角α小。也就是说,在第2虚拟空间图像的水平视角β为第1虚拟空间图像的水平视角α以上的情况下,第1用户101能够容易地看到反映到第1虚拟空间图像的指定显示范围112。相对于此,若第2虚拟空间图像的水平视角β小于第1虚拟空间图像的水平视角α,则第1用户101不易发现反映到第1虚拟空间图像的指定显示范围112。第2虚拟空间图像的水平视角β与第1虚拟空间图像的水平视角α的比率根据设为目标的游戏平衡来决定。在本实施方式中,通过使第2虚拟空间图像的水平视角β小于第1虚拟空间图像的水平视角α,从而能够提高第2用户102对游戏的贡献度,第1用户101以及第2用户102协作进行游戏。
另外,第2用户102通过对触摸面板显示器13进行预定的触摸操作而能够使在接触位置的附近显示的移动对象物115停止移动。此时,第2用户102能够进行使手指与画面的任意位置持续接触的长按操作(Touch and hold)。在进行了长按操作的情况下,作为第1动作,控制部16确定在从接触位置起预定距离内显示的移动对象物,使确定的移动对象物115的移动(活动)停止。也就是说,针对1个接触位置,使一个最靠近的移动对象物115停止移动。例如,5个移动对象物115存在于虚拟空间110内,想要使它们的活动停止的情况下,使用5根手指(或者5个接触点的)进行长按操作。
此外,第1用户101能够只对包括于指定显示范围112且能够目视辨认的移动对象物115进行第2动作。在本实施方式中,作为第2动作,进行移动对象物115的狙击。此时,通过第2用户102的触摸操作,移动对象物115停止移动,第1用户101容易瞄准移动对象物115,容易进行有效的第2动作。具体地讲,控制部16在检测到了操作部14的接通操作的情况下,从操作部14的虚拟位置117,沿着操作部14的方向,将光线118显示于第1虚拟空间图像以及第2虚拟空间图像。而且,在光线118的方向与虚拟空间中的移动对象物115的位置一致的情况下,控制部16判断为第2动作得以有效地进行。具体地讲,判断为移动对象物115被狙击,对第1用户101赋予得分等。另一方面,对于没有被包括于指定显示范围112的移动对象物115,控制部16不显示动作用的光线118。或者,即使朝向没有包括于指定显示范围112的移动对象物115射出动作用的光线118,也可以判断为无效。控制部16使动作用的光线118显示于HMD11的显示部32、主显示器12以及触摸面板显示器13。
接着,参照图4~图8,说明显示于HMD11的显示部32、主显示器12、以及触摸面板显示器13的视图。
如图4所示,控制部16根据指定显示范围112而将记录于图像信息存储部25的虚拟空间的图像信息渲染(rendering),生成用于显示第2虚拟空间图像121的图像信息,对所生成的图像信息进行亮度、饱和度以及色调的调整,以便用于第2虚拟空间图像121,然后输出到触摸面板显示器13。该第2虚拟空间图像121即使显示了与第1虚拟空间图像相同的范围,但亮度、饱和度以及色调的至少一部分与第1虚拟空间图像的初始状态不同。具体地讲,控制部16以被照射了光那样的高亮度的状态显示整个第2虚拟空间图像121。另外,控制部16在第2虚拟空间图像121上显示根据对象物位置信息21移动的移动对象物115。但是,移动对象物115无规则地移动,所以在不变更指定显示范围112的情况下,最初显示的移动对象物115有可能移动到画面外。第2用户102进行例如滑屏操作,变更指定显示范围112,使视域迁移,为了向第1用户101告知移动对象物115的位置,寻找移动对象物115。
如图5所示,控制部16通过记录于图像信息存储部25的俯瞰图像用的图像信息的取得、或者虚拟空间的图像信息的渲染,从而将俯瞰图像122输出到触摸面板显示器13。俯瞰图像122是俯瞰虚拟空间整体的图像,显示例如、角色116的位置。控制部16将俯瞰图像122之中的、由第2用户102指定的指定显示范围112以像似被照射了光的变更状态显示,其他部分以黑暗的初始状态显示。另外,控制部16在俯瞰图像122中显示移动对象物115。
如图6所示,在显示于触摸面板显示器13的第2虚拟空间图像121中,当第2用户102进行长按操作时,控制部16确定在从手指的接触位置起的预定距离以内显示的移动对象物115,使所确定的移动对象物115停止移动。在图6中,控制部16使在与接触位置P1、P3、P4的各自的相对距离在预定距离以内的部分显示的移动对象物115停止移动。另一方面,控制部16不能确定在接触位置P2的附近显示的移动对象物115,所以不进行移动对象物115的停止,对于在与接触位置P5的相对距离超过预定距离的部分显示的图中右侧的移动对象物115,也不使其停止移动。
如图7所示,控制部16将第1虚拟空间图像120输出到HMD11的显示部32,根据第1用户101的身体姿势,改变显示部32的显示范围。控制部16在判定为第1用户101的关注范围111与由第2用户102指定的指定显示范围112重叠时,将该重叠部分125以像似被照射了光的变更状态显示。另外,控制部16将第1虚拟空间图像120之中的、重叠部分125以外的部分以黑暗的初始状态显示。此外,在重叠部分125中包含移动对象物115的情况下,控制部16仅使被包含于重叠部分125的移动对象物115显示,未被包含于重叠部分125的移动对象物115不显示。
如图8所示,当从操作部14向控制部16输入了与接通操作相应的信号时,在第1虚拟空间图像120中反映第2动作,将反映了第2动作的第1虚拟空间图像120输出到HMD11的显示部32。例如,控制部16根据检测到从操作部14输出的操作部14的方向的信号,从在虚拟空间内的操作部14的虚拟位置117沿着操作部14的方向显示光线118。在光线118的方向存在移动对象物115的情况下,控制部16将作为第2动作的狙击设为有效。此时,如上所述,当移动对象物115停止移动时,容易瞄准移动对象物115,即使对没有停止移动的移动对象物115也能够进行狙击。另外,例如控制部16计算例如与在规定时间内进行了有效动作的次数对应的得分,将得分相加到游戏管理信息18中包含的得分信息。
接着,参见图9以及图10,说明用于向第1用户101以及第2用户102提供游戏的各处理的步骤。
首先,参照图9,说明对HMD11以及主显示器12输出第1虚拟空间图像120的处理的步骤。输出第1虚拟空间图像120的处理例如在操作部14或者其他装置被操作而游戏开始等开始条件成立时开始。另外,与该处理并行地,控制部16进行如下处理:取得触摸面板显示器13的指定显示范围112的坐标,将该坐标作为指定显示范围信息20记录于存储部17。
控制部16取得记录于存储部17的关注点信息19(步骤S1)。而且,控制部16根据关注点信息19确定关注范围111。另外,控制部16取得记录于存储部17的指定显示范围信息20(步骤S2)。而且,控制部16根据指定显示范围信息20确定指定显示范围112。
当确定关注范围111和指定显示范围112时,控制部16判断关注范围111与指定显示范围112是否重叠(步骤S3)。例如,控制部16根据关注范围111的虚拟空间的坐标系中的范围和指定显示范围112的虚拟空间的坐标系中的范围,判断这些范围是否重叠。控制部16判断为关注范围111与指定显示范围112不重叠时(步骤S3:否),将记录于图像信息存储部25的图像信息之中的、与关注范围111对应的图像信息读出,将设为初始状态的第1虚拟空间图像输出到HMD11的显示部32以及主显示器12(步骤S8)。
在步骤S3中,控制部16判断为关注范围111与指定显示范围112重叠时(步骤S3:是),根据对象物位置信息21,判断该重叠部分是否包含移动对象物115(步骤S4)。控制部16判断为在重叠部分中不包含移动对象物115时(步骤S4:否),将重叠部分设为变更状态(步骤S7),将第1虚拟空间图像输出到HMD11的显示部32以及主显示器12(步骤S8)。其结果,重叠部分被设为变更状态,移动对象物115被设为非显示状态的第1虚拟空间图像120被显示于HMD11的显示部32以及主显示器12。
在步骤S4中,控制部16判断为关注范围111与指定显示范围112的重叠部分包含移动对象物115时(步骤S4:是),将重叠部分设为变更状态(步骤S5),将重叠部分中包含的移动对象物115设为显示状态(步骤S6)。并且,将第1虚拟空间图像120输出到HMD11的显示部32以及主显示器12(步骤S8)。其结果,重叠部分被设为变更状态且显示有该重叠部分中包含的移动对象物115的第1虚拟空间图像120被显示于HMD11的显示部32以及主显示器12。
像这样,控制部16若输出第1虚拟空间图像120,则返回到步骤S1,直到游戏结束为止,反复进行步骤S1~S8。控制部16在操作部14被进行了接通操作时在第1虚拟空间图像120显示光线118。另外,控制部16在显示状态的移动对象物115的位置与操作部14的方向一致的情况下判断为有效地进行了第2动作。
接着,参照图10,说明接受第2用户102的触摸操作而使移动对象物115停止移动的处理。控制部16使移动对象物115停止移动的处理在检测到长按操作等的开始条件成立时开始。另外,与该处理并行地,控制部16进行如下处理:取得触摸面板显示器13的指定显示范围112的坐标,将该坐标作为指定显示范围信息20记录于存储部17。
控制部16取得记录于存储部17的接触位置信息22,确定接触位置(步骤S10)。另外,控制部16判断是否能够确定至少一个在接触位置的附近显示的移动对象物115(步骤S11)。具体地讲,控制部16根据对象物位置信息21确定正在显示的移动对象物115的位置。而且,计算所确定的接触位置与移动对象物115的位置之间的相对距离,判断是否存在相对距离在预定距离以内的移动对象物115。
控制部16在判断为不存在从接触位置起的相对距离在预定距离以内的移动对象物115的情况下(步骤S11:否),不使移动对象物115停止移动而结束处理。另外,控制部16在判断为存在至少一个从接触位置起的相对距离在预定距离以内的移动对象物115的情况下(步骤S11:是),使所确定的移动对象物停止移动(步骤S12)。
而且,若使所确定的移动对象物115停止移动,则控制部16判断第2用户102的手指是否从触摸面板显示器13的画面放开(步骤S13)。控制部16判断为第2用户102的手指没有放开时(步骤S13:否),继续使所确定的移动对象物115停止移动(步骤S12)。控制部16在判断为第2用户102的手指放开了时(步骤S13:是),使移动对象物115再次开始移动(步骤S14),结束长按操作的处理。而且,当开始条件成立时,控制部16反复进行步骤S1~步骤S13的处理。
如以上说明,根据第1实施方式,能够得到以下的优点。
(1)在上述实施方式中,控制装置15的控制部16将虚拟空间图像输出到HMD11以及触摸面板显示器13的双方。第2用户102不佩戴HMD11,通过触摸操作来指定出指定显示范围112,控制部16在虚拟空间内确定与触摸操作相应的范围以作为第1动作。也就是说,第2用户102通过第1动作来支援第1用户101。此外,第1用户101使用操作部14对在关注范围111与指定显示范围112的重叠部分显示的移动对象物115进行操作,控制部16根据该操作对移动对象物115进行第2动作。因此,为了第1用户101进行第2动作,由第2用户102进行第1动作为前提,所以第1用户101以及第2用户102能够在虚拟空间内协作进行游戏。
(2)在上述实施方式中,控制部16确定由第2用户102指定的指定显示范围112。而且,控制部16将指定显示范围112反映到第1虚拟空间图像120。因此,第2用户102能够不佩戴HMD11,而将虚拟空间内的任意的范围指示给第1用户101。
(3)在上述实施方式中,控制部16在指定显示范围112与关注范围111不重叠的情况下,将移动对象物115以非显示状态输出到HMD11,在指定显示范围112与关注范围111重叠的情况下,将在重叠部分中包含的移动对象物115作为显示状态输出到HMD11。也就是说,由第2用户102指定包含移动对象物115的任意的范围,通过将第1用户101指定的范围包含于关注范围111,从而能够使第1用户目视辨认移动对象物115。因此,第1用户101以及第2用户102能够协作进行游戏。
(4)在上述实施方式中,控制部16将第1虚拟空间图像之中的指定显示范围112的亮度、饱和度以及色调的至少一个以与指定显示范围112以外的范围中的相应的参数不同的状态输出到HMD11。由此,佩戴了HMD11的第1用户101能够区分由触摸面板显示器13指定的范围和除此以外的范围。另外,控制部16将通过第2用户102在触摸面板显示器13指定的范围以像似照射光那样显示,所以与将该范围用线围起来指示给第1用户101的情况等相比,能够抑制第1用户101的沉浸感的下降。
(5)在上述实施方式中,控制部16将只针对关注范围111与指定显示范围112的重叠部分中包含的移动对象物115进行的第2动作设为有效。因此,为了将第2动作设为有效,是以由第2用户102指定的指定显示范围112包含移动对象物115为前提,所以第1用户101以及第2用户102能够在虚拟空间内协作进行游戏。
(6)在上述实施方式中,控制部16将第2虚拟空间图像121的水平视角β设为比第1虚拟空间图像120的水平视角α小。因此,第1用户101需要在虚拟空间内的窄范围进行用于第2动作的操作。因此,第2动作的难度变高,需要第2用户102的支援。因此,能够使第1用户101以及第2用户102协作进行游戏。
(7)在上述实施方式中,控制部16使触摸面板显示器13始终显示移动对象物115。由此,为了使第1用户101发现移动对象物115,是以通过由第2用户102指定出指定显示范围112从而提供移动对象物115的位置信息为前提。也就是说,第1用户101根据从第2用户102提供的移动对象物115的位置信息寻找移动对象物115。因此,能够使第1用户101以及第2用户102协作进行游戏。
(8)在上述实施方式中,控制部16在输出到HMD11的第1虚拟空间图像120使移动对象物115移动。并且,控制部16进行第1动作,即、根据触摸面板显示器13的触摸操作,在输出到第1虚拟空间图像120以及触摸面板显示器13的第2虚拟空间图像121中使移动对象物115停止移动。由此,第1用户101容易对已停止移动的移动对象物115进行作为第2动作的狙击。由此,能够使第1用户101以及第2用户102协作进行游戏。
(9)在上述实施方式中,控制部16确定在触摸面板显示器13的画面上的接触点附近显示的移动对象物115,仅使该移动对象物115停止移动。也就是说,能够在1个接触点使1个移动对象物115停止移动。第2用户102只要对显示有想要停止移动的移动对象物115的画面上的部分的附近进行触摸即可,容易直观地理解用于移动停止的动作。另外,在使多个移动对象物115停止移动的情况下,需要与移动对象物115的数量相同的数量的接触点。因此,能够根据想要停止的移动对象物115的数量,提高使移动对象物停止的难度。
(10)在上述实施方式中,控制部16将移动对象物115设为显示状态,将俯瞰虚拟空间的俯瞰图像122输出到触摸面板显示器13。因此,第2用户102能够掌握虚拟空间内包含的移动对象物115的位置、状态。因此,容易将成为第2动作即狙击的目标的移动对象物115包含于指定显示范围112。另外,第2用户102容易掌握指定显示范围112与移动对象物115的位置关系。
(第2实施方式)
接着,说明将本发明具体化的第2实施方式。另外,在第2实施方式中,第1实施方式的第1动作被变更。对与第1实施方式同样的部分赋予同一符号并省略其详细的说明。
在第1实施方式中,将第1动作设为指定显示范围112的确定,但在本实施方式中,将第1动作设为基于第2用户102的操作的移动对象物115的选择。另外,在本实施方式中,输出到HMD11的第1虚拟空间图像120的初始状态只要是至少移动对象物115为非显示状态即可。也就是说,本实施方式的第1虚拟空间图像120也可以不是“黑暗”这样的亮度低的显示状态。
如图11所示,在显示于触摸面板显示器13的第2虚拟空间图像121中显示有移动对象物115。第2用户102利用触摸操作来指定移动对象物115。另外,在图11中,以接触位置P10为一个的例子,但是接触位置也可以是多个。
控制部16从触摸面板显示器13取得接触位置P10的坐标,根据对象物位置信息21,判断是否具有在与接触位置P10的坐标之间的相对距离为预定距离以下的部分显示的移动对象物115。
控制部16判断为具有在与接触位置P10之间的相对距离为预定距离以下的部分显示的移动对象物115时,将该移动对象物115在第1虚拟空间图像120上设为显示状态输出到HMD11的显示部32以及主显示器12。另外,在本实施方式中,像第1实施方式这样,不进行使在接触位置P10的附近显示的移动对象物115停止移动的处理。
控制部16在接触位置P10与移动对象物115之间的相对距离为预定距离以下的状态被维持的期间将该移动对象物115持续显示于第1虚拟空间图像上。另一方面,即使第2用户102持续进行触摸操作,当伴随移动对象物115的移动,接触位置P10与移动对象物115之间的相对距离超过预定距离时,控制部16将该移动对象物115设为非显示状态。
像这样,在本实施方式中,将由第2用户102选择出的移动对象物115显示于第1虚拟空间图像120,所以指定移动对象物115的作业成为更细的作业。其结果,需要第1用户101以及第2用户102的紧密的连携,能够使游戏的难度适当,能够提高兴趣。
如以上说明,根据第2实施方式,除了在第1实施方式中记载的(1)的优点之外,还能够得到以下的优点。
(11)在上述实施方式中,控制装置15的控制部16确定由第2用户102选择出的移动对象物115。而且,控制部16将由第2用户102选择出的移动对象物115显示到第1虚拟空间图像120。因此,第2用户102能够在不佩戴HMD11的状况下将选择出的移动对象物115指示给第1用户101。
(第3实施方式)
接着,说明将本发明具体化的第3实施方式。另外,在第3实施方式中,将第1实施方式中的指定显示范围设为可变。对与第1实施方式同样的部分赋予相同的符号并省略详细的说明。
在第1实施方式中,将第2用户102通过触摸操作显示于触摸面板显示器13的范围的整体设为指定显示范围112,在本实施方式中,能够通过第2用户102的触摸操作变更指定显示范围112的大小、位置。
如图12所示,第2用户102通过进行以使2根手指靠近的方式在画面上移动的捏合操作(Pinch in operation)、或者以使2根手指远离的方式在画面上移动的捏开操作(Pinch out operation)等,从而变更指定显示范围112的大小、位置。指定显示范围112在初始状态下为整个画面,控制部16在被进行捏合操作时根据捏合操作的轨迹缩小指定显示范围112,在被进行捏开操作时根据捏开操作的轨迹将缩小的指定显示范围112放大。另外,在进行了捏合操作或者捏开操作之后,使2根手指在保持与画面接触的状态下移动时,控制部16根据该操作的输入轨迹在维持了指定显示范围112的大小的情况下使指定显示范围112在视域内移动。另外,伴随指定显示范围112的移动,也可以使光源位置(原点)移动。
另外,通过使指定显示范围112缩小,从而也可以发生对移动对象物115的特殊效果。例如,在指定显示范围112开始缩小的时刻,也可以不使指定显示范围112中包含的移动对象物115向指定显示范围112的外侧移动。其结果,通过缩小指定显示范围112,从而能够将指定显示范围112中包含的移动对象物115集中于缩小的指定显示范围112。当像这样移动对象物115集中于窄范围时,第1用户101容易一次性地对更多的移动对象物115进行狙击。
当进行了捏合操作时,控制部16根据触摸操作的输入轨迹,与该输入轨迹的长度、角度对应地缩小指定显示范围112。另外,控制部16将使缩小的指定显示范围112的亮度、饱和度以及色调与除此以外的范围不同的变更状态的第2虚拟空间图像121输出到触摸面板显示器13。此时,第2虚拟空间图像121还显示初始状态的部分、例如表现为“黑暗”的亮度、饱和度低的部分。此时,控制部16可以将初始状态的部分中包含的移动对象物115设为显示状态,也可以设为非显示状态。
另外,控制部16判断是否存在第1用户101的关注范围111与指定显示范围112的重叠部分,在存在重叠部分的情况下,将重叠部分被设为变更状态且除此之外的部分被设为初始状态的第1虚拟空间图像120输出到HMD11的显示部32以及主显示器12。
第2用户102通过由第1用户101有效地进行狙击等,使得指定显示范围112包含的移动对象物115变没或减少时,在触摸面板显示器13的画面上进行将指定显示范围112放大的捏开操作。当进行了捏开操作时,控制部16根据所输入的触摸操作的输入轨迹的长度、角度来放大指定显示范围112。另外,控制部16将被放大的指定显示范围112设为变更状态且除此以外的部分设为初始状态的第2虚拟空间图像121输出到触摸面板显示器13。由此,指定显示范围112包括新的移动对象物115。
如以上说明,根据第3实施方式,除了第1实施方式记载的(1)~(10)的优点之外,还能够得到以下的优点。
(12)在上述实施方式中,控制部16根据对触摸面板显示器13的画面进行的触摸操作,变更指定显示范围112的大小、位置,所以能够只指示例如视域的一部分。
(第4实施方式)
接着,说明将本发明具体化的第4实施方式。另外,在第4实施方式中,在触摸面板显示器上,将移动对象物设为非显示状态,根据操作部的操作将移动对象物显示到第2虚拟空间图像。对与第1实施方式同样的部分赋予同一符号并省略详细的说明。
在第1实施方式中,将第1动作设为基于第2用户102的操作的指定显示范围112的确定,将第2动作设为基于第1用户的操作的对移动对象物115的狙击。在本实施方式中,将第1动作设为由第1用户101进行的移动对象物115的选择,将第2动作设为基于第2用户102的触摸面板显示器13的触摸操作的对移动对象物115的攻击。
如图13所示,控制部16将移动对象物115始终被设为显示状态的第1虚拟空间图像120输出到HMD11的显示部32以及主显示器12。由第1用户101操作的操作部14是能够进行方向的变更、接通操作以及关闭操作的控制器、球(globe)型控制器。第1用户101对操作部14进行操作来选择虚拟空间内的移动对象物115。具体地讲,控制部16通过操作部14的操作来变更显示于第1虚拟空间图像120的手电筒等光源130的朝向,通过对移动对象物115照射光,从而选择移动对象物115。或者,使用虚拟空间内的网、容器等道具来捕获移动对象物115。
控制部16被输入从操作部14输出的信号,并且根据对象物位置信息21判断是否选择移动对象物115。控制部16在判断为选择了移动对象物115时,将选择出的移动对象物115为显示状态的第2虚拟空间图像121输出到触摸面板显示器13。
在输出到触摸面板显示器13的第2虚拟空间图像121中,在初始状态下,移动对象物115被设为非显示状态。在第2虚拟空间图像121上,由第1用户101选择的移动对象物115为显示状态,第2用户对被设为显示状态的移动对象物115进行触摸操作而进行攻击。控制部16根据从触摸面板显示器13输入的信号,判断为对移动对象物115进行了攻击时,将对移动对象物115的攻击反映到第1虚拟空间图像120,输出到HMD11以及主显示器12。
如以上说明,根据第4实施方式,能够得到以下的优点。
(13)在上述实施方式中,第1用户101选择移动对象物115,将选择出的移动对象物115在第2虚拟空间图像121上设为显示状态。第2用户102能够在不佩戴HMD11的状态下攻击在虚拟空间中设为显示状态的移动对象物115。因此,第1用户101以及第2用户102能够协作进行游戏。
(其他实施方式)
另外,上述各实施方式能够按照如下方式进行适当变更来实施。
·在上述各实施方式中,控制部16将在虚拟空间中与第2用户102对应的角色116的位置设为第1用户101的铅直方向上方的位置。替代于此,例如也可以根据由第2用户102对触摸面板显示器13的画面进行的触摸操作,变更角色116的位置。
·在上述各实施方式中,将第2虚拟空间图像的水平视角β设为比第1虚拟空间图像的水平视角α小。替代于此,也可以将第2虚拟空间图像的水平视角β设为与第1虚拟空间图像120的水平视角α相同,或者比第1虚拟空间图像的水平视角α大。这样的话,能够容易发现指定显示范围112,所以在例如想要降低找到对象物的难度的情况下有效。同样地,也可以将第2虚拟空间图像的垂直视角设为比第2虚拟空间图像的垂直视角小。或者,也可以设为第2虚拟空间图像的垂直视角以上。
·在上述各实施方式中,控制部16将第1用户101的关注范围作为第1虚拟空间图像显示于主显示器12。替代于此,或者在此基础上,控制部16也可以将例如第1用户101的关注范围111显示到第2虚拟空间图像121。关注范围111也可以用线围起来指示,也可以将关注范围111的亮度、饱和度以及色调的至少一个与第2虚拟空间图像121的背景不同来显示。在这种情况下,能够省略第2用户102目视辨认的主显示器12。
·在上述各实施方式中,控制部16将俯瞰了虚拟空间的俯瞰图像122输出到触摸面板显示器13。但是,在容易掌握虚拟空间内的对象物的位置的情况等,也可以省略俯瞰图像122的表示。
·在上述各实施方式中,控制部16使指定显示范围112的亮度、饱和度以及色调的至少一个与指定显示范围112以外的部分不同而显示。除此之外,作为第1动作,也可以是将指定显示范围112用显示于图像的线包围起来显示,或者也可以显示箭头等标记。
·在上述各实施方式中,控制部16使指定显示范围112的亮度、饱和度以及色调的至少一个与指定显示范围112以外的部分不同而显示于第1虚拟空间图像以及第2虚拟空间图像上。除此之外,控制部16也可以伴随时间的经过将指定显示范围112的亮度、饱和度以及色调的至少一个跟随时间的经过而改变地显示。具体地讲,控制部16将指定显示范围112以像似被光照射那样的亮度、饱和度以及色调显示的情况下,随着时间的经过,使指定显示范围112变暗,或者,以被与初始状态的光不同的颜色的光照射的那样,使亮度、饱和度以及色调的至少一个变更亦可。
·在上述各实施方式中,控制部16根据由第2用户102进行的触摸面板显示器13上的接触位置,作为第1动作使移动对象物115停止移动。替代于此,或者在此基础上,控制部16也可以根据在触摸面板显示器13上的视域中显示的项目的选择操作,使移动对象物115停止移动。例如,也可以在选择了显示于触摸面板显示器13上的视域中的特殊项目的情况下,使在触摸面板显示器13上的视域中显示的全部的移动对象物115停止移动。另外,也可以在项目被进行拖放操作(Drag and drop)到显示于移动对象物115的画面上的部分的附近的情况下,使移动对象物115停止移动。
·在上述各实施方式中,控制部16根据由第2用户102进行的触摸面板显示器13上的接触位置,作为第1动作,使移动对象物115停止移动。替代于此,或者在此基础上,也可以使与1个接触位置对应的预定范围内包含的移动对象物停止移动。与1个接触位置对应的预定范围是指例如以接触位置为中心的圆形状的范围、或者以接触位置为起点(例如、隅部)的矩形、扇状等。或者,进行滑屏操作、用2根手指点拍等而选择预定范围。
·在上述各实施方式中,对始终移动的移动对象物115进行第2动作。替代于此,或者在此基础上,也可以在对配置于虚拟空间内的预定的固定位置的对象物进行第2动作。作为这类对象物,可以举出例如、配置于虚拟空间内的箱、门、乐器等。在这种情况下,可以将第2动作设为例如、打开箱盖、开门、演奏乐器等动作。
·在上述各实施方式中,针对未被包含于关注范围111以及指定显示范围112的重叠部分的移动对象物115,设为不可进行第2动作,或者即使进行了第2动作也无效。替代于此,也可以对未被包含于重叠部分的对象物进行第2动作。在这种情况下,例如将被包含于重叠部分的对象物以能瞄准的方式清楚地显示,将未被包含于重叠部分的对象物不清楚地显示。另外,也可以设为对未被包含于重叠部分的对象物进行了有效动作的情况的得分比对包含于重叠部分的对象物进行了有效动作的情况的得分高。
·在上述各实施方式中,在输出到HMD11的显示部32以及主显示器12的第1虚拟空间图像中将预定对象物(移动对象物115)设为非显示状态。替代于此,也可以将成为第2动作的对象的对象物在第1虚拟空间图像中设为显示状态。在这种情况下,例如在将关注范围111以及指定显示范围112的重叠部分的显示方式以与除此以外的部分不同的方式显示,只针对该重叠部分中包含的移动对象物115,将第2动作设为有效亦可。像这样,只对重叠部分中包含的预定的对象物,将第2动作设为有效,所以第1用户101以及第2用户102能够协作进行游戏。
或者,在第1虚拟空间图像以及第2虚拟空间图像之间,也可以使对象物或者包括对象物的虚拟空间图像的显示方式不同。例如,在第2虚拟空间图像中,能够放大以及缩小尺寸、或者以任意的角度显示对象物,但是在第1虚拟空间图像中,不能放大以及缩小尺寸、或者只能以一定的角度显示对象物。或者,第2虚拟空间图像是俯瞰包含对象物的虚拟空间的俯瞰图像,在第1虚拟空间图像中,也可以不显示俯瞰图像。或者,在第2虚拟空间图像中,能够进行透过、边缘提取等预定的图像处理,但是在第1虚拟空间图像中,也能够不进行预定的图像处理。
图14以及图15是将第2虚拟空间图像设为俯瞰包含对象物的虚拟空间的俯瞰图像,将第1虚拟空间图像设为俯瞰图像以外的图像的例子。例如,由第1用户101以及第2用户102进行的游戏是将立体图形组合的益智游戏。如图14所示,控制部16根据第1用户101的姿势,将包括作为对象物的立体图形150的虚拟空间的图像、即第1虚拟空间图像120输出到HMD11等。立体图形150除了立方体、长方体以外,还可以是三角柱、圆锥、球状等,没有特别限定。第1用户101对操作部14进行操作而将立体图形组合。另外,在组合了预定数以上的立体图形150的情况下,难以将通过立体图形150的组合而形成的图案整体包含于第1虚拟空间图像120的视角。因此,在形成作为第1用户101的目标的图案时,难以对应配置立体图形150的位置以及应配置的立体图形150的种类的至少一方进行判断。
如图15所示,控制部16将对由立体图形150组合而形成的图案进行了俯瞰的俯瞰图像122输出到触摸面板显示器13。第2用户102能够在俯瞰图像122中目视辨认整个图案,所以能够容易地判断在哪个位置配置哪个立体图形150。
另外,如图15所示,例如第2用户102对触摸面板显示器13的画面的预定的位置进行触摸时,如图14所示,控制部16在第1虚拟空间图像120中用指示位置标记151显示应配置立体图形150的位置(第1动作)。或者,除了指示位置标记151以外,还将应配置立体图形150的位置以与除此以外的部分的显示方式不同的方式显示。控制部16在基于第1用户101对操作部14进行的操作的位置配置立体图形150(第2动作)。
另外,在根据立体图形150的种类进行动作的益智游戏中,例如、第2用户102从用于选择立体图形150的种类的显示区域153选择任意的立体图形150,对应配置该立体图形150的位置进行触摸(参照图15)。如图14所示,控制部16在应配置的立体图形150的种类用种类识别标记152显示(第1动作)。此外,也可以将应配置立体图形150的位置用指示位置标记151等显示。第1用户101对操作部14进行操作,将用种类识别标记152指示的立体图形150配置于用指示位置标记151指示的位置。
·在上述各实施方式中,作为第1动作,根据触摸面板显示器13的触摸操作,将虚拟空间内的范围作为指定显示范围112进行了指定。替代于此,作为第1动作,也可以根据触摸面板显示器13的触摸操作,指示虚拟空间内的方向、任意的位置。
图16示出在迷路游戏中输出的视域的例子。如图16(a)所示,控制部16将设置于虚拟空间内的立体迷路160的图像第1虚拟空间图像120显示于HMD11的显示部32等。控制部16根据用户的身体姿势输出第1虚拟空间图像120,并且根据操作部14的操作、或者由传感器检测到的用户位置,以在立体迷路160内行进的方式变更第1虚拟空间图像120。如图16(b)所示,控制部16将立体迷路160的俯瞰图像作为第2虚拟空间图像121显示于触摸面板显示器13。控制部16将第1用户101的位置161显示于第2虚拟空间图像121。第2用户102对第2虚拟空间图像121进行目视辨认的同时,例如根据第1用户101的行进而用手指移动第1用户101应行进的方向。控制部16从触摸面板显示器13取得与触摸操作对应的输入轨迹,沿着该输入轨迹,显示对第1虚拟空间图像120指示的方向(第1动作)。例如,第2用户102指示的方向在第1虚拟空间图像120上作为相对于背景而使亮度、饱和度以及色调不同的光显示,也可以作为箭头等的指标显示。第1用户101将在第1虚拟空间图像120上指示的方向设为参考,通过操作部14的操作等而在立体迷路160内行进。
·在上述各实施方式中,除了检测第1用户101的头部的位置以及朝向的HMD11之外,还可以设置检测在现实空间中的第1用户101的位置的位置检测传感器。控制部16不只是检测第1用户101的头部的位置以及朝向,还通过位置检测传感器检测第1用户101站立的位置,根据第1用户101站立的位置,将虚拟空间的图像信息渲染,显示第1虚拟空间图像。这样的话,伴随第1用户101的移动,变更第1虚拟空间图像,所以能够进一步提高沉浸感。
·在上述各实施方式中,作为第2用户102能够进行输入的操作部,使用了触摸面板显示器13。替代于此,也可以使用不具有显示器的操作部。如图17所示,应用程序控制系统具备包括开关等的操作部230(第1操作部)。第2用户102一边对显示于主显示器12的图像进行目视辨认一边对操作部230进行操作,控制部16根据第2用户102向操作部230的输入操作而在虚拟空间内进行第1动作。
图18示出控制装置15的构成的一个例子。控制装置15包括CPU201、ROM202、RAM203作为控制部。CPU201、ROM202、RAM203用各种总线204相互连接。另外,控制装置15具备存储装置207作为存储部17以及图像信息存储部25。CPU201经由接口205向主显示器12以及HMD11输出图像信息。另外,如图18所示,CPU201经由HMD11从第1用户101所操作的操作部14(第2操作部)确定操作信号亦可,不经由HMD11而从操作部14取得操作信号亦可。另外,CPU201经由接口205从第2用户102操作的操作部230取得操作信号。另外,控制装置15和操作部230经由通信电缆连接亦可,经由无线通信连接亦可。根据该方式,第2用户102也可以不对显示于主显示器12的图像和显示于触摸面板显示器13的图像进行比较。
·在上述各实施方式中,将向HMD11以及触摸面板显示器13输出虚拟空间的图像的游戏具体化为狙击预定的对象物的游戏。替代于此,也可以具体化为例如探险游戏、纸牌游戏、赛车游戏、格斗游戏、模拟游戏、角色扮演游戏等其他游戏。另外,作为针对对象物的动作,也不限于“狙击”,也可以是例如、变形、投出、击打、飞散、分割、旋转、移动等其他动作。
·在上述各实施方式中,将向HMD11以及触摸面板显示器13输出虚拟空间的图像的应用程序具体化为游戏。替代于此,也可以将向HMD11以及触摸面板显示器13输出虚拟空间的图像的应用程序作为在医疗领域、教育领域等游戏以外的领域使用的进行模拟的应用程序、进行训练的应用程序等游戏以外的应用程序。

Claims (12)

1.一种通过计算机实现的方法,包括如下步骤:
向第1显示器输出虚拟空间的第1图像,所述第1图像是与第1显示范围对应的图像,所述第1显示范围是与佩戴了所述第1显示器的第1用户的姿势对应的所述第1用户的关注范围,
向第2显示器输出所述虚拟空间的第2图像,
根据第2用户对与所述第2显示器关联起来的第1操作部进行的操作,进行指定第2显示范围、即所述虚拟空间内的范围的第1动作,
在所述虚拟空间反映第1动作,生成所述虚拟空间的第3图像,在所述第3图像中,在对象物位于所述第2显示范围与所述第1显示范围的重叠部分时,将所述对象物设为显示状态,将未被包含于所述重叠部分的对象物设为非显示状态,
向所述第1显示器输出所述虚拟空间的第3图像,
根据由所述第1用户对与所述第1显示器关联起来的第2操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
2.根据权利要求1所述的方法,
在所述虚拟空间反映所述第1动作包括:
使所述第2显示范围的亮度、饱和度以及色调的至少一个以与除此之外的范围的亮度、饱和度以及色调不同。
3.根据权利要求1或2所述的方法,
进行所述第2动作包括:
只对所述第2显示范围和所述第1显示范围的重叠部分中包含的对象物将第2动作设为有效。
4.根据权利要求1或2所述的方法,
所述第2显示范围的水平方向的视角比所述虚拟空间的第3图像的水平方向的视角小。
5.根据权利要求1或2所述的方法,
向所述第2显示器输出所述虚拟空间的第2图像包括:
将成为所述第2动作的对象的对象物以显示状态输出。
6.根据权利要求1或2所述的方法,
所述虚拟空间的所述第1图像包括在所述虚拟空间中移动并成为所述第2动作的对象的移动对象物,
进行所述第1动作包括:根据对所述第1操作部进行的操作使所述移动对象物停止移动,
在所述第1图像中反映所述第1动作包括:在所述第3图像中使所述移动对象物停止移动。
7.根据权利要求6所述的方法,
进行所述第1动作包括:
确定正在对所述第1操作部进行的所述操作中的与所述第1操作部上的接触点对应的点的附近显示的所述移动对象物,仅使所确定的所述移动对象物停止移动。
8.根据权利要求1或2所述的方法,
向所述第2显示器输出所述虚拟空间的第2图像包括:
俯瞰所述虚拟空间且输出将成为所述第2动作的对象的对象物设为显示状态的图像。
9.根据权利要求1所述的方法,
进行所述第1动作包括:根据对所述第1操作部进行的操作选择对象物。
10.根据权利要求1或2所述的方法,
所述第1显示器是第1用户佩戴的佩戴式显示器,
所述第2显示器具备所述第1操作部,是被第2用户使用的触摸面板显示器,
对所述第1操作部进行的所述操作是对所述触摸面板显示器进行的触摸操作。
11.一种非易失性计算机可读介质,其存储有程序,所述程序用于执行权利要求1-10中任一项所述的方法。
12.一种通过计算机实现的系统,具备第1显示器、第2显示器以及第1操作部,
所述系统构成为如下:
向所述第1显示器输出虚拟空间的第1图像,所述第1图像是与第1显示范围对应的图像,所述第1显示范围是与佩戴了所述第1显示器的第1用户的姿势对应的所述第1用户的关注范围,
向第2显示器输出所述虚拟空间的第2图像,
根据第2用户对与所述第2显示器关联起来的第1操作部进行的操作,进行指定第2显示范围、即所述虚拟空间内的范围的第1动作,
在所述虚拟空间反映所述第1动作,生成所述虚拟空间的第3图像,在所述第3图像中,在对象物位于所述第2显示范围与所述第1显示范围的重叠部分时,将所述对象物设为显示状态,将未被包含于所述重叠部分的对象物设为非显示状态,
向所述第1显示器输出所述虚拟空间的第3图像,
根据由所述第1用户对与所述第1显示器关联起来的第2操作部进行的操作,在反映了所述第1动作的所述虚拟空间内进行第2动作。
CN201780038499.7A 2016-11-30 2017-10-17 通过计算机实现的方法以及非易失性计算机可读介质、系统 Active CN109416614B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016233012A JP6181842B1 (ja) 2016-11-30 2016-11-30 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP2016-233012 2016-11-30
JP2017-139711 2017-07-19
JP2017139711A JP6356878B2 (ja) 2017-07-19 2017-07-19 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
PCT/JP2017/037519 WO2018100906A1 (ja) 2016-11-30 2017-10-17 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム

Publications (2)

Publication Number Publication Date
CN109416614A CN109416614A (zh) 2019-03-01
CN109416614B true CN109416614B (zh) 2023-04-04

Family

ID=62241546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780038499.7A Active CN109416614B (zh) 2016-11-30 2017-10-17 通过计算机实现的方法以及非易失性计算机可读介质、系统

Country Status (4)

Country Link
US (3) US11195335B2 (zh)
EP (1) EP3550418A4 (zh)
CN (1) CN109416614B (zh)
WO (1) WO2018100906A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11480787B2 (en) * 2018-03-26 2022-10-25 Sony Corporation Information processing apparatus and information processing method
EP3667459A1 (en) * 2018-12-12 2020-06-17 Nokia Technologies Oy First-person perspective-mediated reality
JP7351638B2 (ja) * 2019-04-23 2023-09-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像表示システム、および情報提示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793122A (ja) * 1993-09-20 1995-04-07 Nec Corp 仮想空間ウィンドウ管理システム
CN105516815A (zh) * 2014-09-25 2016-04-20 冠捷投资有限公司 使用者通过动作控制显示装置的操作界面的方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089555A (ja) 2002-09-03 2004-03-25 Namco Ltd ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
JP4326502B2 (ja) * 2005-05-26 2009-09-09 任天堂株式会社 表示領域を移動させる画像処理プログラムおよび画像処理装置
US8715048B2 (en) * 2009-04-24 2014-05-06 James J. Leftwich Electronic game and method
US8730183B2 (en) * 2009-09-03 2014-05-20 Obscura Digital Large scale multi-user, multi-touch system
US20120086630A1 (en) 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
JP5837325B2 (ja) * 2010-11-01 2015-12-24 任天堂株式会社 操作装置および操作システム
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
WO2013032955A1 (en) * 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
JP6534198B2 (ja) 2012-05-31 2019-06-26 任天堂株式会社 ゲームシステム、ゲーム処理方法、ゲーム装置およびゲームプログラム
JP5891131B2 (ja) 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9342948B2 (en) * 2012-09-12 2016-05-17 Bally Gaming, Inc. Head tracking in community wagering games
KR102270699B1 (ko) * 2013-03-11 2021-06-28 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
WO2014144526A2 (en) * 2013-03-15 2014-09-18 Magic Leap, Inc. Display system and method
JP6214027B2 (ja) 2013-03-28 2017-10-18 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム装置、及びプログラム
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP2015095147A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP6368965B2 (ja) 2014-07-11 2018-08-08 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
US9710152B2 (en) * 2014-08-13 2017-07-18 King.Com Ltd. Selecting objects on a user interface
KR101828286B1 (ko) 2014-10-27 2018-02-13 허철구 대국형 게임을 위한 훈수 시스템 및 훈수 방법
JP5898756B1 (ja) * 2014-11-28 2016-04-06 株式会社コロプラ ディスプレイとネットワークを介して接続される複数のコントローラとを連動させて画面操作するシステム、プログラム、及び方法
JP6788327B2 (ja) 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2016158795A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793122A (ja) * 1993-09-20 1995-04-07 Nec Corp 仮想空間ウィンドウ管理システム
CN105516815A (zh) * 2014-09-25 2016-04-20 冠捷投资有限公司 使用者通过动作控制显示装置的操作界面的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Movement-Based VR Gameplay Therapy For A Child With Cerebral Palsy;Brenda K;《Studies in Health Technology and Information》;20150615;第153-157页 *
虚拟现实中虚拟场景的建模技术;范波涛,贾雁;《山东大学学报(工学版)》;20040430;第18-22页 *
虚拟现实技术在电子游戏中的应用;张扬;《电脑知识与技术》;20120305;第1624-1625页 *

Also Published As

Publication number Publication date
EP3550418A1 (en) 2019-10-09
US11195335B2 (en) 2021-12-07
US20210390788A1 (en) 2021-12-16
EP3550418A4 (en) 2020-05-27
CN109416614A (zh) 2019-03-01
US20190147664A1 (en) 2019-05-16
US20240127558A1 (en) 2024-04-18
WO2018100906A1 (ja) 2018-06-07
US11893697B2 (en) 2024-02-06

Similar Documents

Publication Publication Date Title
JP6181842B1 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP4917664B1 (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
US11893697B2 (en) Application control program, application control method, and application control system
JP2017068411A (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP6684746B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP6248219B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20180059788A1 (en) Method for providing virtual reality, program for executing the method on computer, and information processing apparatus
JP2018147465A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6479933B1 (ja) プログラム、情報処理装置、および方法
JP7017474B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP6580619B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2012106005A (ja) 画像表示装置、ゲームプログラム、ゲーム制御方法
JP6290490B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6600051B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP6611383B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP6263292B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6905022B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP7116220B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
KR20220047878A (ko) 프로그램, 방법, 및 정보 처리 단말
JP6356878B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP6330072B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019023869A (ja) 情報処理方法、コンピュータ、及びプログラム
WO2022124135A1 (ja) ゲームプログラム、ゲーム処理方法、及びゲーム装置
JP6389305B1 (ja) 情報処理方法、コンピュータ、及びプログラム
JP6948220B2 (ja) 仮想体験をユーザに提供するための方法、プログラム及びコンピュータ

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant